121
Lineare Algebra I von Prof. Dr. Bernd Siebert L A T E X von Johannes Weiß

LineareAlgebraI · Inhaltsverzeichnis 1.4 Körper,Gruppen,Ringe . . . . . . . . . . . . . . . . . . . . . . . . 29 1.4.1

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

Lineare Algebra I

von

Prof. Dr. Bernd Siebert

LATEX von Johannes Weiß

Vorwort

Beim vorliegenden Text handelt es sich um eine inoffizielle Mitschrift. Aufgrunddessen kann sie Fehler enthalten und kann in Klausuren nicht zitiert werden.

Korrekturen und Verbesserungsvorschläge sind jederzeit willkommen und könnenan [email protected] gerichtet werden.

Der Text wurde mit LATEX2ε in Verbindung mit dem AMS-TEX-Paket für diemathematischen Formeln gesetzt.

Copyright c©2008 Johannes Weiß.Es wird die Erlaubnis gegeben, dieses Dokument unter den Bedingungen der von der Free Soft-ware Foundation veröffentlichten GNU Free Documentation License (Version 1.2 oder neuer) zukopieren, verteilen und/oder zu verändern. Eine Kopie dieser Lizenz ist unterhttp://www.gnu.org/copyleft/fdl.txt erhältlich.

2

Inhaltsverzeichnis

0 GRUNDLAGEN 90.1 Aussagenlogik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

0.1.1 Aussagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90.1.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90.1.3 Aussagenvariable . . . . . . . . . . . . . . . . . . . . . . . . 90.1.4 Verknüpfung von Aussagen(variablen) . . . . . . . . . . . . . 100.1.5 Aussagenlogische Formeln . . . . . . . . . . . . . . . . . . . 130.1.6 Äquivalenz von Formeln . . . . . . . . . . . . . . . . . . . . 140.1.7 Logische Schlüsse . . . . . . . . . . . . . . . . . . . . . . . . 14

0.2 Prädikatenlogik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150.2.1 Aussageformen . . . . . . . . . . . . . . . . . . . . . . . . . 150.2.2 Quantoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160.2.3 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170.2.4 Schlussregeln . . . . . . . . . . . . . . . . . . . . . . . . . . 170.2.5 Mengenlehre und die Sprache der Mathematik . . . . . . . . 180.2.6 Geschichte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

0.3 Äquivalenzrelationen . . . . . . . . . . . . . . . . . . . . . . . . . . 190.3.1 Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190.3.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190.3.3 Äquivalenzrelationen - reflexiv, symmetrisch, transitiv . . . . 200.3.4 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200.3.5 Äquivalenzklassen . . . . . . . . . . . . . . . . . . . . . . . . 210.3.6 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220.3.7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220.3.8 (Mengen-) Partitionen . . . . . . . . . . . . . . . . . . . . . 230.3.9 Partitionen und Äquivalenzrelationen . . . . . . . . . . . . . 240.3.10 Die Quotientenmenge und Quotientenabbildung . . . . . . . 260.3.11 Die “universelle“ Eigenschaft der Quotientenabbildung . . . . 260.3.12 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280.3.13 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . 280.3.14 Die Äquivalenzrelation zu einer Abbildung . . . . . . . . . . 28

1 VEKTORRÄUME 29

3

Inhaltsverzeichnis

1.4 Körper, Gruppen, Ringe . . . . . . . . . . . . . . . . . . . . . . . . 291.4.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291.4.2 Verknüpfungen . . . . . . . . . . . . . . . . . . . . . . . . . 291.4.3 Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301.4.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311.4.5 Exkurs 1: symmetrische Gruppe . . . . . . . . . . . . . . . . 311.4.6 Exkurs 2: Symmetriegruppen von Graphen . . . . . . . . . . 331.4.7 Analyse der Gruppenaxiome . . . . . . . . . . . . . . . . . . 361.4.8 Anwendung auf Körper . . . . . . . . . . . . . . . . . . . . . 381.4.9 Z/n ("Rechnen modulo n") . . . . . . . . . . . . . . . . . . 40

1.5 Homomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 431.5.1 Gruppenhomomorphismen . . . . . . . . . . . . . . . . . . . 431.5.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 441.5.3 Untergruppen . . . . . . . . . . . . . . . . . . . . . . . . . . 451.5.4 Kerne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 451.5.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 461.5.6 Ring- und Körperhomomorphismen . . . . . . . . . . . . . . 46

1.6 Komplexe Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 471.6.1 Algebraische Definition C . . . . . . . . . . . . . . . . . . . 471.6.2 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 481.6.3 Die Gaußsche Zahlenebene . . . . . . . . . . . . . . . . . . . 491.6.4 Realteil, Imaginärteil, Betrag, komplexe Konjugation . . . . 491.6.5 Polardarstellung, Eulersche Formel . . . . . . . . . . . . . . 501.6.6 Komplexe Zahlen der Länge 1 und Drehungen . . . . . . . . 511.6.7 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

1.7 Vektorräume (Der Begriff des Vektorraums) . . . . . . . . . . . . . 521.7.1 Naive Vektorrechnung . . . . . . . . . . . . . . . . . . . . . 521.7.2 R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 531.7.3 Kn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 531.7.4 Ebenen in R3 . . . . . . . . . . . . . . . . . . . . . . . . . . 531.7.5 K-wertige Folgen . . . . . . . . . . . . . . . . . . . . . . . . 541.7.6 K-wertige Abbildungen . . . . . . . . . . . . . . . . . . . . . 541.7.7 Lösungsräume linearer Differentialgleichungen . . . . . . . . 551.7.8 Körpererweiterungen . . . . . . . . . . . . . . . . . . . . . . 551.7.9 (Abstrakte) Vektorräume . . . . . . . . . . . . . . . . . . . . 561.7.10 (i), (ii), (iii) und (iv) fur Kn . . . . . . . . . . . . . . . . . 571.7.11 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . 571.7.12 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 581.7.13 Beispiele aus der Analysis . . . . . . . . . . . . . . . . . . . 591.7.14 Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

4

Inhaltsverzeichnis

1.7.15 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 611.7.16 Summen und Durchschnitte . . . . . . . . . . . . . . . . . . 611.7.17 Kerne und Bilder . . . . . . . . . . . . . . . . . . . . . . . . 621.7.18 Historisches . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

1.8 Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . 621.8.1 Linearkombination . . . . . . . . . . . . . . . . . . . . . . . 631.8.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 631.8.3 Lineare Unabhängigkeit . . . . . . . . . . . . . . . . . . . . 631.8.4 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 641.8.5 Elimination von Erzeugern . . . . . . . . . . . . . . . . . . . 651.8.6 Basen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 651.8.7 Eindeutige Darstellbarkeit (Satz vom Koordinatensystem) . 661.8.8 Interpretation durch ϕ : Kn −→ V . . . . . . . . . . . . . . 671.8.9 Zum weiteren Vorgehen . . . . . . . . . . . . . . . . . . . . 681.8.10 Satz (“Basisergänzungssatz“) . . . . . . . . . . . . . . . . . . 681.8.11 Zusatz zu Satz 1.8.10 . . . . . . . . . . . . . . . . . . . . . . 701.8.12 Existenz von Basen . . . . . . . . . . . . . . . . . . . . . . . 711.8.13 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . 711.8.14 Weitere Konsequenzen aus dem Basisergänzungssatz . . . . . 721.8.15 Definition linearer Abbildungen durch Basen . . . . . . . . . 73

2 MATRIZENRECHNUNG 742.9 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . 74

2.9.1 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 742.9.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 742.9.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 752.9.4 Lineare Abbildungen Kn −→ Km . . . . . . . . . . . . . . . 752.9.5 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 762.9.6 Beispiel zu 2.9.2 . . . . . . . . . . . . . . . . . . . . . . . . 762.9.7 Spaltenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . 772.9.8 Die Lösungsmenge eines linearen Gleichungssystems . . . . . 782.9.9 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 782.9.10 Zeilentransformationen . . . . . . . . . . . . . . . . . . . . . 792.9.11 Das Gaußsche Eliminationsverfahren . . . . . . . . . . . . . 792.9.12 Anwendung 1 der Gaußschen Elimination:

Lösen linearer Gleichungssysteme . . . . . . . . . . . . . . . 802.9.13 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 812.9.14 Beweis von Satz 2.9.11/Gauß-Algorithmus . . . . . . . . . . 812.9.15 Anwendung 2 der Gaußschen Elimination:

Konstruktion einer Basis für L(v1, . . . , vm) . . . . . . . . . . 83

5

Inhaltsverzeichnis

2.9.16 Anwendung 3 der Gaußschen Elimination:Lineare Unabhängigkeit - Erzeugendensystem . . . . . . . . 84

2.9.17 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . 862.10 Lineare Abbildungen und Matrizen . . . . . . . . . . . . . . . . . . 87

2.10.1 Hom(V, W ) . . . . . . . . . . . . . . . . . . . . . . . . . . . 872.10.2 Hom(Kn, Km) = M(m× n,K) . . . . . . . . . . . . . . . . 872.10.3 Matrizen zu linearen Abbildungen durch Basiswahl . . . . . 872.10.4 Komposition linearer Abbildungen - Matrizenprodukt . . . . 892.10.5 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 892.10.6 Die Matrixalgebren . . . . . . . . . . . . . . . . . . . . . . . 892.10.7 Zeilentransformationen als Matrizenmultiplikation . . . . . . 902.10.8 Inverse Matrizen und GL(n,K) . . . . . . . . . . . . . . . . 912.10.9 Anwendung 4 der Gaußschen Elimination:

Berechnung von A−1 . . . . . . . . . . . . . . . . . . . . . . 912.10.10Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 922.10.11Die Smith-Normalform einer Matrix . . . . . . . . . . . . . . 922.10.12 Interpretation 1 der Smith-Normalform:

Der Rangsatz . . . . . . . . . . . . . . . . . . . . . . . . . . 932.10.13 Interpretation 2 der Smith-Normalform:

Klassifikationssatz . . . . . . . . . . . . . . . . . . . . . . . 942.10.14Andere Klassifikationen von Matrizen . . . . . . . . . . . . . 95

2.11 Dualräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 962.11.1 Linearformen und der Dualraum . . . . . . . . . . . . . . . . 962.11.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 962.11.3 Duale Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . 972.11.4 Berechnung einer dualen Basis im Kn . . . . . . . . . . . . . 982.11.5 Duale Abbildungen . . . . . . . . . . . . . . . . . . . . . . . 982.11.6 Duale Abbildung und Transposition . . . . . . . . . . . . . . 992.11.7 Zeilenrang = Spaltenrang . . . . . . . . . . . . . . . . . . . 1002.11.8 Anwendung 5 der Gaußschen Elimination:

Basisauswahl . . . . . . . . . . . . . . . . . . . . . . . . . . 1012.11.9 Annulator und Nullstellenmenge . . . . . . . . . . . . . . . . 1012.11.10Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1022.11.11Bidualräume . . . . . . . . . . . . . . . . . . . . . . . . . . . 1022.11.12Beziehungen zwischen Annulatoren und Nullstellenmengen . 103

2.12 Komplementäre Unterräume, Quotientenräume, Dimensionsformel . 1032.12.1 Die Aquivalenzrelation zu einem Unterraum, Quotientenräume1032.12.2 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1042.12.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1042.12.4 Die universelle Eigenschaft der Quotientenabbildung . . . . 104

6

Inhaltsverzeichnis

2.12.5 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1042.12.6 Isomorphiesatz . . . . . . . . . . . . . . . . . . . . . . . . . 1052.12.7 Die kanonische Faktorisierung linearer Abbildungen . . . . . 1052.12.8 Komplementäre Unterräume . . . . . . . . . . . . . . . . . . 1062.12.9 Existenz komplementärer Unterräume . . . . . . . . . . . . . 1062.12.10Komplementäre Unterräume und der Quotientenraum . . . . 1072.12.11Dimensionsformel I: Quotienten und direkte Summe . . . . . 1082.12.12Dimensionsformel II: Lineare Abbildungen . . . . . . . . . . 1082.12.13Dimensionsformel III: Durchschnitt und Summe . . . . . . . 1092.12.14Dimensionsformel IV: Annulatoren . . . . . . . . . . . . . . 110

3 DIE DETERMINANTE 1113.13 Definition der Determinante . . . . . . . . . . . . . . . . . . . . . . 111

3.13.1 Motivation I: Algebra . . . . . . . . . . . . . . . . . . . . . . 1113.13.2 Motivation II: Geometrie . . . . . . . . . . . . . . . . . . . . 1123.13.3 Zum weiteren Vorgehen . . . . . . . . . . . . . . . . . . . . 1133.13.4 Multilinearität und Alterniertheit . . . . . . . . . . . . . . . 1133.13.5 Alternierende k-Multilinearformen . . . . . . . . . . . . . . . 1153.13.6 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1153.13.7 k-Multilinearformen auf V = Kn . . . . . . . . . . . . . . . 1163.13.8 Alternierdende k-Multilinearformen auf Kn . . . . . . . . . . 1163.13.9 Alternierende n-Multilinearformen auf Kn . . . . . . . . . . 1173.13.10Definition der Determinante . . . . . . . . . . . . . . . . . . 118

7

h

8

0 GRUNDLAGEN

0.1 Aussagenlogik

0.1.1 Aussagen

Aussagen Eine Aussage ist ein (sprachlicher) Satz, der (im Prinzip) eindeutig alswahr oder falsch erkannt werden kann.

0.1.2 Beispiele

a) "Wien ist die Hauptstadt von Österreich."ist eine (wahre) Aussage.

b) "1 + 5 = 7"ist eine (falsche) Aussage.

c) "Guten Morgen!"ist keine Aussage.

d) "x + 3 = 5"ist keine Aussage, da x nicht bekannt ist.

e) "Heute ist Dienstag."ist keine Aussage.

f) "Dieser Satz ist falsch."ist keine Aussage (da paradox).

0.1.3 Aussagenvariable

Aussagenvariable Platzhalter für eine (beliebige, unbestimmte) Aussage.Wir schreiben A,B, C, . . . Belegung von A,B:

A: "Wien ist die Hauptstadt von Österreich."

B: "1 + 5 = 7"

9

0 GRUNDLAGEN

Nach Belegung nimmt eine Aussagenvariable genau einen der zwei Werte W:wahr oder F: falsch an.

0.1.4 Verknüpfung von Aussagen(variablen)

0.1.4.1 Negation

¬A (sprich: "nicht A"):

A = F, dann¬A = WA = W, dann¬A = F

Einfacher mit Wahrheitstafel:

A ¬ AW FF W

oder:

A ¬ A1 00 1

wobei 1... wahr und 0... falsch ist.

Sprachlich durch Einfügen von "nicht"(an der richtigen Stelle im Satz!)

Beispiel:A: "Der Tank ist voll."¬A: "Der Tank ist nicht voll."6=: "Der Tank ist leer"

B: “Alle Studierenden sind anwesend."¬B: “Nicht alle Studierenden sind anwesend."6=: “Alle Studierenden sind nicht anwesend."

10

0.1 Aussagenlogik

0.1.4.2 Konjunktion

A ∧B (sprich: “A und B’")

A ∧B: "Der Tank ist voll und alle Studierenden sind anwesend."

A B A ∧ B0 0 00 1 01 0 01 1 1

0.1.4.3 Disjunktion

A ∨B (sprich: “A oder B")

A ∨B: "Der Tank ist voll oder alle Studierenden sind anwesend."

Bemerkung:Dies ist ein einschließendes “oder“, d.h. A ∨ B ist wahr, falls entweder A oder Boder beide wahr sind.

A B A ∨ B0 0 00 1 11 0 11 1 1

0.1.4.4 Beispiel

A : "Der Patient nimmt Medikament x." x = Akutex

B : "Der Patient nimmt Medikament y." y = Chronosan

11

0 GRUNDLAGEN

Aussagenlogische Form "Textform"¬A ∧ ¬B = (¬A) ∧ (¬B) "keines von beidem"A ∧ (¬B) "x aber nicht y"(A ∧ ¬B) ∨ (¬A ∧B) "nimmt x oder y, aber nicht beide"¬(A ∧B) "nicht beide"¬(A ∨B) = (¬A) ∧ (¬B) "keines von beidem"

0.1.4.5 Konditional (Implikation)

A � B (sprich: Wenn A, dann B)

A B A � B0 0 10 1 11 0 01 1 1

Mit anderen Worten: Will man A � B widerlegen (als falsch erkennen), so mussman A als wahr, B aber als falsch erkennen.

Sprachlich paradox: A = F und B = W,dann A � B = W

Beispiel: A: "7 < 5"B: "Die Erde ist eine Kugel"C: "Der Mond ist ein Würfel"

A � B : "Wenn 7 < 5, dann ist die Erde eine Kugel."A � C : "Wenn 7 < 5, dann ist der Mond ein Würfel."

Das sind beides wahre Aussagen, denn die Bedingung “7 < 5“ ist nicht erfüllt.Das Konditional stellt keine kausale Beziehung her, sondern gibt eine Bedingung(A) an, unter der die Aussage (B) zu testen ist.

Bemerkung:A � B kann man auch (¬A) ∨B schreiben.

12

0.1 Aussagenlogik

0.1.4.6 Bijunktion (Äquivalenz)

A ↔ B (sprich: “A genau dann, wenn B“)

A B A ↔ B0 0 10 1 01 0 01 1 1

0.1.5 Aussagenlogische Formeln

etwa: (¬A) ∨B, ¬¬¬A, B

aber nicht: A∧, A)¬B

Genauer:

• Aussagenvariablen sind Formeln

• Sind F , F ′ Formeln, dann auch(¬F ), (F ∨ F ′), (F ∧ F ′), (F � F ′), (F ↔ F ′).

D.h. man müsste eigentlich schreiben (¬(¬(¬A))). Klammern können wir aberweglassen, sofern die Reihenfolge der Verknüpfungen, nach Beachtung der folgen-den Hierarchie, eindeutig bleibt:

¬ bindet am stärksten∧∨�↔ bindet am schwächsten

Beispiel:A ∧B ∧ C � D ↔ ¬E ∧ F = ((((A ∧B) ∨ C) � D) ↔ (¬E) ∧ F ))

Eine Formel liefert eine Wahrheitstabelle(-tafel) "WT":(A ∧B) ∨ C :

13

0 GRUNDLAGEN

A B C (A ∧ B)∨ C0 0 0 00 0 1 10 1 0 00 1 1 11 0 0 01 0 1 11 1 0 11 1 1 1

Beachte auch: (A ∧ B) ∧ C und A ∧ (B ∧ C) haben die gleichen WT. Daher istauch A ∧B ∧ C sinnvoll. Analog für "∨", aber nicht für "�".

0.1.6 Äquivalenz von Formeln

Zwei Formeln F, F ′ heißen äquivalent, wenn sie die gleichen WT besitzen.Schreibweise: F ⇔ F ′

Beispiele:

a) ¬(A ∧B) ⇔ (¬A) ∨ (¬B)

b) A ∧ (B ∨ C) ⇔ (A ∧B) ∨ (A ∧ C)

c) A � B ⇔ (¬A) ∨B

d) A ↔ B ⇔ (A � B) ∧ (B � A)

0.1.7 Logische Schlüsse

"⇔" ist nicht Teil der aussagenlogischen Sprache, sondern eine (wahre) Aussageüber aussagenlogische Formeln, ist also eine Aussage in einer Ebene dar-über. Generell schreiben wir "A ⇔ B"für (mathematische) Aussagen A undB, falls A ↔ B wahr ist.Analog heißt "A ⇒ B", dass A � B wahr ist. Hier wird auf den Sinn derAussagen A,B Bezug genommen, nicht auf ihren Wahrheitswert.

14

0.2 Prädikatenlogik

Sprechweisen:

A ⇔ B : sprich:A äquivalent zu BA genau dann, wenn BA dann und nur dann, wenn B

A ⇒ B : sprich:A impliziert BB folgt aus AA ist hinreichend für B

0.2 Prädikatenlogik

Beispiel:“Alle Menschen sind sterblich."“Sokrates ist ein Mensch."

⇒ “Sokrates ist sterblich."

Dies ist eine aussagenlogische Schlussfolgerung. Für solche Schlüsse muss manunterscheiden:

• was ausgesagt wird (das Prädikat)

• worüber etwas ausgesagt wird (das Subjekt)

Die Prädikatenlogik realisiert diese Unterscheidung durch Aussageformen.

0.2.1 Aussageformen

Eine Aussageform ist eine “sprachliche Form“, die einer Aussage ähnelt, aber nochvon Unbestimmten (Variablen) x, y, z . . . abhängt. Die Unbestimmten können da-bei Werte aus einer Sammlung von Objekten (vgl. Mengen) annehmen, ihremDefinitionsbereich oder ihrem Universum.

Beispiel:M(x) : "x ist ein Mensch."S(x) : "x ist sterblich." ,x ist ein Substantiv der deutschen Sprache.B(x) : "x + 1 = 2” ,x sei eine ganze Zahl.

15

0 GRUNDLAGEN

M(x, y) : "x ist Mutter von y" ,x, y sind Menschen.

Eine Aussageform wird zu einer Aussage, wenn allen Unbestimmten ein Wertaus ihrem Definitionsbereich zugewiesen wird.

Beispiel:B(2) : "2 + 1 = 2" ,ist eine (falsche) Aussage.B(1) : "1 + 1 = 2" ,ist eine (wahre) Aussage.

0.2.2 Quantoren

Sie geben an, für "wie viele"Werte einer Unbestimmten eine Aussage wahr wird.Allquantor: ∀ ,“für alle“, “für jede“Existenzquantor: ∃ ,“es existiert“, “es gibt“

Beispiel:∀x B(x) : “für jede ganze Zahl x gilt x + 1 = 2 “∃x B(x) : “es existiert eine ganze Zahl x, sodass x + 1 = 2 “

∀x (M(x) � S(x)) : “Alle Menschen sind sterblich.“

Bemerkung:∀x Q(x) ist falsch, sobald es mindestens ein x gibt mit Q(x) falsch.M.a.W.1: ¬(∀x Q(x)) = ∃x (¬Q(x))

∃x Q(x) ist falsch, wenn Q(x) für kein einziges x wahr ist.M.a.W.: ¬(∃ Q(x)) = ∀x (¬Q(x))

D.h. wir können statt{ ∀x∃x

}in Formeln auch

{ ¬∃¬¬∀¬

}schreiben.

Bindungsstärke: ∀,∃ binden genauso stark wie ¬.

Bemerkung:In Ausdrücken wie ∀x F oder ∃x F , wobei F eine prädikatenlogische Formel ist,wirkt ∀x bzw. ∃x auf alle x in F .

1Mit anderen Worten

16

0.2 Prädikatenlogik

0.2.3 Beispiele

a) B(x) : ”x + 1 = 2”, x ∈ ganze Zahlen∀x B(x) : "jede ganze Zahl erfüllt x + 1 = 2"(falsch)∃x B(x) : "x + 1 = 2 hat eine ganzzahlige Lösung"(richtig)

b) D(x) : "x ist deutscher Staatsbürger", x ∈ PersonS(x) : "x zahlt Einkommenssteuer"∀x(D(x) � S(x)) : "Jeder deutsche Staatsbürger zahlt Einkommensteu-er"(falsch)

Was bedeutet ∀x ¬(D(x) � S(x)) := ∀x ¬(¬D(x) ∨ S(x))= ∀x (D(x) ∧ ¬S(x)):"Jede Person ist Deutscher und zahlt keine Einkommenssteuer."

Was bedeutet ¬∀x (D(x) � S(x)) := ∃x ¬(¬D(x) ∨ S(x))= ∃x (D(x) ∧ ¬S(x)) :“Es gibt jemanden der Deutscher ist und keine Steuern zahlt.“

c) S(x, y) : ”x + y = 2”, x, y ∈ Z

(i) ∀x ∀y S(x, y) : “x + y = 2 gilt für beliebige x, y ∈ Z“ (falsch)(ii) ∀x ∃y S(x, y) : “ist x (beliebig) gegeben, so lässt sich y finden“ (richtig)(iii) ∃x ∀y S(x, y) : “es gibt ein x, sodass x + y = 2 ∀y gilt.“ (falsch)(iv) ∃x ∃y S(x, y) : “es gibt x, y mit x + y = 2“ (richtig)

0.2.4 Schlussregeln

Beispiel:

M(X) : ”x ist ein Mensch”S(x) : ”x ist sterblich”

}x ∈ Substantive der deutschen Sprache.

M(Sokrates) ∧ (∀x (M(x) � S(x))) ⇒ S(Sokrates)

Die formale Logik benutzt solche Schlussregeln um das logische Schließen zuaxiomatisieren. Insbesondere untersucht man das Verhalten prädikatenlogischerFormeln unter verschiedenen Interpretationen der Sprache A(x) etc. In der Mathe-matik liegen die Interpretationen fest und wir schließen intuitiv, also mit gesundem(mathematischem) Menschenverstand.

17

0 GRUNDLAGEN

0.2.5 Mengenlehre und die Sprache der Mathematik

Wir können jetzt die (naive) Mengenlehre prädikatenlogisch durch zwei Axiome(= Aussagen die als absolut wahr angenommen werden) formulieren. Als Univer-sum nimmt man “alle Objekte unserer Anschauung“, und man hat ein zusätzlichesSymbol "∈", das die Elementbeziehung formalisiert (und stärker bindet als jedeslogische Zeichen).(naive Mengenlehre nach Cantor)

Axiom I(Extensionalität, lat. “extensio“ = Ausdehnung)Seien x,y Mengen.

∀x ∀y (∀z (z ∈ x ↔ z ∈ y) � x = y)

Axiom II(Volle Komprehension, lat. “comprehensio“ = Zusammenfassung)Für alle prädikatenlogische Formeln Φ(z, y1, . . . , yn) gilt:

∀y1,∀y2, . . . , ∀yn ∃x∀z (z ∈ x ↔ Φ(z, y1, . . . , yn))

Als Mathematiker formulieren wir etwas lebendiger:

I. Seien A,B Mengen. Dann gilt

A = B ⇔ ∀z (z ∈ A ⇔ z ∈ B)

oder sagen:

I’. Zwei Mengen sind gleich wenn sie die gleichen Elemente haben.

II. Für alle prädikatenlogische Formeln Φ(z, y1, . . . , yn) und y1, . . . , yn gibt eseine Menge M mit:

z ∈ M ⇔ Φ(z, y1, . . . , yn)

(M = z|Φ(z, y1, . . . , yn))

Bemerkung:Axiom II ist problematisch (Russellsche Antinomie) und wird im AxiomensystemZFC2 eingeschränkt.2Zermelo-Fräenkel & Auswahlaxiom

18

0.3 Äquivalenzrelationen

0.2.6 Geschichte

Atistoteles: ∼ 350 v.Chr.Gottlob Frege (Jena): Begriffsdefinition (1879)Bertrand Russel: Prinzipia Mathematica (∼1910)David Hilbert (Göttingen): Hilbertprogramm (1920) ("Wir müssen wissen, wirwerden wissen.")Kurt Gödel (Wien, Princeton): Unvollständigkeitssatz für die Arithmetik (1931)Gerhard Gentzen: Peano-Arithmetik + transfinite Induktion ist widerspruchsfrei.

0.3 Äquivalenzrelationen

Relationen stellen Beziehungen her, zwischen den Elementen einer Menge. Beson-ders wichtig sind die Äquivalenzrelationen, die es ermöglichen, Elemente mitein-ander zu identifizieren.

0.3.1 Relationen

Definition:Eine Relation R auf einer Menge M ist eine Teilmenge von M ×N .

BemerkungMan stellt sich vor, dass ein x ∈ M bezüglich R mit y ∈ M “in Beziehung steht“genau dann, wenn (x, y) ∈ R.

Schreibweise: x, y ∈ M x ∼R y :⇔ (x, y) ∈ RRelationen auf einer Menge M:R ⊂ M ×Mx ∼R y :⇔ (x, y) ∈ RÄquivalente Formulierung:R(x, y) : ”x ∼R y”R = (x, y) ∈ M ×M |x ∼R y

0.3.2 Beispiele

a) M = Z

R = {(x, y) ∈ Z× Z|x < y}M.a.W.: x ∼R y ⇔ x < y

b) M = Z

R = {(x, y)|x−y2∈ Z}

19

0 GRUNDLAGEN

d.h.: x ∼R y ⇔ (x und y sind beide gerade) oder (x und y sind beideungerade)

c) f : M � N sei Abbildung.Rf := {(x, y)|f(x) = f(y)}d.h.: x ∼R y ⇔ f(x) = f(y)

Bemerkung:

f injektiv ⇔ Rf = {(x, x) ∈ M ×M |x ∈ M}= {(x, y) ∈ M ×M |x = y}

0.3.3 Äquivalenzrelationen - reflexiv, symmetrisch, transitiv

Definition:Eine Relation R auf M heißt:

reflexiv ,falls ∀x ∈ M : x ∼R x

symmetrisch ,falls ∀x, y ∈ M : x ∼R y ⇔ y ∼R x

transitiv ,falls ∀x, y, z ∈ M : x ∼R y, y ∼R z ⇒ x ∼R z

Eine Äquivalenzrelation auf M ist eine Relation, die reflexiv, symmetrisch undtransitiv ist.

0.3.4 Beispiele

a) Bsp. 0.3.2 a) ist keine Äquivalenzrelation, da weder reflexiv noch symme-trisch.

b) Bsp. 0.3.2 b),c) sind Äquivalenzrelationen.

Beweis für 0.3.2 b)Reflexivität:zu zeigen: ∀x ∈ Z : x ∼R xSei also x ∈ Z (beliebig).Nach Defintion von R heißt x ∼R x, dass x−x

2∈ Z. In der Tat ist x−x

2= 0 eine

ganze Zahl, und daher gilt: x ∼R x.Alternative, formelle Formulierung:Sei x ∈ Z

20

0.3 Äquivalenzrelationen

zu zeigen: x vR xEs gilt:

0 ∈ Z⇒ x−x

2∈ Z

⇒ x ∼R x

Symmetrie:zu zeigen: ∀x, y ∈ Z : x ∼R y ⇔ y ∼R xSeien also x, y ∈ Z und x ∼R y:(” ⇒: ”)Dann:

x− y

2∈ Z

⇒ y − x

2=

x− y

2∈ Z

⇒ y ∼R x

(” ⇐: ”)y ∼R x ⇒ x ∼R ySieht man genauso, oder durch Vertauschen der Symbole x und y. (Die Aussageist symmetrisch in x und y.)

Transitivität:zu zeigen: ∀x, y, z ∈ Z : x ∼R y, y ∼R z ⇒ x ∼R zSeien also x, y, z ∈ Z, x ∼R y und y ∼R z:Dann:

x− y

2∈ Z,

y − z

2∈ Z

⇒ x− z

2=

x− y

2+

y − z

2∈ Z

⇒ x ∼R z

¤

0.3.5 Äquivalenzklassen

Eine Äquivalenzrelation zerlegt eine Menge in Teilmengen paarweise äquivalenterElemente. (↗3 Satz 0.3.7 )3wird später gezeigt

21

0 GRUNDLAGEN

Definition:Sei R eine Äquivalenzrelation auf M . Zu x ∈ M heißt:

[x]R := {y ∈ M |y ∼R x} ⊂ M

die Äquivalenzklasse von x (bezüglich R).

0.3.6 Beispiel

In R = {(x, y) ∈ Z× Z|x−y2∈ Z} aus Bsp. 0.3.2 b) gilt:

[x]R =

{2Z = {. . . ,−4,−2, 0, 2, 4, . . . } ,falls x gerade2Z+ 1 = {. . . ,−3,−1, 1, 3, . . . } ,falls x ungerade

0.3.7

Satz:Sei R eine Äquivalenzrelation auf M und x, y ∈ M . Dann sind die folgenden Aus-sagen äquivalent:

1. x vR y

2. [x]R ∩ [y]R 6= ∅3. [x]R = [y]R

Beweis:zu zeigen: (1) ⇒ (3) ⇒ (2) ⇒ (1)(Ringschluss , nicht zu verwechseln mit dem unzulässigen “Zirkelschluss“.)

(1) ⇒ (3) :Sei x ∼R y (A)4

Um [x]R = [y]R zu schließen, müssen wir zeigen:

∀z(z vR x ⇔ z ∼R y)

(” ⇒ ”): z ∼R x, x ∼R y

4Wir setzen jetzt Aussage (1) = (A) voraus und wollen Aussage (3) zeigen

22

0.3 Äquivalenzrelationen

Tran⇒ z ∼R y.

(” ⇐ ”): z ∼R y, x ∼R ySym⇒ z ∼R y, y ∼R xTran⇒ z ∼R x X

(3) ⇒ (2) :Sei [x]R = [y]R

Dann gilt: x ∈ [x]R und [x]R(A)= [x]R ∩ [y]R

⇒ x ∈ [x]R ∩ [y]R⇒ [x]R ∩ [y]R 6= ∅ X

(2) ⇒ (1) :Sei [x]R ∩ [y]R 6= ∅Dann können wir ein (beliebiges) z ∈ [x]R ∩ [y]R wählen.Es gilt: z ∼R x, z ∼R ySym⇒ x ∼R z, z ∼R yTran⇒ x ∼R y X

¤

0.3.8 (Mengen-) Partitionen

Satz 0.3.7 zeigt, dass M durch R in paarweise disjunkten Teilmengen aufgeteiltwird.

Definition:Eine Partition P einer Menge M ist eine Menge von Teilmengen P ⊂ P(M) ={A|A ⊂ M} mit den Eigenschaften

(i) ∀A,B ⊂ P, A 6= B : A∩B = ∅ (d.h. die Teilmengen sind paarweise disjunkt)5

(ii)⋃

A∈P

A = M

Notation:q

A∈PA (q: disjunkte Vereinigung, auch

·⋃oder

⊔)

5d.h. jedes x ∈ M liegt in genau einem A ∈ P

23

0 GRUNDLAGEN

Beispiel:M = {a, b, c, d, e}P = {{a, b}, {c}, {d, e}}

0.3.9 Partitionen und Äquivalenzrelationen

Die von einer Äquivalenzrelation R ⊂ M ×M induzierte (d.h. durch den vorherangegebenen Prozess der Zerlegung in Äquivalenzklassen gegebenen) Partition ist

PR := {[x]R|x ∈ M}

M.a.W.: A ⊂ M , dann A ∈ PR ⇔ ∃x ∈ M : A = [x]R.Umgekehrt definiert eine Partition P von M die Äquivalenzrelation

RP := {(x, y) ∈ M ×M |∃A ∈ P : x, y ∈ A}= {(x, y) ∈ M ×M |∃A ∈ P : {x, y} ⊂ A}.

Satz:Sei M eine Menge. Dann liefert die Zuordnung:

Φ : R � PR (d.h. : Φ(R) = PR)

eine Bijektion zwischen der Menge der Äquivalenzrelationen auf M und der Mengeder Partitionen von M .

Beispiel:M = {a, b, c}R = {(a, a), (b, b), (c, c), (a, b), (b, a)}Liste der Äquivalenzklassen:

[a]R = {a, b}[b]R = {a, b}[c]R = {c}

Φ(R) = {{a, b}, {c}}

Beweis von obigem Satz:Wir behaupten, dass

Ψ : P � RP

die Umkehrabbildung zu Φ ist, das heißt:

24

0.3 Äquivalenzrelationen

(1) Φ ◦Ψ = Id{Partitionen von M}

(2) Ψ ◦ Φ = Id{Äquivalenzrelationen auf M}

M.a.W.:(1) P Partition von M

⇒ P = (Φ ◦Ψ)(P ) = Φ(Ψ(P )) = P(RP )

(2) R Äquivalenzrelation auf M

⇒ R = (Ψ ◦ Φ)(R) = Ψ(Φ(R)) = R(PR)

Beweis zu (1):P(RP ) = {[X]RP

|x ∈ M} != 6 P

Es bleibt demnach zu zeigen, dass die Äquivalenzklassen von RP genau die Ele-mente von P sind.

Sei also x ∈ MP Partition ⇒ ∃B ∈ P : x ∈ BDann [x]RP

= B:(”[x]RP

⊂ B : ”)

y = [x]RP

⇒ y ∼RPx

⇒ ∃C ∈ P, {x, y} ⊂ C

⇒ x ∈ B ∩ C

⇒ C = B

⇒ y ∈ B

(”[x]RP⊃ B : ”)

y ∈ B

⇒ {x, y} ⊂ B

⇒ y ∼RPx

⇒ y ∈ [x]RPX

6Dies ist zu zeigen!

25

0 GRUNDLAGEN

Beweis zu (2)R(PR) = {(x, y) ∈ M ×M |∃A ∈ PR : {x, y} ⊂ A}

d.h. x vR(PR)y ⇔ ∃A ∈ PR : {x, y} ⊂ A

⇒ ∃z ∈ M : {x, y} ⊂ [z]R

⇔ ∃z ∈ M : x ∼R z, y ∼R z

⇔ ∃z ∈ M : x ∼R z, z ∼R y

⇒ x ∼R y X

¤

0.3.10 Die Quotientenmenge und Quotientenabbildung

Die einer Äquivalenzrelation R auf einer Menge M zugeordneten Partition PR wirdauch die Quotientenmenge (auch: Faktormenge) von M bezüglich R genannt.Bezeichnung: M/ ∼R oder M/R (“M modulo R“ oder “M nach R“)(Rein psychologische) Schwierigkeit:Die Elemente von M/R sind Mengen, nämlich Teilmengen von M .Man hat eine kanonische7 Surjektion

qR : M � M/R, x 7→ [x]R

die Quotientenabbildung .Sie hat die Eigenschaft:

∀x, y ∈ M : (x ∼R y ⇔ qR(x) = qR(y)).

Die Quotientenabbildung leistet also die (geistige) Zusammenfassung der durch Rin Relation stehenden Elemente von M , indem sie äquivalente Elemente auf dasgleiche Bildelement abbildet. Sie ist “universell“ unter allen solchen Abbildungenin folgendem Sinn:

0.3.11 Die “universelle“ Eigenschaft derQuotientenabbildung

Satz:Sei R eine Äquivalenzrelation auf M und f : M � N eine Abbildung, mit derEigenschaft

x ∼R y ⇒ f(x) = f(y). (Q)

7d.h. unter vielen Wahlen eindeutig ausgezeichnete

26

0.3 Äquivalenzrelationen

Dann gibt es genau eine Abbildung

f : M/R � N

mit der Eigenschaft f = f ◦ qR.Sprechweise: f heißt die von f induzierte Abbildung.

Beispiel:M = {a, b, c, d, e}M/R = P = {{a, b}, {c}, {d, e}} = {A,B,C} :A = {a, b}, B = {c}, C = {d, e}.f : M � N = {1, 2, 3}

x a b c d ef(x) 1 1 2 3 3

Dann: f(A) = 1, f(B) = 2, f(C) = 3

Beweis zu obigem Satz:1) Definition von f :Sei A ∈ M/R, dann

f(A) = F (x)

wobei x irgendein Element in A. Diese Definition ist problematisch, denn sie hängta priori von x ab. Aber, x′ ∈ A

x ∼R x′ ⇒ f(x) = f(x′) nach (Q).

M.a.W.: (Q) zeigt, dass f(A) genau aus einem einzigen Element b besteht. Wirdefinieren f(A) = b.

2) Verifikation von f = f ◦ qR:

f ◦ qR(x) = f([x]R) = f(x).

3) Eindeutigkeit von f :(Diese folgt aus f = f ◦ qR zusammen mit der Surjektivität der Quotientenabbil-dung qR)Sei g : M/R � N eine Abbildung mit f = g ◦ qR. Zu zeigen ist, dass g = f , d.h.∀y ∈ M/R : g(y) = f(y). Da qR surjektiv ist, existiert zu y ∈ M/R ein x ∈ M ,sodass y = qR(x) = [x]R.Dann gilt:

g(y) = g([x]R) = g ◦ qR(x) = f(x) = f ◦ qR(x) = f([x]R) = f(y)

¤

27

0 GRUNDLAGEN

0.3.12 Beispiel

M = Z, R = {(x, y)|x−y2∈ Z}

Sei f : Z � {0, 1}, f(x) :=

{0, falls x gerade1, falls x ungerade

Dann f([0]R) = 0, f([1]R) = 1.

0.3.13 Zusammenfassung

Wir haben 3 äquivalente Beschreibungen von Äquivalenzrelationen:

1. als Teilmenge R ⊂ M ×M mit Reflexivität, Symmetrie und Transitivität

2. als Partition P ⊂ PM : M =⋃

A∈P

A

3. durch eine Surjektion qR : M � M/R.

0.3.14 Die Äquivalenzrelation zu einer Abbildung

Eine Abbildung f : M � N definiert eine Äquivalenzrelation durch

Rf = {(x, y) ∈ M ×M |f(x) = f(y)}.

Die Äquivalenzklassen sind genau die Fasern

f−1({y}) = f−1(y) = {x ∈ M |f(x) = y} fur y ∈ f(M) ⊂ M.

Jede Äquivalenzrelation tritt auf diese Weise auf weil R = RqR:

RqR= {(x, y) ∈ M ×M |qR(x) = qR(y)}= {(x, y) ∈ M ×M |x ∼R y}= R

28

1 VEKTORRÄUME

1.4 Körper, Gruppen, Ringe

1.4.1

“Körper“ sind Mengen auf denen die 4 Grundrechenarten ”·, /, +,−” definiert sind.

Beispiele:

a) Q,R(aus der Analysis); C(↗ LA)

b) F2 = {0, 1} Galois Körper (der kleinste Körper den es gibt)

+ 0 10 0 11 1 0

· 0 10 0 01 0 1

c) Z ist kein Körper, denn die Division ist nicht definiert.

1.4.2 Verknüpfungen

Definition:Eine Verknüpfung auf einer Menge M ist eine Abbildung

Q : M ×M � M.

Schreiben wir für x, y ∈ M, x ◦ y := Φ(x, y) so heißt Φ:

assoziativ , falls ∀x, y, z ∈ M : (x ◦ y) ◦ z = x ◦ (y ◦ z).

kommutativ (abelsch), falls ∀x, y ∈ M : x ◦ y = y ◦ x.

29

1 VEKTORRÄUME

1.4.3 Körper

Definition:Ein Körper ist eine Menge K mit zwei kommutativen und assoziativen Verknüp-fungen “+“ und “·“ mit den folgenden Eigenschaften:

(i) ∃ 0 ∈ K : ∀a ∈ K : a + 0 = a (neutrales Element der Addition)

(ii) ∀a ∈ K ∃b ∈ K : a + b = 0 (additives Inverses)

(iii) ∃ 1 ∈ K\{0} : ∀a ∈ K a · 1 = a (neutrales Element der Multiplikation)

(iv) ∀a ∈ K\{0} ∃b ∈ K\{0} : a · b = 1 (multiplikatives Inverses)

(v) ∀a, b, c ∈ K : a · (b + c) = a · b + a · c (Distributivität)

Konventionen

a) Statt (K, +, ·, 0, 1) schreiben wir "der Körper K".

b) Punkt- vor Strichrechnung und "·"kann man fortlassen.Etwa: a · b + c = a · b + a · cschreiben wir auch: a(b + c) = ab + bc.

Bemerkung

1) Die Elemente von K agieren in der Linearen Algebra als “Skalare“. Es wirdsich als fruchtbar erweisen, die über R gewonnene geometrische Intuition aufSituationen über anderen Körpern zu übertragen.

2) Subtraktion und Division reduzieren wir zu Addition (ii) und Multiplikation(iv):

a− b = a + c , wobei c ∈ K, sodass b + c = 0a

b= a · c , wobei x ∈ K, sodass b · c = 1

30

1.4 Körper, Gruppen, Ringe

1.4.4

(K, +, 0) und (K\{0}, ·, 1) sind abstrakt ähnliche Objekte, nämlich abelsche Grup-pen.

Definition:Eine Gruppe G ist eine Menge G mit einer assoziativen Verknüpfung:

◦ : G×G � G mit

(i) ∃e ∈ G ∀a ∈ G : e ◦ a = a (neutrale Element)

(ii) ∀a ∈ G ∃b ∈ G : b ◦ a = e (Inverse zu a)

Ist "◦"kommutativ, so spricht man von einer abelschen Gruppe.

Beispiele:

a) (Z, +, 0) ist eine abelsche Gruppe

b) (N, +, 0) ist keine Gruppe

c) ({e}, ◦, e) die triviale Gruppe

1.4.5 Exkurs 1: symmetrische Gruppe

(Beispiel für eine nichtablesche Gruppe)

1.4.5.1 Satz

Für eine Menge M ist Bij(M) := {σ : M � M |σ bijektiv} (Menge der Bijek-tionen von M auf sich) mit der Hintereinanderausführung von Abbildungen alsVerknüpfung:

◦ : Bij(M)×Bij(M) −→ Bij(M)

(σ, τ) 7→ σ ◦ τ

(σ ◦ τ)(a) = σ(τ(a)) und e = idM ist eine Gruppe.(Bij(M), ◦, idM) ist eine Gruppe.

Beweis

31

1 VEKTORRÄUME

(i) Neutrales Element: e = idM

In der Tat gilt σ ∈ Bij(M)∀a ∈ M(e ◦ σ)(a) = idM(σ(a)) = σ(a)d.h. e ◦ σ = σ.

(ii) Inverses Element zu σ:Die Umkehrabbildung σ−1(b) = das eindeutige Element a ∈ M mit σ(a) = bIn der Tat:∀a ∈ M : σ−1 = σ(a) = ad.h. σ−1 ◦ σ = idM

1.4.5.2 Beispiel

M = {a, b}Bij(M) = {idM , τ}, wobei τ :

{a 7→ b

b 7→ a

τ 2 = τ ◦ τ = idM .

Wir haben die Multiplikationstabelle (Gruppentafel)

◦ e τ

e e ττ τ e

Hier ist Bij(M) abelsch.

1.4.5.3 Sn

Ist M endlich, so hängt Bij(M) bis auf Umkehrung der Elemente nur von #M ab.

Definition:Sn = Bij({1, . . . , n}) symmetrische Gruppe auf n Elementen.

Notation

für Elemente von Sn: σ =

(1 2 . . . n

σ(1) σ(2) . . . σ(n)

)

Beispiel n = 3

32

1.4 Körper, Gruppen, Ringe

(1 2 32 3 1

)◦

(1 2 32 1 3

)=

(1 2 33 2 1

)

Dagegen:(1 2 32 1 3

)◦

(1 2 32 3 1

)=

(1 2 31 3 2

)

Dies zeigt, dass S3 nicht abelsch ist. (Analog sieht man Sn für n ≥ 3 nicht abelsch.)

1.4.6 Exkurs 2: Symmetriegruppen von Graphen

1.4.6.1 Graphen - Motivation

VorstellungEin Objekt mit Ecken und Kanten, bei dem nur die Inzidenz8 wichtig ist.

AbstraktionJede Kante hat zwei Eckpunkte als Enden. Diese zwei Eckpunkte sind ungeordnetund können sogar übereinstimmen. Ã 2 Mengen

V: Eckpunkte V = {v1, . . . , vn} (vertices)

E: Kanten E = {a1, . . . , an} (edges)

und für jedes a ∈ E haben wir Eckpunkte: [(v1, v2)] ∈ V × V/ ∼ wobei

(v1, v2) ∼ (v′1, v′2) ⇔

{v1 = v′1 , v2 = v′2 oder

v1 = v′2 , v2 = v′1

Definition:Ein (ungerichteter) Graph ist ein Paar (V, E) zweier Mengen zusammen mit einerAbbildung χ : E � V × V/ ∼

Notation Γ = (V, E, χ)

1.4.6.2 Symmetriegruppen von Graphen

Bijektionen von V und E, die Inzidenzen enthält.

8Nachbarschaft

33

1 VEKTORRÄUME

Definition:Sei Γ = (V,E, χ) ein Graph. Eine Symmetrie von Γ ist ein Paar (ϕ, ψ) ∈ Bij(V )×Bij(E) mit der Eigenschaft

∀a : χ(ψ(a)) =∼ϕ(χ(a)). (∗)

Wobei

∼ϕ : V × V/ ∼ −→ V × V/ v

(v1, v2) 7→ [(ϕ(v1), ϕ(v2))]

die von ϕ× ϕ induzierte Abbildung ist. (dies ist wohldefiniert!)

Notation Sym(Γ) = {Symmetrien von Γ} ⊂ Bij(v)×Bij(E)

Satz (Sym(Γ) ist eine Gruppe):Wobei (ϕ, ψ) ◦ (ϕ′, ψ′) = (ϕ ◦ ϕ′, ψ ◦ ψ′) und e = (idV , idE).

BeweisÜberprüfe, dass (ϕ◦ϕ′, ψ◦ψ′) ∈ Sym(Γ), d.h. dass die Gruppenverknüpfung wohl-definiert ist. Überprüfe (∗):

χ((ϕ ◦ ϕ′)(a))

= χ(ϕ(ϕ′(a)))

=∼ϕ(χ(ψ′(a))) ((∗) fur (ϕ, ψ))

=∼ϕ(

∼ϕ′(χ(a))) ((∗) fur (ϕ′, ψ′))

= ˜(ϕ ◦ ϕ′)(χ(a)) , denn∼ϕ ◦

∼ϕ′ = ˜(ϕ ◦ ϕ′)

Assoziativität: X (folgt aus Assoziativität für Bij(V ), Bij(E))Inverse: X

¤

34

1.4 Körper, Gruppen, Ringe

1.4.6.3 Diedergruppen

Γn = (V, E, χ) mit V = {v1, . . . , vn}, E = {a1, . . . , an}

und χ(ai) =

{[(vi, vi+1)], i 6= n

[(Vn, V1)], i = nmit i = 1, . . . , n

Dn = Sym(Γn)9

“Offensichtliche“ Elemente von Dn:Drehung:

τ = (ϕ, ψ), ϕ :

v1 7→ v2

v2 7→ v3

···

vn 7→ v1

, ψ :

a1 7→ a2

a2 7→ a3

···

an 7→ a1

Spiegelung:

σ = (ϕ′, ψ′), ϕ′ :

v1 7→ vn

v2 7→ vn−1

···

vn 7→ v1

, ψ′ :

a1 7→ an−1

a2 7→ an−2

···

an 7→ an

Satz:

1) Dn = {e, τ, τ 2, . . . , τn−1, σ, σ · τ, σ · τ 2, . . . , σ · τn−,} und #Dn = 2n

2) τn = e, σn = e, σ ◦ τ ◦ σ−1 = σ ◦ τ ◦ σ = τ−1

9Diedergruppe

35

1 VEKTORRÄUME

Bemerkung 2) bestimmt die Gruppenstruktur, wenn man noch

σi ◦ σj = σi+j und τ i ◦ τ j = τ i+j

betrachtet.

Beweis Übung

¤

1.4.7 Analyse der Gruppenaxiome

Sei G eine Gruppe. Schreibe ab statt a ◦ b.

1.4.7.1 Linkskürzung

∀a, x, y ∈ Gax = ay ⇒ x = y

BeweisWähle b ∈ G invers zu a : ba = e. Dann gilt:

x = ex (e neutral)

= (ba)x (ba = e)

= b(ax) (Assoziativitat)

= b(ay) (ax = ay)

= (ba)y (Assoziativitat)

= ey (ba = e)

= y. (e neutral)

¤

1.4.7.2 e ist auch rechtsneutral

∀a ∈ G :ae = a.

BeweisSei wieder b invers zu a. Dann: b(ae) = (ba)e = ee = e = ba1.4.7.1⇒ ae = a

¤

36

1.4 Körper, Gruppen, Ringe

1.4.7.3 Satz: (Eindeutigkeit des neutralen Elements)

Sei e′ ∈ G und es gelte ∀a ∈ G : e′a = a (∗)Dann gilt:

e′ = e.

Beweis e′ 1.4.7.2= e′e

(∗)= e.

¤

1.4.7.4 Satz: (Inverse sind beidseitig invers)

Für a, b ∈ G gilt:ab = e ⇒ ba = e.

Beweisa(ba)

Ass= (ab)a = ea = a = ae

1.4.7.1⇒ ba = e

¤

1.4.7.5 Rechtskürzung

∀a, x, y ∈ G gilt:xa = ya ⇒ x = y.

Beweis: analog Linkskürzung (1.4.7.1)

¤

1.4.7.6 Satz: (Eindeutigkeit der Inversen)

∀a, b, c ∈ G gilt:ba = e, ca = e ⇒ b = c.

Beweisba = e = ca1.4.7.5⇒ b = c

¤

Nach 1.4.7.4 und 1.4.7.6 ist folgende Konvention sinnvoll:Notation

Zu a ∈ G bezeichne a−1, als das Inverse zu a. Es gilt: aa−1 = a−1a.

37

1 VEKTORRÄUME

1.4.7.7 Satz

∀a ∈ G :(a−1)−1 = a.

Beweis(a−1)−1 · a−1 = e = a · a−1

1.4.7.5⇒ (a−1)−1 = a

¤

1.4.7.8 Satz

∀a, b ∈ G :(ab)−1 = b−1a−1.

Beweis(b−1a−1)(ab) = b−1(a−1a)b = b−1eb = b−1b = e

¤

1.4.7.9 Zusammenfassung

a) Das (links) neutrale Element ist eindeutig und beidseitig neutral.

b) Linksinverse Elemente sind eindeutig und beiseitig invers.

1.4.8 Anwendung auf Körper

Sei K Körper.(K, +, 0): additive Gruppe von K.(K\{0}, ·, 1): multiplikative Gruppe von K.

Schreibweisea ∈ K, dann −a additives Inverses zu a: a + (−a) = 0.a ∈ K\{0}, dann a−1 multiplikatives Inverses zu a: a · (a−1) = 1.

1.4.8.1

∀a ∈ K gilt:0 · a = 0

Beweis0 + 0 · a = 0 · a = (0 + 0)a = 0a + 0a0·a kurzen⇒ 0 = 0 · a.

38

1.4 Körper, Gruppen, Ringe

¤

1.4.8.2

∀a ∈ K gilt:(−1) · a = −a.

Beweisa + (−1)a = 1a + (−1)a = (1 + (−1))a = 0 · a 1.4.8.1

= 0.

¤

1.4.8.3

∀a, b ∈ K gilt:a(−b) = (−a)b = −ab.

Beweisa(−b) + ab = a(−b + b) = a · 0 1.4.8.1

= 0.

¤

1.4.8.4

∀a, b ∈ K gilt:(−a)(−b) = a · b.

Beweis(−a)(−b)

1.4.8.3= −(−a)b

1.4.8.3= −(−ab)

1.4.7.7= a · b.

¤

1.4.8.5

∀a ∈ K\{0} gilt:(−a)−1 = −a−1.

Beweis(−a)(−a−1)

1.4.8.4= a · a−1 = 1.

¤

39

1 VEKTORRÄUME

1.4.8.6

∀a, b ∈ K gilt:a · b = 0 ⇒ a = 0 oder b = 0.

Beweisa = 0 : Xa 6= 0 : ∃a−1 ⇒ b = a−1(ab) = a−1 · 0 1.4.8.1

= 0.

¤

1.4.9 Z/n ("Rechnen modulo n")

1.4.9.1 Teilen mit Rest in Z

Satz:Sei n ∈ N\{0} und a ∈ Z.Dann gibt es eindeutige q ∈ Z und r ∈ {0, . . . , n− 1} mit

a = qn + r

Beweis

1) Sei a ≥ 0.Betrachte M = {q ∈ N|q · n ≤ a}M 6= N, denn a + 1 /∈ M : (a + 1)n

(n≥1)

≥ a + 1 > a.Peano, 0∈M⇒ ∃q ∈ M : q + 1 /∈ M.Es gilt:

(i) q · n ≤ a

(ii) (q + 1)n > a

⇒ 0(i)

≤ a− qn(ii)< n

Setze: r := a− qn.

2) Sei a < 0.Aus (1) finde q′, r′ : −a = q′n + r′.

r′ = 0 : q = −q′, r := 0.

r′ 6= 0 : ⇒ r := (n− r′) ∈ {1, . . . , n− 1}a = −q′n− r′ = (−q′ − 1)n + (n− r′)

Setze q := −q′ − 1.

40

1.4 Körper, Gruppen, Ringe

3) Eindeutigkeit.Seien a = qn + r = q′n + r′ zwei Lösungen.o.E.10 können wir q ≤ q′ annehmen. (Sonst q mit q′ und r mit r′ vertauschen)Erhalten: (q′ − q)︸ ︷︷ ︸

∈N

n = r − r′ ≤ r < n.

Dies ist nur möglich, falls q′ − q = 0.⇒ q′ = q, und dann auch r′ = r.

¤Schreibweise a mod n sei das r ∈ {0, . . . , n− 1} aus dem Satz mit a = qn + r

für ein q.

1.4.9.2 Rechnen modulo n

Auf Z/n := {0, . . . , n− 1} ("Z modulo n") definieren wir die Verknüpfungen:

Addition a +n b := (a + b) mod n.

Multiplikation a ·n b := (a · b) mod n.

Beispieln = 4 :

2 +n 3 = 1

2 ·n 2 = 0

2 ·n 1 = 2

Man überprüft leicht, dass (Z/n, +n, ·n) die Körperaxiome (i), (ii), (iii) und (v)erfüllt, jedoch im allgemeinen (d.h. nicht für alle n und a) nicht (iv). Ein derartigesObjekt heißt (kommutativer) Ring . Auch (Z, +, ·) ist ein Ring, aber (N, +, ·) nicht.

BemerkungSind a, b ∈ Z schreibt man statt “a mod n = b mod n“ auch “a ≡ b mod n“ (“akongruent b modulo n“).

1.4.9.3 Interpretation als Quotientenmenge

n ∈ N\{0}Auf Z betrachte die Äquivalenzrelation

a ∼n b :⇔ ∃q ∈ Z : a = b + qn

[⇔ a ≡ b mod n]

10ohne Einschränkung oder auch o.B.d.A. ohne Beschränkung der Allgemeinheit

41

1 VEKTORRÄUME

Äquivalenzklasse: [a] = a + nZ = {a + qn|q ∈ Z} a ∈ ZDie Addition und Multiplikation auf Z induzierten Verknüpfungen

[a] + [b] := [a + b]

[a] · [b] := [a · b]auf Z/ ∼n.Die Kanonische Abbildung

Φ : Z/n −→ Z/ ∼n

a 7→ [a].

ist bijektiv (Beweis!11), und es gilt: ∀a, b ∈ Z/n:

Φ(a +n b) = Φ(a) + Φ(b)

Φ(a ·n b) = Φ(a) · Φ(b)

Φ(0) = [1]

Bis auf Umbenennung der Elemente sind also Z/n und Z/ ∼n die gleichen Ringe(↗ Ringisomorphismus 1.5.5).

1.4.9.4 Fp

Definition:Eine Primzahl ist ein p ∈ N\{0, 1} mit p = ab, a, b ∈ N ⇒ a = 1 oder b = 1.

Satz:Ist p prim, so ist Fp := (Z/p, +p, ·p) ein Körper.

Beispiel

p = 2: 1−1 = 1

p = 3: 2−1 = 2 (denn 2 ·3 2 = 4 mod 3 = 1)

p = 5: 2−1 = 3 (denn 2 ·5 3 = 6 mod 5 = 1)3−1 = 24−1 = 4 (denn 4 ·5 4 = 16 mod 5 = 1)

11Wird hier nicht gezeigt

42

1.5 Homomorphismen

p = 7: 2−1 = 44−1 = 23−1 = 55−1 = 36−1 = 6

Beweis Idee (↗ Euklidischer Algorithmus)Man zeigt:∀a ∈ {0, . . . , p− 1} ∃b, q ∈ Z, sodass 1 = ab + qp ∈ Z⇒ ab = 1 mod pd.h. a−1 = b in Fp

¤

BemerkungDie endlichen Körper sind (bis auf Isomorphie) durch die Anzahl ihrer Elementebestimmt. Diese Anzahl ist eine Primzahlpotenz pr. Der entsprechende Körperheißt Galoiskörper Fpr (Bsp. 1.4.1)

1.5 Homomorphismen

Zwischen Mengen mit Verknüpfungen (Gruppen, Ringen, Körper, . . . ) sind Ab-bildungen besonders nützlich, die verträglich mit den gegebenen Strukturen sind.Solche Abbildungen heißen Homomorphismen.

1.5.1 Gruppenhomomorphismen

Definition:Seien (G, ◦G, eg) und (H, ◦H , eH) Gruppen. Eine Abbildung

f : G −→ H

heißt (Gruppen-) Homomorphismus , falls ∀x, y ∈ G gilt:

f(x ◦G y) = f(x) ◦H f(y).

Ist f

injektivsurjektivbijektiv

so spricht man von einem

MonomorphismusEpimorphismusIsomorphismus

.

Bemerkung

43

1 VEKTORRÄUME

a) eH ◦H f(eG) = f(eG) = f(eG ◦G eG) = f(eG) ◦H f(eG)f(eG)kurzen⇒ eH = f(eG).

b) f(x)−1 = f(x−1) : f(x)−1 ◦H f(x) = f(x−1 ◦G x) = f(eG) = eH .

1.5.2 Beispiele

a) f : (Z/n, +n) −→ (Z/ ∼n, +) aus (1.4.9.3) ist ein Isomorphismus.

b) f : (Z, +) −→ (Z/n, +n) ist ein Epimorphismus.a 7→ a mod n

c) f : (Z, +) −→ (Z, +) sei Homomorphismus, danna ∈ N : f(a) = f(1 + · · ·+ 1︸ ︷︷ ︸

a

) = f(1) + . . . f(1)︸ ︷︷ ︸a

= af(1).

Ferner: f(−a) = −af(1).Umgekehrt ist für d ∈ Z die Abbildung f(a) := a · d (a ∈ Z) ein Homomor-phismus.M.a.W.: Die Homomorphismen f : (Z, +) −→ (Z, +) stehen in Bijektion mitZ (f � f(1)).

d) Sei G eine Gruppe, g ∈ G. Für n ∈ Z definiere

gn :=

n︷ ︸︸ ︷g ◦ · · · ◦ g , n ∈ N\{0}eg , n = 0

g−1 ◦ · · · ◦ g−1

︸ ︷︷ ︸−n=|n|

, n < 0.

Für n,m ∈ Z gn+m = gn ◦ gm. Erfordert Fallunterscheidung.Etwa für m < 0, n > 0, n + m = n− |m| ≥ 0.gm ◦ gn = (g−1 ◦ · · · ◦ g−1)︸ ︷︷ ︸

|m|

◦ (g ◦ · · · ◦ g)︸ ︷︷ ︸n

= · · · = g ◦ · · · ◦ g︸ ︷︷ ︸n−|m|

= gn+m.

Sei g ∈ G fest. D.h. f : (Z, +) −→ G, ist ein Gruppenhomomorphismus.n 7→ gn

Jeder Gruppenhomomorphismus f : (Z, +) −→ G ist von dieser Form. (g =f(1)) ohne Beweis

e) Anwendung: G = (Q\{0}, ·), a ∈ G :f : Z −→ G ist ein Monomorphismus, falls a 6= 1

n 7→ an

44

1.5 Homomorphismen

f) Für m ≤ n,m, n ∈ N und σ ∈ Sn definiere:∼σ ∈ Sn,

∼σ(i) :=

{σ(i), 1 ≤ i ≤ m

i,m + 1 ≤ i ≤ n.

Die Abbildung f : Sn −→ Sn, ist ein Monomorphismus.σ 7→ ∼

σ

1.5.3 Untergruppen

(↗ Unterobjekte algebraischer Strukturen)

Definition:Sei G eine Gruppe. Eine Teilmenge U ⊂ G heißt Untergruppe, falls:

(i) eG ∈ U

(ii) ∀x, y ∈ U : x ◦ y ∈ U

(iii) ∀x ∈ U : x−1 ∈ U.

Beispiel

a) n ∈ Z, U = nZ ⊂ Z ist eine Untergruppe.

b) Ist f : G −→ H ein Gruppenhomomorphismus⇒ im(f) = {f(g)|g ∈ G} ist eine Untergruppe von H.Beweis

(i) eHBem 1.5.1a)

= f(eG)

(ii) Seien x, y ∈ im(f)⇒ ∃a, b ∈ G : x = f(a), y = f(b)⇒ x ◦ y = f(a) ◦H f(b) = f(a ◦G b) ∈ im(f)

(iii) Sei x ∈ im(f). Schreibe x = f(a)

⇒ x−1 Bem1.5.1b)= f(a−1)

Bemerkung (a) folgt aus (b) mit f : Z −→ Z

a 7→ a · n.

1.5.4 Kerne

Definition:Sei f : G −→ H ein Gruppenhomomorphismus. Dann heißt

ker(f) := {x ∈ G|f(x) = eH}

45

1 VEKTORRÄUME

der Kern von f .

Beispielf : Z −→ Z/n

a 7→ a mod nker(f) = nZ

1.5.5

Satz:Ist f : G −→ H ein Homomorphismus, so ist ker(f) ⊂ G eine Untergruppe. Fernergilt:

ker(f) = {eG} ⇔ f injektiv

Beweisker(f) ⊂ G ist Untergruppe: XFerner: ("⇒":)Wir wissen: ker(f) = {eG}zu zeigen: ∀x, y ∈ G : f(x) = f(y) ⇒ x = y.Seien also x, y ∈ G und f(x) = f(y)

⇒ eH = f(eg) = f(x◦x−1)fHomom

= f(x)◦f(x−1)V or.= f(y)◦f(x−1)

fHomom= f(y◦x−1)

⇒ y ◦ x−1 ∈ ker(f)⇒ y ◦ x−1 = eG |12⇒ y = x("⇐":)Sei x ∈ ker(f), d.h. f(x) = eH = f(eG).f inj.⇒ x = eG.

¤

1.5.6 Ring- und Körperhomomorphismen

Definition:Eine Abbildung f : R −→ S zwischen Ringen heißt Ringhomomorphismus , falls:

(i) f : (R, +) −→ (S, +) ist ein Gruppenhomomorphismus

(ii) ∀x, y ∈ R : f(x ·R y) = f(x) · f(y)

(iii) f(1R) = 1S

12(von rechts mit x verknüpfen)

46

1.6 Komplexe Zahlen

Ein Körperhomomorphismus ist ein Homomorphismus von Ringen.

Satz:Ist K ein Körper und f : K −→ R ein Ringhomomorphismus, so ist f injektiv.

Beweis Wir zeigen: ker(f : (K, +) −→ (R, +)) = {0K}:x ∈ K\{0K}, so existiert x−1 ∈ K.1R = f(1K) = f(x · x−1) = f(x) · f(x−1)Dies ist nur möglich, falls f(x) 6= 0R.

¤

Bemerkung Dies zeigt, dass für Körper nur Teil-(Unter)körper bzw. Körperer-weiterungen von Interesse sind.

Beispiel Q ⊂ R (fasse auf als Monomorphismus Q −→ R)

1.6 Komplexe Zahlen

In R ist das Quadrat jeder Zahl größer gleich null.Insbesondere hat die Gleichung x2 = −1 keine reelle Lösung x ∈ R. Wir behe-ben dies durch Einführung eines neuen Elements i, die imaginäre Einheit , mit derEigenschaft i2 = −1. Für λ, µ ∈ R ist dann auch λ + iµ ein Element des neuenZahlbereichs.

Geschichte del Ferro stellte seinem Schüler Tartaglio folgende Aufgabe:ax3 + bx2 + cx + d = 0. Dieser löste sie und gab die Lösung Cardano im Geheimenweiter. Cardano veröffentlichte darauf hin die Lösung dieses Problems in “Arsmagna sive de regulis algebraicis“ im Jahre 1545.

1.6.1 Algebraische Definition C

Idee Fasse λ + µi als Element von R×R = {(λ, µ)|λ, µ ∈ R} auf. Die formalenRechnungen:

(λ + iµ) + (λ′ + iµ′) = (λ + λ′) + i(µ + µ′)

(λ + iµ) · (λ′ + iµ′) = (λλ′ + i2µµ′) + i(λµ′ + µλ′)

= (λλ′ − µµ′) + i(λµ′ + µλ′)

motivieren die Definition:

47

1 VEKTORRÄUME

Definition:Die komplexen Zahlen C sind die Menge R×R mit den Verknüpfungen:

(λ, µ) + (λ′, µ′) := (λ + λ′, µ + µ′)

(λ, µ) · (λ′, µ′) := (λλ′ − µµ′, λµ′ + λµ′ + µλ′)

Schreibweise Für (λ, µ) ∈ C schreibe λ + µi oder λ + iµ. Ferner:

(λ, 0) = λ

(0, µ) = iµ, µi

0 := (0, 0)

1 := (1, 0)

Dies rechtfertigt die formalen Rechnungen.

1.6.2 Satz

(C, +, 0) ist ein Körper.

Beweis

1) (C, +, 0) ist eine abelsche Gruppe. Dies folgt komponentenweise aus den näm-lichen Eigenschaften von (R, +, 0).

2) (C\{0}, ·, 1) ist eine abelsche Gruppe.

abelsch folgt aus Definition XEinheit (1 + i0) · (λ + iµ) = λ + iµ. XAssoziativität (λ + iµ) · ((λ′ + iµ′) + (λ′′ + iµ′′))

= · · · = (λλ′λ′′−λµ′µ′′−µλ′µ′′−µµ′λ′′)+i(λλ′µ′′+λµ′µ′′+µλ′λ′′−µµ′µ′′)= · · · = ((λ + iµ) + (λ′ + iµ′)) · (λ′′ + iµ′′)

Inverse Zu (λ + iµ) 6= 0 ist ( λλ2+µ2 − µ

λ2+µ2 i) das Inverse:

(λ + iµ) · ( λ

λ2 + µ2− µ

λ2 + µ2i) =

1

λ2 + µ2((λ2 + (−µ)2) + i(−λµ + λµ)

= 1.

Distributivität Analog (zu Assoziativität) durch Rechnung. X

¤

Beispiel (3 + 4i)−1 = 325− 4

25i.

48

1.6 Komplexe Zahlen

1.6.3 Die Gaußsche Zahlenebene

Visualisiere komplexe Zahlen durch Punkte in der Ebene R2.Addition (= Vektoraddition)

MultiplikationMultipliziere die Länge der Vektoren, addiere ihre Winkel zur positiven x-Achse.

z = r(cos ϕ + i sin ϕ), z′ = r′(cos ϕ′ + i sin ϕ′)zz′ = rr′((cos ϕ · cos ϕ′ − sin ϕ · sin ϕ′) + i(cos ϕ · sin ϕ′ + sin ϕ · cos ϕ′))13 = rr′((cos(ϕ + ϕ′) + i sin(ϕϕ′))

Anwendung Multiplikation mit i = 1 · (cos π2+ i sin π

2) = Drehung um 90◦ = π

2.

1.6.4 Realteil, Imaginärteil, Betrag, komplexe Konjugation

Definition:Zu z = λ + iµ ∈ C definiere:

(1) Re(z) := λ Realteil von z

13Additionstheorem von Trigonometrischen Formeln

49

1 VEKTORRÄUME

(2) Im(z) := µ Imaginärteil von z

(3) z := λ− iµ das komplex Konjugierte zu z

(4) |z| :=√

λ2 + µ2 Betrag (Länge) von z

Eigenschaften

a) z ∈ C, dann gilt z ∈ R ⇔ z = Re(z) ⇔ Im(z) = 0 ⇔ z = z

b) z · w = z · wc) |z · w| = |z| · |w|

Insbesondere: λ ∈ R≥0, dann |λ · z| = λ · |z|.Ferner: z ∈ R, dann gilt: |z|C = |z|R.

d) |z|2 = zz

Demnach: z−1 = z|z|2 : z z

|z|2 = zz|z|2 = |z|2

|z|2 = 1

1.6.5 Polardarstellung, Eulersche Formel

Für ϕ ∈ R schreibe (Eulersche Formel):

eiϕ := cos ϕ + i sin ϕ

(Motiviert durch Einsetzen von iϕ in die Exponentialreihe: ↗ Analysis)

Analysis|z| = 1. (d.h.: z = λ + iµ mit λ2 + µ2 = 1)⇒ ∃ϕ ∈ [0, 2π) : λ = cos ϕ und µ = sin ϕ.D.h.: z = eiϕ

Umgekehrt: |eiϕ| =√

cos2 ϕ + sin2 ϕ = 1Für beliebiges z ∈ C\{0} : | z

|z| | = 1|z| · |z| = 1

Daher: z|z| = eiϕ für ein ϕ ∈ [0, 2π).

Demnach: ∀z ∈ C ∃r ≥ 0 ϕ ∈ [0, 2π) : z = reiϕ.

Argument von z ∈ C\{0} : Arg(z) := ϕ ∈ [0, 2π), falls z = reiϕ.

Bemerkung(reiϕ) · (r′eiϕ′) = (rr′) · ei(ϕ+ϕ′)

Alternativ: Arg(z) ∈ R\2πZ,(ϕ, ϕ′ ∈ R : ϕ ∼ ϕ′ :⇔ ∃k ∈ Z : ϕ′ = ϕ + k2π)

Demnach: Arg(z · z′) =

{Arg(z) + Arg(z′), falls < 2π

Arg(z) + Arg(z′)− 2π, sonst.

50

1.6 Komplexe Zahlen

1.6.6 Komplexe Zahlen der Länge 1 und Drehungen

Ist a ∈ C mit |a| = 1, so ist C −→ C, z 7→ a ·z eine Drehung um Arg(a) : (a = eiϕ)

eiα · (reiϕ) = rei(ϕ+α).

Insbesondere ist: U(1) := {z ∈ C||z| = 1} eine abelsche Gruppe und für jedesn ∈ Z ist Cn := {z ∈ C|zU = 1} = {ei k

n·2π|0 ≤ k < n} eine Untergruppe mit n

Elementen, die isomorph zu Z/n ist: Z/n −→ Cn, k 7→ ekn

2πi ist ein Isomorphis-mus.

Beispiel n = 8

Die Lösungen ekn

2πi der Gleichung zU = 1 heißen n-te Einheitswurzel .

1.6.7 Bemerkung

Bisher: Q,R,F2,Q[√

8],CEs gibt sehr viele andere Körper, z.B. für beliebiges S ⊂ R den kleinsten Unter-körper K ⊂ C, der S enthält:

K :=⋂L⊂C

L.

Ist S = {α1, . . . , αn}, so schreibt man Q(α1, . . . , αn} für diesen Körper K.

Beispiel: Q[√

8] = Q(√

8) (↗ Algebra).

51

1 VEKTORRÄUME

1.7 Vektorräume (Der Begriff des Vektorraums)

Vektorräume abstrahieren "lineare Strukturen".

Beispiele/Motivation:

1.7.1 Naive Vektorrechnung

“Ein (ebener) Vektor ist ein Pfeil in der Ebene, der beliebig parallel verschiebbarist. Er ist eindeutig durch seine Länge, Richtung und Orientierung festgelegt.“D.h.: Vektoren = {Pfeile}/Translation

Operationen auf Vektoren:Addition:

Streckung/Stauchung:

Alternativ: Vektoren = Translation der Ebene: ~u ↔ Verschiebung um ~u.

52

1.7 Vektorräume (Der Begriff des Vektorraums)

1.7.2 R2

Nach Wahl eines (kartesischen) Koordinatensystems:~u = (u1, u2) (mit u1, u2 ∈ R)

Addition: (u1, u2) + (v1, v2) = (u1 + v1, u2, v2)

Streckung/Stauchung: λ · (u1, u2) = (λu1, λu2) λ ∈ R.

1.7.3 Kn

Wir können ohne Mühe auch n statt 2 Einträge behandeln; ferner können dieEinträge Elemente aus einem beliebigen Körper K sein (“Skalare“).Als Menge: Kn = K × · · · ×K︸ ︷︷ ︸

n−mal

Addition: (α1, . . . , αn) + (β1, . . . , βn) := (α1 + β1, . . . , αn + βn).Multiplikation mit Skalaren: λ · (α1, . . . , αn) := (λα1, . . . , λαn)

1.7.4 Ebenen in R3

z.B.

E = Tangentialebene an Kugel ⊂ R3.Die Vektoren auf E lassen sich als Vektoren inR3 auffassen, d.h. als ~u = (α1, α2, α3),deren Komponenten αi eine lineare Gleichung

λ1α1 + λ2α2 + λ3α3 = 0 (Ebenengleichung)

53

1 VEKTORRÄUME

mit λ1, λ2, λ3 ∈ R (nicht alle = 0) erfüllen.Haben ~u,~v ∈ E\{0} verschiedene Richtungen, so liefert

(α, β) 7→ α~u + β~v

eine Idenitifikation von R2 mit E (Wahl eines Koordinatensystems).

1.7.5 K-wertige Folgen

Eine K-wertige Folge ist eine Abbildung

a : N −→ K.

Falls a(n) = a1, so schreibt man (an).

(an) + (bn) := (an + bn)

λ ∈ K λ · (an) := (λan).

1.7.6 K-wertige Abbildungen

Allgemeiner können wir Abbildungen von einer beliebigen Menge M in einen Kör-per K als Vektoren über K auffassen: f, g ∈ Abb(M, K), λ ∈ K

f + g : M −→ K, x 7→ f(x) + g(x)

λ · f : M −→ K,x 7→ λ · f(x)

Die gleiche Definition funktioniert für Teilmengen ∅ 6= U ⊂ Abb(M,K), soferndiese unter der Addition und der Skalarmultiplikation abgeschlossen sind:

∀f, g ∈ U : f + g ∈ U∀λ ∈ K ∀f ∈ U : λf ∈ U.

}Kurz: U + U = U,K · U = U.

Beispiel U = C0([a, b]) := {f : [a, b] −→ R|f stetig}

54

1.7 Vektorräume (Der Begriff des Vektorraums)

1.7.7 Lösungsräume linearerDifferentialgleichungen(↗Analysis)

Für differenzierbare Funktionen f, g : R −→ R betrachte das System von Glei-chungen:

f ′ = gg′ = −f

(∗)

Die Lösungen (f, g) von (∗) verhalten sich wie Vektoren über R:

(f1, g1) und (f2, g2) lösen (∗) ⇒ (f1 + f2, g1 + g2) löst (∗)λ ∈ R, (f, g) löst (∗) ⇒ (λf, λg) löst (∗)

Bemerkung(f, g) löst (∗) ⇔ ∃α, β ∈ R : f = α sin t + β cos t

g = α cos t− β sin t.Abstrakt gesehen ist dieses Beispiel nichts anderes als 1.7.2 (R2) vermöge14 (α, β) 7→(α sin t + β cos t, α cos t− β sin t)

1.7.8 Körpererweiterungen

Ist K ein Körper und K ⊂ L eine Körpererweiterung (d.h. K ist Unterkörper vonL), so können wir die Elemente von L als Vektoren über K auffassen:

u, v ∈ L ⇒ u + v ∈ L

λ ∈ K,u ∈ L ⇒ λu ∈ L

Beispiel

a) R ⊂ C : vergleiche wieder 1.7.2 und 1.7.3 : R2 −→ C, (α, β) 7→ α + βibijektiv

b) Q ⊂ Q[√

2] = Q[√

8] : Q2 −→ Q[√

2], (α, β) 7→ α + β√

2 bijektiv

c) Q ⊂ R : eine “rießige“ Menge von Vektoren

14in dem man das folgende tut

55

1 VEKTORRÄUME

1.7.9 (Abstrakte) Vektorräume

Ab jetzt K sei ein fest gewählter Körper, falls nicht anders angegeben. (Ã Ska-lare)

Definition:Ein K-Vektorraum ist eine abelsche Gruppe (V, +, 0V ) zusammen mit einer Abbil-dung

K × V −→ V, (λ, v) 7→ λ · vmit den folgenden Eigenschaften:

(i) ∀λ ∈ K ∀v, w ∈ V : λ(v + w) = λv + λw

(ii) ∀λ, µ ∈ K ∀v : (λ + µ)v = λv + µv

(iii) λ(µv)︸ ︷︷ ︸2 mal Skalarmult.

= (λµ)︸︷︷︸Multiplikation in K

·v

(iv) 1 · v = v

Elemente von V heißen Vektoren und Elemente von K heißen Skalare.Beachte: Skalare multiplizieren wir nur von links!

Bemerkung

a) ∀v ∈ V : 0v = 0

Beweis : 0v + 0v = 0v = (0 + 0)v(ii)= 0v + 0v

⇒ 0v = 0v.

∀v ∈ V : (−1)v = −v

Beweis : (−1)v + v(iv)= (−1)v + 1v

(ii)= (−1 + 1)v = 0v = 0v.

(vergleiche 1.4.8.1 und 1.4.8.2 )

b) Die Vektorraumaxiome (ii)− (iv) implizieren:∀v ∈ V \{0} ist K ·v ⊂ V stabil unter der Addition und Skalarmultiplikation.Und ϕ : K −→ K · v, α 7→ α · v identifiziert die Addition und Multiplikationin K mit der Vektoraddition und Skalarmultiplikation in K · v.

Kurzschreibweisen:

• "Der (K-) Vektorraum V"

• 0 statt 0V

• λv statt λ · v

56

1.7 Vektorräume (Der Begriff des Vektorraums)

1.7.10 (i), (ii), (iii) und (iv) fur Kn

λ, µ ∈ K, v = (α1, . . . , αn), w = (β1, . . . , βn) ∈ Kn.

(i) λ(v + w) = λ(α1 + β1, . . . , αn + βn)= (λ(α1 + β1), . . . , λ(αn + βn))= (λα1 + λβ1, . . . , λαn + λβn)= (λα1, . . . , λαn) + (λβ1, . . . , λβn)= λ(α1, . . . , αn) + λ(β1, . . . , βn)= λv + λw

(ii) (λ + µ)v = ((λ + µ)α1, . . . , (λ + µ)αn)= (λα1, . . . , λαn) + (µα1, . . . , µαn)= λv + µv

(iii) λ(µ · v) = (λµα1, . . . , λµαn)= (λµ)(α1, . . . , αn)= (λµ)v

(iv) 1 · v = (1 · α1, . . . , 1 · αn)= v

1.7.11 Lineare Abbildungen

Dies sind die Homomorphismen von Vektorräumen.

Definition:Seien V, W K-VR15. Eine Abbildung ϕ : V −→ W heißt linear , falls:

(i) ϕ ein Homomorphismus der abelschen Gruppen (V, +) −→ (W, +) ist.

(ii) ∀λ ∈ K ∀v ∈ V : ϕ(λ · v) = λ ϕ(v).

Bemerkung

a) (i) und (ii) sind äquivalent zu: ∀λ, µ ∈ K ∀v, w ∈ V :

ϕ(λv + µw) = λ ϕ(v) + µ ϕ(v) :

(i) Setze λ = µ = 1 :

ϕ(v + w)(iv)= ϕ(1v + 1w) = 1ϕ(v) + 1ϕ(w)

(iv)= ϕ(v) + ϕ(w).

15K-Vektorraum/-räume

57

1 VEKTORRÄUME

(ii) Setze w = 0v, µ = 1 :

λv = λv + 0v(ii)= λv + 1 · 0v.

Demnach gilt:ϕ(λv) = ϕ(λv + 1 · 0v) = λ ϕ(v) + 1ϕ(0v)

(Bem5.1a))= λ ϕ(v) + 1 · 0v =

λ ϕ(v) + 0w

= λ ϕ(v).

b) Ist ϕ bijektiv (injektiv/surjektiv), so spricht man von einem Isomorphismus(Monomorphismus/Epimorphismus). Zwei (K-)VR V,W heißen isomorph,falls es einen Isomorphismus V −→ W gibt.Schreibweise: V ' W (sprich: "V isomorph W").

1.7.12 Beispiele

a) Sei V ein VR16, dann ist ϕ : K = K1 −→ V genau dann linear, wenn ∃v ∈ Vmit ϕ(α) = αv.("⇐":)λ, µ ∈ K, α, β ∈ K1 = Kϕ(λα + µβ) = (λα + µβ)v = λ(αv) + µ(βv) = λ ϕ(α) + µ ϕ(β).("⇒":)Setze v := ϕ(1)Dann gilt für α ∈ K : ϕ(α) = ϕ(α · 1) = α ϕ(1) = α · v.

Erläuterungen

1) K ist K-VR (siehe 1.7.8: K ⊂ K), und es gilt K = K1 = K × · · · ×K︸ ︷︷ ︸n=1

=

K.

2) Eine Abbildung ϕ : K −→ K ist linear, genau dann, wenn ein β ∈ Kexistiert mit ∀x ∈ K : ϕ(x) = βx (v = β in obiger Notation).

Vorsicht: In der Schule nennt man eine Funktion f : R −→ R, x 7→f(x) linear, falls f(x) = mx + a (m, a ∈ R). Präziser sollte man füra 6= 0 hier von (↗)affinen Funktionen reden:

3) V = R2, v = (2, 1), ϕ : R −→ R2, α 7→ (2α, α)

b) ϕ : Kn −→ K ist linear⇔ ∃ α1, . . . , αn ∈ K : ∀v = (v1, . . . , vn) ∈ Kn

ϕ(v) = α1v1 + · · ·+ αnvn.

16Vektorraum

58

1.7 Vektorräume (Der Begriff des Vektorraums)

("⇐":)Sei λ, µ ∈ K, v = (v1, . . . , vn), w = (w1, . . . , wn) ∈ Kn

ϕ(λv + µw) = ϕ(λv1 + µw1, . . . , λvn + µwn)= α1(λv1 + µw1) + · · ·+ αn(λvn + µwn)= λ(α1v1 + · · ·+ αnvn) + µ(α1w1 + · · ·+ αnwn)= λ ϕ(v) + µ ϕ(w).

("⇒":)Setze α1 := ϕ(ei), ei = (0, . . . , 0, 1, 0 . . . , 0)Dann gilt für v = (v1, . . . , vn) = v1e1 + · · ·+ vnen

ϕ(v) = ϕ(v1e1 + · · ·+vnen) = v1ϕ(e1)+ · · ·+vnϕ(en) = v1α1 + · · ·+vnαn.

etwa:K = R, n = 2, α1 := 1, α2 := 2ϕ : R2 −→ R, (v1, v2) 7→ v1 + 2v2.

c) ϕ : K2 −→ K, ϕ((λ, µ)) := λµ ist nicht linear.1 = ϕ((1, 1)) = ϕ((1, 0) + (0, 1)) 6= ϕ((1, 0)) + ϕ((0, 1)) = 0.

d) ϕ : K −→ K, λ 7→ λ2 ist nicht K-linear (außer 1 + 1 = 0 in K (z.B. F2))ϕ(1 + 1) = (1 + 1)2 = 1 + 1 + 1 + 1 = 4ϕ(1) + ϕ(1) = 12 + 12 = 1 + 1 = 2.

1.7.13 Beispiele aus der Analysis

a) V = {f : R −→ R|fdifferenzierbar}, W = Abb(R,R)Die folgenden Abbildungen sind linear:D : V −→ W, f 7→ f ′

ev0 : W −→ R, f 7→ f(0) (Auswertung: engl. “evaluation“)ϕ : V −→ R2, f 7→ (f(0), f ′(0))∫ 1

0: V −→ R, f 7→ ∫ 1

0f(x)dx

b) V = {(an)n∈N|an ∈ R, an konvergiert gegen eine reelle Zahl}lim : V −→ R, (an) 7→ lim

n�∞an.

1.7.14 Unterräume

Diese verallgemeinern Geraden im R2 und Geraden und Ebenen im R3, welche denNullpunkt erhalten.

Definition:Sei V ein K-VR. Eine Teilmenge U ⊂ W ist ein (linearer) Unterraum (Untervek-torraum), falls:

59

1 VEKTORRÄUME

(i) 0v ∈ U

(ii) ∀v, w ∈ U : v + w ∈ U

(iii) ∀λ ∈ K ∀v ∈ U : λv ∈ U .

Bemerkung

a) (U, +, ·) ist dann selber ein K-VR.

b) (i)− (iii) ⇔ U 6= ∅ und ∀λ, µ ∈ K ∀v, w ∈ U : λv + µw ∈ U .

Diskussion von (i)-(iii) an Nicht-Beispielen - V = R2:

(i) U = {u + λv|λ ∈ R}

0v /∈ U es sei denn, u ∈ R · v. Dies ist kein Unterraum.

(ii) U = Ru ∪ Rv

u + v /∈ U . Dies ist kein Unterraum.

(iii) U := Z2 ist eine Untergruppe von (R2, +), aber kein Unterraum:(1, 1) ∈ U , aber 1

2(1, 1) = (1

2, 1

2) /∈ U .

60

1.7 Vektorräume (Der Begriff des Vektorraums)

1.7.15 Beispiele

a) Sei V ein K-VR, so sind {0v} und V Unterräume.

b) Unterräume in R3:

– {0R3},– Geraden durch 0R3 : Rv, v ∈ R3\{0R3},– Ebenen durch 0R3 : U = Rv +Rw, v 6= 0R3 , w ∈ R3\Rv,

– R3.

(↗ Das sind alle!)

c) {(an)n∈N|(an) konvergiert gegen λ ∈ R} =: UU ⊂ Abb(N,R) = {(an)|an ∈ R} ist ein Unterraum.(0)n∈N, +, · OK!

1.7.16 Summen und Durchschnitte

Satz:Seien V ein Vektorraum und U1, U2 ⊂ V Unterräume.

a) Die Summe U1 + U2 := {u ∈ V |∃u1 ∈ U1, u2 ∈ U2 : u = u1 + u2} istder kleinste Unterraum von V , der sowohl U1 als auch U2 enthält: ∀U ⊂ VUnterräume mit

U1 ⊂ U,U2 ⊂ U ⇒ U1 + U2 ⊂ U (∗1)

b) Der Durchschnitt U1 ∩U2 ist der größte Unterraum von V , der sowohl in U1

als auch in U2 enthalten ist: ∀U ⊂ V Unterräume mit

U ⊂ U1, U ⊂ U2 ⇒ U ⊂ U1 ∩ U2 (∗2)

BeweisDass U1 + U2 und U1 ∩ U2 Unterräume sind, folgt durch direktes Nachrechnen.Etwa (ii) in (a): v, w ∈ U1 + U2 dann existieren v1, w1 ∈ U1 und v2, w2 ∈ U2 mitv = v1 + v2 und w = w1 + w2, sodass v + w = (v1, w1)︸ ︷︷ ︸

⊂U1

+ (v2, w2)︸ ︷︷ ︸⊂U2

⊂ U1 + U2.

Es bleiben die Eigenschaften (∗1), (∗2) zu zeigen:

a) Sei U ⊂ V Unterraum mit U1 ⊂ U,U2 ⊂ U.Sei u ∈ U dann gibt es u1 ∈ U1 und u2 ∈ U2 mit u1 + u2 ∈ U .

b) Folgt rein Mengentheoretisch.

61

1 VEKTORRÄUME

1.7.17 Kerne und Bilder

Satz:Sind V, W K-VR und ϕ : V −→ W , so sind Kern (vgl. 1.5.4) bzw. Bild von ϕ

ker(ϕ) := {v ∈ V |ϕ(v) = 0w}im(ϕ) := ϕ(V ) = {ϕ(v)|v ∈ V }.

Untervektorräume von V bzw. W .

Beweis

• – ker(ϕ) 6= ∅, denn 0v ∈ ker(ϕ)

– Sei λ, µ ∈ K, v, w ∈ ker(ϕ) :

ϕ(λv + µw)ϕ linear

= λϕ(v) + µϕ(w) = λ · 0w + µ · 0w = 0w.

⇒ ker(ϕ) ist Unterraum von V .

• – im(ϕ) 6= ∅, denn 0w = ϕ(0v) ∈ im(ϕ)

– Sei λ, µ ∈ K, v, w ∈ im(ϕ), d.h. ∃v′, w′ ∈ V : ϕ(v′) = v, ϕ(w′) = w :

λv + µw = λϕ(v′) + µϕ(w′)ϕ linear

= ϕ(λv′ + µw′) ∈ im(ϕ)

⇒ im(ϕ) ist Unterraum von W .

¤

1.7.18 Historisches

William R. Hamilton (1843) - QuaternionenHermann Grassmann (1844) - Die lineare AusdehnungslehreHermann Weyl (1917) - Raum-Zeit-Materie

1.8 Basis und Dimension

Um in abstrakten VR arbeiten zu können, brauchen wir ein lineares Koordinaten-system. Dieses erhält man durch eine Basis .Im Rn:

(λ1, . . . , λn) = λ1e1 + λ2e2 + · · ·+ λnen

In V :Finde v1, . . . , vn, so dass sich jedes v ∈ V eindeutig schreiben lässt:

v = λ1v1 + · · ·+ λnvn.

62

1.8 Basis und Dimension

1.8.1 Linearkombination

Definition:Sei V ein K-VR. Ein v ∈ V heißt Linearkombination von v1, . . . , vn ∈ V ,falls λ1, . . . , λn ∈ K existiert mit:

v = λ1v1, . . . , λnvn.

Die Menge aller Linearkombinationen von v1, . . . , vn

L(v1, . . . , vn) = {n∑

i=1

λivi|λi ∈ K}

heißt lineare Hülle (Erzeugnis) der vi. Ist U ein Unterraum, so erzeugen v1, . . . , vn

diesen Unterraum, falls U = L(v1, . . . , vn).(Auch: v1, . . . , vn spannen U auf)

BemerkungEs ist sinnvoll, das Erzeugnis einer (evtl. unendlichen) Teilmenge S ⊂ V zu be-trachten. Allerdings können wir nur endliche Linearkombinationen zulassen:

L(S) = {v ∈ V |∃n ∈ N, v1, . . . , vn ∈ S ∃λ1, . . . , λn ∈ K : v = λ1v1 + · · ·+ λnvn}.

1.8.2 Beispiele

a) e1, . . . , en ∈ Kn erzeugen Kn (L(e1, . . . , en) = Kn)

b) (2, 1) , (1, 3) erzeugen R2.(2, 1) , (1, 3) , (1, 0) erzeugen auch R2.

c) (1, 0, 1) , (0, 1,−2) spannen die Ebene {(λ, µ, λ− 2µ)|λ, µ ∈ R} in R2 auf.

d) S = {ei|i ∈ N} erzeugen nicht Abb(N, K) = {(an)}L(S) enthält nur Folgen (an) = λ1e1 + · · ·+ λkeik .Insbesondere ist (1, 0, 1, 0, . . . ) /∈ L(S).

1.8.3 Lineare Unabhängigkeit

Um die Eindeutigkeit der Darstellung v = λ1v1 + · · ·+λnvn zu erreichen, muss dieMenge {v1, . . . , vn} minimal gewählt werden.

Beispielv1 = (2, 1), v2 = (2, 3), v3 = (1, 0)

63

1 VEKTORRÄUME

v = (1, 1) = v1 + v3 = 14v1 + 1

4v2.

Grund für diese “Nichteindeutigkeit“ ist die Relation 4v1 − 4v3 = v1 + v2

⇔ 3v1 + v2 − 3v3 = 0.

Definition:v1, . . . , vn ∈ V heißen linear unabhängig , falls ∀λ1, . . . , λn ∈ K :

λ1v1 + · · ·+ λnvv = 0

⇒ λ1 = · · · = λn = 0

Andernfalls heißen v1, . . . , vn linear abhängig . ∃λ1, . . . , λn ∈ K :

λ1v1 + · · ·+ λnvn = 0 ∃i : λi 6= 0.

BemerkungWieder kann man lineare Unabhängigkeit auch für unendliche Teilmengen S ⊂ Vdefinieren:∀n ∈ N ∀v1, . . . , vn ∈ S mit (vi 6= vj) ∀λ1, . . . , λn ∈ K:

λ1v1 + · · ·+ λnvn = 0

⇒ λ1 = · · · = λn = 0

1.8.4 Beispiele

a) e1, . . . , en ∈ Kn

Sind λ1, . . . , λn ∈ K und∑n

i=1 λiei = 0 : (λ1, . . . , λn) =∑n

i=1 λiei = 0⇒ λ1 + · · ·+ λn = 0⇒ e1, . . . , en linear unabhängig.

b) v1 = (2, 1), v2 = (2, 3) sind linear ? .λ1v1 + λ2v2 = 0⇔ (2λ1 + λ2, λ1 + 3λ2) = 0⇒ (I)2λ1 + λ2 = 0; (II)λ1 + 3λ2 = 0⇒ (I)− 2(II) : −4λ2 = 0; 2λ1 + 2λ2 = 0⇒ λ1 = λ2 = 0.⇒ v1, v2 sind linear unabhängig.

Beobachtung: Lineare Unabhängigkeit in Kn bedeutet, dass ein lineareshomogenes Gleichungssystem (in den Variablen λ1, . . . , λn) nur die triviale Lösunghat.

64

1.8 Basis und Dimension

1.8.5 Elimination von Erzeugern

Sind v1, . . . , vn linear abhängig, so lässt sich einer der vi durch die anderen linearausdrücken.

Satz:Sei V ein VR und v1, . . . , vn ∈ V linear abhängig. Dann existiert ein i ∈ {1, . . . , n}und µj ∈ K, j ∈ {1, . . . , n}\(i), mit

vi =∑

j 6=i

µjvj.

Beweis∃λ1, . . . , λn ∈ K :

n∑i=1

λivi = 0 und ∃i : λi 6= 0.

⇒ λivi = −∑j 6=i

λjvj, λi 6= 0

⇒ viλi 6=0=

∑j 6=i

−λj

λivj.

Setze : µi :=−λj

λi.

¤Bemerkung

VORSICHT, man kann im allgemeinen nicht i = 1 wählen.

BeispielV = R2, K = R v1 := (2, 1), v2 := (2, 2), v3 := (3, 3).Lineare Relation zum Beispiel: 3v2 − 2v3 = 0Es gilt: v1 /∈ L(v2, v3) = R(1, 1) (i = 1, nicht OK)Aber: v2 = 2

3v3 + 0v1 und v3 = 3

2v2 + 0v1 (i = 2, 3, sind OK)

Folgerung:

a) v1 ∈ V ist linear abhängig⇔ v1 = 0.

b) v1, v2 ∈ V sind linear unabhängig⇔ v1 6= 0 und v2 ∈ V \L(v1)⇔ v2 6= 0 und v1 ∈ V \L(v2).

1.8.6 Basen

Definition:Sei V ein K-VR. Eine Basis von V ist ein Tupel (v1, . . . , vn), vi ∈ V , für ein n ∈ Nmit:

65

1 VEKTORRÄUME

(i) v1, . . . , vn erzeugen V

(ii) v1, . . . , vn sind linear unabhängig.

Notationsmissbrauch: “Sei v1, . . . , vn eine Basis. . . “

Bemerkung

a) Man kann eine Basis auch als linear unabhängige Menge S ⊂ V definierenmit V = L(S). Dies ist zum Beispiel erforderlich, wenn es keine Basis endli-cher Länge n gibt, zum Beispiel für Abb(N, K). Unsere Definition ist leichterzu handhaben, wenn wir lineare Abbildungen durch Matrizen repräsentieren.Beachte: v1, v2, v3, . . . , vn und v2, v1, v3, . . . , vn sind für uns verschiedene Ba-sen.

b) In der Quantenmechanik benutzt man einen anderen Basisbegriff, der auchunendliche (konvergierende) Linearkombinationen zulässt (↗Funktionalanalysis)

Beispiel

a) e1, . . . , en ∈ Kn, ei = (0, . . . , 0, 1, 0, . . . , 0), ist eine Basis für Kn. Man nenntsie die kanonische Basis.

b) (1, 2), (2, 3) ist eine Basis für R2.

1.8.7 Eindeutige Darstellbarkeit (Satz vomKoordinatensystem)

Satz:Sei V ein K-VR und v1, . . . , vn Basis von V . Dann gibt es für jedes v ∈ V eindeutigeλ1, . . . , λn ∈ K mit:

v =n∑

i=1

λivi.

Bemerkung(λ1, . . . , λn) ∈ Kn kann man als “Koordinate“ von v bezüglich des von v1, . . . , vn

definierten linearen Koordinatensystems ansehen.

BemerkungDa V = L(v1, . . . , vn), existieren λ1, . . . , λn ∈ K mit

v =n∑

i=1

λivi.

66

1.8 Basis und Dimension

Eindeutigkeit:Seien λ1, . . . , λn ∈ K und λ′1, . . . , λ

′n ∈ K mit

v =n∑

i=1

λivi =n∑

i=1

λ′ivi

⇒n∑

i=1

(λi − λ′i) = 0

v1,...,vnlin. unabh.⇒ ∀i : λi − λ′i = 0, d.h. : λ′i = λi.

1.8.8 Interpretation durch ϕ : Kn −→ V

Gegeben v1, . . . , vn ∈ V , V ein K-VR, so erhalten wir die lineare Abbildung

ϕ : Kn −→ V, (λ1, . . . , λn) 7→ λ1v1 + · · ·+ λnvn

mit der charakteristischen Eigenschaften ϕ(ei) = vi. Jede Abbildung ϕ : Kn −→ Verhält man auf diese Weise:Setze vi := ϕ(ei). Es gilt: ϕ(λ1, . . . , λn) = ϕ(

n∑i=1

λiei) =n∑

i=1

λiϕ(ei) =n∑

i=1

λivi.

Satz:Sei ϕ wie oben. Dann gilt:

a) v1, . . . , vn erzeugen V ⇔ ϕ ist surjektiv

b) v1, . . . , vn sind linear unabhängig ⇔ ϕ ist injektiv

c) v1, . . . , vn ist eine Basis ⇔ ϕ ist bijektiv

Beweis

c) folgt aus a) und b)

a) L(v1, . . . , vn) = {v ∈ V |∃λ1, . . . , λn ∈ K : v =n∑

i=1

λivi}= {v ∈ V |∃(λ1, . . . , λn) ∈ Kn : v = ϕ(λ1, . . . , λn)}= im(ϕ).

b) Seien λ1, . . . , λn ∈ K. Dann gilt:

n∑i=1

λivi = 0 ⇔ (λ1, . . . , λn) ∈ ker(ϕ)

67

1 VEKTORRÄUME

Demnach: v1, . . . , vn linear unabhängig⇔ ker(ϕ) = {(0, . . . , 0)}Satz 1.5.5⇔ ϕ injektiv.(Wir sehen hier ϕ als Homomorphismus (abelscher) Gruppen an:ϕ : (Kn, +) −→ (v, +).)

1.8.9 Zum weiteren Vorgehen

Ein VR V heißt endlich erzeugt , falls er durch endlich viele Elemente aufgespanntwerden kann. (d.h.: ∃ϕ : Kn −→ V Epimorphismus). Für solche V wollen wirzeigen:

(1) V besitzt eine Basis

(2) Je zwei Basen haben die gleiche Länge n.(Wir definieren dann dim(V ) := n, Dimension von V .)

zu (1) Kann man leicht beweisen, indem man aus Erzeugern v1, . . . , vm so langeElemente entfernt (mit 1.8.5 ), bis sie linear unabhängig werden. (“Basisaus-wahlsatz “)

zu (2) Folgt dann dadurch, dass man linear unabhängige w1, . . . , wn (gegeben eineBasis v1, . . . , vn) mit n − m ≥ 0 Elementen von v1, . . . , vn zu einer Basisergänzen kann. (“Steinitzscher Basisaustauschsatz “)

Wir werden etwas ökonomischer vorgehen und (1) und (2) als leichte Folgerun-gen aus den etwas technischen Resultaten 1.8.10 und 1.8.11 herleiten.

1.8.10 Satz (“Basisergänzungssatz“)

Seien V ein K-VR und w1, . . . , wk ∈ V Erzeuger von V , d.h. V = L(w1, . . . , wk).Sind dann v1, . . . , vr ∈ V linear unabhängig, so existiert s ≥ 0 mit j(1), . . . , j(s) ∈{1, . . . , k} mit der Eigenschaft:

v1, . . . , vr, wj(1), . . . , wj(s)

ist eine Basis von V .M.a.W.: Jedes linear unabhängige System von Vektoren kann durch Elemente ei-nes Erzeugendensystems zu einer Basis ergänzt werden.

BeispielV = R3, wi = ei, i = 1, 2, 3 (k = 3), v1 = (1, 0, 1), v2 = (0, 0, 1) (r = 2)

68

1.8 Basis und Dimension

v1, v2, w1 ist keine Basis: v1 − v2 − w1 = 0v1, v2, w3 ist keine Basis: v2 − w3 = 0v1, v2, w2 ist eine Basis.Also s = 1 und j(1) = 2.

Im Beweis benutzen wir:

Lemma (= Hilfssatz)

Seien v1, . . . , vr ∈ V linear unabhängig und w ∈ V . Dann gilt:

v1, . . . , vr, w sind linear abhängig ⇔ w ∈ L(v1, . . . , vr).

Beweis("⇒":)

∃λ1, . . . , λr, λ ∈ K :r∑

i=1

λivi + λw = 0 und (∃i : λi 6= 0 oder λ 6= 0).

Angenommen λ = 0 : Dann giltr∑

i=1

λivi = 0

v1,...,vr lin.unabh.⇒ λ1 = · · · = λr = 0 Also gilt λ 6= 0 und w =

r∑i=1

(−λi

λ)vi ∈ L(v1, . . . , vr).

("⇐":)w ∈ L(v1, . . . , vr)

⇒ ∃λ1, . . . , λr ∈ K : w =r∑

i=1

λivi

⇒r∑

i=1

λivi − w = 0 ist eine nichttriviale Relation.

¤

Beweis des Satzes 1.8.10:

Idee Füge sukzessive wi hinzu, sofern wir dadurch den aufgespannten Unterraumvergrößern.

(1) Betrachte:Ui := L(v1, . . . , vr, w1, . . . , wi), i = 0, . . . , k (U0 = L(v1, . . . , vr))Es gilt: L = (v1, . . . , vr) = U0 ⊂ · · · ⊂ Uk = L(v1, . . . , vr, w1, . . . , wk) = V.Definiere: 1 ≤ j(1) < · · · < j(s) ≤ k als die “Sprungstellen“ der Folge der Ui:{j(1), . . . , j(s)} = {i ∈ {1, . . . , k}|Ui−1 6= Ui}.Setze ferner j(0) := 0, j(s + 1) := k.

69

1 VEKTORRÄUME

(2) Behauptung:Für i ∈ {1, . . . , k} sei ν ∈ {0, . . . , s} so, dass j(ν) ≤ i ≤ j(ν + 1).Dann gilt: Ui = L(v1, . . . , vr, wj(1), . . . , wj(ν)).

Beweis durch Induktion nach i:i = 0 : ν = 0 : U0 = L(v1, . . . , vr) Xi � i + 1: Sei ν so, dass j(ν) ≤ i ≤ j(ν + 1)

Fall 1) i + 1 < j(ν + 1)

Dann Ui+1 = UiInd.V or.

= L(v1, . . . , vr, wj(1), . . . , wj(ν))

Fall 2) i + 1 = j(ν + 1)Dann Ui+1 = L(v1, . . . , vr, w1, . . . , wi+1)

= L(v1, . . . , vr, w1, . . . , wi) + K · wi+1Ind.V or.

= L(v1, . . . , vr, wj(1), . . . , wj(ν)) + K · wj(ν+1)

= L(v1, . . . , vr, wj(1), . . . , wj(ν+1)). X

(3) Behauptung:v1, . . . , vr, wj(1), . . . , wj(ν) sind linear unabhängig für ν = 0, . . . , s.

Beweis durch Induktion nach ν:ν = 0 : v1, . . . , vr sind linear unabhängig Xν � ν + 1 : v1, . . . , vr, wj(1), . . . , wj(ν) sind linear unabhängig (Ind.Vor.)L(v1, . . . , vr, wj(1), . . . , wj(ν)) = Uj(ν) 6= Uj(ν+1) = L(v1, . . . , vr, wj(1), . . . , wj(ν+1))Lemma⇒ v1, . . . , vr, wj(1), . . . , wj(ν+1) sind linear unabhängig.

(4) Demnach ist v1, . . . , vr, wj(1), . . . , wj(s) eine Basis:V = Uk = L(v1, . . . , vr, wj(1), . . . , wj(s)) nach (2)v1, . . . , vr, wj(1), . . . , wj(s) sind linear unabhängig nach (3)

¤

1.8.11 Zusatz zu Satz 1.8.10

r ≤ k

Beweiso.E. sei die Nummerierung der vi so, dass v1, . . . , vn /∈ {w1, . . . , wk},v1, . . . , vr ∈ {w1, . . . , wk},o.E. seien auch w1, . . . , wk paarweise verschieden.

70

1.8 Basis und Dimension

Beweis durch Induktion nach n = #{vi|vi /∈ {w1, . . . , wk}}n = 0: {v1, . . . , vr} ⊂ {w1, . . . , wk}vi paarweise verschieden⇒ r ≤ kn � n + 1 : v1, . . . , vn+1 /∈ {w1, . . . , wk}, vn+2, . . . , vr ∈ {w1, . . . , wk}Wende Satz 1.8.10 auf v1, . . . , vn, vn+2, . . . , vr und w1, . . . , wk an.⇒ ∃ : j(1) < · · · < j(s) : v1, . . . , vn, vn+2, . . . , vr, wj(1), . . . , wj(s) Basis.Es gilt: s ≥ 1, denn sonst (s = 0) wäre vn+1 ∈ L(v1, . . . , vn, vn+2, . . . , vr), alsowären v1, . . . , vr linear unabhängig (↗ Lemma in 1.8.10 ) Aus der Induktionsvoraussetzung für v1, . . . , vn, vn+2, . . . , vr, wj(1), . . . , wj(s) undw1, . . . , wk (hier ist immer noch #{v ∈ {v1, . . . , vn, vn+2, . . . , vr, wj(1), . . . , wj(s)}|v /∈{w1, . . . , wk}} = n) folgt:r − 1 + s ≤ k.

Demnach gilt: rs≥1

≤ r − 1 + s ≤ k.

1.8.12 Existenz von Basen

Satz:Jeder endlich erzeugte VR hat eine Basis und je zwei Basen haben die gleicheLänge.

BeweisExistenz:V endlich erzeugt ⇒ ∃w1, . . . , wk : V = L(w1, . . . , wk)Basisergänzungssatz (Satz 1.8.10 ) anwenden mit r = 0 zeigt:∃j(1) < · · · < j(s) : wj(1), . . . , wj(s) ist eine Basis.Eindeutigkeit der Länge:Seien v1, . . . , vr und v′1, . . . , v

′r Basen, so liefert der Zusatz (1.8.11) zum Basiser-

gänzungssatz (mit wj = v′j, also k = r′) : r ≤ r′.Vertauschen der beiden Basen liefert ebenso r′ ≤ r.

¤

1.8.13 Dimension

Definition:Die Dimension eines endlich erzeugten K-VR ist die Länge einer (jeder) Basis.

Schreibweise: dimK V ∈ N oder dim V , falls K selbstverständlich ist.Wir sagen: V hat unendliche Dimension falls V nicht endlich erzeugt ist: dim V =∞.

71

1 VEKTORRÄUME

1.8.14 Weitere Konsequenzen aus dem Basisergänzungssatz

Korollar: (=Folgerung)Sei V ein K-VR der Dimension n.

(1) Mehr als n Vektoren sind linear abhängig.

(2) Weniger als n Vektoren spannen einen echten Unterraum von V auf.(r < n, v1, . . . , vr ∈ V ⇒ L(v1, . . . , vr) 6= V ).

(3) Jedes linear unabhängige n-Tupel von Vektoren ist eine Basis.

(4) Jedes V erzeugende n-Tupel von Vektoren ist eine Basis.

(5) Jedes maximal linear unabhängige System von Vektoren ist eine Basis.

(6) Jedes minimale Erzeugendensystem ist eine Basis.

(7) V ' Kn

(8) Kn ' Km ⇔ n = m.

BeweisSei u1, . . . , un eine Basis von V .1,3,5: Setze wi = ui in 1.8.10/1.8.11 (k = n)

(1) v1, . . . , vr linear unabhängig 1.8.11⇒ r ≤ n.

(3) v1, . . . , vr linear unabhängig 1.8.10⇒ v1, . . . , vn, wj(1), . . . , wj(s) Basis(1)⇒ s = 0.

(5) v1, . . . , vr linear unabhängig, r maximal 1.8.10⇒ v1, . . . , vn, wj(1), . . . , wj(s) Basisr max.⇒ s = 0 und r = n (+ Satz 1.8.12 )

2,4,6,7,8:

(2) V = L(w1, . . . , wk)1.8.11⇒ n ≤ k (Setze vi = ui)

(4) V = L(w1, . . . , wn) (k = n) Wende 1.8.10 mit r = 0 an. ⇒ wj(1), . . . , wj(s)

Basis 1.8.12⇒ s = n, w1, . . . , wn Basis.

(6) w1, . . . , wk erzeugen V , k minimal 1.8.10⇒ ∃j(1) < · · · < j(s) : wj(1), . . . , wj(s)

Basis k min.⇒ s = k, w1, . . . , wk Basis. (und dann k = n (1.8.12 ))

(7) ϕ : Kn −→ V, (λ1, . . . , λn) 7→n∑

i=1

λivi, ist ein Isomorphismus (1.8.8 )

72

1.8 Basis und Dimension

(8) n = dim Kn = dim Km = m.

¤

1.8.15 Definition linearer Abbildungen durch Basen

Satz:Seien V,W K-VR und v1, . . . , vn eine Basis von V . Sind dann w1, . . . , wn ∈ W , sogibt es genau eine lineare Abbildung

ϕ : V −→ W und ϕ(vi) = wi, i = 1, . . . , n.

BeweisIst v ∈ V , so existieren eindeutige λ1, . . . , λn ∈ K mit v =

n∑i=1

λivi. Wir müssen

definieren ϕ(v) :=n∑

i=1

λiwi.

Linearität von ϕ:

Seien v =n∑

i=1

λivi, w =n∑

i=1

µivi ∈ V , und λ, µ ∈ K. Dann gilt:

λv + µw =n∑

i=1

(λλi + µµi)vi.

Daher gilt:

ϕ(λv + µw)Def. von ϕ

=n∑

i=1

(λλi + µµi)wi

= λ(n∑

i=1

λivi) + µ(n∑

i=1

λiwi)

= λϕ(v) + µϕ(w).

¤

73

2 MATRIZENRECHNUNG

2.9 Lineare Gleichungssysteme

2.9.1 Beispiel

Finde x1, x2, x3 ∈ R mit:

(1) 2x1 + 5x2 + 7x3 = 3

(2) 3x1 + 6x2 + 6x3 = 3

(3) 2x1 + 4x2 + 4x3 = 2

2.9.2

Ein lineares Gleichungssystem mit Koeffizienten in einem Körper K ist ein Systemvon Gleichungen der Form:

(1) a11x1 + a12x2 + · · ·+ a1nxn = b1

(2) a21x1 + a22x2 + · · ·+ a2nxn = b2

......

......

...(m) am1x1 + am2x2 + · · ·+ amnxn = bm [9.2]

Wobei aij ∈ K (i = 1, . . . ,m, j = 1, . . . , n) und bj ∈ K (i = 1, . . . , m) undx1, . . . , xn Unbekannte sind.Es heißt homogen, falls b1 = · · · = bm = 0, sonst inhomogen. Eine Lösung ist einTupel (ξ1, . . . , ξn) ∈ Kn, so dass (1) bis (m) mit x1 = ξ1, . . . , xn = ξn erfüllt sind.

74

2.9 Lineare Gleichungssysteme

2.9.3

Zum LGS16 [9.2] betrachte die lineare Abbildung

ϕ : Kn −→ Km, (λ1, . . . , λn) 7→ (n∑

j=1

a1jλj, . . . ,n∑

j=1

amjλj) [9.3]

Es gilt:(ξ1, . . . , ξn) ∈ Kn löst [9.2] ⇔ ϕ((ξ1, . . . , ξn)) = (b1, . . . , bm).Dies ermöglicht das Studium LGS durch lineare AbbildungenKn −→ Km, n = #Unbekannte, m = #Gleichungen.

2.9.4 Lineare Abbildungen Kn −→ Km

Jede lineare Abbildung Kn −→ Km ist von der Form [9.3], gehört also zu LGSder Form [9.2]. (mit noch zu gebendem (b1, . . . , bm) ∈ Km)

Satz:Sei ϕ : Kn −→ Km linear. Dann existieren aij(i = 1, . . . , m, j = 1, . . . , n) mit derEigenschaft: ∀(λ1, . . . , λn) ∈ Kn :

ϕ(λ1, . . . , λn) = (n∑

j=1

a1jλj, . . . ,

n∑j=1

amjλj).

Beweis (vgl. 1.7.12 a) und b) für n = 1 bzw. m = 1)Für j = 1, . . . , n definiere a1j, . . . , amj ∈ K durch: ϕ(ej) = (a1j, . . . , amj).Dann gilt:

ϕ(λ1, . . . , λn) = ϕ(n∑

j=1

λjej)

ϕ lin.=

n∑j=1

λjϕ(ej)

=n∑

j=1

λj(a1j, . . . , amj)

= (n∑

j=1

λja1j, . . . ,

n∑j=1

λjamj)

¤16lineares Gleichungssystem

75

2 MATRIZENRECHNUNG

2.9.5 Matrizen

ϕ : Kn −→ Km wird nach Satz 2.9.4 durch m · n Skalare aij ∈ K gegeben.Definition:Eine (m× n)-Matrix mit Einträgen in einem Ring R ist eine Abbildung:

A : {1, . . . , m} × {1, . . . , n} −→ R.

M(m× n,R): Menge solcher Matrizen.Schreibweise:

A :

a11 a12 . . . a1n

a21 a22 . . . a2n...

......

am1 am2 . . . amn

= (aij) i=1,...,m

j=1,...,n= aij

i-te Zeile:(

ai1 . . . ain

), i = 1, . . . , m

j-te Spalte:

a1j...

amj

, j = 1, . . . , n.

Merke: Erst Zeilenindex, dann Spaltenindex.

BemerkungK ein Körper ⇒ M(m× n,K) ist ein K-VR (1.7.6 )(aij) + (bij) := (aij + bij)λ · (aij) := (λ · aij)

Transponierte Matrix:zu A = (aij) i=1,...,m

j=1,...,n: At := (aji) i=1,...,n

j=1,...,m

Beispiel

1 2 3 45 6 7 89 0 1 2

t

=

1 5 92 6 03 7 14 8 2

2.9.6 Beispiel zu 2.9.2

ϕ : K3 −→ K3, (λ1, λ2, λ3) 7→ (2λ1 + 5λ2 + 7λ3, 3λ1 + 6λ2 + 6λ3, 2λ1 + 4λ2 + 4λ3)liefert:

76

2.9 Lineare Gleichungssysteme

A :

2 5 73 6 62 4 4

∈ M(3× 3,R).

2.9.7 Spaltenvektoren

Im Matrizenkalkül ist es praktisch (↗Matrizenprodukt) und üblich, Vektoren spal-tenweise zu schreiben, d.h. wir identifizieren Km mit M(m× 1, K).Die zu A = (aij)i,j ∈ M(m × n,K) gehörige lineare Abbildung Kn −→ Km istdann

λ1...

λn

7→ A ·

λ1...

λn

mit

a11 . . . a1n...

...ai1 . . . ain...

...am1 . . . amn

·

λ1...

λn

:=

a11λ1 + . . . + a1nλn...

...ai1λ1 + . . . + ainλn...

...am1λ1 + . . . + amnλn

Beispiel(2 5 73 6 6

10−1

=

(2 + 0− 73 + 0− 6

)=

( −5−3

).

Bemerkung

A · ej =

a1j

a2j...

amj

Merkej-te Spalte von A = A · ej (Bild von ej).

NotationsmissbrauchWir identifizieren lineare Abbildung Kn −→ Km mit (m×n)-Matrizen und schrei-ben A : Kn −→ Km, A ∈ M(m× n,K).Ebenso: ker(A), im(A), . . .

77

2 MATRIZENRECHNUNG

2.9.8 Die Lösungsmenge eines linearen Gleichungssystems

Für A ∈ M(m× n,K) und b ∈ Km sei L = {u ∈ Kn|A · u = b} die Lösungsmengedes LGS Ax = b.

Satz:Entweder L = ∅ oder L = u + ker(A), wobei u ∈ L eine Lösung von (LGS) ist.Beweis

L = ∅ ⇔ b /∈ im(A).Andernfalls b ∈ im(A), d.h. ∃u ∈ Kn : A · u = b.Für u′ ∈ Kn beliebig gilt dann:

u′ ∈ L ⇔ A · u′ = b

⇔ A · u′ = A · u⇔ A · (u′ − u) = 0

⇔ u′ − u ∈ ker(A).

¤

BemerkungIst V ein K-VR, so heißt eine Teilmenge der Form u + U mit u ∈ V und U ⊂ Vein linearer Unterraum affiner Unterraum.M.a.W.: affiner Unterraum = parallel verschobener Unterraumist linearer Unterraum genau dann, wenn er 0 enthält.

2.9.9 Beispiel

In 2.9.1/2.9.6 :

A =

2 5 73 6 62 4 4

, b =

332

.

u =

−110

ist eine Lösung. ker(A) = R ·

4−31

.

Demnach: L = u + ker(A) =

−1 + 4λ1− 3λ0 + 1λ

|λ ∈ R

.

78

2.9 Lineare Gleichungssysteme

2.9.10 Zeilentransformationen

LGS:(1) a11x1 + . . . + a1nxn = b1...

......

...(m) am1x1 + . . . + amnxn = bn

Folgende Operationen ändern die Lösungsmenge von (LGS) nicht :

(I) Multiplikation einer Gleichung mit λ ∈ K\{0} : (i) → λ · (i)

(II) Addition eines Vielfachen einer anderen Gleichung: (i) → (i) + λ · (j), i 6=j, λ ∈ K.

(III) Vertauschen zweier Gleichungen: (i)(j)

→ (j)(i)

, i 6= j.

Die entsprechenden Umformungen der Matrix A = (aij) heißen (elementare)Zeilentransformationen .(wir notieren nur die sich ändernden Zeilen):

(I) (i) → λ · (i) :

...ai1 . . . ain

...

−→

...λai1 . . . λain

...

(II) (i) → (i) + λ(j) :

...ai1 . . . ain

...

−→

...ai1 + λaj1 . . . ain + λajn

...

(III) (i)(j)

→ (j)(i)

:

...ai1 . . . ain

aj1 . . . ajn...

−→

...aj1 . . . ajn

ai1 . . . ain...

2.9.11 Das Gaußsche Eliminationsverfahren

Satz:Jede Matrix (aij) ∈ M(m× n,K) lässt sich durch endlich viele Zeilentransforma-tionen in Zeilenstufenform bringen, d.h.: (aij) −→ (a′ij) mit:

79

2 MATRIZENRECHNUNG

(aij) =

0 . . . 0 1 ∗ . . . ∗ 0 ∗ . . . ∗ 0 ∗ . . . ∗ 0 ∗ . . . ∗0 . . . 0 1 ∗ . . . ∗ 0 ∗ . . . ∗ 0 ∗ . . . ∗0 . . . . . . 0 1 ∗ . . . ∗ 0 ∗ . . . ∗...

......

...0 . . . . . . . . . 0 1 ∗ . . . ∗0 . . . . . . . . . . . . 0...

...0 . . . . . . . . . . . . 0

∗ . . . unbestimmte ElementeBeweis/Verfahren ↗2.9.14

2.9.12 Anwendung 1 der Gaußschen Elimination:Lösen linearer Gleichungssysteme

Für A ∈ M(m×n,K) und b ∈ Km löse Ax = b! (LGS) Wende Satz 2.9.11 auf dieerweiterte Matrix an:

(A|b) :=

a11 . . . a1n b1...

......

am1 . . . amn bn

Resultat(A′|b′) mit Stufen für 1 ≤ j1 < · · · < jk ≤ n. (evtl. noch Stufe für n + 1) Seien1 < r1 < · · · < rn−k ≤ n die verbleibenden Indizes ∈ {1, . . . , n}.Es gilt: (ξ1, . . . , ξn) ∈ Kn löst (LGS)

⇔n∑

j=1

aijξj = bi, i = 1, . . . , m

⇔n∑

j=1

a′ijξj = b′i, i = 1, . . . , m

⇔n∑

j=1

a′ijξj = b′i, i = 1, . . . , k ∧ b′k+1 = · · · = b′m = 0

⇔ ξji+

n−k∑ν=1

a′irνξrν = b′i, i = 1, . . . , k ∧ b′k+1 = · · · = b′m = 0.

Ergebnis

80

2.9 Lineare Gleichungssysteme

(LGS) hat eine Lösung⇔ b′k+1 = · · · = b′m = 0 (letzte Stufe nicht in (n + 1)-ter Spalte) und in diesemFall:ξr1 , . . . , ξrn−k

∈ K sind frei wählbar (z.B. = 0) [parametrisieren ker(A)]

∧ ξji= b′i −

n−k∑ν=1

a′iriξrv .

2.9.13 Beispiel

(↗2.9.1/2.9.6/2.9.9 )

(A|b) =

2 5 7 | 33 6 6 | 32 4 4 | 2

−→

1 2 2 | 12 5 7 | 32 4 4 | 2

−→

−→

1 2 2 | 10 1 3 | 10 0 0 | 0

−→

1 0 −4 | −10 1 3 | 10 0 0 | 0

A′x = b′ :x1 −4x3 = −1

x2 +3x3 = 1j1 = 1, j2 = 2 zeigt: x3 = λ ist der freie Parameterund dann: x1 = −1 + 4λ, x2 = 1− 3λ

liefert wieder: L =

−1 + 4λ1− 3λ

λ

|λ ∈ R

BemerkungEine Basis für ker(A) erhält man durch lösen von A′x = 0 mit Parametern(λr1 , . . . , λrn−k

) = e1, . . . , (λr1 , . . . , λrn−k) = en−k ∈ Kn−k liefert Isomorphismus

Kn−k −→ ker(A).

Im Beispieln− k = 1ker(A) = L((4,−3, 1)).

2.9.14 Beweis von Satz 2.9.11/Gauß-Algorithmus

A = (aij) ∈ M(m× n,K)j1 := min{j ∈ {1, . . . , m}|∃i : aij 6= o} [kleinster Index j, so dass j-te Spalte 6= 0,]

81

2 MATRIZENRECHNUNG

j1-Spalte:

0...0

aij1

∗...∗

. Wähle i1, so dass ai1j1 6= 0.

Verfahren

1. Heraufbringen: (i) ↔ (i1)

2. Normieren: (i) → a−1i1j1

· (1)

liefert (∼aij) mit ∼a1j1 = 1,

∼a1j = 0 für j < j1.

3. Ausräumen: ∀i > 1 : (i) → (i)− ∼aij1 · (1).

Resultat

0 . . . 0 1 ∗ . . . ∗...

... 0...

...... A′

0 . . . 0 0

Verfahren wiederholen mit Matrix A′ etc. (Induktion nach m) Induktion brichtab mit Nullmatrix oder mit der letzten Zeile.

Resultat

0 . . . 0 1 ∗ ∗ ∗ ∗ ∗ . . . ∗...

... 1 ∗ ∗ ∗ . . . ∗...

... 1 ∗ . . . ∗...

... 00 . . . 0

SchließlichAusräumen der j-ten Spalten oberhalb von i, i = 1, . . . , k.

¤Bemerkung

a) Programme Maximan, GAP, Axiom, Pari/GP, Sage, Octave, Scilab,Maple, Mathematica, Mathlab

82

2.9 Lineare Gleichungssysteme

b) Das Resultat des Gauß-Algorithmus ist eindeutig.

2.9.15 Anwendung 2 der Gaußschen Elimination:Konstruktion einer Basis für L(v1, . . . , vm)

Gegeben: v1, . . . , vm ∈ Kn.Schreibe die v1, . . . , vm in die Zeilen einer Matrix A ∈ M(m× n,K),d.h. vi = (ai1, . . . , ain), A = (aij).Beachte: At ∈ M(n×m,K), d.h. At : Km −→ Kn. Dies ist die lineare Abbildungmit At · ei = vi, i = 1, . . . , m. In At stehen die vi in den Spalten!

Satz:Geht A′ aus A ∈ M(m× n,K) durch Zeilentransformationen hervor, so gilt

L(v1, . . . , vm) = L(v′1, . . . , v′m)

(vi, v′i : aus den Zeilen von A,A′).

BeweisWir müssen nur zeigen, dass sich der von den Zeilen aufgespannte Unterraum durcheine Zeilentransformation nicht ändert:

(I) (i) → λ(i), λ 6= 0 : L(v1, . . . , vm) = L(v1, . . . , λvi, . . . , vm)

(III) (i) ↔ (j) : L(v1, . . . , vm) = L({v1 . . . , vm})(II) (i) → (i) + λ(j) : L(v1, . . . , vm) = L(v1, . . . , vi + λvj, . . . , vm)

(” ⊃ ”:) X(” ⊂ ”:)

m∑µ=1

λµvµ = (∑

µ6=i,j

λµvµ) + λivi + λjvj

= (∑

µ 6=i,j

λµvµ) + λi(vi + λvj) + (λj − λλi)vj ∈ L(v1, . . . , vi +

λvj, . . . , vm)

¤

KorollarIst A′ in Zeilenstufenform mit k Stufen (d.h. v′j = 0 ⇔ j > k), dann bildetv′1, . . . , v

′k eine Basis für L(v1, . . . , vm).

BeweisNoch zu zeigen: v′1, . . . , v

′k sind linear unabhängig.

83

2 MATRIZENRECHNUNG

Für λ1, . . . , λk ∈ K gilt:k∑

i=1

λiv′i = (0, . . . , 0, λ1

↑j1

, ∗, . . . , ∗, λ2↑j2

, ∗, . . . , ∗, . . . , λi↑ji

, . . . )

Demnach:∑

λiv′i = 0 ⇔ λ1 = λ2 = · · · = λk = 0.

¤

2.9.16 Anwendung 3 der Gaußschen Elimination:Lineare Unabhängigkeit - Erzeugendensystem

Wie in 2.9.15 : v1, . . . , vm ∈ Kn liefert die Zeilen von A ∈ M(m×n,K). GaußscheElimination −→ A′ in Zeilenstufenform.

Satz:

(1) v1, . . . , vm sind linear unabhängig ⇔ keine Zeile von A′ ist 0.

(2) v1, . . . , vm erzeugen Kn ⇔ jede Spalte von A′ hat eine Stufe.

(3) v1, . . . , vm sind Basis ⇔ A′ =

1 . . . 0... . . . ...0 . . . 1

(Einheitsmatrix)

Bilder

(1)

0 . . . 0 1 0 ∗ . . . 0 . . .1 ∗ . . . 0 . . .

... . . . ... . . .. . . 0 . . .

0 . . . . . . 0 1 ∗ · · · ∗

︸ ︷︷ ︸n

m, d.h. wir haben m Stu-

fen. Zeigt: m ≤ n (vgl. 1.8.14 (1))

(2)

1 0. . .

0 10

︸ ︷︷ ︸n

m, d.h. wir haben n Stufen.

Zeigt: n ≤ m (vgl. 1.8.14 (2))

84

2.9 Lineare Gleichungssysteme

Beweis

(3) folgt aus (1) und (2).

(2) Satz 2.9.15 : L(v1, . . . , vm) = L(v′1, . . . , v′m) (v′1 aus den Zeilen von A′)

(” ⇐: ”)

A′ =

1. . .

10

, d.h. v′i = ei ∈ Kn, i = 1, . . . , m

L(v′1, . . . , v′m) = L(e1, . . . , em) = Kn. X

(” ⇒: ”) Mit 2.9.15 und Dimensionsargumenten oder direkt wie folgt:Angenommen nicht jede Spalte von A′ hat eine Stufe.

Setze: i = min{µ|a′µµ 6= 1}, d.h. A′ =

1 0 ∗. . . ...

. . . ∗1 ai−1 i

00

↑i−te

← i− 1← i

Dann gilt ei 6= L(v′1, . . . , v′m):

Angenommen, λ1, . . . , λm ∈ K und ei =m∑

i=1

λiv′i.

Dann gilt: (0, . . . , 0, 1↑i

, 0, . . . , 0) = (λ1, . . . , λi−1,i−1∑µ=1

λµaµi, ∗, . . . , ∗)

⇒ λ1 = · · · = λi−1 = 0

Und dann gilt aber auch:i−1∑µ=1

λµaµi = 0 X

(1) Wieder mit 2.9.15 und Dimensionsargumenten oder direkt mit:

LemmaGeht A′ durch Zeilentransformationen aus A ∈ M(m× n,K) hervor, so giltfür die zu den Zeilen gehörigen Vektoren vi bzw. v′i:

v′1, . . . , v′m linear abhängig ⇔ v1, . . . , vm linear abhängig.

BeweisKlar für Transformationen vom Typ (I) ((i) → λ(i)) und (III) ((i) ↔ (j)).

85

2 MATRIZENRECHNUNG

(II) (i) → (i) + λ(j) : v′µ =

{vµ , µ 6= i

vi + λvj , µ = i

Demnach gilt für λ1, . . . , λm ∈ K :m∑

µ=1

λµv′µ = (

∑µ6=j

λµvµ) + (λj + λiλ)vj (∗)

(” ⇒ ” :)

Seien λ1, . . . , λm ∈ K mitm∑

µ=1

λµv′µ = 0 und ∃µ : λµ 6= 0.

Falls ein µ 6= j existiert mit λµ 6= 0, so liefert (∗) eine nichttriviale Relationzwischen den vµ.

Andernfalls: 0 = λjv′j =

m∑µ=1

λµv′µ

(∗)= (λj + λi︸︷︷︸

=0

λ)vj = λjvj.

⇒ vj = v′j = 0.

(” ⇐ ” :)Genauso, da auch die vi aus den v′i durch Zeilentransformationen entstehen.

¤

Fortsetzung von (1)(v1, . . . , vm) linear unabhängig Lemma⇔ (v′1, . . . , v

′m) linear unabhängig

(” ⇒ ” :) ∀i : v′i 6= 0(” ⇐ ” :) Korollar 2.9.15

¤

2.9.17 Zusammenfassung

Für v1, . . . , vn ∈ Km schreibe A = (v1, . . . , vn) ∈ M(m× n,K).

a) G-EL17für A Ã Berechnung von ker(A).

b) G-EL für (A|b) mit b ∈ Km à löst das LGS Ax = b.

c) G-EL für At à Bestimmung einer Basis von L(v1, . . . , vn) bzw. Test auflineare Unabhängigkeit/Erzeugnis.

17Gaußsche-Elimination

86

2.10 Lineare Abbildungen und Matrizen

2.10 Lineare Abbildungen und Matrizen

Ziel Matrizenkalkül zum Studium allgemeiner linearer Abbildungen ϕ : V −→ W .

2.10.1 Hom(V,W )

Definition:Sind V, W K-VR, so bezeichnet

Hom(V, W ) = HomK(V,W )

den K-VR der linearen Abbildung V → W mit punktweiser Addition und Skalar-multiplikation: ∀ϕ, ψ ∈ Hom(V, W ),∀λ, µ ∈ K, ∀v ∈ V :

(λϕ + µψ)(v) := λϕ(v) + µψ(v)

2.10.2 Hom(Kn, Km) = M(m× n,K)

Satz:Die Abbildung

M(m× n,K) −→ Hom(Kn, Km), A 7→ (A : Kn → Km)

ist ein Isomorphismus von K-VR.

Beweisbijektiv: Satz 2.9.4Linearität: X

¤

2.10.3 Matrizen zu linearen Abbildungen durch Basiswahl

Durch Wahlen von Basen lassen sich beliebige lineare Abbildungen durch Matrizendarstellen.

Satz:Seien V, W K-VR mit Basen B = (v1, . . . , vn), B′ = (w1, . . . , wm) und seienΦ : Kn −→ V, Φ(ei) = vi und Ψ : Km −→ W, Ψ(ej) = wj

die entsprechenden Isomorphismen. Dann ist

F : Hom(V, W ) −→ M(m× n, K)

ϕ 7→ (Ψ−1 ◦ ϕ ◦ Φ : Kn → Km)

87

2 MATRIZENRECHNUNG

ein Isomorphismus.

BeweisLinearität: Xbijektiv: Die Umkehrabbildung istG : M(m× n,K) −→ Hom(V, W ), A 7→ Ψ ◦ A ◦ Φ−1 :(G ◦ F )(ϕ) = G(F (ϕ)) = G(Ψ−1 ◦ ϕ ◦ Φ) = Ψ ◦ (Ψ−1 ◦ ϕ ◦ Φ) ◦ Φ−1

= (Ψ ◦Ψ−1) ◦ ϕ ◦ (Φ ◦ Φ−1) = ϕ

(F ◦G)(A) = F (G(A)) = F (Ψ ◦ A ◦ Φ−1) = Ψ−1 ◦ (Ψ ◦ A ◦ Φ−1) ◦ Φ= (Ψ−1 ◦Ψ) ◦ A ◦ (Φ−1 ◦ Φ) = A

¤

Definition:Die ϕ bezüglich der Basen B und B′ beschreibende Matrix schreiben wir

MatB′B(ϕ) := Ψ−1 ◦ ϕ ◦ Φ.

Beispiel

V = {(λ1, . . . , λ4) ∈ R4|4∑

i=1

λi = 0}, A = (1 1 1 1), W = R2

ϕ =

(1 2 3 44 3 2 1

)

|V: (λ1, . . . , λ4) 7→

(1 2 3 44 3 2 1

)

λ1...

λ4

B = ((−1, 0, 0, 1), (0,−1, 0, 1), (0, 0,−1, 1))B′ = ((1, 1), (1,−1))

MatB′B(ϕ) : e1Φ7→ (−1, 0, 0, 1)

ϕ7→(

1 2 3 44 3 2 1

)

−1001

=

(3

−3

)

= 3

(1

−1

)Ψ−17→ 3

(01

)∈ R2

e2 7→ . . . 7→ 2

(01

)

e3 7→ . . . 7→ 1

(01

)

Demnach:

MatB′B(ϕ) :

(0 0 03 2 1

).

88

2.10 Lineare Abbildungen und Matrizen

2.10.4 Komposition linearer Abbildungen - Matrizenprodukt

Situation Kp B−→ Kn A−→ Km d.h. A ∈ M(m× n, K), B ∈ M(n× p,K)

Frage Berechne C = A ◦ B ∈ M(m × p,K). k-te Spalte von C = A(B(ek)) =A(B · ek). D.h. wende A auf k-te Spalte von B an!

Verfahren

a11 . . . a1n...

...ai1 . . . ain...

...am1 . . . amn

·

b11 . . . b1k . . . b1p...

......

bn1 . . . bnk . . . bnp

=

cik

cik = ai1b1k + ai2b2k + · · ·+ ainbnk

In Formeln

(aij) i=1,...,mj=1,...,n

· (bjk) j=1,...,nk=1,...,p

= (n∑

j=1

aijbjk) i=1,...,mk=1,...,p

Merke Summiere über benachbarte Indizes!

2.10.5 Beispiel

a)(

0 1 32 7 1

2 21 00 −1

=

(0 + 1 + 0 0 + 0− 34 + 7 + 0 4 + 0− 1

)=

(1 −311 3

)

b) Die Reihenfolge ist wichtig!(1 23 4

)·(

0 11 0

)=

(2 14 3

)6=

(3 41 2

)=

(0 11 0

)·(

1 23 4

)

2.10.6 Die Matrixalgebren

Addition und Multiplikation von Matrizen macht M(n,K) := M(n× n,K)(quadratische Matrizen!) zu einem nicht-kommutativen (↗Beispiel 2.10.5 b))Ring mit:

0 =

0 . . . 0...

...0 . . . 0

(Nullmatrix) 1 =

1 . . . 0... . . . ...0 . . . 1

(Einheitsmatrix)

89

2 MATRIZENRECHNUNG

Die Ringstruktur ist verträglich mit der Struktur als K-VR, man spricht voneiner K-Algebra. Die abstrakten Eigenschaften einer (n × n)-Matrix spiegeln sichin ihren Eigenschaften als Element dieser K-Algebra wieder (↗ LA II, Algebra).

2.10.7 Zeilentransformationen als Matrizenmultiplikation

Zeilentransformationen von A ∈ M(m×n,K) lassen sich durch Multiplikation vonlinks mit (m×m)-Matrizen darstellen(alle nicht dargestellten Matrixeinträge sind 0)

(I) (i) → λ(i) : A 7→

1. . .

1. . .

1

· A

(II) (i) → (i) + λ(j), (i < j) : A 7→

1. . . λ

. . .. . .

1

· A

(III) (i) ↔ (j), (o.E. i < j) : A 7→

1. . .

10 . . . . . . . . . 1... 1

...... . . . ...... 1

...1 . . . . . . . . . 0

1. . .

1

·

A

Definition:Die in (I)-(III) auftretenden Transformationsmatrizen heißen Elementarmatrizen.

90

2.10 Lineare Abbildungen und Matrizen

Beispiel

(1) → (1) + 2(3) :

1 0 20 1 00 0 1

·

1 23 4−1 −1

=

−1 0

3 4−1 −1

für A =

1 23 4

−1 −1

BemerkungZeilentransformationen für A : Kn −→ Km lassen sich interpretieren als Kompo-sitionen mit Isomorphismen T : Km −→ Km, T eine Elementarmatrix.

2.10.8 Inverse Matrizen und GL(n,K)

Definition:Ist A : Kn −→ Km ein Isomorphismus (notwendig, A ist quadratisch) so heißt dieUmkehrabbildung beschreibende Matrix A−1 inverse Matrix zu A. Charakterisie-rung von A−1 :

A · A−1 = IdK = En (⇔ A−1 · A = En ↗ Satz 1.4.7.4)

Definition:Die allgemeine linearen Gruppen

GL(n,K) := {A ∈ M(n,K)|A ist invertierbar}

Bemerkung GL(n,K) ⊃ Bij(Kn) ist eine Untergruppe.

2.10.9 Anwendung 4 der Gaußschen Elimination:Berechnung von A−1

Sei A ∈ M(n,K) invertierbar. Wir müssen lösen:

A · A−1 = En ⇔ (A · A−1) · ei = ei , i = 1, . . . , n

⇔ A · (A−1 · ei) = ei , i = 1, . . . , n

⇔ A−1 · ei löst das LGS Ax = ei , i = 1, . . . , n

Beobachtung A ∈ M(n,K) invertierbar ⇔ G-EL führt zu En.Demnach (A|En)

G-EL−→ (En|vi) und x = vi löst Ax = ei. (∗)Verfahren (A|En)

G-EL−→ (En|B). Nach obiger Überlegung gilt: B = A−1

91

2 MATRIZENRECHNUNG

(denn B · ei = vi löst Ax = ei , i = 1, . . . , n)Bemerkung Das Verfahren liefert eine Zerlegung von A in ein Produkt von Ele-mentarmatrizen: A = B−1 = E(1)−1 · ... · E(k)−1. Sind E(1)−1, . . . , E(k)−1 die inobiger G-EL eingesetzten Elementarmatrizen, so gilt: B = E(1)−1 · ... · E(k)−1.

2.10.10 Beispiel

A =

(1 32 7

):

(1 3 | 1 02 7 | 0 1

)(2)→(2)−2(1)−→

(1 3 | 1 00 1 | −2 1

)(1)→(1)−3(2)−→

(1 0 | 7 −30 1 | −2 1

).

Probe:(

7− 3−21

)·(

1 32 7

)=

(1 00 1

)=

(1 32 7

)·(

7 −3−2 1

)

2.10.11 Die Smith-Normalform einer Matrix

Satz:Sei A ∈ M(m × n,K). Dann gibt es S ∈ GL(n,K), T ∈ GL(m,K), so dassT−1 · A · S Smith-Normalform hat, d.h.:

T−1 · A · S =

1 0. . .

1

0 0

BeweisDer Gauß-Algorithmus liefert Elementarmatrizen E(1), . . . , E(k) ∈ GL(m, k) mit

E(k) · ... · E(1) · A =

0 . . . 0 1 ∗1 ∗

. . .1 ∗ . . . ∗

0

Definiere T := (E(k) · ... · E(1))−1 = E(1)−1 · ... · E(k)−1.Auf T−1 · A wenden wir einen modifizierten Gauß-Algorithmus an, der auf den

92

2.10 Lineare Abbildungen und Matrizen

Spalten statt auf den Zeilen operiert. Die dabei verwendeten (elementaren) Spal-tenumformungen sind genau die Ergebnisse der Multiplikation mit Elementarma-trizenE(k + 1), . . . , E(l) ∈ GL(n,K) von rechts.

Resultat

T−1 · A · E(k + 1) · ... · E(l) =

1 0. . .

1

0 0

Setze S := E(k + 1) · ... · E(l).

2.10.12 Interpretation 1 der Smith-Normalform:Der Rangsatz

Bis auf Basiswahlen ist jede lineare Abbildung zwischen verschiedenen Vektorräu-men durch ein r ∈ N bestimmt.

Definition:Für V, W K-VR und ϕ : V −→ W linear heißt

rk(ϕ) := dim im(ϕ) ∈ N ∪ {0}der Rang von ϕ (englisch: rank).

Satz:Seien V,W K-VR und ϕ : V −→ W linear mit dim V < ∞, dim W < ∞. Dannexistieren Basen B von V und B′ von W , so dass

MatB′B(ϕ) =

1 0. . .

1

0 0

mit r = rk(ϕ).

BeweisWähle Isomorphismus Φ : Kn −→ V , und Ψ : Km −→ W , d.h. Basen B0 und B′

0

93

2 MATRIZENRECHNUNG

von V bzw. W . Satz 2.10.11 angewandt auf A = MatB′0B0(ϕ) liefert S ∈ GL(n,K),

T ∈ GL(m,K) mit

T−1 · A · S =

1 0. . .

1

0 0

.

Klar: r = rk(ϕ), denn Isomorphismen erhalten die Dimension von Unterräumen.Diagramm

Definiere B durch Φ ◦ S und B′ durch Ψ ◦ T . Es gilt:

MatB′B(ϕ) = (Ψ ◦ T )−1 ◦ ϕ ◦ (Φ ◦ S) = T−1 · A · S =

1 0. . .

1

0 0

.

¤

2.10.13 Interpretation 2 der Smith-Normalform:Klassifikationssatz

Auf M(m× n,K) betrachte die Äquivalenzrelation.

A ∼ B :⇔ ∃S ∈ GL(n, K), ∃T ∈ GL(m,K) : B = T−1 · A · S. [L]

Kn A−→ Km

S ↑ ↑ TKn −→

BKm

Der Rangsatz liefert:

KorollarDie Rangabbildung rk : M(m×n,K) −→ N, A 7→ rk(A) induziert eine Bijektion

M(m× n,K)/∼ −→ {0, . . . , min{m,n}}.

94

2.10 Lineare Abbildungen und Matrizen

BeweisWohldefiniertheit: A ∈ M(m× n,K) =⇒ rk(A) ≤ min{m,n}

rk(A) = rk(T−1 · A · S)

Ferner: ∀S ∈ GL(n,K), ∀T ∈ GL(m,K) :

injektiv: Seien A,B ∈ M(m×n,K) mit rk(A) = rk(B) = r. Der Rangsatz liefertS1, S2 ∈ GL(n,K), T1, T2 ∈ GL(m, K) mit:

T−11 · A · S1 =

1 0. . .

1

0 0

= T−12 ·B · S2.

⇒ B = T2 · (T−11 · A · S1) · S−1

2 = (T1 · T−12 )−1 · A · (S1 · S−1

2 )⇒ B ∼ A (setze T = T1 · T−1

2 , S = S1 · S−12 ).

surjektiv: rk

1 0. . .

1

0 0

= r X

¤

2.10.14 Andere Klassifikationen von Matrizen

Wir werden in LA II zwei weitere Klassifikationen für (quadratische) Matrizenkennenlernen:

[E ] A ∼ B :⇔ ∃S ∈ GL(n,K) : B = S−1 · A · S[B ] A ∼ B :⇔ ∃S ∈ GL(n,K) : B = St · A · S

Die Klassifikationen behandeln die folgenden Situationen:

[L ]18 Lineare Abbildungen zwischen verschiedenen Vektorräumen

[E ]19 Lineare Abbildungen eines Vektorraums auf sich

[B ]20 (v, w) 7→ tv · A · w ∈ K

18Lineare Gleichungssysteme19Endomorphismus20Bilinearform

95

2 MATRIZENRECHNUNG

2.11 Dualräume

Betrachten wir A ∈ M(m × n,K) als lineare Abbildungen Kn −→ Km so inter-pretiert man die Spalten von A als Elemente von Km (A · ei ∈ Km, i = 1, . . . , n).Die Zeilen von A (et

i · A, i = 1, . . . ,m) haben auch eine Interpretation. Sie sindlineare Abbildungen Kn −→ K.

2.11.1 Linearformen und der Dualraum

Definition:Sei V ein K-VR. Eine Linearform auf V ist eine lineare Abbildung V −→ K. DerK-VR Hom(V, K) der Linearformen auf V heißt Dualraum von V .

Notation V ∗ = Hom(V, K). Insbesondere identifizieren wir (Kn)∗ mit M(1×n,K).

2.11.2 Beispiele

a)(1 2 3

): R3 −→ R,

λ1

λ2

λ3

7→ λ1 + 2λ2 + 3λ3.

b) Die Linearisierung einer differenzierbaren Funktion F : U −→ R, U ⊂ Rn ineinem punkt p ∈ U

Df |p =

(∂f

∂x1

(p), . . . ,∂f

∂xn

(p)

)

︸ ︷︷ ︸∈(Rn)∗

: Rn −→ R

Die Funktion G : U −→ R, (x1, . . . , xn) 7→ f(p) + Df |p(x1, . . . xn) approxi-miert f bis auf die erste Ordnung von p herum.

∃ε > 0 ∃c > 0 ∀x ∈ Bε(p) : |f(x)− g(x)| ≤ c · d(x, p)2

(↗ Analysis II)

c) Divae-Distribution ("Divae-Funktion")δp : C∞(R) −→ R, f 7→ f(p) 21

21C∞ : glatte Funktionen auf R (unendlich oft differenzierbare Funktion auf R)

96

2.11 Dualräume

2.11.3 Duale Basis

Einer Basis (v1, . . . , vn) von V ist kanonisch eine Basis von V ∗ zugeordnet.

Satz:Sei B = (v1, . . . , vn) eine Basis des K-VR V . Dann existiert α1, . . . , αn ∈ V ∗ mit

αi(vi) = δij =

{1 , i = j

0 , sonst(∗)

Ferner bilden α1, . . . , αn eine Basis von V ∗.

Definition:(α1, . . . , αn) heißt die duale Basis von V ∗.

Bemerkungαi hängt nicht nur von vi ab, sondern von B. Es ist nicht sinnvoll von ’"dualenVektoren“ zu sprechen.

Beweis des obigen SatzesSei v ∈ V , so existieren eindeutige λi ∈ K mit v =

n∑i=1

λivi. Um (∗) zu erfüllen

müssen wir definieren:αi(v) =

n∑j=1

λjαi(vj) = λi.

Linearität von αi:

v =n∑

j=1

λjvj, w =n∑

j=1

µjvj, seien λ, µ ∈ K

λv + µw =n∑

j=1

(λλj + µµj)vj

αi(λv + µw) = λλi + µµi = λαi(v) + µαi(w) X

Lineare Unabhängigkeit von α1, . . . , αnn∑

i=1

λiαi = 0 mit λi ∈ K, d.h. ∀v ∈ V :n∑

i=1

λiαi(v) = 0, insbesondere

⇒ ∀j = 1, . . . , n :n∑

i=1

λiαi(vj)

︸ ︷︷ ︸=λj

= 0

⇒ αi linear unabhängig X

V ∗ = L(α1, . . . , αn)

97

2 MATRIZENRECHNUNG

Beh.: V ∗ 3 α =n∑

i=1

α(vi)αi

Es reicht die Behauptung auf allen Basisvektoren zu zeigen:n∑

i=1

α(vi)αi(vj) = α(vj) ∀j = 1, . . . , n

¤Korollar dim(V ∗) = dim(V ).

Notation (α1, . . . , αn) = B∗ (↗ Satz 2.11.3 )

Bemerkung V und V ∗ sind isomorph, aber nicht kanonisch isomorph.

2.11.4 Berechnung einer dualen Basis im Kn

Schreibe B = (v1, . . . , vn) als Spalten einer Matrix A ∈ M(n,K).

α1...

αn

· A =

α1(v1) . . . αn(v1)α1(v2) . . . αn(v2)

......

α1(vn) . . . αn(vn)

(∗)↓= En

⇒ αi ist die i-te Zeile von A−1.

Beispiel(↗ 2.10.10 )

v1 =

(12

), v2 =

(37

), A =

(1 32 7

)Ã A−1 =

(7 −3−2 1

)

d.h. α1 =

(7−3

), α2 =

(−21

)

2.11.5 Duale Abbildungen

Definition:Seien V, W K-VR. Die durch die lineare Abbildung ϕ : V −→ W induzierteAbbildung

ϕ∗ : W ∗ −→ V ∗, β 7→ ϕ∗(β) = β · ϕheißt duale Abbildung.

Beispiel

ϕ :=

(13

): R −→ R2, ϕ∗ := (R2) −→ R∗, β = (λ1, λ2) 7→ (µ 7→ (λ1 + 3λ2) · µ)

M.a.W.: ϕ∗ =(1 3

)

98

2.11 Dualräume

2.11.6 Duale Abbildung und Transposition

Satz:Seien V, W K-VR mit Basen B, B′ und ϕ ∈ Hom(V, W )

(MatB′B(ϕ))t = MatB∗(B′)∗(ϕ∗)

BeweisSei B = (v1, . . . , vn), B′ = (w1, . . . , wm), B∗ = (α1, . . . , αn), (B′)∗ = (β1, . . . , βm)und A := MatB′B(ϕ) = (aij)

Laut Definition ist ϕ(vj) =m∑

i=1

aijwi (Achtung: Summe über Zeilenindex von A)

Um MatB∗(B′)∗(ϕ∗) zu bestimmen, müssen wir ϕ∗(βk) berechnen:

ϕ∗(βk)(vj) = βk ◦ ϕ(vj) = βk

(m∑

i=1

aijwi

)=

m∑i=1

aijβk(wi) = akj =n∑

l=1

akl · αl(vj)

(Achtung: Summe über Spaltenindex von A)D.h.: MatB∗(B′)∗(ϕ

∗) = At

¤Korollar

Sei A ∈ M(m× n,K), b ∈ M(n× p, K)

a) (A ·B)t = Bt · At

b) (At)−1 = (A−1)t ,wenn m = n und A invertierbar ist.

Beweis

a) Sei A : Kn −→ Km, B : Kp −→ Kn :Kp B−→ Kn A−→ Km

−−−−−−−→A ·B

Dualisieren hiervon liefert: Kp Bt←− Kn At←− Km

←−−−−−−−−(A ·B)t

⇒ (A ·B)t = Bt · At X

b) Sei A : Kn −→ Kn :Kn A−→ Kn A−1−→ Kn

−−−−−−−−→En

Dualisieren liefert: Kn At←− Kn (A−1)t

←− Kn

←−−−−−−−−−Et

n = En

⇒ At · (A−1)t = En

⇒ (At)−1 = (A−1)t X

¤

99

2 MATRIZENRECHNUNG

2.11.7 Zeilenrang = Spaltenrang

Satz:

a) Seien V,W K-VR, ϕ : V −→ W lineare Abbildung. Dann gilt

rk(ϕ) = rk(ϕ∗)

b) Sei A ∈ M(m× n,K). Dann gilt

rk(A) = rk(At)

Bemerkung

zu b) rk(A) = dim des Vektorraums von Km der von den Spalten von A erzeugtwird.rk(At) = dim des Vektorraums von Kn der von den Spalten von At erzeugtwird (= Zeilen von A).d.h.: Zeilenrang(A)=Spaltenrang(A)

Beweis des obigen Satzes

a) Nach Rangsatz (↗ 2.10.10 ) gibt es geeignete Basen B von V und B′ vonW , so dass

B′ = MatB′B(ϕ) =

1 0. . .

1

0 0

rk(ϕ) = rdim V = ndim W = m

Nach Satz 2.11.6 :

MatB∗(B′)∗(ϕ∗) = Bt =

1 0. . .

1

0 0

⇒ rk(ϕ∗) = r = rk(ϕ) X

b) Wende a) auf A : Kn −→ Kn an. X

¤

100

2.11 Dualräume

2.11.8 Anwendung 5 der Gaußschen Elimination:Basisauswahl

Für v1, . . . , vm ∈ Kn finde 1 ≤ ji < · · · < jk ≤ m, so dass (vj1 , . . . , vjk) ei-

ne Basis von L(v1, . . . , vm) ist. Das Verfahren 2.9.15 liefert zwar eine Basis vonL(v1, . . . , vm) der Form (0 . . . 0 1 ∗ . . . ∗), das löst aber nicht das Problem derBasisauswahl.

VerfahrenSchreibe v1, . . . , vm als Spalten einer Matrix A.

A ÃGauß

A′

A′ hat Stufen 1 ≤ j1 < · · · < jk ≤ m

rk(A)2.11.7= Zeilenrang(A)

2.9.15= Zeilenrang(A′) = rk(A′) = k

Die gleichen Zeilentransformationen machen aus B = (vj1 , . . . , vjk) Ã

1. . .

10

rk(B) = k ⇒ (vj1 , . . . , vjk) ist eine Basis von L(v1, . . . , vm).

BemerkungDie Spalten von A′ haben im allgemeinen nichts mit L(v1, . . . , vm) zu tun.

2.11.9 Annulator und Nullstellenmenge

Definition:Sei V ein K-VR.

a) Sei U ⊂ V Unterraum.

U0 := {α ∈ V ∗|α(v) = 0 ∀v ∈ U} ⊂ V ∗

heißt Annulator von U .

b) Sei F ⊂ V ∗ Unterraum.

Z(F ) := {v ∈ V |α(v) = 0 ∀α ∈ F} ⊂ V

heißt Nullstellenmenge von F .

101

2 MATRIZENRECHNUNG

Berechnung

Für U = L(v1, . . . , vk) : U0 = ker

V ∗ −→ Kk

α 7→

α(v1)...

α(vk)

Für F ⊂ V ∗, F = L(α1, . . . , αl) : Z(F ) = ker

V −→ K l

v 7→

α(v1)...

α(vl)

2.11.10 Beispiel

a) V = R3, U = L((0, 1, 2), (1, 2, 0))

U0 = ker

(λ1, λ2, λ3) 7→

(0λ1 + 1λ2 + 2λ3

1λ1 + 2λ2 + 0λ3

)=

(0 1 21 2 0

)

λ1

λ2

λ3

b) V = R3, F = L((0, 1, 2), (1, 2, 0))

Z(F ) = ker

λ1

λ2

λ3

7→

(λ2 + 2λ3

λ1 + 2λ2

)=

(0 1 21 2 0

)

λ1

λ2

λ3

⇒ Z(F ) = L((4,−2, 1)) ⊂ V = R3

2.11.11 Bidualräume

Ist dim V < ∞, dann ist V ' V ∗. Dieser Isomorphismus ist aber nicht kanonisch.Es gibt jedoch κ : V −→ (V ∗)∗ = V ∗∗, v 7→ (V ∗ → K, α 7→ α(v)). κ ist linear undkanonisch.

Satz:

dim V < ∞ ⇒ κ : V −→ V ∗∗ ist ein IsomorphismusBeweis

Sei v1, . . . , vn eine Basis von V . Zu zeigen: κ(v1), . . . , κ(vn) ist eine Basis von V ∗∗.Sei dazu α1, . . . , αn ∈ V ∗ die duale Basis zu v1, . . . , vn. Dann ist κ(v1), . . . , κ(vn)die duale Basis zu α1, . . . , αn:(κ(vi))(αj) = αj(vi) = δji = δij , i, j = 1, . . . , n

¤Bemerkung

dim V = ∞, dann ist κ nur injektiv.

102

2.12 Komplementäre Unterräume, Quotientenräume, Dimensionsformel

2.11.12 Beziehungen zwischen Annulatoren undNullstellenmengen

Satz:Sei V ein VR, dim V < ∞, und U ⊂ V, F ⊂ V ∗ Unterräume. Dann gilt:

(1) U = Z(U0) ⊂ V

(2) F = (Z(F ))0 ⊂ V ∗

(3) κ(Z(F )) = F 0

BeweisskizzeDie folgenden Inklusionen folgen direkt aus den Definitionen:

(1) U ⊂ Z(U0)

(2) F ⊂ (Z(F ))0

(3) κ(Z(F )) ⊂ F 0

Man zeigt dann die Gleichheit der Dimensionen (für (1) ↗ 2.12.14 ).

2.12 Komplementäre Unterräume,Quotientenräume, Dimensionsformel

(einige Nachträge zu Kapitel 1 und 2)

2.12.1 Die Aquivalenzrelation zu einem Unterraum,Quotientenräume

Ist V ein VR und U ⊂ V ein Unterraum, so interessiert man sich manchmal nurfür Eigenschaften von V bis auf die Addition von Elementen von U .Zugehörige Äquivalenzrelation:v1, v2 ∈ V : v1 ∼U v2 :⇔ v1 − v2 ∈ U .Äquivalenzklassen:affine Unterräume von V der Form [v] := v + U , v ∈ V .Quotient:qU : V −→ V/ ∼U , v 7→ [v] qU induziert auf V/ ∼U die Struktur eines K-VR:λ[v] := [λv], [v] + [w] := [v + w].

Definition:Der Quotienten(-vektor)raum (auch: Faktorraum) V/U ist die Menge V/ ∼U mitder so induzierten Struktur eines K-VR.

103

2 MATRIZENRECHNUNG

2.12.2 Beispiel

V = R2, U = R · (1, 1). Als abstrakter VR ist V/U ' R.z.B.: ϕ : R −→ V/U, µ 7→ [(0, µ)], ϕ ist ein Isomorphismus⇔ ∀v ∈ R2 ∃!λ, µ ∈ R : v = λ(1, 1) + (0, µ) = λ(1, 1) + µ(0, 1) X(denn (1, 1), (0, 1) ist Basis für R2)

Alternativ: ϕ−1 angeben!ψ : V/U −→ R [(v1, v2)] 7→ v2 − v1 (wohldefiniert!)ψ = ϕ−1 :(ϕ ◦ ψ) ([(v1, v2)]) = ϕ(v2 − v1) = [(0, v2 − v1)] = [(v1, v2)](ψ ◦ ϕ)(µ) = ψ([0, µ]) = µ− 0 = µ

¤

2.12.3

Zum Arbeiten mit Quotientenräumen benutzt man zwei Werkzeuge:Die “universelle Eigenschaft“ der Quotientenabbildung und zu U komplementäreUnterräume.

2.12.4 Die universelle Eigenschaft der Quotientenabbildung

(vgl. Satz 0.3.11 )

Satz:Sei V ein K-VR und U ⊂ V ein Unterraum, qU : V −→ V/U . Dann existiertfür jedes ϕ : V −→ W linear, W ein K-VR, mit U ⊂ ker(ϕ), genau eine lineareAbbildung

ϕ : V/U −→ W mit ϕ = ϕ ◦ qU .

BeweisU ⊂ ker(ϕ) impliziert, dass ϕ konstant auf den Äquivalenzklassen von ∼U ist. Satz0.3.11 liefert ϕ mengentheoretisch. ϕ ist linear: λ, µ ∈ K, v, w ∈ Vϕ(λ[v] + µ[w]) = ϕ([λv + µw]) = (ϕ ◦ qU)(λv + µw) = ϕ(λv + µw)= λ(ϕ ◦ qU)(v) + µ(ϕ ◦ qU)(w) = λϕ([v]) + µϕ([w])

¤

2.12.5 Beispiel

V = R3, U = R · (1, 0, 1), so reduziert ϕ =

(1 0 −10 1 0

): R3 −→ R2

wegen (1, 0, 1) ∈ ker(ϕ) eine Abbildung ϕ : V/U −→ R2.

104

2.12 Komplementäre Unterräume, Quotientenräume, Dimensionsformel

2.12.6 Isomorphiesatz

Korollar (zu Satz 2.12.4 )Seien V,W K-VR und ϕ ∈ Hom(V, W ). Dann gibt es einen (durch ϕ induziertenkanonischen) Isomorphismus

V/ker(ϕ) ' im(ϕ).

BeweisSatz 2.12.4 angewandt auf ϕ mit U = ker(ϕ) liefert:ϕ : V/ker(ϕ) −→ W mit ϕ = ϕ ◦ qU . (∗) Es bleibt zu zeigen:

(1) im(ϕ) = im(ϕ)

(2) ϕ ist injektiv, d.h. ker(ϕ) = 0.

zu (1) Dies folgt aus (∗) zusammen mit der Surjektivität von qU .im(ϕ) ⊂ im(ϕ) :w ∈ im(ϕ) ⇒ ∃[v] ∈ V/U : ϕ([v]) = w ⇒ ∃v ∈ V : ϕ(v) = w ⇒ w ∈im(ϕ).im(ϕ) ⊂ im(ϕ) :

w ∈ im(ϕ) ⇒ ∃v ∈ V : w = ϕ(v)(∗)= ϕ([v]) ⇒ w ∈ im(ϕ).

zu (2) Sei v ∈ V mit ϕ([v]) = 0 ⇒ v ∈ ker(ϕ) ⇒ [v] = 0.

¤

2.12.7 Die kanonische Faktorisierung linearer Abbildungen

ϕ : V −→ W linear, faktorisiert wie folgt

Vqker(ϕ)−→ V/ker(ϕ)

'−→Kor.2.12.6

im(ϕ) −→Inklusion

W

vgl. Rangsatz :

m

1 0. . .

1

0 0

︸ ︷︷ ︸n

= m

1. . .

1

0

︸ ︷︷ ︸r

·

1 0. . .

1

︸ ︷︷ ︸n

r

Beispiel

ϕ =

0 01 −13 −3

: R2 −→ R3,

im(ϕ) = R · (0, 1, 3)ker(ϕ) = R · (1, 1)

105

2 MATRIZENRECHNUNG

2.12.8 Komplementäre Unterräume

Ist U ⊂ W ein (linearer) Unterraum, so wählt ein “komplementärer Unterraum“ein Repräsentantensystem für W/U (d.h. für jede Äquivalenzklasse [v] genau einElement in [v]) in linearer Weise aus.

Definition:Sei W ein K-VR und U ⊂ W ein Unterraum. Ein Komplement zu U in W (ein zuU komplementärer Unterraum) ist ein Unterraum V in W mit

W = U ⊕ V, d.h. U ∩ V = {0},W = U + V.

U und V heißen dann zueinander komplementär.

NotationFür U, V ⊂ W schreiben wir W = U ⊕ V , falls U ∩ V = {0} und U + V = W ,innere direkte Summe.

Vorsicht! Im allgemeinen ist V nicht eindeutig.

BeispielW = R3, U = R · (0, 0, 1)Dann ist V ⊂ R3 komplementär zu U ⇔ dim V = 2 und (0, 0, 1) /∈ V .

Beispiel komplementäre Unterräume in R3:

- dim U = 0, V = W

- dim U = 1, dim V = 2, U 6⊂ V

- dim U = 2, dim V = 1, V 6⊂ U

- dim U = 3, V = {0}

2.12.9 Existenz komplementärer Unterräume

Satz:Sei W ein K-VR und U ⊂ W ein Unterraum, dim W/U < ∞. Dann existiert einKomplement V ⊂ W zu U .

BeweisSei v1, . . . , vr ∈ W/U eine Basis für W/U . Wähle v1, . . . , vr ∈ W mit vi = [vi] , i =1, . . . , r. Definiere V := L(v1, . . . , vr).

106

2.12 Komplementäre Unterräume, Quotientenräume, Dimensionsformel

U ∩ V = {0}: Sei u ∈ U ∩ V . Dann existieren λ1, . . . , λr mit u =r∑

i=1

λivi.

⇒ [0] = [r∑

i=1

λivi] =r∑

i=1

λivi in W/U .v1,...,vrBasis⇒ λ1 = · · · = λr = 0⇒ u = 0. XW = U + V : Ist w ∈ W , so existieren λ1, . . . , λr ∈ K mit [w] =

r∑i=1

λivi.

⇒ [w −r∑

i=1

λivi] = [w]−r∑

i=1

λivi = [0]

⇒ w −r∑

i=1

λivi

︸ ︷︷ ︸∈V

∈ U = ker(qU)

⇒ w ∈ U + V. X

¤

BemerkungDer Beweis liefert folgendes Verfahren zur Konstruktion von Komplementen. Wäh-le eine Basis u1, . . . , ur von U , ergänze diese zu einer Basis u1, . . . , ur, ur+1, . . . , un

von W . V := L(ur+1, . . . , un) ist komplementär zu U . ur+1, . . . , un 7→ [ur+1], . . . , [un]Basis von W/U .

2.12.10 Komplementäre Unterräume und derQuotientenraum

Komplemente zu U ⊂ W liefern konkrete Beschreibungen von W/U :

Satz:Sei W ein K-VR, U ⊂ W ein (linearer) Unterraum und V ⊂ W ein Komplementzu U (d.h. W = U ⊕ V ). Dann definiert qU |V einen kanonischen Isomorphismus:

qU |V = ϕ : V −→ W/U.

Beweisϕ ist injektiv: ker(ϕ) = ker(qU |V ) = ker(qU) ∩ V = U ∩ V = {0} Xϕ ist surjektiv: W = U + V = ker(qU) + V⇒ ∀w ∈ W ∃u ∈ U = ker(qU) ∃v ∈ V : w = u + v⇒ ∀[w] ∈ W/U ∃u ∈ U ∃v ∈ V : [w] = [u + v] = [v]⇒ ∀[w] ∈ W/U ∃v ∈ V : [w] = ϕ(v) X

107

2 MATRIZENRECHNUNG

¤

2.12.11 Dimensionsformel I: Quotienten und direkte Summe

Satz:Sei W ein K-VR und U ⊂ W ein (linearer) Unterraum, dim W < ∞.

(1) dim U ≤ dim Wdim U = dim V ⇔ U = W

(2) Ist V ⊂ W ein Komplement zu U , so gilt:dim W = dim(U ⊕ V ) = dim U + dim Vdim W/U = dim W − dim U

Beweis

(2) Seien u1, . . . , ur und v1, . . . , vs Basen von U bzw. V . Dann ist u1, . . . , ur, v1, . . . , vs

eine Basis von W = U ⊕ V (überprüfe dies!)Demnach: dim W = r + s = dim U + dim V (∗)Ferner: V ' W/U (Satz 2.12.10 )⇒ dim W/U = dim V

(∗)= dim W − dim U

(1) Nach Satz 2.12.9 existiert ein Komplement V .(2)⇒ dim U ≤ dim W und dim U = dim W ⇔ V = {0}, U = W .

¤

2.12.12 Dimensionsformel II: Lineare Abbildungen

Satz:Seien V, W K-VR, ϕ ∈ Hom(V, W ). Dann gilt:

dim V = dim ker(ϕ) + dim im(ϕ)

BeweisKorollar 2.12.6 zeigt: im(ϕ) = V/ker(ϕ).

⇒ dim im(ϕ) = dim V/ker(ϕ)Satz

2.12.11(2)= dim V − dim ker(ϕ)

¤

108

2.12 Komplementäre Unterräume, Quotientenräume, Dimensionsformel

2.12.13 Dimensionsformel III: Durchschnitt und Summe

Sind U, V ⊂ W nicht zueinander komplementär, so gilt U + V 6= W oder U ∩V 6={0}. Zum Studium dieser Situation betrachten wir

ϕ : U × V −→ U + V ⊂ W, (u, v) 7→ u + v

wobei U × V = {(u, v)|u ∈ U, v ∈ V } der Produktvektorraum ist.

(u1, v1) + (u2, v2) := (u1 + u2, v1 + v2)

λ(u, v) := (λu, λv)

[Bemerkung: Kn = K × · · · ×K︸ ︷︷ ︸n−mal

= Kn−1 ×K]

Lemma 1

dim U × V = dim U + dim V

BeweisSind u1, . . . , ur bzw. v1, . . . , vs Basen von U bzw. V , so ist(u1, 0), . . . , (ur, 0)︸ ︷︷ ︸

∈U×{0}

, (0, v1), . . . , (0, vs)︸ ︷︷ ︸∈{0}×V

eine Basis von U × V (überprüfe dies!)

⇒ dim U × V = r + s = dim U + dim V

¤Lemma 2

ϕ ist surjektiv und ker(ϕ) = {(w,−w)|w ∈ U ∩ V } ' U ∩ V

Beweisϕ : U × V −→ U + V, (u, v) 7→ u + v. ϕ ist surjektiv.ker(ϕ) ⊂ {(w,−w)|w ∈ U ∩ V }: Seien u ∈ U, v ∈ V, ϕ(u, v) = u + v = 0.Setze w := u = −v ∈ U ∩ V . Dann gilt: (u, v) = (w,−w) Xker(ϕ) ⊃ {(w,−w)|w ∈ U ∩ V }: ∀w ∈ U ∩ V : ϕ(w,−w) = w − w = 0 X

¤Satz:

Sei W ein K-VR und U, V ⊂ W (lineare) Unterräume. Dann gilt

dim(U + V ) + dim(U ∩ V ) = dim U + dim V.

Beweis

dim(U + V ) = dim im(ϕ)Satz

2.12.12= dim(U × V )− dim ker(ϕ)Lemma 1&2

= (dim U + dim V )− dim(U ∩ V )

109

2 MATRIZENRECHNUNG

¤

Bemerkung

a) Vergleiche mit Abzählformel für endliche Mengen.|A ∪B|+ |A ∩B| = |A|+ |B|

b) dim(U + V ) = dim U + dim V ⇔ U ∩ V = {0}

2.12.14 Dimensionsformel IV: Annulatoren

Satz:Sei V ein K-VR und U ⊂ V ein (linearer) Unterraum. Dann gilt

dim V = dim U + dim U0.

Erinnerung: U0 = {α : V → K linear| α|U = 0}

BeweisDies folgt mit Satz 2.12.11 (2) (Dimension von Quotientenräumen) und Korollar2.11.3 (dim W = dim W ∗) sofort aus dem folgenden Lemma.

¤

LemmaDie (kanonische) Abbildung

ϕ : U0 −→ (V/U)∗

(α : V → K, α|U = 0) 7→ ϕ(α) = (V/U → K, [v] 7→ α(v))

ist ein Isomorphismus.

Beweisϕ(α) ist wohldefiniert : α ∈ U0 ⇒ U ⊂ ker(α) ⇒ ∃α = ϕ(α)ϕ ist linear: Xϕ ist injektiv: Sei α ∈ U0\{0} ⇒ ∃v ∈ V : α(v) 6= 0 ⇒ ∃[v] ∈ V/U : α([v])= ϕ(α)([v]) = α(v) 6= 0 ⇒ ϕ(α) 6= 0 Xϕ ist surjektiv: Sei β : W/U −→ K linear. Definiere α := β ◦ qU .Dann gilt: ϕ(α) = β :∀[v] ∈ V/U : (ϕ(α))([v]) = α(v) = β([v])

¤

110

3 DIE DETERMINANTE

3.13 Definition der Determinante

3.13.1 Motivation I: Algebra

Wir suchen eine algebraische Abbildung det : M(n, K) −→ K mit den Eigenschaf-ten:

(i) det(A) 6= 0 ⇔ A ist invertierbar.

(ii) det(E) = 1

“Algebraisch“ heißt, dass det ein Polynom in den Einträgen der Matrizen A =(aij) ist, d.h.

λ1 · ai1j1 · ai2j2 · ... · aikjk+ λ2 · al1m1 · al2m2 · ... · alrmr + . . . (endlich)

mit λi ∈ K.

n = 2:

det

(a bc d

):= ad− bc liefert das Gewünschte:

(i)(

a bc d

)nicht invertierbar

⇔ ∃(

uv

)∈ K2, λ, µ ∈ K :

(ac

)= λ

(uv

),

(bd

)= µ

(uv

)

⇒ det

(a bc d

)= (λu)(µv)− (µu)(λv) = 0

(ii) det

(1 00 1

)= 1

n = 3:

det

a1 b1 c1

a2 b2 c2

a3 b3 c3

= a1b2c3 + b1c2a3 + c1a2b3 − a3b2c1 − b3c2a1 − c3a2b1

111

3 DIE DETERMINANTE

Beweis ?

n = 4: ?

3.13.2 Motivation II: Geometrie

Seien v1, . . . , vn ∈ Rn

Definition:Der von v1, . . . , vn ∈ Rn aufgespannte Spat ist

S(v1, . . . , vn) := {n∑

i=1

λivi|λi ∈ [0, 1]}.

Bemerkung

(a) v1, . . . , vn linear abhängig, so ist S(v1, . . . , vn) ausgeartet.

(b) Ist A = (v1, . . . , vn) ∈ M(n,K), so gilt S(v1, . . . , vn) = A(W ) mit W :=S(e1, . . . , en) der Einheitswürfel .

| det(A)| berechne das Volumen von S(vw, . . . , vn)! Als mathematische Definitiontaugt das solange nichts, wie der Volumenbegriff nicht streng definiert ist. Dieserist in der Tat nich ganz unproblematisch. (↗ Maßtheorie (Analysis III): Banach-Tarski-Paradoxon). Zur eindeutigen Defininition der Determinante reichen aberfolgende, für (“orientierte”) Volumina intuitiv richtige Eigenschaften:

(i) Homogenität : ∀v1, . . . , vn ∈ Rn ∀i ∀λ ∈ R :det(v1, . . . , vi−1, vi, vi+1, . . . , vn) = λ det(v1, . . . , vn)

(ii) Scherungsinvarianz : ∀v1, . . . , vn ∈ Rn ∀i 6= j :det(v1, . . . , vi−1, vi + vj, vi+1, . . . , vn) = det(v1, . . . , vn)

(iii) Normierung : det(e1, . . . , en) = 1

Bilder

(i) i = 2:

112

3.13 Definition der Determinante

(ii) ↗ Cavalierisches Prinzip

Orientierung:

3.13.3 Zum weiteren Vorgehen

Homogenität und Scherungsinvarianz implizieren, dass det eine multilineare Ab-bildung ist, d.h. sie ist linear in jedem Eintrag, und dass det verschwindet, wennzwei der vi übereinstimmen (“alternierend”). Wir beweisen dies allgemeiner für Ab-bildungenV × · · · × V︸ ︷︷ ︸

n−mal

−→ K, V ein n-dimensionaler K-VR. Ein Hauptresultat wird sein,

dass solche “alternierenden n-Multilinearformen” einen eindimensionalen K-VR bil-den (↗ Satz 0.3.7 ). Für V = Kn definiert dann det(E) = 1 die Determinanteeindeutig.

3.13.4 Multilinearität und Alterniertheit

LemmaSei V ein K-VR, dim V = n, und α : V × · · · × V︸ ︷︷ ︸

n−mal

−→ K eine Abbildung mit den

folgenden Eigenschaften:

(i) (Homogenität) ∀v1, . . . , vn ∈ V ∀i ∀λ ∈ K :α(v1, . . . , vi−1, λvi, vi+1, . . . , vn) = λα(v1, . . . , vn)

(ii) (Scherungsinvarianz) ∀v1, . . . , vn ∈ V ∀i 6= j :α(v1, . . . , vi−1, vi + vj, vi+1, . . . , vn) = α(v1, . . . , vn)

113

3 DIE DETERMINANTE

Dann gilt:

(1) (verallgemeinerte Scherungsinvarianz) ∀v1, . . . , vn ∈ V ∀i 6= j ∀λ ∈ K :α(v1, . . . , vi−1, vi + λvj, vi+1, . . . , vn) = α(v1, . . . , vn)

(2) v1, . . . , vn ∈ V linear abhängig ⇒ α(v1, . . . , vn) = 0

(3) α ist multilinear, d.h.∀i ∀v1, . . . , vi−1, vi+1, . . . , vn ∈ V (fest gewählt) ∀v′v ∈ V ∀λ, λ′ ∈ K :α(v1, . . . , vi−1, λv + λ′v′, vi+1, . . . , vn

= λα(v1, . . . , vi−1, v, vi+1, . . . , vn) + λ′α(v1, . . . , vi−1, v′, vi+1, . . . , vn)

⇔ V −→ K, v 7→ α(v1, . . . , vi−1, v, vi+1, . . . , vn) ist linear.

Beweis

(1) o.E. λ 6= 0

α(v1, . . . , vn)(i)= λ−1α(v1, . . . , vi, . . . , λvj, . . . , vn)(ii)= λ−1α(v1, . . . , vi + λvj, . . . , λvj, . . . , vn)(i)= α(v1, . . . , vi + λvj, . . . , vj, . . . , vn)

(2) v1, . . . , vn linear abhängig⇒ ∃i ∃λ1, . . . , λi−1, λi+1, . . . , λn : vi +

∑j 6=i

λjvj = 0

(n− 1)-maliges Anwenden von (1) liefert:

α(v1, . . . , vn)(1)= α(v1, . . . , vi +

j 6=i

λjvj, vi+1, . . . , vn)

= α(v1, . . . , vi−1, 0, vi+1, . . . , vn)(i)= 0 · α(v1, . . . , vn) = 0.

(3) Wegen (i) müssen wir nur zeigen: ∀v, v′ ∈ V :α(v1, . . . , vi−1, v+v′, . . . , vn) = α(v1, . . . , vi−1, v, . . . , vn)+α(v1, . . . , vi−1, v

′, . . . , vn) (∗)

Fall 1:v1, . . . , vi−1, vi+1, . . . , vn ∈ V linear unabhängig

(2)⇒ (∗) gilt “trivial”: 0=0+0.Fall 2:U = L(v1, . . . , vi−1, vi+1, . . . , vn) ist ein (n− 1)-dimensionaler UR von V .dim V = n ⇒ ∃vi ∈ V : v1, . . . , vn ist eine Basis von V.⇒ ∃u, u′ ∈ U ∃λ, λ′ ∈ K : v = u + λvi, v′ = u′ + λ′vi.

114

3.13 Definition der Determinante

Wie in Beweis von (2) lassen sich die Summanden u + u′, u, u′ ∈ U an deri-ten Stelle durch sukzessives Anwenden von (1) beseitigen:

α(v1, . . . , v + v′, . . . , vn) = α(v1, . . . , u + u′ + (λ + λ′)vi, . . . , vn)(1)= α(v1, . . . , (λ + λ′)vi, . . . , vn)(i)= (λ + λ′)α(v1, . . . , vn). [1]

Analog sieht man:α(v1, . . . , v, . . . , vn) = λ · α(v1, . . . , vn) [2]α(v1, . . . , v

′, . . . , vn) = λ′ · α(v1, . . . , vn) [3]Also[1], [2], [3] ⇒ (∗)

¤

3.13.5 Alternierende k-Multilinearformen

Nach Lemma 3.13.4 ist die Determinante ein Spezialfall V = Kn und k = n derfolgenden Klasse von Abbildungen.

Definition:Sei V ein K-VR. Eine k-Multilinearform ist eine Abbildung

α : V × · · · × V︸ ︷︷ ︸k−mal

−→ K,

die linear in jedem Eintrag ist: ∀i ∀v1, . . . , vi−1, vi+1, . . . , vk ∈ V :V −→ K, v 7→ α(v1, . . . , vi−1, v, vi+1, . . . , vk) ist linear.VR: Multk(V ). Ein α ∈ Multk(V ) heißt alternierend, falls ∀i 6= j ∀v1, . . . , vk ∈ V :vi = vj ⇒ α(v1, . . . , vk) = 0VR: Altk(V ).

3.13.6 Beispiele

k = 1: Multk(V ) = V ∗

k = 2: 2-Multilinearform = Bilinearform(↗LA II)V = Kn, so lässt sich α ∈ Mult2(V ) wie folgt schreiben:∃A ∈ M(n,K) : α(v, w) = vt · A · w, A = (aij), aij := α(ei, ej).

z.B. det

(a bc d

)= det

((ac

),

(bd

))=

(a c

) (0 1−1 0

)(bd

)= ad− cb.

115

3 DIE DETERMINANTE

Vorsicht Wir haben keine Linearität als Abbildung M(n,K) −→ K, etwa

det

(1 11 2

)= 1 6= 0 + 0 = det

(1 01 0

)+ det

(0 10 2

).

3.13.7 k-Multilinearformen auf V = Kn

Analog zur Darstellung von α ∈ (Kn) durch α(e1), . . . , α(en) ∈ K lassen sichk-Multilinearformen α durch die Skalare α(ei1 , . . . , eik) repräsentieren,i1, . . . , ik ∈ {1, . . . , n} ((α(e1n , . . . , eik)) : “k-dimensionale Matrix”).Satz:

Die Abbildung

Φ : Multk(Kn) −→ Map1({1, . . . , n}k, K)α 7→ ((µ1, . . . , µk) 7→ α(eµ1 , . . . , eµk

))

ist ein Isomorphismus von K-VR.

BeweisΦ ist lienar: XΦ ist injektiv: . . . (Übung?)Φ ist surjektiv:

Sei a : {1, . . . , n}k −→ K(µ1, . . . , µk) 7→ aµ1,...,µk

.

Definiere: α(

n∑µ1=1

λµ11eµ1 , . . . ,n∑

µk=1

λµkkeµk

):=

n∑µ1=1

n∑µ2=1

. . .n∑

µk=1

λµ11 . . . λµkk·aµ1...µk

zu zeigen:

• α ist linear.

• Φ(α) = a.

¤

Korollar:dim V = n ⇒ dim Multk(V ) = dim Multk(Kn) = nk = |{1, . . . , n}k|.

3.13.8 Alternierdende k-Multilinearformen auf Kn

α ∈ Altk(Kn) ⇒ α(eµ1 , . . . , eµk) ist bestimmt durch α(ei1 , . . . , eik) mit

i1 < . . . < ik, {i1, . . . , ik} = {µ1, . . . , µk}. (falls |{µ1, . . . , µk}| = k, sonst:α(eµ1 , . . . , eµk

) = 0). Betrachte daher:

1Map entspricht Abb

116

3.13 Definition der Determinante

P nk := {A ⊂ {1, . . . , n}||A| = k}, A = {µ1, . . . , µk}, µ1 < . . . < µk

↓ inj. ↓{1, . . . , n}k (µ1, . . . , µk)Analog zu Satz 3.13.7 kann man zeigen:Satz:

Die Abbildung

Ψ : Altk(Kn) −→ Map(P nk , K)

{µ1, . . . , µk}, µ1 < . . . < µk 7→ α(eµ1 , . . . , eµk)

ist ein Isomorphismus von K-VR. Insbesondere gilt dim Altk(Kn) =

(nk

).

3.13.9 Alternierende n-Multilinearformen auf Kn

Dies ist der Fall k = n von Satz 3.13.8 :

Ψ : Altn(Kn) −→ Map(P nn , K) = K

α 7→ α(e1, . . . , en)

Satz:Dies ist ein Isomorphismus.Beweis

Wir werden in LA II sehen: Es gibt einen Homomorphismus (von Gruppen)

sgn : Sn = Bij({1, . . . , n}) −→ ({−1, 1}, ·) Signum

mit der folgenden Eigenschaft: ∀α ∈ Altn(Kn) ∀σ ∈ Sn ∀v1, . . . , vn ∈ Kn :α(vσ(1), . . . , vσ(n)) = sgn(σ) · α(v1, . . . , vn).Dies zeigt:

α(eµ1 , . . . , eµn) =

{0, (i 7→ µi) /∈ Sn[d.h.∃i 6= j : µi = µj]

sgn(σ) · α(e1, . . . , en), σ := (i 7→ µi) ∈ Sn

⇒ Ψ ist injektiv. (↗ Satz 3.13.7 )Ψ ist surjektiv :Sei a ∈ K. Wir suchen α ∈ Altn(Kn) mit α(e1, . . . , en) = a. Definiere:

aµ1,...,µn :=

{0, (i 7→ µi) /∈ Sn

sgn(σ) · a, σ := (i 7→ µi) ∈ Sn

Sei α nach Satz 3.13.7 zugehörige n-Multilinearform mit α(eµ1 , . . . , eµn) = aµ1,...,µn .Es bleibt zu zeigen: α ist alternierend! (Dann gilt: Ψ(α) = α(e1, . . . , en) = a)

Seien v1 =n∑

µ1=1

λµ11eµ1 , . . . , vn =n∑

µn=1

λµnneµn ∈ Kn, und es gelte vi = vj für ein

Paar (i, j), i < j. Betrachte τ(i) = j, τ(j) = i, τ(µ) = µ für µ 6= i, j. (Transposition)

117

3 DIE DETERMINANTE

Es gilt sgn(τ) = −1. Mit An := ker(sgn) gilt Sn = An∪(An ◦ τ) : σ ∈ Sn, danngilt sgn(σ) = −1⇔ sgn(σ ◦ τ) = sgn(τ) ◦ sgn(σ) = −sgn(σ) = 1

⇔ στ2=e= (σ ◦ τ) ◦ τ ∈ An ◦ τ.

Wir erhalten: α(v1, . . . , vn) =∑

σ∈Sn

λσ(1)1 . . . λσ(n)n · sgn(σ) · a=

∑σ∈An

λσ(1)1 . . . λσ(n)n · sgn(σ) · a +∑

σ∈An

λ(σ◦τ)(1)1 . . . λ(σ◦τ)(n)n · sgn(σ ◦ τ) · a=

∑σ∈An

λσ(1)1 . . . λσ(n)n ·sgn(σ) ·a− ∑σ∈An

λσ(1)1 . . . λσ(j)i . . . λσ(i)j . . . λσ(n)n ·sgn(σ) ·a= 0,denn λσ(j)i = λσ(j)j und λσ(i)j = λσ(i)i (vi = vj).

¤

3.13.10 Definition der Determinante

Definition:Die n-dimensionale Determinante ist die nach dem Satz eindeutig definierte alter-nierende n-Multilinearform

det : Kn × · · · ×Kn −→ K

mit det(e1, . . . , en) = 1.

NotationA = (v1, . . . , vn) ∈ M(n,K), dann det(A) = |A| := det(v1, . . . , vn).

Formeldet(Aij) =

∑σ∈Sn

sgn(σ) · a1σ(1) · . . . · anσ(n).

118

Index

Äquivalenz, 12Äquivalenzklasse, 20Äquivalenzrelation, 19, 24, 28

Partition, 28Surjektion, 28Teilmenge, 28

Abbildungbijektiv, 59, 69duale, 103injektiv, 59, 69linear, 58, 77surjektiv, 59, 69

Annulator, 106Aussageform, 14Aussagen, 8

Aussagenvariable, 8Axiome

Gruppe, 31Körper, 30Untergruppe, 46Unterraum, 60Vektorraum, 57

Basis, 64, 67, 70Basisaustauschsatz, 70Basisauswahlsatz, 70Basisergänzungsatz, 70duale, 103kanonische, 68

Betrag, 51Bijunktion, 12Bild, 63

Definitionsbereich, 14Determinante, 123Disjunktion, 10Dualraum, 100

Eigenschaftuniverselle, 26

Einheitswürfel, 117Einheitswurzel, 52Epimorphismus, 44, 59Erzeugnis, 65Eulersche Formel, 51

Faktormenge, 26Faktorraum, 108

Gauß, 81Algorithmus, 83Eliminationsverfahren, 81

Gleichungssystemlinear, 76

Graph, 33Symmetrie, 34ungerichtet, 33

Gruppe, 31abelsch, 31, 57Dieder, 35symmetrisch, 31, 32

Gruppentafel, 32

Homomorphismus, 44Gruppen, 44Körper-, 47Ring-, 47

119

Index

imaginäre Einheit, 48Imaginäreteil, 51Implikation, 11Isomorphismus, 44, 59

K-wertigAbbildung, 55Folge, 55

Körper, 29, 30Galois, 29

Kern, 46, 63komplex konjugiert, 51Konditional, 11Konjunktion, 10

Lösungsmenge, 80linear

abhängig, 66unabhängig, 66, 68

lineare Hülle, 65Linearform, 100Linearkombination, 64Linkskürzung, 37

Matrix, 78erweiterte, 82inverse, 94quadratisch, 94Rang, 97transponiert, 78

Mengenlehrenaive, 17

modulo, 41Addition, 42Multiplikation, 42

Monomorphismus, 44, 59Multilinearform

k-, 120Multiplikationstabelle, 32Mutlilinearform

Bilinearform, 120

Negation, 9neutral

rechtsneutral, 37Nullstellenmenge, 106

Partition, 23, 24Mengen-, 23

Polardarstellung, 51Primzahl, 43Produktvektorraum, 114

Quantoren, 15Allquantor, 15Existensquantor, 15

Quotientenabbildung, 26Quotientenmenge, 26Quotientenraum, 108

Realteil, 50Rechtskürzung, 38Relation, 18

reflexiv, 19symmetrisch, 19transitiv, 19

Ring, 42, 78Ringschluss, 21

Skalar, 30, 57Smith-Normalform, 96Spat, 117

universell, 26Universum, 14Untergruppe, 46Unterraum, 60

affiner, 80Durchschnitt, 63Komplement, 111Summe, 63

Vektor, 57Addition, 50, 53Stauchung, 53

120

Index

Streckung, 53Vektorraum, 57

Dimension, 70, 73endlich erzeugt, 70Unter-, 60

Verknüpfungabelsch, 29assoziativ, 29kommutativ, 29

Zeilentransformationenelementare, 81

121