Upload
others
View
3
Download
0
Embed Size (px)
Citation preview
Lineare Algebra I
Zürcher Hochschule für Angewandte WissenschaftenRichard Bödi
Basierend auf dem Linearen Algebra Manuskript von RogerManz.
Inhaltsverzeichnis
1 Matrizen 3
1.1 Körper und Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Additive Eigenschaften von Matrizen . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Multiplikative Eigenschaften von Matrizen . . . . . . . . . . . . . . . . . . . 8
1.4 Die transponierte Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5 Spezielle Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.6 Stochastische Matrizen und das PageRank-Verfahren von Google . . . . . . 18
2 Lineare Gleichungssysteme 22
2.1 Darstellung linearer Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . 22
2.2 Lösen spezieller linearer Gleichungssysteme . . . . . . . . . . . . . . . . . . 24
2.3 Ein allgemeines Lösungsverfahren für lineare Gleichungssysteme - das Eli-minationsverfahren von Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.4 Die Lösungsmenge linearer Gleichungssysteme . . . . . . . . . . . . . . . . . 30
2.5 Übungen zum Lösen von linearen Gleichungssystemen . . . . . . . . . . . . 32
2.6 Invertieren von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.7 Lösen eines PageRank Problems . . . . . . . . . . . . . . . . . . . . . . . . . 39
1
INHALTSVERZEICHNIS 2
3 Vektorräume 42
3.1 Definition und Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2 Unterräume, Durchschnitt und Summe . . . . . . . . . . . . . . . . . . . . . 45
3.3 Lineare Unabhängigkeit und lineare Hülle . . . . . . . . . . . . . . . . . . . 48
3.4 Klassifikation der Unterräume des R3 . . . . . . . . . . . . . . . . . . . . . . 51
3.5 Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.6 Dimension des Lösungsraumes der PageRank-Gleichung . . . . . . . . . . . 64
4 Lineare Abbildungen und Matrizen 68
4.1 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.2 Bild und Kern einer linearen Abbildungen . . . . . . . . . . . . . . . . . . . 73
4.3 Isomorphie von Vektorräumen . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.4 Koordinaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.5 Matrixdarstellungen linearer Abbildungen . . . . . . . . . . . . . . . . . . . 86
4.6 Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.7 Lineare Abbildungen und Basiswechsel . . . . . . . . . . . . . . . . . . . . . 100
4.8 Rang einer Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
4.9 Diagonalisierung quadratischer Matrizen . . . . . . . . . . . . . . . . . . . . 108
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
Kapitel 1
Matrizen
1.1 Körper und Matrizen
Das wichtigste Hilfsmittel zur praktischen Ausführung von Rechnungen in der Linearen Al-gebra ist die Matrix, ein rechteckiges Schema von Zahlen oder allgemeiner, von Elementeneines Körpers. Der Begriff des (Zahl-)Körpers wurde 1893 von Heinrich Weber in seinemLehrbuch der Algebra eingeführt:
3
KAPITEL 1. MATRIZEN 4
Definition 1.1Eine Menge K, die (mindestens) zwei unterschiedliche Elemente 0 und 1 enthält, undfür deren Elemente eine Addition + : K×K → K und eine Multiplikation · : K×K → Kdefiniert ist, heisst ein Körper, falls folgende Rechenregeln gelten:
• Assoziativgesetz der Addition: Für alle a, b, c ∈ K ist (a+ b) + c = a+ (b+ c).
• Kommutativgesetz der Addition: Für alle a, b ∈ K ist a+ b = b+ a.
• Neutralelement 0 der Addition: Für alle a ∈ K ist a+ 0 = a = 0 + a.
• Existenz des entgegengesetzten Elements: Für alle a ∈ K gibt es ein a′ ∈ K mita+ a′ = 0 = a′ + a. Man schreibt dann für a′ auch −a.
• Assoziativgesetz der Multiplikation: Für alle a, b, c ∈ K ist (a · b) · c = a · (b · c).
• Kommutativgesetz der Multiplikation: Für alle a, b ∈ K ist a · b = b · a.
• Neutralelement 1 der Multiplikation: Für alle a ∈ K ist a · 1 = a = 1 · a.
• Existenz des inversen Elements: Für alle a ∈ K \ {0} gibt es ein a′ ∈ K mita · a′ = 1 = a′ · a. Man schreibt dann für a′ auch a−1.
• Distributivgesetz: Für alle a, b, c ∈ K ist a · (b+ c) = a · b+ a · c.
Beispiel 1.1• Die rationalen Zahlen Q bilden einen Körper
• Die reellen Zahlen R bilden einen Körper
• Die komplexen Zahlen C bilden einen Körper, siehe Lineare Algebra II.
• Die Menge F2 = {0, 1} wird durch 1 + 1 = 0 zu einem Körper. Dieser Körperrepräsentiert die elementare Computer-Arithmetik.
Aufgabe 1Bilden die Menge der natürlichen Zahlen N = {1, 2, 3, . . . } und die Menge der ganzenZahlen Z jeweils Körper? Wie sieht es mit dem reellen Intervall [−1, 1] aus?
Die Bezeichnung Matrix wurde 1850 von James Joseph Sylvester eingeführt. Matrizenwaren allerdings schon in der Renaissance bekannt, wie das berühmte Bild Melencolia vonAlbrecht Dürer zeigt:
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 1. MATRIZEN 5
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 1. MATRIZEN 6
Definition 1.2Ein rechteckiges Schema
A = (aij) =
a11 a12 · · · a1na21 a22 · · · a2n...
......
am1 am2 · · · amn
aus m Zeilen und n Spalten mit Elementen aij aus einem Körper K heisst eine m×n-Matrix über K. Die Elemente Aij := aij heissen Einträge oder Komponenten derMatrix A. Die senkrecht untereinanderstehenden Komponenten heissen Spalten, diewaagrecht nebeneinanderstehenden Komponenten heissen Zeilen der Matrix. Bei denKomponenten aij heisst i der Zeilenindex und j der Spaltenindex. Für m = n heissteine Matrix quadratisch und die Komponenten aii heissen Diagonaleinträge.
Beispiel 1.2Die 2× 4-Matrix A =
(1 0 0 20 2 −4 12
)
Beispiel 1.3Die 4× 2-Matrix A =
1 00 20 −42 12
Beispiel 1.4Die quadratische 3× 3-Matrix A =
1 0 10 1 12 1 π
Aufgabe 2Welche Körper wurden für die Einträge der oben genannten Beispiele verwendet? Sind dieKörper eindeutig? Wie hängen die ersten beiden Beispiele miteinander zusammen?
Aufgabe 3Notiere eine 3× 5 Matrix A mit Aij = i+ j.
Definition 1.3Zwei Matrizen A = (aij) und B = (bij) sind gleich, in Symbolen A = B, wenn beidedie gleiche Anzahl von Zeilen und die gleiche Anzahl von Spalten haben und aij = bijfür alle Komponenten gilt.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 1. MATRIZEN 7
1.2 Additive Eigenschaften von Matrizen
Die Addition eines Körpers kann dazu verwendet werden, eine Addition auf Matrizen mitgleicher Anzahl von Zeilen und gleicher Anzahl von Spalten zu definieren.
Definition 1.4Für zwei m×n-Matrizen A = (aij) und B = (bij) ist die Summe bzw. die Differenz C =(cij) = A±B definiert durch cij = aij ± bij , d.h. Matrizen werden komponentenweiseaddiert bzw. subtrahiert.
BemerkungMatrizen mit unterschiedlicher Anzahl von Spalten oder Zeilen können nicht addiert wer-den.
Beispiel 1.5Für die Matrizen A =
(1 0 10 2 3.2
)und B =
(0 1 12 1 π
)ist A+B =
(1 1 22 3 3.2 + π
)
Die m× n-Matrix
O =
0 0 · · · 00 0 · · · 0...
......
0 0 · · · 0
heisst Nullmatrix. Sie ist das neutrale Element bezüglich der Matrizen-Addition, d.h. esgilt für alle m× n-Matrizen A:
A+O = A = O +A
Für die m× n-Matrix
A =
a11 a12 · · · a1na21 a22 · · · a2n...
......
am1 am2 · · · amn
heisst die Matrix
−A =
−a11 −a12 · · · −a1n−a21 −a22 · · · −a2n
......
...−am1 −am2 · · · −amn
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 1. MATRIZEN 8
die zu A entgegengesetzte Matrix. Es gilt
A+ (−A) = O = (−A) +A,
d.h. −A ist tatsächlich das zu A entgegengesetzte Element bzgl. der Matrizen-Addition.
Das Assoziativ- und Kommutativgesetz in Körpern überträgt sich komponentenweise aufdie Matrizen-Addition:
Satz 1.1Seien A,B,C drei m× n-Matrizen. Dann gelten die folgenden Rechenregeln:
1. Assoziativgesetz: A+ (B + C) = (A+B) + C
2. Kommutativgesetz: A+B = B +A
3. Neutrales Element bzgl. der Addition: A+O = A = O +A
4. Entgegengesetztes Element: A+ (−A) = O = (−A) +A
1.3 Multiplikative Eigenschaften von Matrizen
Bevor die Multiplikation zweier Matrizen erklärt wird, wird die sogenannte Skalarmultipli-kation definiert.
Definition 1.5Für eine m×n-Matrix A = (aij) mit Komponenten aij aus einem Körper K und einerZahl λ ∈ K ist die Skalarmultiplikation λ ·A definiert als
λ ·A = λ ·
a11 a12 · · · a1na21 a22 · · · a2n...
......
am1 am2 · · · amn
=
λa11 λa12 · · · λa1nλa21 λa22 · · · λa2n
......
...λam1 λam2 · · · λamn
Beispiel 1.6Für die Matrix A =
(1 0 10 2 3.2
)und λ = 5 ∈ K ist λ·A = 5·
(1 0 10 2 3.2
)=
(5 0 50 10 16
)
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 1. MATRIZEN 9
Ähnlich wie bei der Matrizen-Addition übertragen sich die Eigenschaften des Körpers aufdie Skalarmultiplikation, weil diese komponentenweise definiert ist:
Satz 1.2Seien A,B zwei m× n-Matrizen über einem Körper K und λ, µ ∈ K. Dann gelten diefolgenden Rechenregeln:
1. Assoziativgesetz: (λµ)A = λ(µA)
2. Kommutativgesetz: λ(µA) = µ(λA)
3. Neutrales Element bzgl. der Skalarmultiplikation: 1 ·A = A
4. Erstes Distributivgesetz: (λ+ µ)A = λA+ µA
5. Zweites Distributivgesetz: λ(A+B) = λA+ λB
Analog zur Addition von Matrizen könnte man auf die Idee kommen, die Multiplikationvon Matrizen ebenfalls komponentenweise zu definieren. In MATLAB zum Beispiel istdiese Multiplikation auch via A . ∗B implementiert. Die „richtige” Matrizenmultiplikationist jedoch anders definiert (in MATLAB durch A∗B gekennzeichnet), um später Matrizenzur Darstellung linearer Abbildungen (siehe Lineare Algebra II) verwenden zu können.
Definition 1.6Für eine k × m-Matrix A = (aij) und eine m × n-Matrix B = (bij) ist das ProduktC = (cij) = A ·B definiert durch
cij =m∑s=1
aisbsj .
BemerkungAls Merkregel kann die Matrizenmultiplikation auf folgende Weise veranschaulicht werden:
a11 · · · · · · a1m...
......
ai1 · · · ais · · · aim
......
...ak1 · · · · · · akm
b11 · · · b1j · · · b1n
......
...
· · · bsj · · ·
......
...
bm1 · · · bmj · · · bmn
=
c11 · · · c1j · · · c1n...
......
ci1 · · · cij · · · cin
......
...cm1 · · · cmj · · · cmn
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 1. MATRIZEN 10
Die grau unterlegten Komponenten der ersten Matrix werden mit ihren entsprechenden(ebenfalls grau unterlegten) Komponenten der zweiten Matrix multipliziert und diese Pro-dukte werden dann in cij alle aufsummiert.
Beispiel 1.7Für die Matrizen A =
1 20 3−1 1
und B =
(2 0 −1−1 4 3
)ist
A ·B =
1 · 2 + 2 · (−1) 1 · 0 + 2 · 4 1 · (−1) + 2 · 30 · 2 + 3 · (−1) 0 · 0 + 3 · 4 0 · (−1) + 3 · 3−1 · 2 + 1 · (−1) −1 · 0 + 1 · 4 −1 · (−1) + 1 · 3
=
0 8 5−3 12 9−3 4 4
Aufgabe 4Berechne das Matrizenprodukt von A =
(1 2 3 4−1 0 1 0
)und B =
0 1 0−1 1 01 1 10 0 0
Aufgabe 5Berechne das Matrizenprodukt von A =
(−1 0 1 0 −1
)und B =
540−6−5
Aufgabe 6Berechne das Matrizenprodukt von A =
−1 0 00 0 −10 1 0
mit sich selbst.
BemerkungDie Matrizenmultiplikation ist im allgemeinen nicht kommutativ, d.h. es kann
A ·B = B ·A
gelten. Das Produkt einer nichtquadratischen k × m-Matrix A und einer m × n-MatrixB ist nur für A · B definiert. Das Produkt B · A ist dagegen nicht definiert! Selbst fürquadratische Matrizen kann die Matrizenmultiplikation nicht kommutativ sein:(
1 10 1
)·(1 23 4
)=
(4 63 4
)=(1 33 7
)=
(1 23 4
)·(1 10 1
)
Die n× n-Matrix
D = diag(d11, . . . , dnn) =
d11 0 · · · 00 d22 · · · 0...
......
0 0 · · · dnn
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 1. MATRIZEN 11
heisst Diagonalmatrix. Eine spezielle Diagonalmatrix ist die Einheitsmatrix
In =
1 0 · · · 00 1 · · · 0...
......
0 0 · · · 1
Diese Matrix ist das neutrale Element bezüglich der Matrizen-Muiplikation, d.h. es gilt füralle m× n-Matrizen A:
A · In = A = Im ·A
Aufgabe 7Zeige, dass für zwei n × n-Diagonalmatrizen A und B das Produkt A · B wieder eineDiagonalmatrix ist und A ·B = B ·A gilt.
Satz 1.3Seien A,A1, A2 drei m× n-Matrizen, B,B1, B2 drei n× p-Matrizen und C eine p× q-Matrix über einem Körper K. Sei λ ∈ K. Für die Matrixmultiplikation gelten diefolgenden Rechenregeln:
1. Assoziativgesetz: A · (B · C) = (A ·B) · C
2. Skalares Assoziativgesetz: λ(A ·B) = (λA) ·B = A · (λB)
3. Neutrales Element bzgl. der Matrixmultiplikation: A · In = A = Im ·A
4. Erstes Distributivgesetz: (A1 +A2) ·B = A1 ·B +A2 ·B
5. Zweites Distributivgesetz: A · (B1 +B2) = A ·B1 +A ·B2
Die Frage nach der Existenz von inversen Elementen bzgl. der Multiplikation erweist sichals deutlich schwieriger als bei den entgegengesetzten Elementen der Addition.
Definition 1.7Gibt es zu einer quadratischen n× n-Matrix A eine n× n Matrix X mit
A ·X = In = X ·A,
so heisst X die zu A inverse Matrix. Sie wird mit X = A−1 bezeichnet. Die MatrixA heisst eine reguläre Matrix.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 1. MATRIZEN 12
Beispiel 1.8Die Matrizen A =
(3 45 7
)und B =
(7 −4−5 3
)sind zueinander invers, denn es gilt
A ·B =
(3 45 7
)·(
7 −4−5 3
)= I2
und
B ·A =
(7 −4−5 3
)·(3 45 7
)= I2.
Aufgabe 8Besitzt die Matrix A =
(0 11 0
)eine Inverse? Wenn ja, wie sieht diese aus?
Satz 1.4Sei A eine reguläre quadratischer Matrix und B,C zu A inverse Matrizen. Dann istB = C, d.h. die Inverse einer Matrix ist eindeutig.
BeweisEs gilt: B = In ·B = (C ·A) ·B = C · (A ·B) = C · In = C. □
Nicht alle Matrizen besitzen eine inverse Matrix, z.B. ist dies bei der Matrix
A =
(1 22 4
)der Fall. Angenommen es wäre A · B = I2 für eine Matrix B = (bij), so müssten nachDefinition der Gleichheit zweier Matrizen die folgenden vier Gleichungen gelten:
1b11 + 2b21 = 1
1b21 + 2b22 = 0
2b11 + 4b21 = 0
2b21 + 4b22 = 1
Multipliziert man die erste Gleichung mit 2, so erhält man 2b11+4b21 = 2, was der drittenGleichung widerspricht. Somit hat das obige Gleichungssystem keine Lösung und es kann
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 1. MATRIZEN 13
keine zu A inverse Matrix existieren.
Satz 1.5Besitzt A eine inverse Matrix A−1, so ist A die inverse Matrix von A−1, d.h. es ist
(A−1)−1 = A.
Ist B eine reguläre Matrix, so dass A ·B definiert ist, so gilt
(A ·B)−1 = B−1 ·A−1.
BeweisDie erste Aussage gilt aufgrund der Eindeutigkeit der inversen Matrix. Die zweite Aussagefolgt aus
(B−1 ·A−1) · (A ·B) = B−1 · ((A−1) · (A ·B))
= B−1 · ((A−1) ·A) ·B)
= B−1(In ·B) = B−1 ·B= In
und ebenso (A ·B) · (B−1 ·A−1) = In. □
Aufgabe 9Eine Diagonalmatrix D = diag(λ1, . . . , λn) besitzt genau dann eine Inverse, wenn alleλi = 0 sind? In diesem Fall ist D−1 = diag(λ−1
1 , . . . , λ−1n ).
Im Kapitel über lineare Gleichungssystem werden wir eine effektive Methode (Gauss-Algo-rithmus) kennenlernen, um die Inverse einer regulären Matrix zu bestimmen.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 1. MATRIZEN 14
1.4 Die transponierte Matrix
Eine weitere nützliche Operation auf Matrizen ist das Transponieren.
Definition 1.8Sei A = (aij) eine m × n-Matrix. Die zu A transponierte Matrix AT erhält manaus A, indem man die i-te Spalte von A zur i-ten Zeile von AT macht, d.h. es istAT = (aji).
Für A =
a11 · · · a1j · · · a1n
......
...
· · · asj · · ·
......
...
am1 · · · amj · · · amn
ist AT =
a11 · · · · · · am1...
......
a1j · · · asj · · · amj
......
...a1n · · · · · · amn
Aufgabe 10Bestimme die transponierten Matrizen von A =
(1 2 3 4−1 0 1 0
), B =
0 1 0−1 1 01 1 1
und
C =(1 3 −1
)Für die transponierte Matrix gelten die folgenden Rechenregeln:
Satz 1.6Seien A,B zwei m × n-Matrizen und C eine n × p-Matrix über einem Körper K undsei λ ∈ K. Dann gilt:
1. Additivität: (A+B)T = AT +BT
2. Idempotenz: (AT )T = A
3. Invarianz unter Skalarmultiplikation: (λA)T = λAT
4. Antikommutativität: (A · C)T = CT ·AT
5. Ist A eine reguläre Matrix, so ist (AT )−1 = (A−1)T
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 1. MATRIZEN 15
Beweis1) Es ist
((A+B)T )ij = (A+B)ji = Aji +Bji = (AT )ij + (BT )ij = (AT +BT )ij ,
also (A+B)T = AT +BT .
2) Wegen ((AT )T )ij = (AT )ji = Aij folgt (AT )T = A.
3) Die Invarianz unter Skalarmultiplikation folgt aus ((λA)T )ij = (λA)ji = λAji = λ(AT )ij .
4) Es gilt
((A · C)T )ij = (A · C)ji =n∑
k=1
Ajk · Cki =n∑
k=1
(AT )kj · (CT )ik
=
n∑k=1
(CT )ik · (AT )kj = (CT ·AT )ij ,
woraus nach Definition der Gleichheit von Matrizen (A · C)T = CT ·AT folgt.
5) Aus(A−1)T ·AT = (A ·A−1)T = ITn = In
folgt, dass (A−1)T die zu AT inverse Matrix ist, mit anderen Worten:
(AT )−1 = (A−1)T .
1.5 Spezielle Matrizen
Definition 1.9Eine Matrix, die oberhalb der Diagonalen nur Nullen enthalt, heisst untere Drei-ecksmatrix. Sind alle Elemente unter der Diagonalen null, so heisst sie obere Drei-ecksmatrix.
Beispiel 1.9Die Matrizen
1 2 10 2 3.20 0 −5
,
1 2 10 2 3.20 0 0
,
1 2 1 30 2 3.2 00 0 −5 2
,
1 2 10 2 3.20 0 10 0 0
, und
0 0 00 0 00 0 0
sind obere Dreicksmatrizen.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 1. MATRIZEN 16
Definition 1.10Eine quadratische n× n-Matrix A heisst symmetrisch, wenn AT = A gilt.
Beispiel 1.10Die Matrix
1 2 1 22 0 −4 π1 −4 3 02 π 0 9
ist symmetrisch.
Um symmetrische Matrizen zu generieren ist das folgende Resultat nützlich:
Satz 1.7Seien A eine m×n-Matrizen. Dann sind die Matrizen AT ·A und A ·AT symmetrischeMatrizen.
BeweisEs ist (AT ·A)T = AT · (AT )T = AT ·A, d.h. die Matrix AT ·A ist symmetrisch. Der Beweisfür A ·AT geht auf die gleiche Weise. □
Beispiel 1.11Für die Matrix
A =
(1 2 34 5 6
)ist
AT ·A =
1 42 53 6
·(1 2 34 5 6
)=
17 22 2722 29 3627 36 45
eine symmetrische Matrix.
Definition 1.11Eine quadratische n× n-Matrix A heisst orthogonal, wenn AT = A−1 gilt.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 1. MATRIZEN 17
Beispiel 1.12Die Matrix 1
2
√2 −1
2
√2 0
12
√2 1
2
√2 0
0 0 −1
ist orthogonal.
Aufgabe 11Zeige, dass die Matrix A =
(0 11 0
)sowohl symmetrisch als auch orthogonal ist.
Definition 1.12Sei λ ∈ K mit λ = 0. Die quadratischen n× n-Matrizen
Ei,λn =
1
. . .λ
. . .1
,
wobei der Eintrag λ in der iten Zeile (und iten Spalte) steht,
Eij,λn =
1. . .
1 λ. . .
1. . .
1
,
wobei der Eintrag λ ∈ K in der iten Zeile und jten Spalte der Matrix Eλij steht, und
Eijn =
1. . .
0 1. . .
1 0. . .
1
,
wobei die Einsen ausserhalb der Diagonalen in den Positionen ij und ji stehen, heissenElementarmatrizen.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 1. MATRIZEN 18
Satz 1.8Alle Elementarmatrizen sind invertierbar und es ist
1. (Ei,λn )−1 = Ei,λ−1
n
2. (Eij,λn )−1 = Eij,−λ
n
3. (Eijn )−1 = Eij
n
Beweis1) Das wurde schon am Ende vom Kapitel über die multiplikativen Eigenschaften vonMatrizen bewiesen.
2) Die Komponenten in der Diagonale des Produktes P = (Eij,λn )−1 · Eij,−λ
n sind alle 1.Der einzige Eintrag von P , der nicht von vornherein 0 ist, ist der Eintrag an der Stelle ij.Dieser Eintrag ist aber 1 · (−λ) + λ · 1 = 0. Also ist P = In und damit (Eij,λ
n )−1 = Eij,−λn .
3) Die Matrix Eijn ist orthogonal und symmetrisch, d.h. es ist
(Eijn )−1 = (Eij
n )T = Eijn .
Aufgabe 12Sei A eine m×n-Matrix. Beschreibe in Worten, wie die Matrizenprodukte A ·Ei,λ
n , Ei,λm ·A,
A · Eij,λn , Eij,λ
m ·A, und A · Eijn , Eij
m ·A sich von der Originalmatrix A unterscheiden.
1.6 Stochastische Matrizen und das PageRank-Verfahren vonGoogle
Literatur: 1) S. Brin, L. Page, The anatomy of a large-scale hypertextual web search en-gine, http://infolab.stanford.edu.edu/ backrub/google.html, 2) Kurt Bryan, Tanya Leise,The $25,000,000,000 Eigenvector. The Linear Algebra behind Google., http://www.rose-hulman.edu// bryan/googleFinalVersionFixed.pdf
Wie funktioniert die Suchmaschine Google?
Die meisten Suchmaschinen funktionieren nach dem folgenden Prinzip:
1. Ein sogenannter Web-Crawler durchforstet stetig das Internet nach frei zugänglichenSeiten und speichert eine Kopie dieser Seite
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 1. MATRIZEN 19
2. Der Inhalt der vom Web-Crawler gefundenen Seiten wird zwecks schnellem Zugriffauf Schlüsselwörter indiziert
3. Für jede gefundene Seite wird eine Wichtigkeit berechnet, nach deren das Suchergeb-nis sortiert wird.
Der letzte Schritt ist der spannendste. Die Wichtigkeit einer Internet-Seite wird bei Googlenach dem sogenannten PageRank-Verfahren berechnet. Dieses Verfahren lässt sich komplettmit Linearer Algebra beschreiben! In diesem Abschnitt wird der Anfang des Verfahrensbeschrieben. Spätere Kapitel greifen dann den PageRank-Algorithmus wieder auf, wennmehr Theorie zur Verfügung steht.
Was bedeutet die Wichtigkeit einer Webpage? Die Grundidee ist die, dass eine Webpagep1 umso wichtiger ist, je mehr andere Webpages p2, . . . , pk auf sie verweisen. Selbstverwei-se werden dabei nicht gezählt. Dabei muss die Wichtigkeit der Webpages p2, . . . , pk miteinberechnet werden. Das heisst, eine Webpage, auf die viele Webpages mit eigener hoherWichtigkeit verweisen, ist selbst wichtig.
Sei also P := {p1, . . . , pn} die Menge aller (gefundenen) Webpages und sei xk ∈ R dieWichtigkeit der Webpage pk. Es bezeichne Lk die Menge aller Webpages, die auf pk ver-weisen. Die Zahl nk repräsentiere die Anzahl aller von Webpage pk ausgehenden Links.Dann definieren wir die Wichtigkeit xk der Webpage pk als
xk =∑
pj∈Lk
xjnj
.
Definieren wir nun die PageRank-Matrix P = (pij) via
pij =
{1nj, falls Webpage pj einen Link auf Webpage pi hat
0, sonst,
und schreiben
X =
x1x2...xn
so können wir das PageRank-Problem als folgende Matrix-Gleichung schreiben:
P ·X = X
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 1. MATRIZEN 20
Beispiel 1.13Die PageRank-Matrix P für die Website
ist die Matrix
P =
0 0 0 0 0 0 1/3 01/2 0 1/2 1/3 0 0 0 01/2 0 0 0 0 0 0 00 1 0 0 0 0 0 00 0 1/2 1/3 0 0 1/3 00 0 0 1/3 1/3 0 0 1/20 0 0 0 1/3 0 0 1/20 0 0 0 1/3 1 1/3 0
Wie lässt sich nun das PageRanking X = (xi) berechnen? Gibt es überhaupt immer eineLösung?
Tatsächlich gibt es immer eine Lösung der Gleichung PX = X. Dies liegt an der speziellenForm der PageRank-Matrix P .
Definition 1.13Eine quadratische n×n-Matrix A = (aij) mit nicht-negativen reellen Komponenten aijheisst spaltenstochastisch, wenn die Summe aller Komponenten einer Spalte stets 1ergibt, d.h.
n∑i=1
aij = 1
für alle j = 1, . . . , n gilt. Entsprechend wird eine zeilenstochastische Matrix defi-niert.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 1. MATRIZEN 21
Aufgabe 13Begründe, warum die PageRank-Matrix für zusammenhängende Web-Sites spaltenstochas-tisch ist.
Der folgende Satz zeigt, das für spaltenstochastische Matrizen P die Gleichung P ·X = Xlösbar ist.
Satz 1.9Für jede spaltenstochastische Matrix P gibt es stets eine n × 1-Matrix X = 0 mitP ·X = X.
BeweisWird im Kapitel über Eigenwerte (Lineare Algebra II) nachgeholt. □
In späteren Kapiteln wird untersucht werden, wie sich der PageRank effektiv berechnenlässt, wie es mit der Eindeutigkeit der Lösung X aussieht und wie sich der PageRank beiunverbundenen Teilnetzen (von denen es im Internet eine grosse Anzahl gibt) verhält. Inden Übungen wird die Frage diskutiert, wie man eine Website konstruiert, so dass maneine möglichst hohe PageRank-Wertung bekommt.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
Kapitel 2
Lineare Gleichungssysteme
2.1 Darstellung linearer Gleichungssysteme
Definition 2.1Eine Menge von m linearen Gleichungen in n Unbekannten x1, . . . , xn der Form
a11x1 + a12x2 + · · · + a1nxn = c1a21x1 + a22x2 + · · · + a2nxn = c2
......
......
am1x1 + am2x2 + · · · + amnxn = cm
wobei aij und ci einem Körper K angehören, heisst ein lineares Gleichungssystemüber dem Körper K in den n Unbekannten x1, . . . , xn.
Um ein lineares Gleichungssystem kompakter zu schreiben, verwendet man Matrizen. Da-mit wird das obige System durch
A · x = c,
ausgedrückt, wobei
A =
a11 a12 · · · a1na21 a22 · · · a2n...
......
am1 am2 · · · amn
, x =
x1x2...xn
und c =
c1c2...cm
ist. Matrizen mit einer einzigen Spalte bzw. Zeile werden auch Spaltenvektor bzw. Zei-
22
KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 23
lenvektor genannt und werden üblicherweise mit kleinen Buchstaben bezeichnet.
Definition 2.2Ein lineares Gleichungssystem Ax = c heisst homogen, falls c = 0 ist. Für c = 0heisst das System inhomogen.
Beispiel 2.1Das lineare Gleichungssystem 1 2 0 3
−4 0 0 20 −2 1 3
x1x2x3x4
=
000
ist homogen.
Beispiel 2.2Das lineare Gleichungssystem 1 2 0 3
−4 0 0 20 −2 1 3
x1x2x3x4
=
150
ist inhomogen.
Definition 2.3Ein Vektor b = (bi) über einem Körper K heisst Lösung des linearen Gleichungs-systems Ax = c über K, wenn Ab = c ist.
Satz 2.1Ein homogenes lineares Gleichungssystem Ax = 0 hat immer den Nullvektor x = 0 alsLösung, d.h. es ist A · 0 = 0.
BeweisNach Definition der Matrizenmultiplikation ist A · 0 = 0. □
Aufgabe 14Inhomogene lineare Gleichungssysteme müssen nicht unbedingt eine Lösung besitzen. Zei-ge, dass (
1 22 4
)(x1x2
)=
(01
)ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 24
keine Lösung hat.
2.2 Lösen spezieller linearer Gleichungssysteme
Wie lassen sich lineare Gleichungssysteme allgemein lösen?
Bevor diese Frage beantwortet wird, betrachten wir spezielle lineare Gleichungssysteme,die sich einfach lösen lassen.
Im ganzen Kapitel betrachten wir das lineare Gleichungssystem Ax = c in n Unbekannten.
Satz 2.2Ist A eine reguläre quadratische n× n-Matrix, so ist
b = A−1c
eine Lösung des linearen Gleichungssystems Ax = c.
BeweisEs ist A(A−1c) = (AA−1)c = Inc = c, also ist b = A−1c eine Lösung von Ax = c. □
Satz 2.3Ist A eine Matrix, für die alle Komponenten ausserhalb der Diagonalen Null sind, soexistiert genau dann (mindestens) eine Lösung von Ax = c, wenn aus aii = 0 stetsci = 0 für alle i = 1, . . . ,min{m,n} folgt. In diesem Fall ist durch
bi =
{ci · a−1
ii , falls aii = 0 und i ≤ min{m,n}0, sonst
eine Lösung b = (bi) gegeben. Ist aii = 0 für alle i = 1, . . . ,min{m,n}, so ist die obenangegebene Lösung b die einzige Lösung.
BeweisDie ite Zeile des Gleichungssystem lautet aiixi = ci, da alle Komponenten von A ausserhalbder Diagonalen Null sind. Für aii = 0 erfüllt nur bi = cia
−1ii diese Gleichung. Ist aii = 0,
so ist nach Voraussetzung auch ci = 0, und die Gleichung aiixi = ci ist immer erfüllt. Indiesem Fall kann für xi ein beliebiges Körperelement hergenommen werden, insbesonderedas Element 0. □
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 25
Aufgabe 15Löse das lineare Gleichungssystem
3 0 0 00 0 0 00 0 2 00 0 0 10 0 0 0
x1x2x3x4
=
50040
Wieviele Lösungen hat dieses System?
Aufgabe 16Ist das lineare Gleichungssystem
3 0 0 00 0 0 00 0 2 00 0 0 10 0 0 0
x1x2x3x4
=
50041
lösbar?
Satz 2.4Sei A eine obere Dreiecksmatrix, deren sämtliche Diagonaleinträge nicht Null sind.Existiert eine Lösung von Ax = c, so lässt sich eine Lösung sukzessive berechnendurch das Lösen der Gleichungen in der Reihenfolge von unten nach oben:
a11x1 + a12x2 + · · · + a1nxn = c1a22x2 + · · · + a2nxn = c2
......
· · · + amnxn = cm
BeweisSei p = min{m,n}. Da A eine obere Dreiecksmatrix ist, sind für k > p alle Komponentenakj = 0. Da Ax = c nach Voraussetzung eine Lösung hat, muss für k > p auch ck = 0gelten, d.h. die letzten m − p Zeilen sind komplett Null und man kann diese als nichtvorhanden annehmen. Dies bedeutet, dass wir p = m, also m ≤ n, annehmen können.Damit sieht das Gleichungssystem wie folgt aus:
a11x1 + a12x2 + · · · + a1mxm + · · · + a1nxn = c1a22x2 + · · · + a2mxm + · · · + a2nxn = c2
......
ammxm + · · · + amnxn = cm
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 26
Die unterste Gleichung ammxm + · · · + amnxn = cm lässt sich nach Voraussetzung inden Unbekannten xm, . . . , xn lösen, andernfalls hätte das gesamte Gleichungssystem keineLösung. Sei bm, . . . , bn ∈ K eine solche Lösung. Die zweitunterste Gleichung
am−1,m−1xm + am−1,mbm + · · ·+ am−1,nbn = cm−1
lässt sich durch
bm−1 := a−1m−1,m−1(cm−1 − am−1,mbm − · · · − am−1,nbn)
lösen, denn a−1m−1,m−1 = 0. Die bisherige ”Lösung” bm − 1, bm, . . . , bn lässt sich jetzt in die
drittletzte Gleichung auf die gleiche Art und Weise einsetzen und man erhält eine wei-tere Lösungskomponente bm−2. So fortfahrend kann das gesamte Gleichungssystem gelöstwerden. □
Aufgabe 17Löse das lineare Gleichungssystem über R
3 5 −1 00 1 5 00 0 2 90 0 0 10 0 0 0
x1x2x3x4
=
51240
Wieviele Lösungen hat dieses System?
Aufgabe 18Löse das lineare Gleichungssystem über R
3 5 −1 00 1 5 00 0 2 9
x1x2x3x4
=
516
Wieviele Lösungen hat dieses System?
Aufgabe 19Löse das lineare Gleichungssystem über dem Körper mit zwei Elementen F2 = {0, 1}
1 0 1 00 1 1 10 0 1 10 0 0 0
x1x2x3x4
=
1110
Wieviele Lösungen hat dieses System?
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 27
2.3 Ein allgemeines Lösungsverfahren für lineare Gleichungs-systeme - das Eliminationsverfahren von Gauss
Definition 2.4Für eine m× n-Matrix A und eine m× k-Matrix B heisst die Matrix
(A,B) =
a11 a12 · · · a1n b11 b12 · · · b1ka21 a22 · · · a2n b21 b22 · · · b2k...
......
......
...am1 am2 · · · amn bm1 bm2 · · · bmk
die von A um B erweiterte Matrix.
Das Eliminationsverfahren von Gauss zum Lösen linearer Gleichungssysteme Ax = c be-ruht auf einfachen Operationen auf den Spalten von A und den Zeilen der um c erweitertenMatrix A. Eine wichtige Rolle werden deshalb die Elementarmatrizen spielen. Wir rekapi-tulieren die Eigenschaften dieser Matrizen:
Sei A eine m× n-Matrix und λ ∈ K, λ = 0.
1. Das Produkt Ei,λm · A entsteht aus der Matrix A durch Skalarmultiplikation der
iten Zeile mit λ. Das Produkt A · Ei,λn entsteht aus der Matrix A durch Skalar-
multiplikation der iten Spalte mit λ.
2. Das Produkt Eijm ·A entsteht aus der Matrix A durch Vertauschen der iten und
jten Zeile. Das Produkt A · Eijn entsteht aus der Matrix A durch Vertauschen
der iten und jten Spalte.
3. Das Produkt Eij,−λm · A entsteht aus der Matrix A, indem zur iten Zeile von A
das λ-fache der jten Zeile addiert wird. Das Produkt A ·Eij,−λn entsteht aus der
Matrix A, indem zur iten Spalte von A das λ-fache der jten Spalte addiert wird.
Die im oberen Rahmen beschriebenen Operation auf einer Matrix A heissen elementareZeilen- und Spaltenoperationen.
Satz 2.5Sei Ax = c ein lineares Gleichungssystem. Wendet man auf die erweiterte Matrix (A, c)eine beliebige elementare Zeilenoperation an, so besitzt das neue lineare Gleichungs-system Ax = c die gleiche Lösungsmenge wie Ax = c.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 28
BeweisSei b = (b1, . . . , bn)
T eine Lösung von Ax = c, d.h. es ist Ab = c. Sei E eine Elementarmatrixund sei Ax = c das durch Anwenden von E auf (A, c) entstandene Gleichungssystem. Dannist
Ab = (E ·A)b = E · (Ab) = Ec = c,
d.h. b ist auch eine Lösung von Ax = c. Nehmen wir umgekehrt an, dass Ab = c gilt, sofolgt
Ab = E−1E(Ab) = E−1(EAb) = E−1(Ab) = E−1c = E−1(Ec) = c,
d.h. b ist eine Lösung von Ax = c. □
Beim Vertauschen von Spalten muss man etwas vorsichtiger sein, weil man dort auch dieUnbekannten x1, . . . , xn mitvertauschen muss.
Satz 2.6Sei Ax = c ein lineares Gleichungssystem. Vertauscht man zwei Spalten i und j in derMatrix A und vertauscht gleichzeitig die Unbekannten xi und xj , d.h. A wird durchA = AEij
n und x durch x = Eijn x, so besitzt das lineare Gleichungssystem Ax = c die
gleiche Lösungsmenge wie Ax = c.
BeweisSei b = (b1, . . . , bn)
T eine Lösung von Ax = c, d.h. es ist Ab = c. Sei E = Eijn die
Elementarmatrix, die die Spalten i und j vertauscht. Dann ist wegen E = E−1
Ab = (AE)(Eb) = A(EE)b = Ab = c,
d.h. b ist auch eine Lösung von Ax = c. Nehmen wir umgekehrt an, dass Ab = c gilt, sofolgt
Ab = A(EE)b = (AE)(Eb) = Ab = c,
d.h. b ist eine Lösung von Ax = c. □
Nun haben wir alle Hilfsmittel, um das Gauss-Verfahren zum Lösen von linearen Glei-chungssystemen angeben zu können.
Der Eliminations-Algorithmus von Gauss
Das nach Gauss benannte Verfahren zur Lösung eines linearen Gleichungssystems benutztZeilenoperationen um das ursprüngliche lineare Gleichungssystem auf Dreiecksform zubringen, weil dann die Lösungen durch Rückwartseinsetzen (wie im letzten Abschnitt beiden Dreiecksmatrizen demonstriert) einfach berechnet werden können.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 29
Wir betrachten das lineare Gleichungssystema11 a12 · · · a1na21 a22 · · · a2n...
......
am1 am2 · · · amn
x1x2...xn
=
c1c2...cm
.
Wir zeigen, dass nach m maligen Wiederholen der unten aufgeführten Schritte die MatrixA = (aij) durch elementare Zeilenoperation so umformen kann, dass am Ende A die Form
A =
d11 ∗ · · · · · · ∗ ∗ · · · ∗0 d22 ∗ · · · ∗ ∗ · · · ∗... 0
. . ....
......
......
. . . ∗...
...0 0 · · · · · · drr ∗ · · · ∗0 0 · · · · · · 0 0 · · · 0...
......
......
0 0 · · · · · · 0 0 · · · 0
mit d11, . . . , drr = 0 hat. Ein lineares Gleichungssystem mit einer solchen Matrix habenwir schon früher gelöst.
Schritt 1. Ist die Matrix A = (aij) die Nullmatrix, so sind wir fertig. Andernfalls könnenwir durch eine Zeilenvertauschung (und ggf. eine Spaltenvertauschung) erreichen, dass maneine Matrix
C = (cij) =
c11 ∗ · · · ∗c21 ∗ · · · ∗...
......
cm1 ∗ · · · ∗
mit c11 = 0 erhält.
Schritt 2. Addiere zur zweiten Zeile das −c21/c11fache der ersten Zeile, zur dritten Zeiledas −c31/c11fache der ersten Zeile, etc. bis zur mten Zeile. Dadurch bekommt eine Matrix
c11 c12 · · · c1n
0... C ′
0
,
mit c11 = 0 und einer (m− 1)× (n− 1)-Matrix C ′.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 30
Nun werden Schritte 1 und 2 auf die Matrix C ′ angewendet, bis entweder C ′ keine Spaltenoder Zeilen mehr hat, oder C ′ eine Nullmatrix ist.
Man erhält mit diesem Verfahren sukzessive Matrizen der Form
c11 c12 · · · c1n0... C ′
0
,
c11 c12 c13 · · · c1n0 c′22 c′23 · · · c′2n0 0...
... C ′′
0 0
,
c11 c12 c13 c14 · · · c1n0 c′22 c′23 c′24 · · · c′2n0 0 c′′33 c′′34 · · · c′′3n0 0 0...
...... C ′′′
0 0 0
und so weiter, bis man schliesslich bei der Matrix A landet. Die Elemente c11, c
′22, c
′′33, . . .
heissen Pivot-Elemente.
2.4 Die Lösungsmenge linearer Gleichungssysteme
Definition 2.5Die Anzahl r der Zeilen in A, die nicht Null sind, heisst der Rang der Matrix A. Manschreibt r = Rang(A). Es gibt also genau r Pivot-Elemente.
Satz 2.7Ein homogenes lineares Gleichungssystem Ax = 0 über einem (unendlichen) KörperK hat genau dann nur die Lösung x = 0, wenn Rang(A) = n ist. Andernfalls existierenmehrere (unendlich viele) Lösungen.
BeweisSei b = (b1, . . . , bn)
T eine Lösung von Ax = 0.
Ist Rang(A) = n, so sind alle Pivotelemente (Diagonaleinträge) von A = (dij) von Nullverschieden. Insbesondere gibt es mindestes n Zeilen und die nte Zeile lautet dnnbn = 0,woraus bn = 0 wegen dnn = 0 folgt. Damit gilt für die vorletzte Zeile 0 = dn−1,n−1bn−1 +dnnbn = 0 = dn−1,n−1bn−1, woraus wieder bn−1 = 0 folgt. So fortfahrend erhalten wirbi = 0 für all i, also b = 0.
Ist Rang(A) < n, so ist dnn = 0, und die Komponente bn lässt sich beliebig aus dem KörperK wählen. Hat K unendlich viele Elemente, so gibt es auch unendlich viele verschiedeneLösungen. □
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 31
Satz 2.8Ein inhomogenes lineares Gleichungssystem Ax = c über einem (unendlichen) Kör-per K hat
• keine Lösung, wenn Rang(A, c) > Rang(A)
• genau eine Lösung, wenn Rang(A, c) = Rang(A) = n
• mehrere (unendlich viele) Lösungen, wenn Rang(A, c) = Rang(A) < n
ist.
Beweis1) Ist Rang(A, c) > Rang(A), so ist im transformierten Gleichungssystem Ax = c
d11 ∗ · · · · · · ∗ ∗ · · · ∗0 d22 ∗ · · · ∗ ∗ · · · ∗... 0
. . ....
......
......
. . . ∗...
...0 0 · · · · · · drr ∗ · · · ∗0 0 · · · · · · 0 0 · · · 0...
......
......
0 0 · · · · · · 0 0 · · · 0
x1x2...xn
=
c1c2......crcr+1
...cm
das Element cr+1 = 0. Damit ist die r+1te Gleichung gegeben als 0 = 0x1+· · ·+0xn = cr+1,die keine Lösung hat. Also hat das Gleichungssystem Ax = c und damit auch Ax = c keineLösung.
2) Ist Rang(A, c) = Rang(A) = n, so hat das transformierte Gleichungssystem Ax = c dieForm
d11 ∗ · · · · · · ∗0 d22 ∗ · · · ∗... 0
. . ....
......
. . . ∗0 0 · · · · · · dnn0 0 · · · · · · 0...
......
0 0 · · · · · · 0
x1x2...xn
=
c1c2......cn0...0
.
Wie in Satz 2.4 lässt sich eine Lösung b von Ax = c sukzessive von unten nach obenberechnen. Sind b und b′ zwei Lösungen von Ax = c, so ist
A(b′ − b) = Ab−Ab′ = c− c = 0
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 32
und nach dem vorigen Satz muss damit b = b′ sein, d.h. es gibt genau eine Lösung vonAx = b.
3) Im Fall Rang(A, c) = Rang(A) < n ist
d11 ∗ · · · · · · ∗ ∗ · · · ∗0 d22 ∗ · · · ∗ ∗ · · · ∗... 0
. . ....
......
......
. . . ∗...
...0 0 · · · · · · drr ∗ · · · ∗0 0 · · · · · · 0 0 · · · 0...
......
......
0 0 · · · · · · 0 0 · · · 0
x1x2...xn
=
c1c2......cr0...0
und wie zuvor lässt sich eine Lösung b von Ax = c sukzessive von unten nach oben berech-nen. Nach dem vorigen Satz gibt es nun aber mehrere (unendlich viele) Lösungen. □
2.5 Übungen zum Lösen von linearen Gleichungssystemen
Um den Gauss-Algorithmus von Hand anzuwenden, ist es bequem, das Gleichungssystemdurch folgende Tabelle darzustellen:
x1 x2 · · · xna11 a12 · · · a1n c1a21 a22 · · · a2n c2...
......
...am1 am2 · · · amn cm
und alle elementaren Zeilenoperationen darauf anzuwenden.
Beispiel 2.3Das lineare Gleichungssystem
2x1 − x2 + 3x3 − x4 + x5 = −22x1 − x2 + 3x3 − x5 = −3−4x1 + 2x2 − 4x3 + 5x4 − 5x5 = 3
−2x3 + 2x4 − 7x5 = −4−2x1 + x2 − x3 + 4x5 = 5
wird also umgeschrieben zu
x1 x2 x3 x4 x52 −1 3 −1 1 −22 −1 3 0 −1 −3−4 2 −4 5 −5 30 0 −2 2 −7 −4−2 1 −1 0 4 5
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 33
Nun werden sukzessive die Schritte 1 und 2 des Gauss-Verfahrens angewendet. Die Pivote-lemente werden dabei immer eingerahmt. Da a11 = 0 ist , ist dieses das erste Pivotelementund der erste Schritt entfällt. Für den zweiten Schritt muss für i = 2, . . . , 5 zur ite Zeiledas λi1fachen der ersten Zeile addiert werden, wobei
λi1 := − ai1a11
ist. Im Diagramm wird das so vermerkt:
λi1 x1 x2 x3 x4 x5
2 −1 3 −1 1 −2
λ21 = −a21/a11 = −1 2 −1 3 0 −1 −3λ31 = −a31/a11 = 2 −4 2 −4 5 −5 3λ41 = −a41/a11 = 0 0 0 −2 2 −7 −4λ51 = −a51/a11 = 1 −2 1 −1 0 4 5
Wendet man die elementaren Zeilenoperation an, so erhalten wir das Schema
x1 x2 x3 x4 x52 −1 3 −1 1 −20 0 0 1 −2 −10 0 2 3 −3 −10 0 −2 2 −7 −40 0 2 −1 5 3
Der Eintrag a22 ist Null, ebenso alle darunter liegenden Einträge. Deshalb lässt sich perZeilenvertauschung kein Pivotelement finden. Eine Vertauschung der 2ten und 4ten Spalteliefert uns aber ein Pivotelement
x1 x4 x3 x2 x52 −1 3 −1 1 −2
0 1 0 0 −2 −1
0 3 2 0 −3 −10 2 −2 0 −7 −40 −1 2 0 5 3
Es muss für i = 3, . . . , 5 zur ite Zeile das λi2fachen der zweiten Zeile addiert werden:
λi2 x1 x4 x3 x2 x52 −1 3 −1 1 −2
0 1 0 0 −2 −1
−3 0 3 2 0 −3 −1−2 0 2 −2 0 −7 −41 0 −1 2 0 5 3
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 34
Nach den drei Zeilenoperationen erhalten wir
x1 x4 x3 x2 x52 −1 3 −1 1 −20 1 0 0 −2 −10 0 2 0 3 20 0 −2 0 −3 −20 0 2 0 3 2
So fortfahrend erhalten wirλi3 x1 x4 x3 x2 x5
2 −1 3 −1 1 −20 1 0 0 −2 −1
0 0 2 0 3 2
1 0 0 −2 0 −3 −2−1 0 0 2 0 3 2
x1 x4 x3 x2 x52 −1 3 −1 1 −20 1 0 0 −2 −10 0 2 0 3 20 0 0 0 0 00 0 0 0 0 0
Damit terminiert der Gaus-Algorithmus, weil die 2 × 3-Teilmatrix rechts unten die Null-matrix ist. Man sieht nun, dass Rang(A) = Rang(A, c) = 3 < 5 ist, d.h. es gibt unendlichviele Lösungen, wobei sich die Variable s = x2 und t = x5 frei wählen lassen.
Aus der dritten Zeile lesen wir ab 2x3 + 3x5 = 2 oder x3 = (2 − 3t)/2. Die zweite Zeileergibt x4 − 2x5 = −1, also x4 = 2t − 1. Schliesslich erhält man aus der ersten Zeile dieGleichung 2x1 − x4 + 3x3 − x2 + x5 = −2, also
x1 =1
2((2t− 1)− 3(2− 3t)/2 + s− t− 2) = 11t/4 + s/2− 6/2.
Als Lösungsmenge L ergibt sich daher
L = {(11t/4 + s/2− 3, s, (2− 3t)/2, 2t− 1, t) | s, t ∈ K}
Beispiel 2.4Um das lineare Geichungssystem
5x1 − 3x2 − 2x3 = 13x1 + x2 + x3 − x4 − x5 = −1
2x2 − 2x3 + x4 = −12x1 − x3 − x4 − 2x5 = 1x1 − x2 + x4 + 3x5 = 7
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 35
zu lösen, bekommt man schrittweise die folgenden Zwischenresultate:
x1 x2 x3 x4 x55 −3 −2 0 0 131 1 1 −1 −1 −10 2 −2 1 0 −12 0 −1 −1 −2 11 −1 0 1 3 7
x1 x2 x3 x4 x51 1 1 −1 −1 −15 −3 −2 0 0 130 2 −2 1 0 −12 0 −1 −1 −2 11 −1 0 1 3 7
x1 x2 x3 x4 x51 1 1 −1 −1 −10 −8 −7 5 5 180 2 −2 1 0 −10 −2 −3 1 0 30 −2 −1 2 4 8
x1 x2 x3 x4 x51 1 1 −1 −1 −10 2 −2 1 0 −10 −8 −7 5 5 180 −2 −3 1 0 30 −2 −1 2 4 8
x1 x2 x3 x4 x51 1 1 −1 −1 −10 2 −2 1 0 −10 0 −15 9 5 140 0 −5 2 0 20 0 −3 3 4 7
x1 x2 x3 x4 x51 1 1 −1 −1 −10 2 −2 1 0 −10 0 −3 3 4 70 0 −5 2 0 20 0 −15 9 5 14
x1 x2 x3 x4 x51 1 1 −1 −1 −10 2 −2 1 0 −10 0 −3 3 4 70 0 0 −3 −20/3 −29/30 0 0 −6 −15 −21
x1 x2 x3 x4 x51 1 1 −1 −1 −10 2 −2 1 0 −10 0 −3 3 4 70 0 0 −3 −20/3 −29/30 0 0 0 −5/3 −5/3
Wegen Rang(A) = Rang(A, c) = 5 muss es eine eindeutige Lösung geben. Diese erhält mandurch sukzessives Rückeinsetzen von unten nach oben.
x5 = 1
x4 = −(−29/3− (−20/3) · 1)/3 = 1
x3 = −(7− 3 · 1− 4 · 1)/3 = 0
x2 = (−1− (−2) · 0− 1 · 1− 0 · 1)/2 = −1
x1 = −1− 1 · (−1)− 1 · 0− (−1) · 1− (−1) · 1 = 2
Beispiel 2.5Das lineare Geichungssystem
2x1 − x2 + 3x3 + x4 = 94x1 − 2x2 + 8x3 − x4 = −52x1 − x2 + 5x3 − x4 = −42x1 − x2 + 5x3 − 4x4 = 5
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 36
wird wie folgt durch den Gaussschen Algorithmus bearbeitet.
x1 x2 x3 x42 −1 3 1 94 −2 8 −1 −52 −1 5 −1 −42 −1 5 −4 5
x1 x2 x3 x42 −1 3 1 90 0 2 −3 −230 0 2 −2 −130 0 2 −5 −4
x1 x3 x2 x42 3 −1 1 90 2 0 −3 −230 2 0 −2 −130 2 0 −5 −4
x1 x3 x2 x42 3 −1 1 90 2 0 −3 −230 0 0 1 100 0 0 −2 19
x1 x3 x2 x42 3 −1 1 90 2 0 −3 −230 0 0 1 100 0 0 0 39
Wegen Rang(A) = 3 < 4 = Rang(A, c) ist dieses Gleichungsystem nicht lösbar.
2.6 Invertieren von Matrizen
Soll das lineare GleichungssystemAx = c
für verschiedene Vektoren c, d, e, . . . gelöst werden, so lässt sich das mit dem GaussschenAlgorithmus sehr einfach in einem Durchgang bewerkstelligen. Das Eliminationsverfahrenmuss nicht mit jedem einzelnen Vektor durchgeführt werden. Zu diesem Zweck werdendie Vektoren im Schema hinten angehängt und der Algorithmus mit diesem erweitertenSchema durchgeführt.
Beispiel 2.6Sei die Matrix
A =
2 3 33 −2 21 −1 2
und die Vektoren c =
596
, d =
1755
, e =
3−2−1
gegeben. Wir lösen die drei linearen Gleichungssysteme Ax = c, Ax = d und Ax = e
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 37
simultan mit dem Gaussschen Algorithmus.
x1 x2 x3 c d e
2 3 3 5 17 33 −2 2 9 5 −21 −1 2 6 5 −1
x1 x2 x3 c d e
1 −1 2 6 5 −13 −2 2 9 5 −22 3 3 5 17 3
x1 x2 x3 c d e
1 −1 2 6 5 −10 1 −4 −9 −10 10 5 −1 −7 7 5
x1 x2 x3 c d e
1 −1 2 6 5 −10 1 −4 −9 −10 10 0 19 38 57 0
x1 x2 x3 c d e
1 −1 2 6 5 −10 1 −4 −9 −10 10 0 1 2 3 0
x1 x2 x3 c d e
1 −1 0 2 −1 −10 1 0 −1 2 10 0 1 2 3 0
x1 x2 x3 c d e
1 0 0 1 1 00 1 0 −1 2 10 0 1 2 3 0
Damit bekommen wir als Lösungen 1−12
,
123
,
010
Beim Invertieren einer n × n-Matrix A sind n Gleichungssysteme zu lösen. Besteht dieinverse Matrix A−1 aus den Spalten s1, . . . , sn, so folgt aus A ·A−1 = In, dass die Spaltens1, . . . , sn Lösungen für die Gleichungssysteme
A · x = (1, 0, . . . , 0)T , . . . , A · x = (0, . . . , 0, 1, 0, . . . , 0)T , . . . , A · x = (0, . . . , 0, 1)T
sind.
Beispiel 2.7Um die Matrix A des vorherigen Beispiels zu invertieren, setzen wir also
x1 x2 x3 s1 s2 s32 3 3 1 0 03 −2 2 0 1 01 −1 2 0 0 1
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 38
an. Mit den gleichen Zeilenoperation wie vorher erhalten wir
x1 x2 x3 s1 s2 s32 3 3 1 0 03 −2 2 0 1 01 −1 2 0 0 1
x1 x2 x3 c d e
1 −1 2 0 0 13 −2 2 0 1 02 3 3 1 0 0
x1 x2 x3 c d e
1 −1 2 0 0 10 1 −4 0 1 −30 5 −1 1 0 −2
x1 x2 x3 c d e
1 −1 2 0 0 10 1 −4 0 1 −30 0 19 1 −5 13
x1 x2 x3 c d e
1 −1 2 0 0 10 1 −4 0 1 −30 0 1 1/19 −5/19 13/19
x1 x2 x3 c d e
1 −1 0 −2/19 10/19 −7/190 1 0 4/19 −1/19 −5/190 0 1 1/19 −5/19 13/19
x1 x2 x3 c d e
1 0 0 2/19 9/19 −12/190 1 0 4/19 −1/19 −5/190 0 1 1/19 −5/19 13/19
Damit ist die Matrix1
19
−2 9 −124 −1 −51 −5 13
die Inverse zu A.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 39
2.7 Lösen eines PageRank Problems
Die in Beispiel 1.13 vorgestellte Website
hatte die Matrix
P =
0 0 0 0 0 0 1/3 01/2 0 1/2 1/3 0 0 0 01/2 0 0 0 0 0 0 00 1 0 0 0 0 0 00 0 1/2 1/3 0 0 1/3 00 0 0 1/3 1/3 0 0 1/20 0 0 0 1/3 0 0 1/20 0 0 0 1/3 1 1/3 0
Um das PageRank-Problem P · (x1, . . . , x8)T = (x1, . . . , x8)T zu lösen, wird es umgeschrie-
ben als P · (x1, . . . , x8)T − (x1, . . . , x8)T = 0 bzw. als (P − I8) · (x1, . . . , x8)T = 0, d.h. wir
bekommen ein lineares homogenes Gleichungssystem Qx = 0 mit der Matrix
Q = P − I8 =
−1 0 0 0 0 0 1/3 01/2 −1 1/2 1/3 0 0 0 01/2 0 −1 0 0 0 0 00 1 0 −1 0 0 0 00 0 1/2 1/3 −1 0 1/3 00 0 0 1/3 1/3 −1 0 1/20 0 0 0 1/3 0 −1 1/20 0 0 0 1/3 1 1/3 −1
Homogene lineare Gleichungssystem haben immer die Lösung x = 0, d.h. alle Webseitenhaben den gleichen PageRank von Null. An dieser Lösung sind wir aber nicht interessiert.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 40
Wir wenden wieder den Gaussschen Algorithmus an. Dabei lassen wir die letzten Spalteweg, da diese Null ist.
x1 x2 x3 x4 x5 x6 x7 x8−1 0 0 0 0 0 1/3 01/2 −1 1/2 1/3 0 0 0 01/2 0 −1 0 0 0 0 00 1 0 −1 0 0 0 00 0 1/2 1/3 −1 0 1/3 00 0 0 1/3 1/3 −1 0 1/20 0 0 0 1/3 0 −1 1/20 0 0 0 1/3 1 1/3 −1
x1 x2 x3 x4 x5 x6 x7 x8−1 0 0 0 0 0 1/3 00 −1 1/2 1/3 0 0 1/6 00 0 −1 0 0 0 1/6 00 1 0 −1 0 0 0 00 0 1/2 1/3 −1 0 1/3 00 0 0 1/3 1/3 −1 0 1/20 0 0 0 1/3 0 −1 1/20 0 0 0 1/3 1 1/3 −1
x1 x2 x3 x4 x5 x6 x7 x8−1 0 0 0 0 0 1/3 00 −1 1/2 1/3 0 0 1/6 00 0 −1 0 0 0 1/6 00 0 1/2 −2/3 0 0 1/6 00 0 1/2 1/3 −1 0 1/3 00 0 0 1/3 1/3 −1 0 1/20 0 0 0 1/3 0 −1 1/20 0 0 0 1/3 1 1/3 −1
x1 x2 x3 x4 x5 x6 x7 x8−1 0 0 0 0 0 1/3 00 −1 1/2 1/3 0 0 1/6 00 0 −1 0 0 0 1/6 00 0 0 −2/3 0 0 1/4 00 0 0 1/3 −1 0 5/12 00 0 0 1/3 1/3 −1 0 1/20 0 0 0 1/3 0 −1 1/20 0 0 0 1/3 1 1/3 −1
x1 x2 x3 x4 x5 x6 x7 x8−1 0 0 0 0 0 1/3 00 −1 1/2 1/3 0 0 1/6 00 0 −1 0 0 0 1/6 00 0 0 −2/3 0 0 1/4 00 0 0 0 −1 0 13/24 00 0 0 0 1/3 −1 1/8 1/20 0 0 0 1/3 0 −1 1/20 0 0 0 1/3 1 1/3 −1
x1 x2 x3 x4 x5 x6 x7 x8−1 0 0 0 0 0 1/3 00 −1 1/2 1/3 0 0 1/6 00 0 −1 0 0 0 1/6 00 0 0 −2/3 0 0 1/4 00 0 0 0 −1 0 13/24 00 0 0 0 0 −1 22/72 1/20 0 0 0 0 0 −59/72 1/20 0 0 0 0 1 37/72 −1
x1 x2 x3 x4 x5 x6 x7 x8−1 0 0 0 0 0 1/3 00 −1 1/2 1/3 0 0 1/6 00 0 −1 0 0 0 1/6 00 0 0 −2/3 0 0 1/4 00 0 0 0 −1 0 13/24 00 0 0 0 0 −1 22/72 1/20 0 0 0 0 0 −59/72 1/20 0 0 0 0 0 59/72 −1/2
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 41
x1 x2 x3 x4 x5 x6 x7 x8−1 0 0 0 0 0 1/3 00 −1 1/2 1/3 0 0 1/6 00 0 −1 0 0 0 1/6 00 0 0 −2/3 0 0 1/4 00 0 0 0 −1 0 13/24 00 0 0 0 0 −1 22/72 1/20 0 0 0 0 0 −59/72 1/20 0 0 0 0 0 0 0
Damit ist Rang(Q) = 7 < 8, d.h. das Gleichungssystem Q · x = 0 hat unendlich vieleLösungen (beachte, dass K = R ist). Nehmen wir t = x8/2 als freien Parameter, so ergibtsich
x8 = 2t
x7 = 72/59t
x6 = 22/72x7 + 1/2x8 = 22/59t+ t = −81/59t
x5 = 13/24x7 = 39/59t
x4 = 3/8x7 = 27/59t
x3 = 1/6x7 = 12/59t
x2 = 1/2x3 + 1/3x4 + 1/6x7 = 6/59t+ 9/59t+ 12/59t = 27/59t
x1 = 1/3x7 = 24/59t
Damit ist die Lösungsmenge des PageRanking-Problems gegeben durch
L = {(24, 27, 12, 27, 39, 81, 72, 118) · t | t ∈ K}
Für t = 0 führen alle Lösungen zum selben Ranking der Pages. Der PageRank wird beiGoogle so normiert, dass die Summe aller PageRanks genau 1 ergibt, d.h. wir müssen durch24+27+12+27+39+81+72+118 = 400 teilen. Die wichtigste Page ist Page 8, danachfolgt Page 6, danach Page 7, etc. Der Page-Rank von Seite 8 ist demnach 118/400 = 0.295,etc.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
42
KAPITEL 3. VEKTORRÄUME 43
Kapitel 3
Vektorräume
3.1 Definition und Beispiele
Definition 3.1Eine Menge V = (V,+, ·), die ein Element 0 enthält, heisst eine Vektorraum übereinem Körper K, falls eine Vektoraddition
+ : V × V → V : (v, w) 7→ v + w
und eine Skalarmultiplikation
· : K× V → V : (λ, v) 7→ λ · v
definiert ist, die folgende Gesetze erfüllt:
• Assoziativgesetz der Addition: Für alle u, v, w ∈ V ist (u+ v)+w = u+(v+w).
• Kommutativgesetz der Addition: Für alle u, v ∈ V ist u+ v = v + u.
• Neutralelement 0 der Addition: Für alle v ∈ V ist v + 0 = v = 0 + v.
• Existenz des entgegengesetzten Elements: Für alle v ∈ V gibt es ein v′ ∈ V mitv + v′ = 0. Man schreibt dann für v′ auch −v.
• Assoziativgesetz der Skalarmultiplikation: Für alle λ, µ ∈ K und alle v ∈ V ist(λ · µ) · v = λ · (µ · v).
• Distributivgesetze: Für alle λ, µ ∈ K und alle u, v ∈ V ist λ ·(v+w) = λ ·v+λ ·wund (λ+ µ) · v = λ · v + µ · v.
• Neutralelement 1 ∈ K der Skalarmultiplikation: Für alle v ∈ V ist 1 · v = v.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 3. VEKTORRÄUME 44
BemerkungDie Elemente eines Vektorraumes werden Vektoren genannt, das Neutralelement 0 heisstNullvektor.
Beispiel 3.1Unter dem Vektorraum Rn über dem Körper der reellen Zahlen R versteht man die Mengealler n-Tupel
Rn = R× · · · × R = {(x1, . . . , xn) | xk ∈ R}
zusammen mit der Matrizen-Addition + und der Matrizen-Skalarmultiplikation ·. In diesemFall ist (0, . . . , 0) der Nullvektor und zu v = (v1, . . . , vn) ist −v = (−v1, . . . ,−vn) derzu v entgegengesetzte Vektor. Wie in Kapitel 1.2 und 1.3 gezeigt, erfüllt (Rn,+, ·) alleBedingungen eines Vektorraumes.
Beispiel 3.2Die Menge
Mat(m,n,K) = Km×n =
A =
a11 . . . a1n...
...am1 . . . amn
∣∣∣∣∣∣∣ aij ∈ K
aller m×n-Matrizen über dem Körper K zusammen mit der Matrizen-Addition + und derMatrizen-Skalarmultiplikation · bildet einen Vektorraum über K.
Aufgabe 20Sei [a, b] ⊂ R ein abgeschlossenes reelles Intervall. Zeige, dass die Menge
C[a, b] := {f | f : [a, b] → R stetig}
aller reellwertigen Funktionen auf dem Intervall [a, b] zusammen mit der Addition
f + g : [a, b] → R : x 7→ f(x) + g(x)
und der skalaren Multiplikation
λg : [a, b] → R : x 7→ λ · g(x)
einen reellen Vektorraum bildet.
1. Warum ist die Addition und die Skalarmultiplikation abgeschlossen, d.h. warum sindf + g und λ · f wieder stetige Funktionen auf [a, b]?
2. Wie sieht in diesem Vektorraum der Nullvektor und die zu f entgegengesetzten Funk-tion aus?
3. Gibt es ein einfaches Argument, warum alle anderen Rechengesetze eines Vektorrau-mes gelten?
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 3. VEKTORRÄUME 45
Aufgabe 21Sei
R[x] := {n∑
k=0
akxk | ak ∈ R, n ∈ N}
die Menge aller reellwertigen Polynome. Für zwei Polynome p(x) =∑m
k=0 akxk und q(x) =∑n
k=0 bkxk und m ≥ n und λ ∈ K ist eine Addition
(p+ q)(x) =m∑k=0
(ak + bk)xk
und eine skalare Multiplikation
(λ · p)(x) =m∑k=0
(λ · ak)xk
erklärt.
1. Warum ist die Addition und die Skalarmultiplikation abgeschlossen, d.h. warum sindp+ q und λ · p wieder reelle Polynome?
2. Wie sieht in diesem Vektorraum der Nullvektor und das zu p entgegengesetzte Poly-nom aus?
3. Gibt es ein einfaches Argument, warum alle anderen Rechengesetze eines Vektorrau-mes gelten?
3.2 Unterräume, Durchschnitt und Summe
In diesem Abschnitt sei V stets ein Vektorraum über einem Körper K.
Definition 3.2Eine nichtleere Teilmenge U ⊆ V heisst Unterraum oder linearer Teilraum von V ,wenn U bzgl. der Addition und Skalarmultiplikation des Vektorraums V abgeschlossenist, d.h. wenn gilt
• Für alle u, v ∈ U ist u+ v ∈ U
• Für alle λ ∈ K und alle u ∈ U ist λu ∈ U .
BemerkungJeder Vektorraum V besitzt stets den Nullraum {0} und V selbst als Unterräume. Diesewerden die trivialen Unterräume von V genannt.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 3. VEKTORRÄUME 46
Beispiel 3.3Die Menge
U ={(x1, x2, x3) ∈ R3 | 2x1 + 3x2 + x3 = 0
}ist ein Unterraum von R3, denn für u, v ∈ U ist
2(u1 + v1) + 3(u2 + v2) + (u3 + v3) = (2u1 + 3u2 + u3) + (2v1 + 3v2 + v3) = 0 + 0 = 0,
woraus u+ v ∈ U folgt, und für λ ∈ K ist
2(λu1) + 3(λu2) + (λu3) = λ(2u1 + 3u2 + u3) = λ · 0 = 0,
woraus λ · u ∈ U folgt.
Aufgabe 22Warum ist die Menge
U ={(x1, x2, x3) ∈ R3 | 2x1 + 3x2 + x3 + 5 = 0
}kein Unterraum von R3?
Beispiel 3.4Sei A eine m× n-Matrix über einem K-Vektorraum. Die Lösungsmenge
U = {(x1, . . . , xn) ∈ Kn | Ax = 0}
des homogenen linearen Gleichungssystems Ax = 0 ist ein Unterraum von Kn, denn füru, v ∈ U ist
A(u+ v) = Au+Av = 0 + 0 = 0,
woraus u+ v ∈ U folgt, und für λ ∈ K ist
A(λu) = λ(Au) = λ0 = 0,
woraus λ · u ∈ U folgt.
Aufgabe 23Warum ist für c = 0 die Lösungsmenge
U = {(x1, . . . , xn) ∈ Kn | Ax = c}
des inhomogenen linearen Gleichungssystems Ax = c kein Unterraum von R3?
Beispiel 3.5Sei
V = {f | f : [a, b] → R}
der Vektorraum der reellwertigen Funktionen auf dem reellen Intervall [a, b]. Unterräumedieses Vektorraums sind
• die Menge C[a, b] aller stetigen Funktionen auf [a, b]
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 3. VEKTORRÄUME 47
• die Menge C1[a, b] der stetig differenzierbaren Funktionen auf [a, b]
• die Menge R[x] der reellen Polynome
• die Menge Pn = R[x]n der reellen Polynome vom Grad höchstens n
Satz 3.1Seien U1 und U2 zwei Unterräume des Vektorraumes V . Dann ist der DurchschnittU = U1 ∩ U2 wieder ein Unterraum von V .
BeweisSeien u,w ∈ U = U1∩U2 und λ ∈ K. Dann ist u+w sowohl in U1 als auch in U2 enthalten,denn beides sind Unterrräume von V . Also ist u+w ∈ U . Mit der gleichen Argumentationist auch λu ∈ U . Damit ist U ein Unterraum von V . □
Definition 3.3Seien U1 und U2 zwei Unterräume des Vektorraumes V . Dann heisst
U1 + U2 = {u1 + u2 | u1 ∈ U1, u2 ∈ U2}
die Summe der beiden Unterräume U1 und U2. Ist zudem U1 ∩ U2 = {0}, so schreibtman für die Summe U1 ⊕ U2 und nennt dies eine direkte Summe.
Satz 3.2Die Summe U1 + U2 zweier Unterräume U1 und U2 eines Vektorraumes V ist einUnterraum von V . In einer direkten Summe U1⊕U2 hat jeder Vektor w eine eindeutigeDarstellung w = u1 + u2 mit u1 ∈ U1 und u1 ∈ U2.
BeweisSeien u,w ∈ U := U1 + U2 und λ ∈ K. Dann gibt es u1, w1 ∈ U1 und u2, w2 ∈ U2 mitu = u1 + u2 und w = w1 + w2. Da U1 und U2 Unterräume sind, ist u1 + w1 ∈ U1 undu2 + w2 ∈ U2. Also bekommt man mittels Assoziative- und Kommutativgesetz
u+ w = (u1 + u2) + (w1 + w2) = (u1 + w1) + (u2 + w2) ∈ U1 + U2
undλu = λ(u1 + u2) = λu1 + λu2 ∈ U1 + U2.
Ist die Summe U = U1⊕U2 direkt und ist für u ∈ U sowohl u = u1+u2 als auch u = u′1+u′2für u1, u
′1 ∈ U1 und u2, u
′2 ∈ U2, so folgt
u1 − u′1 = u′2 − u2.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 3. VEKTORRÄUME 48
Die linke Seite der Gleichung ist in U1, die rechte Seite in U2, d.h. es ist u1−u′1 ∈ U1∩U2 ={0}, also u1 − u′1 = 0 oder u1 = u′1. Genauso zeigt man u2 = u′2. Damit ist die Darstellungvon u eindeutig. □
3.3 Lineare Unabhängigkeit und lineare Hülle
Definition 3.4Sei V ein Vektorraum über einem Körper K. Die Vektoren v1, . . . , vn ∈ V heissenlinear abhängig, wenn es Skalare λ1, . . . , λn ∈ K gibt, die nicht alle Null sind, sodass gilt:
λ1v1 + · · ·+ λnvn = 0.
Die Vektoren v1, . . . , vn ∈ V heissen linear unabhängig, wenn sie nicht linear ab-hängig sind, d.h. wenn aus λ1v1 + · · ·+ λnvn = 0 stets
λ1 = · · · = λn = 0
folgt.
BemerkungJeder einzelne Vektor v = 0 ist, für sich genommen, linear unabhängig.
Die lineare Abhängigkeit von Vektoren lässt sich wie folgt verstehen.
Satz 3.3Die Vektoren v1, . . . , vn ∈ V sind genau dann linear abhängig, wenn sich einer dieserVektoren als Linearkombination der anderen Vektoren darstellen lässt.
BeweisSeien v1, . . . , vn linear abhängig, d.h. es ist
λ1v1 + · · ·+ λnvn = 0
und mindestens ein Skalar (etwa λ1) ist ungleich Null. Dann ist
λ1v1 = −λ2v2 − · · · − λnvn,
alsov1 = −λ2
λ1v2 − · · · − λn
λ1vn.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 3. VEKTORRÄUME 49
Ist umgekehrt v1 = µ2v2 + · · ·+ µnvn, so folgt
−v1 + µ2v2 · · ·+ µnvn = 0
und der Koeffizient von v1 ist −1 = 0. □
Beispiel 3.6Die Vektoren
a =
123
, b =
021
, c =
144
sind wegen a+ b− c = 0 linear abhängig.
Beispiel 3.7Der Vektor ei := (0, . . . , 0, 1, 0, . . . , 0)T ∈ Kn, wobei die 1 an der iten Spalte sitzt, heisstder ite Einheitsvektor von Kn. Die Vektoren e1, . . . , en sind linear unabhängig, denn ausλ1e1 + · · ·+ λnen = 0 folgt
λ1
100...0
+ λ2
010...0
+ · · ·+ λn
000...1
=
λ1
λ2
λ3...λn
=
000...0
,
und aus der Gleichheit von Vektoren folgt
λ1 = λ2 = λ3 = · · · = λn = 0.
Definition 3.5Sei V ein Vektorraum über einem Körper K und seien v1, . . . , vn ∈ V . Die Menge allerLinearkombinationen Lin(v1, . . . , vn) der Vektoren v1, . . . , vn heisst lineare Hülle vonv1, . . . , vn. Damit ist
Lin(v1, . . . , vn) = {v ∈ V | v = λ1v1 + λ2v2 + · · ·+ λnvn, λk ∈ K} .
Man sagt, dass die Vektoren v1, . . . , vn die Menge Lin(v1, . . . , vn) erzeugen bzw. dassdie Vektoren v1, . . . , vn ein Erzeugendensystem von Lin(v1, . . . , vn) bilden.
Beispiel 3.8Nach dem vorhergehenden Beispiel lässt sich der Vektorraum Kn als die direkte Summe
Kn = Lin(e1)⊕ · · · ⊕ Lin(en)
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 3. VEKTORRÄUME 50
schreiben, denn für a ∈ Kn ist
a =
a1a2...an
= a1
100...0
+ · · ·+ an
000...1
,
und damit ist diese Darstellung auch eindeutig.
Satz 3.4Sei V ein Vektorraum über einem Körper K und seien v1, . . . , vn ∈ V Die lineare HülleLin(v1, . . . , vn) ist ein Unterraum von V .
BeweisSeien u, v ∈ Lin(v1, . . . , vn) und λ ∈ K, also
u =
n∑k=1
λkvk, v =
n∑k=1
µkvk.
Wegen
u+ v =n∑
k=1
λkvk +n∑
k=1
µkvk =n∑
k=1
(λk + µk)vk
ist auch u+ v ∈ Lin(v1, . . . , vn). Wegen
λu = λn∑
k=1
λkvk =n∑
k=1
(λλk)vk
ist λu ∈ Lin(v1, . . . , vn). □
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 3. VEKTORRÄUME 51
3.4 Klassifikation der Unterräume des R3
Satz 3.5Durch die Liste
• 0-dimensional: {0}
• 1-dimensional (Geraden durch den Ursprung):
gv := Lin(v) ={u ∈ R3 | u = λv, λ ∈ R
}• 2-dimensional (Ebenen durch den Ursprung):
Ev,w := Lin(v, w) ={u ∈ R3 | u = λv + µw, λ, µ ∈ R
}= gv ⊕ gw,
wobei v und w linear unabhängig sind
• 3-dimensional: R3
sind alle linearen Unterräume des Vektorraums R3 beschrieben.
BeweisAlle in der Liste beschriebenen Mengen sind nach den vorherigen beiden Kapiteln Unter-räume von R3. Sei U ein beliebiger Unterraum von R3 mit U = {0} und U = R3. Danngibt es einen Vektor v ∈ U mit v = 0. Da U ein Unterraum ist, muss mit v auch jedesskalare Vielfache λv in U sein, d.h. insbesondere ist
gv ⊆ U.
Ist U = gv, so sind wir fertig. Ist U = gv, so gibt es einen Vektor w ∈ U \ gv, d.h. v und wsind linear unabhängig. Dann ist aber mit der gleichen Argumentation wie zuvor
Ev,w ⊆ U.
Ist U = Ev,w, so sind wir wieder fertig. Ist U = Ev,w, so gibt es einen Vektor u ∈ U \Ev,w,d.h. u, v und w sind linear unabhängig. Wir zeigen nun, dass in diesem Fall U = R3 ist.Wir zeigen, dass die iten Einheitsvektoren e1, e2, e3 in U liegen. Betrachte die Gleichung
λ1e1 + λ2u+ λ3v + λ4w = 0.
Dies ergibt ein lineares Gleichungssystem in λ1, . . . , λ4:
1 · λ1 + u1λ2 + v1λ3 + w1λ4 = 0u2λ2 + v2λ3 + w2λ4 = 0u3λ2 + v3λ3 + w3λ4 = 0
Der Rang der zum linearen Gleichungssystem gehörigen Matrix A höchstens 3. Nach Satz2.7 (beachte Rang(A) ≤ 3 < 4) besitzt dieses Gleichungssystem damit unendlich viele
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 3. VEKTORRÄUME 52
Lösungen, also auch eine mit (λ1, . . . , λ4) = (0, 0, 0, 0). Dabei ist λ1 = 0, denn u, v und wsind linear unabhängig. Das bedeutet aber, dass
e1 = −λ2
λ1u− λ3
λ1v − λ4
λ1w ∈ U
ist. Ganz genauso zeigt man, dass e2 und e3 in U liegen. Wegen
R3 = Lin(e1)⊕ Lin(e2)⊕ Lin(e3)
folgt nun R3 ⊆ U , also U = R3. □
3.5 Basis und Dimension
Definition 3.6Ein Erzeugendensystem {v1, . . . , vn} eines Vektorraums V bestehend aus linear unab-hängigen Vektoren heisst eine Basis von V .
BemerkungDie Vektoren v1, . . . , vn eines Vektorraumes V bilden eine Basis von V , wenn gilt
• v1, . . . , vn sind linear unabhängig
• jeder Vektor v ∈ V lässt sich als Linearkombination der Vektoren v1, . . . , vn darstel-len, d.h. es ist
v =
n∑k=1
λkvk.
Beispiel 3.9Die Menge
e1 =
100...0
e2 =
010...0
. . . , en =
00...01
der iten Einheitsvektoren bildet eine Basis des Vektorraumes Kn.
Beispiel 3.10Wir betrachten den Vektorraum Pn = R[x]n aller Polynome p(x) =
∑nk=0 akx
k vom Grad≤ n. Die Polynome
p0(x) = 1, p1(x) = x, p2(x) = x2, . . . pn(x) = xn
bilden eine Basis des Vektorraumes Pn.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 3. VEKTORRÄUME 53
Beweis1) Wir zeigen zuerst die lineare Unabhängigkeit der Vektoren p0(x), . . . , pn(x). Sei
λ0 · 1 + λ1 · p1(x) + . . .+ λn · pn(x) = 0 für alle x ∈ R,
alsoλ0 · 1 + λ1 · x+ λ2 · x2 + . . .+ λn · xn = 0 für alle x ∈ R.
Die obige Gleichung muss für alle x ∈ R gelten, also insbesondere für x = 0:
λ0 · 1 = 0,
worausλ0 = 0
folgt. Mit dieser Tatsache reduziert sich die obenstehende Linearkombination auf dieForm
λ1 · x+ λ2 · x2 + . . .+ λn · xn = 0 für alle x ∈ R,
resp.x[λ1 + λ2 · x+ . . .+ λn · xn−1] = 0 für alle x ∈ R.
Für x = 0 folgt
λ1 + λ2 · x+ . . .+ λn · xn−1 = 0 für alle x ∈ R, x = 0.
Die linke Seite in der obigen Gleichung ist ein Polynom vom Grad n− 1 und ist gleichNull für alle x ∈ R, mit Ausnahme von x = 0. Weil das Polynom stetig ist, muss esauch an der Stelle x = 0 Null sein. Somit ist
λ1 + λ2 · x+ . . .+ λn · xn−1 = 0 für alle x ∈ R.
Werten wir das Polynom wieder an der Stelle x = 0 aus, dann folgt
λ1 = 0.
Fahren wir in dieser Weise fort, so schliesst man
λ0 = λ1 = . . . = λn = 0.
Damit ist gezeigt, dass die Polynome p0(x), . . . , pn(x) linear unabhängig sind.
2) Wir zeigen, dass Lin(p0(x), . . . , pn(x)) = Pn ist. Trivialerweise gilt
Lin(p0(x), . . . , pn(x)) ⊆ Pn.
Somit muss nur noch gezeigt werden, dass
Pn ⊆ Lin(p0(x), . . . , pn(x))
gilt, d.h., dass sich ein beliebiges Polynom p(x) ∈ Pn als Linearkombination der Poly-nome p0(x), . . . , pn(x) darstellen lässt. Dies ist aber trivial, weil Polynome ja gerade alsSummen von Termen der Form akx
k definiert sind. □
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 3. VEKTORRÄUME 54
BemerkungDie Basis eines Vektorraumes ist nicht eindeutig, d.h. es gibt verschiedene Basen in einemVektorraum.
Beispiel 3.11Die Vektoren
a =
(23
)und b =
(41
), resp. u =
(13
)und v =
(−12
)sind verschiedene Basen des R2:
a
b
u
v
Wir drücken den Vektor x =
(−10
)in der Basis B1 = {a, b}, resp. B2 = {u, v} aus.
In B1 ist
x = λ1a+ λ2b ⇔(−10
)= λ1
(23
)+ λ2
(41
)⇔
−1 = 2λ1 + 4λ2
0 = 3λ1 + λ2
Die Lösung ist λ1 = 0.1, λ2 = −0.3.
In B2 ist
x = λ1u+ λ2v ⇔(−10
)= λ1
(13
)+ λ2
(−12
)⇔
−1 = λ1 − λ2
0 = 3λ1 + 2λ2
Die Lösung ist λ1 = −0.4, λ2 = 0.6.
Wie lässt sich die allgemeine Lösung eines inhomogenen linearen Gleichungssystems be-schreiben? Wir betrachten das homogene lineare Gleichungssystem: Ax = 0 und dasinhomogene lineare Gleichungssystem: Ax = c.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 3. VEKTORRÄUME 55
SeiU = {u ∈ Rn|Au = 0}
der Lösungsraum des Gleichungssystems und sei {b1, . . . , bk} eine Basis des UnterraumsU . Die allgemeine Lösung uh ∈ U des homogenen linearen Gleichungssystems lässt sich alsLinearkombination dieser Basisvektoren darstellen:
uh = λ1b1 + . . .+ λkbk, λi ∈ R
und es giltAuh = 0.
Sei up irgend eine partikuläre Lösung des inhomogenen Gleichungssystems, also
Aup = c.
Sei u eine beliebige Lösung des inhomogenen Gleichungssystems, also Au = c. Aus Aup = cund Au = c folgt Au = Aup und somit
0 = Au−Aup = A(u− up) ⇔ u− up ∈ U.
Somit folgt
u− up = uh = λ1b1 + . . .+ λkbk ⇔ u = up + uh = up + λ1b1 + . . .+ λkbk.
Die allgemeine allgemeine Lösung u des inhomogenen linearen Gleichungssystems setztsich zusammen aus einer beliebigen partikulären Lösung und der allgemeinen Lösung deshomogenen Gleichungssystems.
Satz 3.6Gegeben sei das lineare inhomogene Gleichungssystem Ax = c. Sei U die Lösungs-menge des homogenen linearen Gleichungssystems und up eine partikuläre Lösung desinhomogenen Gleichungssystems. Dann ist die Lösungsmenge des inhomogenen linea-ren Gleichungssystems durch
U + up = {u+ up | u ∈ U}
gegeben.
Beispiel 3.12Gegeben sei das lineare inhomogene Gleichungssystem Ax = c mit der 3× 5 Matrix A unddem Vektor c:
A =
1 −3 0 0 70 −1 −1 0 30 2 0 −1 −6
, c =
23−2
.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 3. VEKTORRÄUME 56
Wir suchen zuerst eine Lösung des inhomogenen Gleichungssystem Ax = c:
x1 x2 x3 x4 x51 −3 0 0 7 20 −1 −1 0 3 30 2 0 −1 −6 −2
−→
x1 x2 x3 x4 x51 0 0 −1.5 −2 −10 1 0 −0.5 −3 −10 0 1 0.5 0 −2
Daraus folgt x1 = −1 + 1.5x4 + 2x5, x2 = −1 + 0.5x4 + 3x5, x3 = −2 − 0.5x4,x4, x5 ∈ R. Somit ist die Lösung bestimmt durch
x =
x1x2x3x4x5
=
−1−1−200
+ x4
1.50.5−0.510
+ x5
23001
, x4, x5 ∈ R.
Setzt man zum Beispiel x4 = x5 = 0, so erhalten wir eine partikuläre Lösung
up =
−1−1−200
.
Die beiden Vektoren v =
1.50.5−0.510
und w =
23001
erzeugen den Unterraum U aller Lösun-
gen des homogenen Gleichungssystems, also
U = Lin(v, w).
Wir überprüfen dies. Für u = λ1v + λ2w ∈ U ist
Au = A(λ1v + λ2w) = λ1Av + λ2Aw
= λ1
1 −3 0 0 70 −1 −1 0 30 2 0 −1 −6
1.50.5−0.510
+ λ2
1 −3 0 0 70 −1 −1 0 30 2 0 −1 −6
23001
=
00000
.
Satz 3.7Sei U ein Unterraum des Vektorraums V . Dann enthält jedes endliche Erzeugenden-system {u1, . . . , ur} von U eine Basis von U .
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 3. VEKTORRÄUME 57
BeweisDer Beweis des Satzes wird via vollständiger Induktion geführt.
Ist U = {0} der Nullraum, so ist die leere Menge ∅ eine Basis von U . In diesem Fall ist dieBehauptung trivial. Sei also U = {0}.
Induktionsanfang: r = 1. U wird von v1 erzeugt. Wegen U = {0} ist u1 = 0, und u1 istlinear unabhängig. Also ist {u1} eine Basis von U .
Induktionsvoraussetzung: Die Behauptung des Satzes sei richtig für alle Unterräume, dieein Erzeugendensystem mit weniger als r Elementen besitzen.
Induktionsschluss: Wenn u1, . . . , ur linear unabhängig sind, dann ist {u1, . . . , ur} eine Basisvon U nach Definition. Andernfalls gibt es eine Linearkombination λ1u1+. . .+λrur = 0, beider nicht alle Skalare λk gleich 0 sind. Bei geeigneter Numerierung kann λr = 0 annehmen.Dann ist
ur = − 1λr(λ1u1 + . . .+ λr−1ur−1)
eine Linearkombination von u1, . . . , ur−1. Also ist {u1, . . . , ur−1} ein Erzeugendensystemvon U . Diese Menge von r − 1 Vektoren enthält somit nach Induktionsvoraussetzung eineBasis von U . □
Um den Begriff der Dimension eines Vektorraumes einzuführen als Mächtigkeit einer seinerBasen, müssen wir nachweisen, dass je zwei Basen immer gleich viele Elemente haben. Einwichtiger Satz auf diesem Weg ist der sogenannte Basisergänzungssatz:
Satz 3.8Sei V ein Vektorraums V und seien v1, . . . , vr, w1, . . . ws ∈ V . Sind v1, . . . , vr linearunabhängig und ist Lin(v1, . . . , vr, w1, . . . ws) = V , so kann man {v1, . . . , vr} durcheventuelle Hinzunahme geeigneter Vektoren aus {w1, . . . ws} zu einer Basis von V er-gänzen.
BeweisWieder wird der Beweis des Satzes mittels vollständiger Induktion bzgl. s geführt.
Induktionsanfang: s = 0. Dann sind wir schon fertig, weil nach Voraussetzung {v1, . . . , vr}schon eine Basis ist.
Induktionsvoraussetzung: Die Behauptung des Satzes sei richtig für s = n.
Induktionsschluss: Seien v1, . . . , vr, w1, . . . wn+1 ∈ V , so dass v1, . . . , vr linear unabhän-gig und Lin(v1, . . . , vr, w1, . . . wn+1) = V ist. Ist schon Lin(v1, . . . , vr) = V , so sind wirwie zuvor wieder fertig. Sei also Lin(v1, . . . , vr) = V . Dann muss mindestens eines derwi nicht in Lin(v1, . . . , vr) enthalten sein. Für ein solches wi ist aber {v1, . . . , vr, wi}
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 3. VEKTORRÄUME 58
linear unabhängig, denn andernfalls wäre ja doch wi ∈ Lin(v1, . . . , vr). Nach Indukti-onsvoraussetzung kann man nun {v1, . . . , vr, wi} durch Auswahl geeigneter Vektoren aus{w1, . . . , wi−1, wi+1, . . . , wn+1} zu einer Basis von V ergänzen. □
Das zweite Hilfsmittel auf dem Weg zum Dimensionsbegriff ist der Austauschsatz:
Satz 3.9Seien {v1 . . . , vm} und {w1, . . . , wn} zwei Basen eines Vektorraums V . Dann gibt es zujedem vi ein wj , so dass {v1, . . . , vi−1, wj , vi+1, . . . , vm} wieder eine Basis ist.
BeweisWir wählen ein vi aus, das durch ein geeignetes wj ersetzt werden soll. Zunächst einmalgibt es ein wj ∈ Lin(v1, . . . , vi−1, vi+1, . . . , vm), denn andernfalls wäre
V = Lin(w1, . . . , wn) ⊆ Lin(v1, . . . , vi−1, vi+1, . . . , vm),
d.h. {v1 . . . , vm} wäre keine Basis. Dann ist {v1, . . . , vi−1, wj , vi+1, . . . , vm} linear unabhän-gig. Zudem ist Lin(v1, . . . , vi−1, wj , vi+1, . . . , vm, vi) = V . Nach dem Basisergänzungssatzist entweder {v1, . . . , vi−1, wj , vi+1, . . . , vm} schon eine Basis oder wird durch Hinzufügenvon vi eine solche. Letzteres geht aber nicht, weil sich wj als Linearkombination der Basis{v1 . . . , vm} darstellen lässt. Also muss {v1, . . . , vi−1, wj , vi+1, . . . , vm} eine Basis sein. □
Satz 3.10Je zwei Basen eines Vektorraums V haben gleich viele Elemente. Diese Anzahl wir dieDimension von V genannt und dimV genschrieben.
BeweisSeien {v1 . . . , vm} und {w1, . . . , wn} zwei Basen von V mit m ≤ n. Nach dem Austauschsatzlassen sich sukzessive alle Elemente von {v1 . . . , vm} durch Elemente von {w1, . . . , wn}austauschen. Wäre m < n, so hätte man eine echte Teilmenge von {w1, . . . , wn}, die wiedereine Basis von V wäre, was der Annahme, {w1, . . . , wn} sei eine Basis, widerspricht. Alsoist m = n. □
FolgerungIst V ein Vektorraum der Dimension n, so sind je n+ 1 Vektoren linear abhängig.
Beispiel 3.131) dimKn = n2) dimPn = n+ 13) dimMat(m,n,K) = mn4) dimC[a, b] = ∞
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 3. VEKTORRÄUME 59
Beispiel 3.14Wir bestimmen die Dimension des Teilraums
U =
x1x2x3x4
∈ R4 | 3x1 + x2 + 3x3 − 5x4 = 0
,
indem wir die Gleichung nach x2 auflösen: x2 = −3x1 − 3x3 + 5x4 und x1, x3, x4 als freieVariable auffassen. Somit
x =
x1x2x3x4
=
x1
−3x1 − 3x3 + 5x4x3x4
= x1
1−300
+ x3
0−310
+ x4
0501
, x1, x3, x4 ∈ R.
Die Vektoren
b1 =
1−300
, b2 =
0−310
, b3 =
0501
sind linear unabhängig. Sie erzeugen somit den Teilraum U . Die Dimension von U ist 3.
Beispiel 3.15Gegeben sei das lineare homogene Gleichungssystem1 −2 3
2 −4 63 −6 9
xyz
=
000
.
Wir bestimmen den Unterraum der Lösungen dieses Gleichungssystems. Matlab liefert viarref(A):
x y z
1 −2 3 00 0 0 00 0 0 0
Die Lösungen sindx = 2y − 3z, y ∈ R, z ∈ R.
Oder vektoriell ausgedrückt
x =
2y − 3zyz
= y
210
+ z
−301
.
Die Lösungsmenge ist ein 2 dimensionaler Unterraum des Vektorraums R3, welcher vonden Vektoren
a =
210
und b =
−301
erzeugt wird.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 3. VEKTORRÄUME 60
Beispiel 3.16Die Vektoren
a =
2321
, b =
342−3
, c =
0129
, d =
574−2
erzeugen den Unterraum Lin(a, b, c, d). Wir wollen die Dimension dieses Unterraums her-ausfinden. Wir wollen diese Frage algebraisch lösen, d.h. wir fragen nach den linear unab-hängigen Vektoren von a, b, c, d. Also
λ1a+ λ2b+ λ3c+ λ4d = 0 ⇔
λ1 λ2 λ3 λ4
2 3 0 5 03 4 1 7 02 2 2 4 01 −3 9 −2 0
rref−→
λ1 λ2 λ3 λ4
1 0 3 1 00 1 −2 1 00 0 0 0 00 0 0 0 0
Man sieht, dass die Vektoren a und b linear unabhängig sind und λ1 = −3λ3 − λ4, λ2 =2λ3 − λ4, λ3 mit λ4 ∈ R gilt. Also
0 = λ1a+ λ2b+ λ3c+ λ4d
= (−3λ3 − λ4)a+ (2λ3 − λ4)b+ λ3c+ λ4d
= (−3a+ 2b+ c)λ3 + (−a− b+ d)λ4 für alle λ3, λ4 ∈ R.
Wählen wir für die Parameter λ3 = 0 und λ4 = 1, so folgt
−a− b+ d = 0.
Wählen wir für die Parameter λ3 = 1 und λ4 = 0, so folgt
−3a+ 2b+ c = 0.
In diesen linearen Abhängigkeiten sind die Vektoren a und b die gemeinsamen, also schliesstman
c = 3a− 2b und d = a+ b,
d.h. die Vektoren c und d sind von den Vektoren a und b linear abhängig. Der UnterraumLin(a, b, c, d) ist zwei-dimensional und wird von den Vektoren a und b erzeugt. Es gilt somit
Lin(a, b, c, d) = Lin(a, b).
Beispiel 3.17Sei Mat(2, 3,R) = R2×3 der Vektorraum der 2 × 3 Matrizen über dem Körper R. Wirbestimmen die Dimension dieses Vektorraums, indem wir eine Basis angeben. Die Matrizen
A1 =
(1 0 00 0 0
), A2 =
(0 1 00 0 0
), A3 =
(0 0 10 0 0
),
A4 =
(0 0 01 0 0
), A5 =
(0 0 00 1 0
), A6 =
(0 0 00 0 1
)
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 3. VEKTORRÄUME 61
bilden eine Basis für R2×3. Denn
6∑k=1
λkAk =
(0 0 00 0 0
)⇔
(λ1 λ2 λ3
λ4 λ5 λ6
)=
(0 0 00 0 0
)⇒ λk = 0, k = 1, . . . , 6.
Also sind A1, . . . , A6 linear unabhängig. Für eine beliebige Matrix A =
(a11 a12 a13a21 a22 a23
)gilt
A =
3∑k=1
a1kAk +
3∑k=1
a2kAk.
Die Matrizen A1, . . . , A6 sind ein Erzeugendensystem für R2×3. Somit ist dim(R2×3) = 6.
Wir leiten noch den folgenden Dimensionssatz her.
Satz 3.11Es seien U und W zwei endlich-dimensionale Unterräume eines Vektorraumes V . Danngilt:
dim(U +W ) = dim(U) + dim(W )− dim(U ∩W ).
BeweisDie Mengen U ∩ W und U + W sind Unterräume von V . Es sei Bd = {d1, . . . , dr} eineBasis von U ∩W . Beachte, dass hierbei auch r = 0 zugelassen ist im Falle, dass U ∩W derNullraum, die Basis also die leere Menge ist. Die Basis Bd kann einerseits zu einer Basis
B1 = {d1, . . . , dr, a1, . . . , as}
von U , andererseits auch zu einer Basis
B2 = {d1, . . . , dr, b1, . . . , bt}
von W erweitert werden. Zunächst soll jetzt gezeigt werden, dass
B = {d1, . . . , dra1, . . . , as, b1, . . . , bt}
eine Basis des Summenraumes U +W ist.
Jeder Vektor v ∈ U+W kann nach Definition in der Form v = u+w mit u ∈ U und w ∈ Wdargestellt werden. Da sich u als Linearkombination von B1 und w als Linearkombinationvon B2 darstellen lässt, ist v eine Linearkombination von B:
u = λ1d1 + . . .+ λrdr + µ1a1 + . . .+ µsas,
w = λ′1d1 + . . .+ λ′
rdr + ν1b1 + . . .+ νtbt,
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 3. VEKTORRÄUME 62
also
v = u+ w = (λ1 + λ′1)d1 + . . .+ (λr + λ′
r)dr + µ1a1 + . . .+ µsas + ν1b1 + . . .+ νtbt.
Es gilt daher jedenfalls Lin(B) = U +W . Zum Nachweis der linearen Unabhängigkeit vonB betrachten wir die Gleichung
λ1d1 + . . .+ λrdr + µ1a1 + . . .+ µsas + ν1b1 + . . .+ νtbt = 0
oderλ1d1 + . . .+ λrdr + µ1a1 + . . .+ µsas = −ν1b1 − . . .− νtbt
mit Elementen λi, µi, νi ∈ R. Da in der letzten Gleichung die linke Seite ein Vektor aus U ,die rechte Seite aber ein Vektor aus W ist, müssen beide Seiten ein Vektor aus U ∩W sein,der sich somit als Linearkombination von d1, . . . , dr darstellen lassen muss:
λ1d1 + . . .+ λrdr + µ1a1 + . . .+ µsas = ρ1d1 + . . .+ ρrdr
−− ν1b1 − . . .− νtbt = ρ1d1 + . . .+ ρrdr
oder
(λ1 − ρ1)d1 + . . .+ (λr − ρr)dr + µ1a1 + . . .+ µsas = 0
ρ1d1 + . . .+ ρrdr + ν1b1 + . . .+ νtbt = 0
Wegen der linearen Unabhängigkeit von B1 und B2 ergibt sich hieraus
λi−ρi = 0, i = 1, . . . , r, µj = 0, j = 1, . . . , s, ρi = 0, i = 1, . . . , r, νk = 0, k = 1, . . . , t.
Somitλ1 = . . . = λr = µ1 = . . . = µs = ν1 = . . . = νt = 0.
Für die Dimensionen gilt demnach
dim(U ∩W ) = r, dim(U) = r + s, dim(W ) = r + t, dim(U +W ) = r + s+ t.
Es folgt jetzt
dim(U) + dim(W ) = (r + s) + (r + t) = r + (r + s+ t) = dim(U ∩W ) + dim(U +W ).
□
Für die direkte Summe U ⊕ W muss ja U ∩ W = {0} gelten. Aus Satz 3.11 ergibt sichsomit:
FolgerungEs seien U und W zwei endlich-dimensionale Unterräume eines Vektorraumes V . Danngilt:
dim(U) + dim(W ) = dim(U ⊕W ).
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 3. VEKTORRÄUME 63
Beispiel 3.18Gegeben seien die Unterräume U =
{(x1, x2, x3, x4)
T ∈ R4 | 2x1 − 3x2 + x3 − x4 = 0}
undW =
{(x1, x2, x3, x4)
T ∈ R4 | x1 − x2 + x3 + 3x4 = 0}. Für x ∈ U ist
x =
x1x2x3x4
= x1
1002
+ x2
010−3
+ x3
0011
, x1, x2, x3 ∈ R
und für x ∈ W gilt
xxx =
x1x2x3x4
= x2
1100
+ x3
−1010
+ x4
−3001
, x2, x3, x4 ∈ R.
Wir schliessendim(U) = 3 und dim(W ) = 3.
Für U ∩W muss
2x1 − 3x2 + x3 − x4 = 0
x1 − x2 + x3 + 3x4 = 0
oderx1 x2 x3 x42 −3 1 −1 01 −1 1 3 0
rref−→x1 x2 x3 x41 0 2 10 00 1 1 7 0
gelten. Daraus folgt x1 = −2x3 − 10x4 und x2 = −x3 − 7x4, x3, x4 ∈ R. Also
x =
x1x2x3x4
= x3
−2−110
+ x4
−10−701
, x3, x4 ∈ R.
Folglich dim(U ∩W ) = 2. Mit der Formel aus Satz 3.11 folgt
dim(U +W ) = dim(U) + dim(W )− dim(U ∩W ) = 3 + 3− 2 = 4.
Also muss R4 = U + W sein. Die Zerlegung eines beliebigen Vektors x ∈ R4 in eineSumme von Vektoren in U und W ist nicht eindeutig, weil die Summe nicht direkt ist. Als
Zahlenbeispiel: Für x =
22−12
gibt es die Zerlegungen
xU =
1121
∈ U, xW =
11−31
∈ W oder xU =
−5215−1
∈ U, xW =
70
−163
∈ W
mit x = xU + xW .
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 3. VEKTORRÄUME 64
3.6 Dimension des Lösungsraumes der PageRank-Gleichung
Im bisherigen Beispiel war der Lösungsraum des PageRank-Problems eindimensional. Des-halb gibt es auch ein eindeutiges Page-Ranking. Wir wollen nun untersuchen, ob dies immerder Fall ist. Dazu ändern wir unser Beispiel etwas ab, indem wir ein paar Links entfernenund so zwei unverbundene Teilnetze erhalten:
Bei unverbundenen Teilnetzen erwarten wir Probleme mit der Eindeutigkeit der Lösung,weil die Pages in unterschiedlichen Teilnetzen nicht verglichen werden können. Wir unter-suchen also die PageRank-Matrix des obigen Netzes:
P =
0 0 0 0 0 0 0 01/2 0 1 1 0 0 0 01/2 0 0 0 0 0 0 00 1 0 0 0 0 0 00 0 0 0 0 0 1/2 00 0 0 0 1/3 0 0 1/20 0 0 0 1/3 0 0 1/20 0 0 0 1/3 1 1/2 0
Wie zuvor müssen wir das lineare homogene Gleichungssystem Qx = 0 mit Q = P − I8lösen, wobei
Q =
−1 0 0 0 0 0 0 01/2 −1 1 1 0 0 0 01/2 0 −1 0 0 0 0 00 1 0 −1 0 0 0 00 0 0 0 −1 0 1/2 00 0 0 0 1/3 −1 0 1/20 0 0 0 1/3 0 −1 1/20 0 0 0 1/3 1 1/2 −1
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 3. VEKTORRÄUME 65
ist. Löst man dieses Gleichungssystem mittels dem Gauss-Verfahren, so erhält man den2-dimensionalen Lösungsraum
L ={λ(0, 1, 0, 1, 0, 0, 0, 0)T + µ(0, 0, 0, 0, 1, 2, 2, 10/3)T | λ, µ ∈ R
}.
Allgemein kann man leicht beweisen, dass die Dimension r des Lösungsraumes mindestensso gross wie die Anzahl der unverbundenen Teilnetze ist. Man sieht an unserem Beispiel,dass die Matrix Q aus vier Blöcken besteht:
Q =
(Q1 00 Q2
),
wobei die Einträge 4 × 4-Matrizen repräsentieren, und die Matrizen Q1 und Q2 selbstspalten-stochastische Matrizen sind. Das Gleichungssystem Qx = 0 lässt sich in zwei TeileQ1(x1, x2, x3, x4)
T = 0 und Q2(x5, x6, x7, x8)T = 0 aufspalten und separat lösen, wobei
jedes dieser Teile einen mindestens eindimensionalen Lösungsraum besitzt, der zusammen-gesetzt 2-dimensional wird.
Da das existierende Internet aus vielen unverbundenen Teilnetzen besteht, ist die Mehr-deutigkeit des PageRanks ein echtes Problem, das gelöst werden muss.
Um die Mehrdeutigkeit zu eliminieren, betrachten wir die n×n-Matrix S, deren sämtlicheEinträge gleich 1/n sind. Auch diese Matrix S ist spalten-stochastisch (und auch zeilen-stochastisch). Nun ersetzen wir die PageRank-Matrix P mit
M = (1− ρ)P + ρS,
wobei 0 < ρ ≤ 1 ist. Die Matrix M lässt sich als gewichteter Durchschnitt der MatrizenPund S verstehen. Ursprünglich wurde von Google der Wert ρ = 0.15 verwendet, aber diesist nicht zwingend. Ob Google aktuell dieses Wert verwendet, ist Teil des Firmengeheim-nisses.
Für λ = 1 ist M = S und die Lösungsmenge ist dann Lin((1, 1, . . . , 1)T ), d.h. alle Pagesbekommen die gleiche Wertigkeit, was vielleicht nicht wirklich zufriedenstellend ist, aberimmerhin ist die Lösungsmenge eindimensional.
Mit ρ = 0.15 erhalten wir für unser Beispiel die Matrix
M =
0.0187 0.0187 0.0187 0.0187 0.0187 0.0187 0.0187 0.01870.4437 0.0187 0.8688 0.8688 0.0187 0.0187 0.0187 0.01870.4437 0.0187 0.0187 0.0187 0.0187 0.0187 0.0187 0.01870.0187 0.8688 0.0187 0.0187 0.0187 0.0187 0.0187 0.01870.0187 0.0187 0.0187 0.0187 0.0187 0.0187 0.4437 0.01870.0187 0.0187 0.0187 0.0187 0.3021 0.0187 0.0187 0.44370.0187 0.0187 0.0187 0.0187 0.3021 0.0187 0.0187 0.44370.0187 0.0187 0.0187 0.0187 0.3021 0.8688 0.4437 0.0187
und den Lösungsraum von (M − I8)x = 0 als
Lin((0.0449, 0.5639, 0.0640, 0.5242, 0.1666, 0.2865, 0.2865, 0.4574)T ).
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 3. VEKTORRÄUME 66
Damit wird Page 2 am höchsten gewertet, danach folgt Page 4, dann Page 8.
Wir beweisen nun, dass für die modifizierte PageRank-Matrix M der Lösungsraum von(M − In)x = 0 stets eindimensional ist.
Definition 3.7Eine Matrix A = (aij) heisst positiv, falls alle Einträge aij > 0 sind.
Satz 3.12Ist A eine positive und spalten-stochastische Matrix, so hat jede Lösung b des homoge-nen linearen Gleichungssystem (A− In)x = 0 nur positive oder nur negative Einträge.
BeweisAngenommen, eine Lösung b besitzt Einträge mit unterschiedlichen Vorzeichen, also (A−In)b = 0 oder Ab = Inb = b. Weil A positiv ist, folgt aus bi =
∑nj=1 aijbj , dass auch die
Summanden aijbj unterschiedliche Vorzeichen haben müssen. Aus der Analysis wissen wirdann, dass wir folgende strikte Ungleichung bekommen:
|bi| =
∣∣∣∣∣∣n∑
j=1
aijbj
∣∣∣∣∣∣ <n∑
j=1
aij |bj |.
Summieren wir nun beide Seiten über i und vertauschen die Summationsindizes i und j inden Summen, so erhalten wir
n∑i=1
|bi| <n∑
i=1
n∑j=1
aij |bj | =n∑
j=1
(n∑
i=1
aij
)|bj | =
n∑j=1
|bj |.
Die letzte Gleichung gilt, da A spalten-stochastisch ist. Diese Gleichung ist aber ein Wi-derspruch in sich, d.h. die Einträge von b können nicht unterschiedliche Vorzeichen haben.Ist b = 0 und bi ≥ 0 für alle i, so folgt aus bi =
∑nj=1 aijbj schon bi > 0 für alle i. Analog
folgt aus bi ≤ 0 immer schon bi < 0 für alle i. □
Satz 3.13Sind v, w ∈ Rn mit n ≥ 2 linear unabhängig, so gibt es eine Linearkombinationu = λv + µw, so dass die Einträge von u sowohl positiv als auch negativ sind.
BeweisWeil v und w linear unabhängig sind, sind beide Vektoren nicht Null. Sei s =
∑ni=1 vi. Ist
s = 0, so muss v sowohl positive als auch negative Einträge haben und wir sind fertig. Sei
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 3. VEKTORRÄUME 67
also s = 0. Dann setzen wir
λ = −∑n
i=1wi
sund µ = 1.
Da v und w linear unabhängig sind, ist die Linearkombination u = λv+µw nicht Null. Esgilt
n∑j=1
uj =
n∑j=1
(−∑n
i=1wi
svj + wj
)= −1
s
n∑i=1
wi
n∑j=1
vj
+
n∑j=1
wj
= −1
s
n∑i=1
wis+n∑
j=1
wj = −s
s
n∑i=1
wi +n∑
j=1
wj = 0.
Damit muss der Vektor u sowohl positive als auch negative Einträge besitzen. □
Satz 3.14Ist A eine positive und spalten-stochastische Matrix, so ist der Lösungsraum L deshomogenen linearen Gleichungssystem (A− In)x = 0 eindimensional.
BeweisWir werden im Kapitel über Eigenwerte noch zeigen, dass dimL ≥ 1 ist. Wir beweisen hier,dass dimL ≤ 1 ist. Angenommen, es ist dimL ≥ 2. Dann gibt es zwei linear unabhängigeLösungen v und w von (A − In)x = 0. Nach dem vorigen Satz gibt es eine Linearkombi-nation u = λv + µw = 0, die Einträge mit unterschiedlichen Vorzeichen besitzt. Da derLösungsraum L ein linearer Unterraum von Rn ist, ist u ∈ L. Dies widerspricht aber 3.12.Also ist dimL ≤ 1. □
Die modifizierte PageRank-Matrix
M = (1− ρ)P + ρS
erfüllt also alle Eigenschaften, die für ein vernünftiges Ranking notwendig sind, nämlichEindeutigkeit und gleiches Vorzeichen.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
Kapitel 4
Lineare Abbildungen und Matrizen
4.1 Lineare Abbildungen
Definition 4.1Seien V und W zwei Vektorräume über demselben Körper K. Eine Abbildung
f : V −→ W
heisst linear, falls sie folgenden beiden Eigenschaften erfüllt:
• Additivität: Für alle u, v ∈ V ist f(u+ v) = f(u) + f(v).
• Invarianz bzgl. Skalarmultiplikation: Für alle λ ∈ K und alle v ∈ V ist f(λv) =λ · f(v).
BemerkungDurch mehrfaches Anwenden der Additivität und Invarianz bzgl. Skalarmultiplikation giltfür jede Linearkombination λ1v1 + . . .+ λnvn:
f(λ1v1 + . . .+ λnvn) = λ1f(v1) + . . .+ λnf(vn).
BemerkungDie oft als „lineare Funktion” bezeichnete Abbildung f(x) = ax + b ist für b = 0 wederadditiv noch invariant bzgl. Skalarmultiplikation. Sie definiert wohl eine affine Abbildung
68
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 69
von R auf R, ist aber keine lineare Abbildung im Sinne von Definition 4.1.
Satz 4.1a) Für jede lineare Abbildung f : V −→ W ist f(0) = 0 und f(−v) = −f(v).
b) Die Hintereinanderausführung g ◦ f zweier linearer Abbildungen f : V −→ W undg : W −→ Z ist wieder eine lineare Abbildung g ◦ f : V −→ Z.
c) Die Hintereinanderausführung linearer Abbildungen f : V −→ W , g : W −→ Yund h : Y −→ Z ist assoziativ, d.h. es ist h ◦ (g ◦ f) = (h ◦ g) ◦ f : V −→ Z.
Beweisa) Es ist f(000) = f(0 · 000) = 0 · f(000) = 000 und f(v) = f((−1) · v) = (−1) · f(v) = −f(v).
b) Es gilt
g ◦ f(v1 + v2) = g(f(v1 + v2)) = g(f(v1) + f(v2))
= g(f(v1)) + g(f(v2)) = g ◦ f(v1) + g ◦ f(v2).
und
(g ◦ f)(λv) = g(f(λv)) = g(λf(v)) = λg(f(v)) = λ(g ◦ f)(v).
c) Die Hintereinanderausführung beliebiger Abbildungen ist assoziativ. □
Satz 4.2Ist A eine m× n Matrix über einem Körper K, dann ist
f : Kn −→ Km, x 7→ f(x) = A · x
eine lineare Abbildung.
BeweisWir müssen die Additivität und die Invarianz bzgl. Skalarmultiplikation nachweisen.
Für u, v ∈ Kn gilt
f(u+ v) = A · (u+ v) = A · u+A · v = f(u) + f(v).
Ferner gilt für u ∈ Kn und λ ∈ K
f(λu) = A · (λu) = λ(A · u) = λf(u). □
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 70
Beispiel 4.1Die Projektion
y
z
x
xxx
f(xxx)
f : R3 −→ R3,
xyz
7→
xy0
ist eine lineare Abbildung, denn diese Projektion lässt sich mittels einer Matrixmultiplika-tion darstellen: 1 0 0
0 1 00 0 0
xyz
=
xy0
.
Beispiel 4.2Für einen elektrischen Vierpol lässt sich die Abhängigkeit des Ausgangsstroms i2 undAusgangsspannung U2 vom Eingangsstroms i1 und Eingangsspannung U1 als lineare Ab-bildung in Matrixform darstellen. Damit wird zwischen Eingangs- und Ausgangsgrössen(jeweils Strom und Spannung) eine lineare Abhängigkeit beschrieben:
bC bC
bC bC
U1 U2R1 R2
R3i1 i2 (
i2U2
)=
1 +R3
R2−R1 +R2 +R3
R1R2
−R3 1 +R3
R1
( i1U1
).
Beispiel 4.3Die Abbildung
f : R2 −→ R2,
(xy
)7→(
x2
x+ y
)ist keine lineare Abbildung, denn es gilt:
f(
(x1x2
)+
(y1y2
)) =
((x1 + y1)
2
x1 + y1 + x2 + y2
)=
(x21 + 2x1y1 + y21x1 + y1 + x2 + y2
)=(
x21x1 + x2
)+
(y21
y1 + y2
)= f(
(x1x2
)) + f(
(y1y2
)).
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 71
Beispiel 4.4Die affine Abbildung
f : Rn −→ Rm, x 7→= Ax+ c
mit einer m×n Matrix A ist ebenfalls keine lineare Abbildung, falls der Translationsvektorc ungleich Null ist, denn für x1, x2 ∈ Rn gilt
f(x1 + x2) = A(x1 + x2) + c = Ax1 +Ax2 + c = Ax1 + c+Ax2 + c = f(x1) + f(x2).
Beispiel 4.5Sei Pn der Vektorraum der Polynome mit Grad(p(x)) ≤ n. Die Abbildung
f : Pn −→ Pn, p(x)) 7→ x · p′(x)
ist eine lineare Abbildung. Dabei ist p′(x) das Ableitungpolynom von p(x). Für p(x), q(x) ∈Pn und λ ∈ R gilt
f(p(x)+q(x)) = x·[p(x)+q(x)]′ = x·[p′(x)+q′(x)] = x·p′(x)+x·q′(x) = f(p(x))+f(q(x)),
undf(λp(x)) = x · [λp(x)]′ = x · λ · p′(x) = λ · [x · p′(x)] = λf(p(x)).
Der folgende Satz liefert ein einfaches Verfahren um lineare Abbildungen zwischen zweiVektorräumen zu konstruieren.
Satz 4.3Seien V = {0} und W endlichdimensionale Vektorräume über dem Körper K. SeiB = {v1, . . . , vn} eine Basis vom V . Ordnet man jedem Basisvektor vk ∈ B einenVektor wk aus W zu, dann gibt es genau eine lineare Abbildung f : V −→ W mitf(vk) = wk für k = 1, . . . , n.
BeweisWeil nach Voraussetzung V = {0} gilt, gibt es eine Basis B in V mit mindestens einemBasisvektor. Sei B = {v1, . . . , vn} eine Basis und seien w1, . . . , wn ∈ W . Die Abbildung
f : V −→ W
wird wie folgt definiert. Zuerst wird jedem Basisvektor vk ∈ B der Vektor wk ∈ W zuge-ordnet, also
wk = f(vk), k = 1, . . . , n.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 72
Für v ∈ V gibt es eindeutige Skalare λk ∈ K, k = 1, . . . , n, so dass gilt:
v =
n∑k=1
λkvk.
Wir definieren
f(v) =n∑
k=1
λkwk, mit wk = f(vk).
Wegen der Eindeutigkeit der Skalare λk ist f(v) ebenfalls eindeutig bestimmt. Wir zeigenjetzt die Linearität von f . Seien u =
∑nk=1 µkvk und v =
∑nk=1 λkvk ∈ V und α ∈ K.
Dann folgt
f(u+v) = f( n∑k=1
(µk+λk)vk)=
n∑k=1
(µk+λk)f(vk) =n∑
k=1
µkf(vk)+n∑
k=1
λkf(vk) = f(u)+f(v).
Ferner ist
f(αv) = f(
n∑k=1
αλkvk)=
n∑k=1
αλkf(vk)) = α
n∑k=1
λkf(vk)) = αf(v).□
Beispiel 4.6Wir betrachten den Vektorraum R2. Wir nehmen die natürliche Basis B = {e1, e2} von R2,d.h.
e1 =
(10
), e2 =
(01
).
Nach Satz 4.3 konstruieren wir ein lineare Abbildung
f : R2 −→ C0[−π, π]
von R2 nach C0[−π, π], dem Vektorraum der stetigen Funktionen auf dem Intervall [−π, π],indem wir die Zuordung auf den Basisvektoren der Basis B durch
f(e1) = sin(x), f(e2) = cos(x)
definieren. Für einen beliebigen Vektor x =
(x1x2
)∈ R2 gilt dann
x = x1 · e1 + x2 · e2 und f(x) = x1 · f(e1) + x2 · f(e2) = x1 · sin(x) + x2 · cos(x).
Nach Satz 4.3 ist f eine lineare Abbildung.
Satz 4.4Sei f : V −→ W eine lineare Abbildung von V nach W . Sei X ein Unterraum von Vund Y ein Unterraum von W . Dann gilt:
a) Der Bildraum f(X) = {f(x) ∈ W | x ∈ X} ist ein Unterraum von W .
b) Der Urbildraum f−1(Y ) = {x ∈ V | f(x) ∈ Y } ist ein Unterraum von V .
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 73
Beweisa) Für y1, y2 ∈ f(X) gibt es x1 und x2 ∈ X mit f(x1) = y1 und f(x2) = y2. Wegen
f(x1 + x2) = f(x1) + f(x2) = y1 + y2 und x1 + x2 ∈ X
ist y1 + y2 ∈ f(X). Ferner existiert für y ∈ f(X) ein x ∈ X mit f(x) = y und es folgtfür λ ∈ K
λy = λf(x) = f(λx) und λx ∈ X,
also λy ∈ f(X). Somit ist ein f(X) ein Unterraum von W .
b) Seien x1, x2 ∈ f−1(Y ). Dann ist f(x1) ∈ Y und f(x2) ∈ Y und
f(x1) + f(x2) = f(x1 + x2) ∈ Y,
woraus x1 + x2 ∈ f−1(Y ) folgt. Für λ ∈ K und x ∈ f−1(Y ), dann folgt f(x) ∈ Y und
λf(x) = f(λx) ∈ Y.
Also ist λx ∈ f−1(Y ) und f−1(Y ) ist ein Unterraum von V . □
4.2 Bild und Kern einer linearen Abbildungen
Definition 4.2Sei f : V −→ W eine lineare Abbildung von V nach W . Dann heisst die Menge
Ker(f) := {v ∈ V | f(v) = 0 ∈ W} = f−1({0})
der Kern von f . Die Menge
Im(f) := {f(v) ∈ W | v ∈ V } = f(V )
heisst das Bild von f .
Satz 4.5Sei f : V −→ W eine lineare Abbildung von V nach W . Dann gilt:
a) Ker(f) ist ein Unterraum von V . Im(f) ist ein Unterraum von W .
b) Ker(f) = {000} gilt genau dann, wenn f eine injektive Abbildung ist.
c) Im(f) = W gilt genau dann, wenn f surjektiv ist.
Beweisa) Folgt unmittelbar aus der Definition von Kern und Bild einer linearen Abbildung.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 74
b) Sei Ker(f) = {0}. Für u, v ∈ V mit f(u) = f(v) gilt
f(u− v) = f(u)− f(v) = 0,
also u− v ∈ Ker(f). Wegen Ker(f) = {0} ist damit u = v und f ist also eine injektiveAbbildung.Sei umgekehrt f eine injektive Abbildung, und sei u ∈ Ker(f). Dann folgt f(u) = 0.Ferner gilt f(0) = 0. Weil f eine injektive Abbildung ist, folgt u = 0 und somit Ker(f) ={0}.
c) Folgt unmittelbar aus der Definition einer surjektiven Abbildung. □
Beispiel 4.7Die Abbildung ist
f : R3 −→ R3, x 7→ f(x) =
2 2 31.5 2 2.52.5 0 2.5
x
eine lineare Abbildung. Wir wollen für den Unterraum Ker(f) eine Basis finden. Der KernKer(f) besteht aus allen Vektoren x = (x1, x2, x2)
T ∈ R3 mit Ax = 0. Also ist Ker(f) derLösungsraum eines homogenen linearen Gleichungssystems. Somit
x1 x2 x32 2 3 01.5 2 2.5 02.5 0 2.5 0
Gauss−→
x1 x2 x31 0 1 00 1 0.5 00 0 0 0
Die Lösungen sind gegeben durch
x1 = −x3, x2 = −0.5x3 bzw. durch t
−1−0.51
, t ∈ R.
Ker(f) ist somit eindimensional und hat als Basis den Vektor
−1−0.51
.
Für den Unterraum Im(f) wollen wir ebenfalls eine Basis bestimmen. Das Bild Im(f)enthält alle Vektoren y = f(x) = Ax für x ∈ R3. Für y = Ax ist
y =
2 2 31.5 2 2.52.5 0 2.5
x1x2x3
= x1
21.52.5
+ x2
220
+ x3
32.52.5
, x1, x2, x3 ∈ R.
Dies sind alle möglichen Linearkombinationen der Spaltenvektoren
u =
21.52.5
, v =
220
, w =
32.52.5
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 75
der Matrix A. Somit gilt Im(f) = Lin(u, v, w). Wir bestimmen die linear unabhängigenVektoren unter u, v, w. Also
λ1u+ λ2v + λ3w = 0
oderλ1 λ2 λ3
2 2 3 01.5 2 2.5 02.5 0 2.5 0
Gauss−→
λ1 λ2 λ3
1 0 1 00 1 0.5 00 0 0 0
Die Lösung ist die selbe wie oben, also λ1 = −λ3, λ2 = −0.5λ3, λ3 ∈ R. Für die Linear-kombinationen folgt
−λ3u− 0.5λ3v + λ3w = 0, λ3 ∈ R.
Setzen wir λ3 = 2, dann folgtv = −2u+ 2w,
d.h. v ist linear abhängig von u und w. Somit
Im(f) = Lin(u,w).
Andererseits sind u und w linear unabhängig, bilden also eine Basis von Im(f).
Aus diesem Beispiel folgt die allgemeine Situation, welche im folgenden Satz festgehaltenist.
Satz 4.6Durch eine m× n Matrix A wird eine lineare Abbildung definiert:
f : Kn −→ Km, x 7→ f(x) = Ax.
a) Der Bildraum Im(f) der linearen Abbildung f ist der Spaltenraum von A, d.h.
Im(f) = Lin(a1, . . . , an), ak = kter Spaltenvektor von A.
b) Sei {e1, . . . , en} die natürliche Basis von Kn. Die Bildvektoren f(ek) der Basisvek-toren ek sind die Spaltenvektoren der Matrix A = (a1, . . . , an). Also
ak = f(ek), k = 1, . . . , n.
c) Der Kern Ker(f) dieser linearen Abbildung ist die Lösungsmenge des homogenenlinearen Gleichungssystems
Ax = 0.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 76
BeweisSei
A =
a11 . . . a1n...
...am1 . . . amn
= (a1 . . . an), mit ak =
a1k...
amk
∈ Km.
a) Der Bildraum ist Im(f) = {f(x) ∈ Km| x ∈ Kn}. Sei w ∈ Im(f). Dann gibt es einx = (x1, . . . , xn)
T ∈ Kn mit
w = f(x) = Ax =
a11 . . . a1n...
...am1 . . . amn
x1
...xn
=
a11x1 + . . .+ a1nxn...
am1x1 + . . .+ amnxn
= x1
a11...
am1
+ . . .+ xn
a1n...
amn
= x1a1 + . . .+ xnan,
also w ∈ Lin(a1, . . . , an). Damit folgt
Im(f) ⊆ Lin(a1, . . . , an).
Sei umgekehrt w ∈ Lin(a1, . . . , an). Dann existieren Skalare x1, . . . , xn mit
w = x1a1 + . . .+ xnan.
Für x = (x1, . . . , xn)T ∈ Kn gilt f(x) = x1a1 + . . .+ xnan, also x ∈ Im(f) und es folgt
Lin(a1, . . . , an) ⊆ Im(f).
Zusammenfassend haben wir gezeigt:
Lin(a1, . . . , an) = Im(f).
b) Sei ek = (0 . . . 1 . . . 0)T ein Basisvektor aus Kn. Für den Bildvektor f(ek) ist
f(ek) = Aek =
a11 . . . a1k . . . a1n...
......
am1 . . . amk . . . amn
0...1...0
=
a1ka2k...
amk
= ak
c) Ker(f) besteht aus allen Vektoren v ∈ Rn mit der Eigenschaft f(v) = 0, also Av = 0.Dies sind gerade die Lösungen des homogenen Gleichungssystems. □
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 77
Beispiel 4.8Sei
f : R2 −→ R3, x 7→ f(x) =
2 21.5 22.5 0
x
eine lineare Abbildung. Die Bildvektoren von e1 und e2 sind dann:
f(e1) =
2 21.5 22.5 0
(10
)=
21.52.5
=: a1, f(e2) =
2 21.5 22.5 0
(01
)=
220
=: a2.
Somit ist Im(f) = Lin(a1, a2) der Unterraum, der von den linear unabhängigen Spalten-vektoren a1 und a2 der Matrix A erzeugt wird. Die untenstehende Abbildung zeigt Im(f).
x
y
eee1
eee2y
z
x
f(e2) = a2
z
f(e1) = a1f
Aufgabe 24Welches ist die Abbildungsmatrix für die lineare Abbildung
f : R3 −→ R3,
xyz
7→
xy + 2z
z
?
Lösung: Die Matrix A hat als Spalten die drei Bildvektoren f(ek):
A = (f(e1), f(e2), f(e3)).
Wir berechnen nun diese Bildvektoren mittels der Abbildung f :
f(e1) =
100
, f(e2) =
010
, f(e3) =
021
.
Die Matrix lautet somit:
A = (f(e1), f(e2), f(e3)) =
1 0 00 1 20 0 1
.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 78
BemerkungDie Vektoren a1, . . . , an in der Matrix A = (a1, . . . , an) bestimmen die Lage und die Di-mension des Bildraumes.
Satz 4.7Sei
f : Kn −→ Km, x 7→ f(x) = Ax
eine lineare Abbildung. Seien a1, . . . , an die Spaltenvektoren der Matrix A, also
A = (a1, . . . , an).
Die Dimension des Bildraumes Im(f) ist gleich der Anzahl linear unabhängiger Spal-tenvektoren der Matrix A.
Beispiel 4.9Sei
f : R4 −→ R3, x 7→ f(x) = Ax, A =
1 0 2 33 −5 21 19−2 2 −10 −10
eine lineare Abbildung. Wir versuchen die lineare Abhängigkeit der Spaltenvektoren derMatrix A = (a1, . . . , a4) herauszufinden. Wir lösen deshalb die Gleichung
4∑k=1
λkak = 0 bzw. λ1
13−2
+ λ2
0−52
+ λ3
221−10
+ λ4
319−10
=
000
,
resp. das lineare Gleichungssystem: 1 0 2 33 −5 21 19−2 2 −10 −10
λ1
λ2
λ3
λ4
=
000
bzw.
λ1 λ2 λ3 λ4
1 0 2 3 03 −5 21 19 0−2 2 −10 −10 0
Wir lösen dieses lineare Gleichungssystem mit Hilfe von rref(A). Das Resultat ist
λ1 λ2 λ3 λ4
1 0 2 3 00 1 −3 −2 00 0 0 0 0
worausλ1 = −2λ3 − 3λ4, λ2 = 3λ3 + 2λ4, λ3, λ4 ∈ R.
folgt. Somit ist
0 = λ1a1 + λ2a2 + λ3a3 + λ4a4
= (−2λ3 − 3λ4)a1 + (3λ3 + 2λ4)a2 + λ3a3 + λ4a4
= λ3(−2a1 + 3a2 + a3) + λ4(−3a1 + 2a2 + a4), λ3, λ4 ∈ R.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 79
Setzen wir λ3 = 1 und λ4 = 0 ein, dann folgt
−2a1 + 3a2 + a3 = 0.
Mit λ3 = 0 und λ4 = 1 schliessen wir
−3a1 + 2a2 + a4 = 0.
In diesen Abhängigkeiten sind die Vektoren a1 und a2 die gemeinsamen Vorkommenden,d.h. man kann schreiben
a3 = 2a1 − 3a2, a4 = 3a1 − 2a2,
d.h. a3 und a4 sind linear abhängig von a1 und a2. Die Spaltenvektoren a1, a2 sind linearunabhängig. Somit gilt
dim(Im(f)) = dim(Lin(a1, a2, a3, a4)) = dim(Lin(a1, a2)) = 2.
Als Erzeugendensystem für den Bildraum Im(f) kann man zum Beispiel die Vektoren a1und a2 nehmen.
Beispiel 4.10Sei
f : R3 −→ R3, x 7→ f(x) = Ax, A =
1 −2 −12 −4 −23 −6 −3
eine lineare Abbildung. Die Spaltenvektoren der Matrix A sind linear abhängig, denn esgilt
3∑k=1
λkak = 0 bzw.
λ1 λ2 λ3
1 −2 −1 02 −4 −2 03 −6 −3 0
rref−→
λ1 λ2 λ3
1 −2 −1 00 0 0 00 0 0 0
,
also λ1 = 2λ2 + λ3, λ2, λ3 ∈ R. Somit folgt
0 = λ1a1 + λ2a2 + λ3a3
= (2λ2 + λ3)a1 + λ2a2 + λ3a3
= λ2(2a1 + a2) + λ3(a1 + a3), λ2, λ3 ∈ R.
Setzen wir λ2 = 1 und λ3 = 0 ein, dann folgt
2a1 + a2 = 0.
Mit λ2 = 0 und λ3 = 1 schliessen wir
a1 + a3 = 0.
In diesen Abhängigkeiten ist der Vektor a1 der gemeinsame, d.h.
a2 = −2a1, a3 = −a1.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 80
Also sind a2 und a3 sind linear abhängig von a1. Somit gilt
dim(Im(f)) = dim(Lin(a1, a2, a3) = dim(Lin(a1)) = 1.
Der Bildraum Im(f) wird nur durch einen Bildvektoren erzeugt, z.B. durch
f(e1) = a1 =
123
Der Bildraum ist in diesem Fall eine Gerade mit der Parametergleichung
y = tf(e1) bzw.
y1y2y3
= t
123
, t ∈ R.
Beispiel 4.11Sei
f : R5 −→ R4, x 7→ f(x) = Ax, A =
1 0 2 2 12 2 2 10 00 3 −3 9 −3−1 0 −2 −2 −1
.
Wir wissen, dass die Lösungsmenge des Gleichungssystems Ax = 0 der Unterraum Ker(f)von R5 ist. Mit Hilfe von rref bestimmen wir erzeugende Vektoren des Unterraums Ker(f),indem wir das Gleichungssystem Ax = 0 lösen:
Ax = 0 ⇔
x1 x2 x3 x4 x51 0 2 2 1 02 2 2 10 0 00 3 −3 9 −3 0−1 0 −2 −2 −1 0
rref−→
x1 x2 x3 x4 x51 0 2 2 1 00 1 −1 3 −1 00 0 0 0 0 00 0 0 0 0 0
Alsox1 = −2x3 − 2x4 − x5, x2 = x3 − 3x4 + x5, x3, x4, x5 ∈ R.
Das Gleichungssystem hat somit drei freie Parameter. Die allgemeine Lösung des homoge-nen linearen Gleichungssystems lautet:
x =
−2x3 − 2x4 − x5x3 − 3x4 + x5
x3x4x5
= x3
−21100
+ x4
−2−3010
+ x5
−11001
.
Die drei Vektoren in der oben stehenden Gleichung sind Basisvektoren des UnterraumesKer(f). Also
dim(Ker(f)) = 3.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 81
Für Im(f) wird die lineare Unabhängigkeit der Spaltenvektoren der Matrix A analysiert,also
λ1a1 + λ2a2 + λ3a3 + λ4a4 + λ5a5 = 0.
Aus der rref-Darstellung lesen wir heraus:
λ1 = −2λ3 − 2λ4 − λ5, λ2 = λ3 − 3λ4 + λ5, λ3, λ4, λ5 ∈ R.
Somit
0 = λ1a1 + λ2a2 + λ3a3 + λ4a4 + λ5a5
= (−2λ3 − 2λ4 − λ5)a1 + (λ3 − 3λ4 + λ5)a2 + λ3a3 + λ4a4 + λ5a5
= λ3(−2a1 + a2 + a3) + λ4(−2a1 − 3a2 + a4) + λ5(−a1 + a2 + a5), λ3, λ4, λ5 ∈ R.
Durch geeignete Wahl von λ3, λ4, λ5 folgt
−2a1 + a2 + a3 = 0, −2a1 − 3a2 + a4 = 0, −a1 + a2 + a5 = 0.
Die gemeinsamen Vektoren sind a1 und a2, welche linear unabhängig sind. Somit folgt
dim(Im(f)) = 2.
Das letzte Beispiel hat gezeigt, dass es einen Zusammenhang gibt zwischen dim(Ker(f))und dim(Im(f)). Der folgende Satz zeigt, dass die Dimensionen von Ker(f) und Im(f)gekoppelt sind.
Satz 4.8Sei V ein endlich-dimensionaler und W ein beliebiger Vektorraum über dem KörperK. Sei f : V −→ W eine lineare Abbildung. Dann ist
dim(V ) = dim(Ker(f)) + dim(Im(f)).
BeweisDer Kern Ker(f) ist ein Unterraum von V . Sei {b1, . . . , bk} eine Basis von Ker(f), alsodim(Ker(f)) = k. Diese Basis lässt sich durch Vektoren a1, . . . , ad zu einer Basis von Vergänzen:
BV = {a1, . . . , ad, b1, . . . , bk}.
Dann ist alson = dim(V ) = k + d.
Wir zeigen jetzt, dass {f(a1), . . . , f(ad)} eine Basis von Im(f) ist. Es folgt dann, dass
d = dim(Im(f))
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 82
ist, und damit die Behauptung.
Die Vektoren f(ak) liegen in Im(f). Sie sind linear unabhängig, denn aus
0 = λ1f(a1) + . . .+ λdf(ad) = f(λ1a1 + . . .+ λdad)
folgt v = λ1a1+ . . .+λdad ∈ Ker(f). Also ist v auch eine Linearkombination von b1, . . . , bk.Sei also
v = λ1a1 + . . .+ λdad = µ1b1 + . . .+ µkbk.
Daraus folgt0 = λ1a1 + . . .+ λdad − µ1b1 − . . .− µkbk.
Da BV = {a1, . . . , ad, b1, . . . , bk} eine Basis von V ist, folgt insbesondere
λi = 0, i = 1, . . . , d.
Somit sind die Vektoren {f(a1), . . . , f(ad)} linear unabhängig.
Schliesslich sei w ∈ Im(f). Dann ist w = f(v) für ein v ∈ V . Nun ist
v = λ1a1 + . . .+ λdad + µ1b1 + . . .+ µkbk
eine Linearkombination von a1, . . . , ad und b1, . . . , bk, woraus
w = f(v) = λ1f(a1) + . . .+ λdf(ad)
folgt, da f(bi) = 0 für alle i = 1, . . . , k. Also ist w ∈ Lin(f(a1), . . . , f(ad)). Daraus folgtIm(f) ⊆ Lin(f(a1), . . . , f(ad)). Selbstverständlich gilt Lin(f(a1), . . . , f(ad)) ⊆ Im(f), also
Im(f) = Lin(f(a1), . . . , f(ad)).
Somit d = dim(Im(f)). □
4.3 Isomorphie von Vektorräumen
Definition 4.3Zwei Vektorräume V und W über dem Körper K heissen isomorph, wenn es einelineare bijektive Abbildung
f : V −→ W.
gibt.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 83
4.4 Koordinaten
Satz 4.9Sei V ein n-dimensionaler Vektorraum. Sei B = {v1, . . . , vn} eine Basis von V . Dann istB durch die Numerierung der Basisvektoren vk geordnet. Bezüglich dieser geordnetenBasis besitzt jeder Vektor w ∈ V genau n Skalare µ1, . . . , µn mit
w =
n∑k=1
µkvk,
d.h. der Vektor w lässt sich in eindeutiger Weise als Linearkombination der geordnetenBasisvektoren v1, . . . , vn darstellen.
BeweisWeil B = {v1, . . . , vn} eine Basis des Vektorraums V ist, erzeugen die Vektoren v1, . . . , vnden Vektorraum V , d.h. jeder Vektor w ∈ V lässt sich als Linearkombination dieser Basis-vektoren darstellen:
w =
n∑k=1
µkvk
Diese Darstellung ist eindeutig, denn hätte w zwei Darstellungen
w =
n∑k=1
µkvk und w =
n∑k=1
µ′kvk,
dann würde folgen:
n∑k=1
µkvk −n∑
k=1
µ′kvk =
n∑k=1
(µk − µ′k)vk = 0.
Weil die Vektoren v1, . . . , vn als Basis linear unabhängig sind, folgt
µk − µ′k = 0 bzw. µk = µ′
k für k = 1, 2, . . . , n. □
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 84
Definition 4.4Sei V ein n-dimensionaler Vektorraum über dem Körper K. Sei B = {v1, . . . , vn} eineBasis von V . Bezüglich dieser geordneten Basis besitzt jeder Vektor v ∈ V genau nSkalare µ1, . . . , µn ∈ K mit
v =n∑
k=1
µkvk.
Das Skalare µ1, . . . , µn heissen Koordinaten des Vektors v bezüglich der geordnetenBasis B.
Der Vektor vB =
µ1...µn
∈ Kn heisst Koordinatenvektor von v bezüglich B.
Satz 4.10Sei B = {v1, . . . , vn} eine geordnete Basis eines n-dimensionalen Vektorraums V überdem Körper K. Sei
k : V −→ Kn, v 7→ k(v) = vB
die Abbildung, die jedem Vektor v ∈ V seinen Koordinatenvektor vB zuordnet. DieAbbildung k heisst Koordinatenabbildung. Dann ist k ein Isomorphismus zwischendem Vektorraum V und dem Vektorraum Kn
BeweisDa B eine Basis des Vektorraums V ist, hat jeder Vektor v ∈ V nach Satz 4.9 eine eindeutigeDarstellung
v =
n∑k=1
µkvk.
a) Seien zwei Vektoren v =∑n
k=1 µkvk und w =∑n
k=1 λkvk aus V gegeben mit k(v) =k(w), d.h. vB = wB. Dann folgt
k(v) = k(w) oder
µ1...µn
=
λ1...λn
oder µk = λk, k = 1, . . . , n
was mit v = w gleichbedeutend ist. Die Abbildung k ist also injektiv.
Sei v =
µ1...µn
∈ Kn gegeben. Dann ist Vektor v =∑n
k=1 µkvk ein Urbild von v. Die
Abbildung k ist also surjektiv. Somit ist sie bijektiv.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 85
b) Sei λ ∈ K, und sind v =∑n
k=1 µkvk, w =∑n
k=1 λkvk zwei Vektoren aus V mit Koordi-natenvektoren
k(v) =
µ1...µn
, k(w) =
λ1...λn
,
dann gilt
k(v + w) =
µ1 + λ1...
µn + λn
=
µ1...µn
+
λ1...λn
= k(v) + k(w).
Ferner ist
k(λv) =
λλ1...
λλn
= λ
λ1...λn
= λk(v).
□
Beispiel 4.12Wir betrachten den Vektorraum R[x]3 = P3 aller Polynome vom Grad ≤ 3. Die Polynome
p0(x) = 1, p1(x) = x, p2(x) = x2, p3(x) = x3
bilden eine Basis von P3. Auch die die Polynome
p0(x) = 1, p1(x) = x+ 1, p2(x) = (x+ 1)2, p3(x) = (x+ 1)3
bilden eine Basis B dieses Vektorraumes. Dies wird genauso bewiesen wie bei der erstenBasis, aber man braucht noch den Entwicklungssatz für Taylorreihen, der in der Analysisbehandelt wird. Dieser Vektorraum hat also die Dimension 4. Das Polynom
p(x) = 5− 3x+ 4x2 + 2x3
ist bzgl. der ersten Basis ausgedrückt und lässt sich bezüglich der zweiten Basis B wie folgtdarstellen:
p(x) = 5− 3x+ 4x2 + 2x3 = 10 · 1− 5(x+ 1)− 2(x+ 1)2 + 2(x+ 1)3.
Die Skalare sind x0 = 10, x1 = −5, x2 = −2, x3 = 2. Der Vektor
y =
10−5−22
ist also der Koordinatenvektor des Polynoms p(x) bezüglich der Basis B. Wir bilden diesesPolynom auf diesen Koordinatenvektor ab:
f : P3 −→ R4, p(x) = 5− 3x+ 4x2 + 2x3 7→ f(p(x)) =
10−5−22
.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 86
Allgemein:
f : P3 −→ R4, p(x) =3∑
k=0
λk(x+ 1)k 7→
λ0
λ1
λ2
λ3
.
BemerkungSatz 4.10 besagt folgendes. Hat man eine Basis B = {v1, . . . , vn} in einem Vektorraum Vgewählt und drückt man einen beliebigen Vektor v ∈ V als Linearkombination
v =
n∑k=1
µkvk,
dieser Basisvektoren aus, so kann man diesen Vektor isomorph auf seinen Koordinaten-vektor vB abbilden und dann mit diesem Spaltenvektor operieren, anstatt mit dem ur-sprünglichen Vektor des Vektorraumes V . Die Vektoren aus Kn sind aus algebraischerSicht einfacher zu handhaben als die Vektoren aus V .
Der folgende Satz ist eine Reformulierung von Satz 4.10. Sie besagt, dass der Kn derPrototyp aller n-dimensionalen Vektorräume über dem Körper K ist.
Satz 4.11Jeder Vektorraum V über dem Körper K der Dimension n ist isomorph zum Kn.
4.5 Matrixdarstellungen linearer Abbildungen
In diesem Abschnitt wird einer linearen Abbildungen f : V −→ W zwischen zwei endlich-dimensionalen Vektorräumen V und W eine Matrizen A = (aij) mit Koordinaten aij ∈ Kzugeordnet. Dazu legen wir eine Basis BV = {v1, . . . , vn} in V und eine Basis BW ={w1, . . . , wm} in W fest. Der linearen Abbildung
f : V −→ W
wird bezüglich den gewählten Basen BV und BW eine m×n Matrix A wie folgt zugeordnet.
Für jeden Basisvektor vj ∈ BV , 1 ≤ j ≤ n ist f(vj) ∈ W . Also hat f(vj) in der Basis BW
eine eindeutige Darstellung als Linearkombination:
f(vj) =
m∑i=1
aijwi mit aij ∈ K für 1 ≤ i ≤ m, 1 ≤ j ≤ n. (4.1)
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 87
Mit den Koordinaten aij bilden wir eine m× n Matrix A.
Definition 4.5Die m×n Matrix A = (aij) heisst die Matrix der linearen Abbildung f : V −→ Wbezüglich den Basen BV = {v1, . . . , vn} in V und BW = {w1, . . . , wm} in W . DieMatrixwerte aij erhält man durch
f(vj) =
m∑i=1
aijwi mit aij ∈ K für 1 ≤ i ≤ m, 1 ≤ j ≤ n.
BemerkungDie der linearen Abbildung f zugeordneten Matrix A hängt nicht nur von f ab, sondernauch von der Wahl der beiden Basen BV und BW in V bzw. W . Wie die Matrix sich ändert,wenn man andere Basen wählt, wird im Abschnitt Basiswechsel beschrieben.
Beispiel 4.13Sei P3 = R[x]3 der Vektorraum der Polynome mit Grad(p(x)) ≤ 3. Die Abbildung
f : P3 −→ P3, p(x) 7→ f(p(x)) = x · p′(x)
von Beispiel 4.5 ist eine lineare Abbildung. Wir berechnen die 4 × 4 Matrix A = (aij),welche zu dieser linearen Abbildung gehört, bezüglich der Basis
B = {p0(x) = 1, p1(x) = x− 1, p2(x) = (x− 1)2, p3(x) = (x− 1)3}.
Die Matrixwerte aij erfüllen für j = 0, . . . , 3 folgende Gleichungen
f(pj(x)) =3∑
i=0
aijpi(x) =3∑
i=0
aij(x− 1)i
= a0j − a1j − a3j + a2j + (−2a2j + a1j + 3a3j)x+ (a2j − 3a3j)x2 + a3jx
3.
Gemäss der linearen Abbildung f gilt
f(pj(x)) = f((x− 1)j) = x[(x− 1)j ]′ = j · x(x− 1)j−1 =
0, für j = 0
x, für j = 1
2x2 − 2x, für j = 2
3x3 − 6x2 + 3x, für j = 3
Somit hat man für j = 0, . . . , 3 folgende Gleichungen
a0j − a1j − a3j + a2j + (−2a2j + a1j + 3a3j)x+ (a2j − 3a3j)x2 + a3jx
3 = j · x(x− 1)j−1.
Durch Koeffizientenvergleich hat man folgende Gleichungssysteme zu lösen.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 88
Für j = 0:
a00 − a10 − a30 + a20 = 0
−2a20 + a10 + 3a30 = 0
a20 − 3a30 = 0
a30 = 0
⇒ a00 = 0, a10 = 0, a20 = 0, a30 = 0.
Für j = 1:
a01 − a11 − a31 + a21 = 0
−2a21 + a11 + 3a31 = 1
a21 − 3a31 = 0
a31 = 0
⇒ a01 = 1, a11 = 1, a21 = 0, a31 = 0.
Für j = 2:
a02 − a12 − a32 + a22 = 0
−2a22 + a12 + 3a32 = −2
a22 − 3a32 = 2
a32 = 0
⇒ a02 = 0, a12 = 2, a22 = 2, a32 = 0.
Für j = 3:
a03 − a13 − a33 + a23 = 0
−2a23 + a13 + 3a33 = 3
a23 − 3a33 = −6
a33 = 3
⇒ a03 = 0, a13 = 0, a23 = 3, a33 = 3.
Somit ist die der linearen Abbildung f zugeordneten Matrix A:
A =
a00 a01 a02 a03a10 a11 a12 a13a20 a21 a22 a23a30 a31 a32 a33
=
0 1 0 00 1 2 00 0 2 30 0 0 3
.
Frage:
Was ist die Bedeutung oder der Nutzen der linearen Abbildung f zugeordneten Matrix A?
Antwort:
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 89
Sei A die Matrix einer linearen Abbildung f : V −→ W bezüglich einer Basis BV ={v1, . . . , vn} von V und einer Basis BW = {w1, . . . , wm} von W . Sei v ein Vektor aus V ,dann ist w = f(v) ein Vektor aus W . Die Vektoren v und w = f(v) lassen sich bezüglichder gewählten Basen BV und BW eindeutig darstellen:
v =
n∑j=1
vjvj und w = f(v) =
m∑i=1
wiwi.
Die Koordinatenvektoren sind demzufolge
vBV=
v1...vn
und wBW=
w1...
wm
.
Es gilt mit Einbezug der Gleichung (4.1), den Linearitätseigenschaften und Vertauschungder Summation:
w = f(v) = f( n∑j=1
vjvj)=
n∑j=1
vjf(vj) =
n∑j=1
vj( m∑i=1
aijwi
)=
n∑j=1
( m∑i=1
vjaijwi
)=
m∑i=1
( n∑j=1
vjaij)wi.
Dies ist eine weitere Linearkombination in den Basisvektoren aus BW . Also folgtm∑i=1
wiwi =m∑i=1
( n∑j=1
vjaij)wi,
und damit für die Koordinaten, die eindeutig sind
wi =
n∑j=1
aijvj , i = 1, . . . ,m. (4.2)
Die Gleichung (4.2) lässt sich mit den Koordinatenvektoren vBV, wBW
in Matrixform schrei-ben. Dabei ist die Matrix A = (aij) die Matrix, die zur linearen Abbildung f bezüglich derBasen BV und BW gehört. Somit
wi =n∑
j=1
aijvj , i = 1, . . . ,m bzw.
w1...
wm
=
a11 . . . a1n...
...am1 . . . amn
v1
...vn
(4.3)
bzw. wBW= A · vBV
. (4.4)
Die Koordinatenvektoren vBVvon v ∈ V und wBW
von w = f(v) stehen mit der Matrix Ain Beziehung zueinander, nämlich
wBW= A · vBV
.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 90
Wir fassen diese Tatsache im folgenden Satz zusammen.
Satz 4.12Sei f : V −→ W eine lineare Abbildung und sei A die m × n Matrix, welche zu fgehört bezüglich den Basen BV = {v1, . . . , vn} von V und BW = {w1, . . . , wm} von W .Sei v ein beliebiger Vektor aus V mit seinem Koordinatenvektor
vBV=
v1...vn
.
Um den Bildvektor w = f(v) ∈ W berechnen zu können, berechnet man zuerst denKoordinatenvektor wBW
:
wBW=
w1...
wm
= AvBV.
Der Bildvektor w = f(v) ist dann
w = f(v) =m∑k=1
wkwk.
Die folgende Abbildung visualisiert diesen Sachverhalt.
v ∈ V W ∋ w = f(v)
vBV∈Rn Rm ∋ wBW
= A · vBV
f
A
kBVkBW
Beispiel 4.14Sei P3 = R[x]3 der Vektorraum der reellen Polynome mit Grad(p(x)) ≤ 3. Sei
B = {p0(x) = 1, p1(x) = x− 1, p2(x) = (x− 1)2, p3(x) = (x− 1)3}
eine Basis von P3. Die Matrix A der linearen Abbildung f : P3 −→ P3 sei
A =
1 −2 0 3−1 3 −5 60 −2 1 23 −6 5 0
.
Wir berechnen das Bild f(p(x)) des Polynoms p(x) = 1 + 2x− 3x2 − 2x3 unter f . Zuerst
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 91
bestimmen wir den Koordinatenvektor pB(x). Es gilt
p(x) =
3∑k=0
λkpk(x)
1 + 2x− 3x2 − 2x3 =
3∑k=0
λk(x− 1)k
= λ0 − λ1 + λ2 − λ3 + (λ1 − 2λ2 + 3λ3)x+ (λ2 − 3λ3)x2 + λ3x
3.
Durch Koeffizientenvergleich folgt ein Gleichungssystem, welches die folgende Lösung hat:
λ0 = −2, λ1 = −10, λ2 = −9, λ3 = −2
Somit ist der Koordinatenvektor pB(x) = (−1,−10 − 9,−2)T . Der Koordinatenvektorf(p(x))B ist
f(p(x))B = A · pB(x) bzw. f(p(x))B =
1 −2 0 3−1 3 −5 60 −2 1 23 −6 5 0
−2−10−9−2
=
12579
.
Mit Satz 4.12 erhält man den Bildvektor f(p(x)) wie folgt:
f(p(x)) =3∑
k=0
wk(x− 1)k = 12 + 5(x− 1) + 7(x− 1)2 + 9(x− 1)3 = 5+ 18x− 20x2 + 9x3.
Beispiel 4.15Wir wissen, dass
V =
v =
abc
∈ R3| a+ b+ c = 0
und W =
w =
rstu
∈ R4| r + s+ t+ u = 0
Unterräume von R3 bzw. R4 sind. Die Vektoren in V lassen sich wie folgt beschreiben:
v =
abc
=
−b− cbc
= b
−110
+ c
−101
, b, c ∈ R.
Somit ist
BV =
v1 =
−110
, v2 =
−101
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 92
eine Basis von V . Analog ist für den Unterraum W
w =
rstu
=
−s− t− u
stu
= s
−1100
+ t
−1010
+ u
−1001
, s, t, u ∈ R.
Daraus folgt, dass
BW =
w1 =
−1100
, w2 =
−1010
, w3 =
−1001
eine Basis von W ist. Nun definieren wir eine Abbildung f : V −→ W durch
f
abc
=
a− 2b− c2a− b− c−a− b
−6a− 2c
.
Zuerst müssen wir nachprüfen, dass f(v) ∈ W ist. Aus v = (a, b, c)T ∈ V folgt a+b+c = 0.Für f(v) gilt
(a− 2b− c) + (2a− b− c) + (−a− b) + (−6a− 2c) = −4a− 4b− 4c = (−4)(a+ b+ c) = 0.
Somit folgt f(v) ∈ W .
Nun zeigen wir, dass f linear ist. Seien v1 = (a1, b1, c1)T , v2 = (a2, b2, c2)
T aus V undλ ∈ R. Dann ist
v1 + v2 = (a1 + a2, b1 + b2, c1 + c2)T und λv = (λa, λb, λc)T .
Es folgt:
f(v1 + v2) =
(a1 + a2)− 2(b1 + b2)− (c1 + c2)2(a1 + a2)− (b1 + b2)− (c1 + c2)
−(a1 + a2)− (b1 + b2)−6(a1 + a2)− 2(c1 + c2)
=
(a1 − 2b1 − c1) + (a2 − 2b2 − c2)(2a1 − b1 − c1) + (2a2 − b2 − c2)
(−a1 − b1) + (−a2 − b2)(−6a1 − 2c1) + (−6a2 − 2c2)
=
a1 − 2b1 − c12a1 − b1 − c1−a1 − b1
−6a1 − 2c1
+
a2 − 2b2 − c22a2 − b2 − c2−a2 − b2
−6a2 − 2c2
= f(v)1 + f(v2).
f(λv) =
λa− 2λb− λc2λa− λb− λc−λa− λb
−6λa− 2λc
= λ
a− 2b− c2a− b− c−a− b
−6a− 2c
= λf(v).
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 93
Die Werte der Matrix A berechnen wir mit Hilfe von Gleichung (4.1). Mit v1 ∈ BV undwi ∈ BW folgt:
f(v1) =
3∑i=1
ai1wi ⇔
−3−306
= a11
−1100
+ a21
−1010
+ a31
−1001
.
Durch Koeffizientenvergleich folgt ein Gleichungssystem, welches die folgende Lösung hat:
a11 = −3, a21 = 0, a31 = 6.
Ferner für v2 ∈ BV und wi ∈ BW :
f(v2) =3∑
i=1
ai2wi ⇔
−2−314
= a12
−1100
+ a22
−1010
+ a32
−1001
.
Mit Koeffizientenvergleich ergibt sich folgende Lösung:
a12 = −3, a22 = 1, a32 = 4.
Somit ist A =
a11 a12a21 a22a31 a32
=
−3 −30 16 4
die Matrix, die zur linearen Abbildung f gehört.
4.6 Basiswechsel
In diesem Abschnitt fragen wir uns, wie sich die Koordinaten eines Vektors v eines end-lichdimensionalen Vektorraums V ändern, wenn der Vektor v in verschiedenen Basen aus-gedrückt wird.
Jeder n-dimensionale Vektorraum V hat eine geordnete Basis B = {v1, . . . , vn}. Ein belie-biger Vektor v ∈ V lässt sich als Linearkombination dieser Basisvektoren ausdrücken:
v =
n∑k=1
λkvk.
Die Skalare λ1, . . . , λn sind die Koordinaten des Vektors v. Der Vektor
vB =
λ1...λn
∈ Kn
ist der Koordinatenvektor des Vektors v bezüglich der geordneten Basis B. Die lineareAbbildung
k : V −→ Kn, v 7→ k(v) = vB
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 94
ist der natürliche Isomorphismus zwischen den Vektorräumen V und Kn.
Wir leiten nun die Transformation der Koordinatenvektoren allgemein her. Seien dazuB1 = {a1, . . . , an} und B2 = {b1, . . . , bn} zwei Basen des n-dimensionalen Vektorraums V .Sei v ∈ V und seien vB1 = (λ1, . . . , λn)
T und vB2 = (µ1, . . . , µn)T die Koordinatenvektoren
des Vektors v, d.h.
n∑k=1
λkak = v =
n∑k=1
µkbk. (4.5)
Die Basisvektoren ak ∈ B1 lassen sich durch die Basisvektoren bi der Basis B2 ausdrücken.Es gilt
ak =n∑
i=1
ρikbi, k = 1, . . . , n. (4.6)
Somit ist (ak)B2= (ρ1k, . . . , ρnk) der k-te Koordinatenvektor des Basisvektors ak bezüglich
der Basis B2. Wir setzen die Vektoren ak der Gleichung (4.6) in Gleichung (4.5) ein, underhalten mit Vertauschung der Summation sequentiell die folgenden Gleichungen
n∑k=1
λkak =n∑
k=1
µkbk
n∑k=1
λk
(n∑
i=1
ρikbi
)=
n∑k=1
µkbk
n∑i=1
(n∑
k=1
ρikλk
)bi =
n∑k=1
µkbk Indizes umbenennen
n∑i=1
(n∑
k=1
ρikλk
)bi =
n∑i=1
µibi (4.7)
Die Skalare in einer Linearkombination sind eindeutig, also folgt aus Gleichung (4.7)
µi =
n∑k=1
ρikλk, i = 1, . . . , n. (4.8)
Die Gleichung (4.8) lässt sich in Matrixform schreiben:λ1...λi...λn
=
ρ11 . . . ρ1k . . . ρ1n...
......
ρi1 . . . ρik . . . ρin...
...ρn1 . . . ρnk . . . ρnn
µ1...µi...µn
bzw. vB2 = T · vB1 . (4.9)
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 95
Die Spaltenvektoren der Matrix T sind gerade die Koordinatenvektoren akB2der Basisvek-
toren ak ∈ B1 bezüglich Basis B2:
T = (a1B2, . . . , anB2
).
Man kann natürlich auch den Koordinatenvektor vB2 in den Koordinatenvektor vB1 trans-formieren. Die Vorgehensweise ist analog wie oben und führt auf eine Gleichung
vB1 = S · vB2 . (4.10)
Die Spaltenvektoren der Matrix S sind die Koordinatenvektoren bkB1der Basisvektoren
bk ∈ B2 bezüglich Basis B1:
S = (b1B1, . . . , bnB1
).
Aus den Gleichungen (4.9) und (4.10) folgt
vB2 = T · vB1 = T · S · vB2 oder vB1 = S · vB2 = S · T · vB1 .
Wir schliessen aus vB2 = T · S · vB2 , dass
0 = T · S · vB2 − vB2 = T · S · vB2 − I · vB2 = (T · S − I) · vB2
gilt. Da diese Gleichung für alle vB2 gilt, muss die zu T · S − I gehörige lineare Abbildungdie Nullabbildung sein. Dies bedeutet, dass T · S − I = 0 bzw. T · S = i ist. Analog folgtS · T = I. Die Matrizen S und T sind folgich zueinander invers:
T = S−1 oder S = T−1.
Die folgende Abbildung visualisiert die Koordinatentransformation.
Rn ∋ kB1(v) = vB1 , B1 = {a1, . . . , an}
v ∈ V
Rn ∋ kB2(v) = vB2 , B2 = {b1, . . . , bn}
kB1
kB2
T S
Dabei ist kBk: V −→ Rn der Isomorphismus zwischen V und Rn, der einem Vektor v aus
V seinen Koordinatenvektor vBkbezüglich der Basis Bk zuordnet. Aus der Abbildung liest
man unmittelbar die Koordinatentransformationen ab:
vB1 = S · vB2 oder vB2 = T · vB1 , S = T−1, T = S−1.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 96
Satz 4.13Seien B1 = {a1, . . . , an} und B2 = {b1, . . . , bn} zwei Basen eines n-dimensionalenVektorraums V . Sei v ∈ V und seien vB1 = (λ1, . . . , λn), vB2 = (µ1, . . . , µn) dieKoordinatenvektoren des Vektors v, d.h.
v =
n∑k=1
λkak resp. v =
n∑k=1
µkbk.
Transformiert man den Koordinatenvektor vB1 in den Koordinatenvektor vB2 , danngilt
vB2 = T · vB1 , T = (a1B2, . . . , anB2
), akB2=
ρ1k...
ρnk
mit ak =
n∑i=1
ρikbi.
Transformiert man den Koordinatenvektor vB2 in den Koordinatenvektor vB1 , danngilt
vB1 = S · vB2 , S = (b1B1, . . . , bnB1
), bkB1=
τ1k...
τnk
mit bk =n∑
i=1
τikai.
Die zwei Transformationsmatrizen T und S sind invers zueinander: T = S−1.
Beispiel 4.16Wir wählen in R2 zwei Basen B1 = {a1, a2} und B2 = {b1, b2} wie folgt
a1 =
(21
), a2 =
(0.51
)und b1 =
(1.50.5
), b2 =
(−0.52
).
Gegeben sei der Vektor v = (4, 3.5)T . Wir berechnen die Koordinatenvektoren von v be-züglich der Basis B1, resp. B2. Seien die Koordinatenvektoren
vB1 =
(λ1
λ2
), vB2 =
(µ1
µ2
).
Die Koordinaten λ1, λ2, resp. µ1, µ2 erhalten wir wie folgt.
v = λ1a1 + λ2a2 ⇔(
43.5
)= λ1
(21
)+ λ2
(0.51
)⇔
4 = 2λ1 + 0.5λ2
3.5 = λ1 + λ2
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 97
Die Lösungen sind λ1 = 1.5, und λ2 = 2. Somit vB1 = (1.5, 2)T . Analog für die Basis B2:
v = µ1b1 + µ2b2 ⇔(
43.5
)= µ1
(1.50.5
)+ µ2
(−0.52
)⇔
4 = 1.5µ1 − 0.5µ2
3.5 = 0.5µ1 + 2µ2
Die Lösungen sind µ1 = 3, und µ2 = 1. Somit vB2 = (3, 1)T . Die folgende Abbildung zeigtdie Basen B1, B2 und den Vektor v mit den Komponenten bezüglich dieser Basen.
a1a2
3b1 + b2 = v = 1.5a1 + 2a2
1.5a12a2
3b1
b1
b2
Der Koordinatenvektor vB1 = (1.5, 2)T des Vektors v transformiert sich bei Basiswechselalso in den Koordinatenvektor vB2 = (3, 1)T oder umgekehrt.
Beispiel 4.17Sei B1 = {e1, e2, e3} die natürliche Basis von R3 und v = (−2, 1, 3)T ein Vektor aus R3.Bezüglich dieser Basis ist der Koordinatenvektor vB1 = v, denn es gilt allgemein
v =
3∑k=1
λkek ⇔ v =
u1u2u3
= uλ1
100
+λ2
010
+λ3
001
⇒ vB1 =
λ1
uλ2
λ3
= v.
Eine neue Basis B2 = {b1, b2, b3} bestehe aus den Vektoren
b1 =
310
, b2 =
−121
, b3 =
22−3
.
Frage: Wie lautet der Koordinatenvektor vB2 des Vektors v bezüglich dieser Basis B2?
Antwort: vB2 = T · vB1
Weil die Basis B1 die natürliche Basis von R3 ist, ist es einfacher die Basisvektoren bkaus B2 bezüglich B1 auszudrücken, weil dann die Koordinatenvektoren bkB1
gleich denBasisvektoren bk sind, also:
b1B1= b1 =
310
, b2B1= b2 =
−121
, b3B1= b3 =
22−3
.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 98
Es folgt
S = (b1B1, b2B1
, b3B1) =
3 −1 21 2 20 1 −3
.
Für die Matrix T = S−1 ist
T = S−1 = − 1
25
−8 −1 −63 −9 −41 −3 7
.
Der Koordinatenvektor vB2 lautet bezüglich der Basis B2:
vB2 = T · vB1 = − 1
25
−8 −1 −63 −9 −41 −3 7
−213
=1
25
327−16
.
Dieses Resultat lässt sich überprüfen, denn mit den Koordinaten des KoordinatenvektorsvB2 folgt
v =1
25[3b1 + 27b2 − 16b3] =
1
25
3310
+ 27
−121
− 16
22−3
=
−213
.
Seien V,W und Z endlich-dimensionale Vektorräume. Gegeben seien zwei lineare Abbil-dungen f : V −→ W und g : W −→ Z mit den assozierten Matrizen Af und Ag.
Wie erhält man die assozierte Matrix Ag◦f der Komposition g ◦ f : V −→ Z?
Satz 4.14Seien V , W und Z endlich-dimensionale Vektorräume mit den Basen BV ={v1, . . . , vn}, BW = {w1, . . . , wm} und BZ = {z1, . . . , zp}. Sind f : V −→ W undg : W −→ Z lineare Abbildungen mit den assozierten Matrizen Af = (aij) undAg = (bki), dann ist g ◦f : V −→ Z eine lineare Abbildung mit der assozierten Matrix
Ag◦f = Ag ·Af .
BeweisDie zusammengesetzte Abbildung g◦f : V −→ Z ist nach Satz 4.1 eine lineare Abbildung.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 99
Sei Ag◦f = (ckj). Die Koeffizienten der assozierten Matrizen erfüllen die Gleichungen
f(vj) =m∑i=1
aijwi, j = 1, . . . , n
g(wi) =
p∑k=1
bkizk, i = 1, . . . ,m
g ◦ f(vj) =p∑
k=1
ckjzk, j = 1, . . . , n.
Wendet man g auf die erste Gleichung an. so erhält man
g ◦ f(vj) = g(f(vj)) = g( m∑i=1
aijwi
)=
m∑i=1
aijg(wi) =
m∑i=1
aij
( p∑k=1
bkizk
)=
p∑k=1
( m∑i=1
bkiaij
)zk, j = 1, . . . , n.
Es folgtp∑
k=1
ckjzk = g ◦ f(vj) =p∑
k=1
( m∑i=1
bkiaij
)zk, j = 1, . . . , n.
Weil {z1, . . . , zp} eine Basis ist, sind die Darstellungen eindeutig und es folgt
ckj =m∑i=1
bkiaij bzw. Ag◦f = Ag ·Af .□
Beispiel 4.18Sei V ein 2-dimensionaler, W ein 4-dimensionaler, und Z ein 3-dimensionaler Vektorraumüber einem Körper K mit den Basen BV = {v1, v2}, BW = {w1, w2, w3, w4} und BZ ={z1, z2, z3}. Seien f : V −→ W und g : W −→ Z lineare Abbildungen mit den assoziertenMatrizen
Af =
−2 30 21 −11 −2
, Ag =
−2 0 3 21 1 5 −2−3 0 −4 1
.
Die assozierte Matrix der Komposition g ◦ f der linearen Abbildungen f und g ist
Ag◦f = Ag ·Af =
−2 0 3 21 1 5 −2−3 0 −4 1
−2 30 21 −11 −2
=
9 −131 43 −7
.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 100
4.7 Lineare Abbildungen und Basiswechsel
Seif : V −→ W
eine lineare Abbildung von einem n-dimensionalen Vektorraum V in einen m-dimensionalenVektorraum W . Seien BV = {v1, . . . , vn} und B′
V = {v′1, . . . , v′n} zwei Basen von V undBW = {w1, . . . , wm} und B′
W = {w′1, . . . , w
′m} zwei Basen von W . Die Matrix von f
bezüglich den Basen BV und BW sei A.
Sei v ∈ V und sei w = f(v) ∈ W der Bildvektor von v unter der linearen Abbildung f .Für die entsprechenden Koordinatenvektoren gilt:
wBW= f(v)BW
= A · vBVoder kBW
(f(v)) = A · kBV(v).
Das untenstehende Diagramm visualisiert diesen Sachverhalt.
v ∈ V W ∋ w = f(v)
vBV∈Rn Rm ∋ wBW
= A · vBV
f
A
kBVkBW
Frage: Sei A′ die Matrix, die der linearen Abbildung f zugeordnet ist, wenn die lineare Ab-bildung f bezüglich den Basen B′
V und B′W ausgedrückt wird. Wie ist der Zusammenhang
zwischen den Matrizen A und A′ bei diesem Basiswechsel?
Lösung: Für die Koordinatenvektoren vB′V
und wB′W
= f(v)B′W
von v und w = f(v) gilt
wB′W
= f(v)B′W
= A′ · vB′V. (4.11)
Betrachte das Diagramm
v ∈ V W ∋ w = f(v)
vB′V∈Rn Rm ∋ wB′
W= A · vB′
V
f
A′kB′
VkB′
W
Mit dem Basiswechsel von BV nach B′V im Vektorraum V , resp. von BW nach B′
W imVektorraum W , transformieren sich die Koordinatenvektoren vBV
und wBWmit einer n×n
Transformationsmatrix T , resp. m×m Transformationsmatrix P wie folgt
vB′V= T · vBV
, wB′W
= P · wBW. (4.12)
Im Diagramm ist diese Situation wie folgt beschrieben:
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 101
vBV∈ Rn Rm ∋ wBW
v ∈ V W ∋ w
vB′V∈ Rn Rm ∋ wB′
W
A
A′
kBV
kB′V
kBW
kB′W
PT S = T−1
Aus dem Diagramm kann man ablesen, dass
wBW= A · vBV
, vBV= T−1 · vB′
V.
Somit
wB′W
= P · wBW
= P ·A · vBV
= P ·A · T−1 · vB′V
(4.13)
Vergleicht man die Gleichung (4.13) mit Gleichung (4.11), so folgt für die Matrix A′:
A′ = P ·A · T−1. (4.14)
Satz 4.15Sei f : V −→ W eine lineare Abbildung zwischen den Vektorräumen V und W .Seien BV = {v1, . . . , vn} und B′
V = {v′1, . . . , v′n} zwei Basen von V , sowie BW ={w1, . . . , wn} und B′
W = {w′1, . . . , w
′n} zwei Basen von W . Die lineare Abbildung f
lässt sich bezüglich den Basen BV und BW mit einer m×n Matrix A beschreiben. Seiv ∈ V und w = f(v). Für die Koordinatenvektoren bezüglich BV und BW gilt
wBW= A · vBV
.
Sei T die Transformationsmatrix von BV nach B′V und P die Transformationsmatrix
von BW nach B′W . Dann ist
wB′W
= B · vB′V
mitB = P ·A · T−1.
Beispiel 4.19Gegeben sei die natürliche Basis BR2 = {e1, e2} des Vektorraums R2 und die natürlicheBasis BR3 = {e1, e2, e3} des Vektorraums R3. Bezüglich diesen Basen sei eine lineare Ab-bildung f : R2 −→ R3 durch die Matrix
A =
1 −12 34 −1
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 102
gegeben. Seien B′R2 = {b1, b2} und B′
R3 = {c1, c2, c3} neue Basen des Vektorraums R2, resp.R3, mit
b1 =
(2−1
), b2 =
(−32
), und c1 =
121
, c2 =
−13−2
, c3 =
012
.
Für die Transformationsmatrix S = T−1 : R2 −→ R2 der Transformation von B′R2 nach
BR2 gilt
S = (b1BR3, b2BR3
) =
(2 −3−1 2
),
und für die Transformationsmatrix Q : R3 −→ R3 der Transformation von B′R3 nach BR3
gilt
Q = (c1BR3, c2BR3
, c3BR3) =
1 −1 02 3 11 −2 2
.
Daraus folgt
P = Q−1 =1
11
8 2 −1−3 2 −1−7 1 5
.
Die Matrix A transformiert sich bei diesem Basiswechsel von BR2 zu B′R2 im R2, resp. von
BR3 zu B′R3 im R3 in die Matrix B:
B = P ·A · S =1
11
8 2 −1−3 2 −1−7 1 5
1 −12 34 −1
( 2 −3−1 2
)=
1
11
17 −26−16 2925 −35
.
Das heisst, wird die lineare Abbildung f : R2 −→ R3 in den neuen Basen B′R2 und B′
R3
ausgedrückt, dann ist B die assozierte Matrix.
4.8 Rang einer Matrix
Der Rang einer Matrix A wurde schon im Kapitel über Matrizen eingeführt und als Anzahlder Pivotelemente von A (= die nach Anwenden des Gauss-Algorithmus auf A resultieren-de Matrix) definiert. Nach Konstruktion sind die Zeilen in A, die nicht Null sind, linearunabhängig. Die elementaren Zeilen- und Spaltenoperationen, die beim Gauss-Algorithmuszur Anwendung kommen, ändern die Anzahl der linear unabhängigen Zeilen (bzw. Spal-ten) nicht. Damit können wir den Rang einer Matrix neu definieren, ohne auf den Gauss-
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 103
Algorithmus zurückgreifen zu müssen.
Definition 4.6Sei A eine m× n Matrix. Die Anzahl der linear unabhängigen Spaltenvektoren derMatrix A heisst Spaltenrang von A. Die Anzahl der linear unabhängigen Zeilenvek-toren heisst Zeilenrang von A.Der von den Zeilenvektoren von A aufgespannte Unterraum von Kn heisst Zeilenraumvon A, die Spaltenvektoren spannen im Km den Spaltenraum von A auf.
Beispiel 4.20Wir bestimmen den Zeilen- und Spaltenrang der 3× 4 Matrix
A =
−2 4 6 81 0 −1 −21 5 4 3
.
Die Zeilenvektoren der Matrix A sind
z1 = (−2, 4, 6, 8), z2 = (1, 0,−1,−2), z3 = (1, 5, 4, 3).
Der von den Zeilenvektoren z1, z2, z3 aufgespannte Zeilenraum im R4 ist
Lin(z1, z2, z3) ={u ∈ R4 | u = u1z1 + u2z2 + u3z3, u1, u2, u3 ∈ R
}.
Weil der Zeilenraum ein Unterraum des R4 ist, ist jede Zeilenoperation zi + λzk wiederein Vektor aus dem Zeilenraum. Führen wir Zeilenoperation gemäss der Gauss-Eliminationdurch, dann erhalten wir−2 4 6 8
1 0 −1 −21 5 4 3
−→
−2 4 6 80 2 2 20 7 7 7
−→
−2 4 6 80 2 2 20 0 0 0
Wie man offensichtlich sieht, sind die Zeilenvektoren
z1 = (−2, 4, 6, 8), z′2 = (0, 2, 2, 2)
linear unabhängig, und der Zeilenraum ist immer noch derselbe, wird aber neu durch dieZeilenvektoren z1 und z′2 aufgespannt:
Lin(z1, z2, z3) = Lin(z1, z′2).
Der Zeilenrang von A ist somit zwei.
Wir bestimmen nun den Spaltenrang der Matrix A. Die Spaltenvektoren sind
s1 =
−211
, s2 =
405
, s3 =
6−14
, s4 =
8−23
.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 104
Der von den Spaltenvektoren s1, s2, s3, s4 aufgespannte Spaltenraum im R3 ist
Lin(s1, s2, s3, s4) ={v ∈ R3 | v = v1s1 + v2s2 + v3s3 + v4s4, v1, v2, v3, v4 ∈ R
}.
Der Spaltenraum ist ebenfalls ein Unterraum des R3 und Spaltenoperation si+λsk führennicht zum Spaltenraum hinaus. Gemäss Gauss-Elimination führen wir Spaltenoperationenaus. Also −2 4 6 8
1 0 −1 −21 5 4 3
−→
−2 0 0 01 2 2 21 7 7 7
−→
−2 0 0 01 2 0 01 7 0 0
.
Hier sind die Spalten s1 =
−211
und s′2 =
027
linear unabhängig, und der Spaltenraum
ist der gleiche, wird aber neu durch die Spaltenvektoren s1 und s′2 aufgespannt:
Lin(s1, s2, s3, s4) = Lin(s1, s′2).
Der Spaltenrang von A ist somit ebenfalls zwei.
Wir wollen die Rolle des Spaltenraumes einer Matrix A genauer erklären. Sei V ein n-dimensionaler Vektorraum mit der Basis BV = {a1, . . . , an} und W ein m-dimensionalerVektorraum mit der Basis BW = {b1, . . . , bm}. Die lineare Abbildung
k : V −→ Rn, k(v) = vB,
welche jedem Vektor v ∈ V seinen Koordinatenvektor vB bezüglich der Basis B zuordnet, istein Isomorphismus, unabhängig welche Basis gewählt wird. Sei f : V −→ W eine lineareAbbildung und sei A die Matrix, welche der linearen Abbildung f bezüglich den BasenBV und BW zugeordnet ist. Der Zusammenhang zwischen f , k und A wird in folgendemDiagramm wiedergegeben.
v ∈ V W ∋ w = f(v)
vBV= kBV
(v) ∈Rn Rm ∋ wBW= kBW
(w) = A · vBV
f
A
kBVkBW
Also haben wirkBW
(f(v)) = A · kBV(v).
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 105
Seien
s1 =
a11...
am1
, . . . , sn =
a1n...
amn
die Spaltenvektoren der Matrix A = (aij). Der Spaltenraum von A ist Lin(s1, . . . , sn).Ist Im(f) der Bildraum der linearen Abbildung f , dann sind Im(f) und SpaltenraumLin(s1, . . . , sn) isomorph:
Im(f) ∼= Lin(s1, . . . , sn).
Wir schränken den Isomorphismus kBW: W −→ Rm auf die Teilräume Im(f) ⊆ W und
Lin(s1, . . . , sn) ⊆ Rm ein:
kBW: Im(f) ⊆ W −→ Lin(s1, . . . , sn) ⊆ Rm, w 7→ kBW
(w) = kBW(f(v)) = A · kBV
(v).
Wir müssen beweisen, dass A · kBV(v) ∈ Lin(s1, . . . , sn) ist. Für
kBV(v) =
λ1...λn
,
gilt
A · kBV(v) =
a11 . . . a1n...
...am1 . . . amn
λ1
...λn
= λ1
a11...
am1
+ . . .+ λn
a1n...
amn
= λ1s1 + . . .+ λnsn ∈ Lin(s1, . . . , sn).
Wir schliessen daraus den folgenden Satz.
Satz 4.16Die Dimension des Bildraums Im(f) einer linearen Abbildung f ist gleich der Dimen-sion des Spaltenraums der Matrix A, die der linearen Abbildung f bezüglich BasenBV von V und BW von W zugeordnet ist:
dim(Im(f)) = dim(Lin(s1, . . . , sn)).
Der Unterraum Im(f) von W habe die Dimension r, also dim(Im(f)) = r. Nach Satz 4.8gilt
dim(V ) = dim(Ker(f)) + dim(Im(f)).
Daraus folgt dim(Ker(f)) = n− r. Sei
BKer(f) = {v′r+1, . . . , v′n}
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 106
eine Basis von Ker(f). Diese kann erweitert werden zu einer Basis
B′V = {v1, . . . , vr, v′r+1, . . . , v
′n}.
von V . Die Vektoren f(v1), . . . , f(vr) liegen alle in Im(f). Sie sind auch linear unabhängig:Sei dazu
λ1f(v1) + . . . λrf(vr) = 0.
Dann folgt0 = λ1f(v1) + . . .+ λrf(vr) = f(λ1v1 + . . .+ λrvr).
Also ist u = λ1v1 + . . .+ λrvr ∈ Ker(f). Der Vektor u lässt sich auch in der Basis BKer(f)ausdrücken:
u = λ1v1 + . . .+ λrvr = λr+1v′r+1 + . . .+ λnv
′n
oderλ1v1 + . . .+ λrvr − λr+1v
′r+1 − . . .− λnv
′n = 0.
Weil nun die Vektoren v1, . . . , vr, v′r+1, . . . , v
′n als Basis B′
V von V linear unabhängig sind,folgt
λ1 = . . . = λr = λr+1 = . . . = λn = 0.
Insbesondere λ1 = . . . = λr = 0, also sind die Vektoren f(v1), . . . , f(vr) linear unabhängigund weil dim(Im(f)) = r ist, bilden sie eine Basis
BIm(f) = {f(v1), . . . , f(vr)}.
von Im(f). Diese Basis kann zu einer Basis von W erweitert werden:
B′W = {f(v1), . . . , f(vr), wr+1, . . . , wm}.
Die Matrix A′, die der Abbildung f bezüglich den Basen B′V und B′
W zugeordnet ist, istdie Matrix
A′ = (f(v1)B′W, . . . , f(vr)B′
W, f(v′r+1)B′
W, . . . , f(v′n)B′
W).
Dabei ist
f(v1) = 1 · f(v1) + 0 · f(v2) + . . .+ 0 · f(vr) + 0 · wr+1 + . . .+ 0 · wm
f(v2) = 0 · f(v1) + 1 · f(v2) + . . .+ 0 · f(vr) + 0 · wr+1 + . . .+ 0 · wm
...f(vr) = 0 · f(v1) + 0 · f(v2) + . . .+ 1 · f(vr) + 0 · wr+1 + . . .+ 0 · wm
f(v′r+1) = 0 · f(v1) + 0 · f(v2) + . . .+ 0 · f(vr) + 0 · wr+1 + . . .+ 0 · wm
...f(v′n) = 0 · f(v1) + 0 · f(v2) + . . .+ 0 · f(vr) + 0 · wr+1 + . . .+ 0 · wm
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 107
Daraus folgt
f(v1)B′W
=
10...0
0...0
, f(v2)B′
W=
01...0
0...0
, . . . f(vr)B′
W=
00...1
0...0
,
f(v′r+1)B′W
=
00...0
0...0
, . . . f(v′n)B′
W=
00...0
0...0
.
Die Matrix A′ der linearen Abbildung f bezüglich den Basen B′V , resp. B′
W ist dann
A′ =
1 0 . . . 0 0 . . . 00 1 . . . 0 0 . . . 0... 0 . . . 0 0 . . . 00 0 . . . 1 0 . . . 0
0 0 . . . 0 0 . . . 0...
......
... . . ....
0 0 . . . 0 0 . . . 0
.
Aus der Form der Matrix A′ sehen wir, dass der Spaltenrang gleich dem Zeilenrang istund gleich r = dim(Im(f)) ist. Man kann immer eine Basis B′
V von V und eine Basis B′W
von W finden, so dass die Matrix A′ die obenstehende Gestalt hat. Der Spaltenrang derürsprünglichen Matrix A ist gleich dem Spaltenrang der neuen Matrix A′. Wir schliessendaraus den folgenden Satz.
Satz 4.17Sei A eine m × n Matrix, die der linearen Abbildung f : V −→ W bezüglich denBasen BV von V und BW von W zugeordnet ist. Der Spaltenrang der Matrix A istgleich dem Zeilenrang und ist gleich dim(Im(f)).
Weil der Zeilenrang und der Spaltenrang einer Matrix A gleich sind, spricht man nur vomRang der Matrix A.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 108
Definition 4.7Die Dimension des Zeilen- und des Spaltenraumes einer Matrix A heisst Rang von Aund wird mit rang(A) bezeichnet.
Mit dem Zeilen- oder dem Spaltenrang der Matrix A hat man sofort die Dimension desBildraums Im(f) der linearen Abbildung f : V −→ W .
Beispiel 4.21Wir bestimmen die Dimension von Ker(f) und Im(f) der linearen Abbildung f : V −→ Wmit Hilfe der zugeordneten Matrix
A =
1 −3 4 −2 5 42 −6 9 −1 8 22 −6 9 −1 9 7−1 3 −4 2 −5 −4
.
Daraus folgt unmittelbar dim(V ) = 6, dim(W ) = 4. Wir bestimmen den Zeilenrang mitHilfe der Gauss-Elimination, resp. mit Hilfe von rref:
1 −3 4 −2 5 42 −6 9 −1 8 22 −6 9 −1 9 7−1 3 −4 2 −5 −4
rref−→
1 −3 0 −14 0 −370 0 1 3 0 40 0 0 0 1 50 0 0 0 0 0
.
Aus der Stufenform der Gauss-Elimination lesen wir heraus, dass wir drei linear unabhän-gige Zeilenvektoren, resp. drei linear unabhängige Spaltenvektoren haben. Somit
rang(A) = 3, dim(Im(f)) = 3, dim(Ker(f)) = dim(V )− dim(Im(f)) = 3.
4.9 Diagonalisierung quadratischer Matrizen
In diesem Abschnitt betrachten wir lineare Abbildungen von einem n-dimensionalen Vek-torraum V in sich selbst:
f : V −→ V.
Bezüglich einer Basis B = {a1, . . . , an} lässt sich der linearen Abbildungen f eine quadra-tische n× n Matrix A zuordnen. Die Spaltenvektoren der Matrix A sind die Koordinaten-vektoren f/ak)B:
A = (f(a1)B, . . . , f(an)B).
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 109
Dabei ist
f(ak)B =
a1k...
ank
und f(ak) =
n∑i=1
aikai.
Bezüglich einer anderen Basis B′ = {b1, . . . , bn} ist der linearen Abbildungen f eine qua-dratische n× n Matrix A′ zugeordnet. Dabei gilt nach Satz 4.15
A′ = P ·A · T−1.
Wir bestimmen nun die Basis B′ so, dass die Matrix A′ möglichst einfach, d.h. diagonalwird, also
A′ =
λ1 0 . . . 00 λ2 0 . . . 0
. . ....
... λn−1 00 . . . 0 λn
⇔ A′ik =
{0 falls i = k
λk falls i = k.
Für die Matrix A′ gilt:A′ = (f(b1)B′ , . . . , f(bn)B′)
mit
f(bk)B′ =
A′1k...
A′nk
und f(bk) =
n∑i=1
A′ikbi = λkbk. (4.15)
Damit die Matrix A′ diagonal wird, mit den Diagonalwerten λk, müssen die Basisvektorenbk der Basis B′ wie folgt gewählt werden:
f(bk) = λkbk. (4.16)
Definition 4.8Sei f : V −→ V eine lineare Abbildung. Gibt es einen Skalar λ ∈ K und einen Vektorv ∈ V mit v = 0 mit der Eigenschaft f(v) = λv, so wird v ein Eigenvektor derlinearen Abbildung f zum Eigenwert λ genannt.
Sind die Basisvektoren B′ = {b1, . . . , bn} der gesuchten Basis B′ Eigenvektoren der linearenAbbildungen f , dann ist die Matrix A′ diagonal, und die Diagonalwerte sind die Eigenwerteλk der Eigenvektoren bk.
ZHAW bodr, 28. April 2014 LA1Manuskript.tex
KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 110
Wie die Eigenvektoren, resp. die Eigenwerte einer linearen Abbildungen f : V −→ Vberechnet werden, wird in einem eigenen Kapitel gezeigt.
BemerkungDas PageRank-Problem Px = x ist ein Eigenwert-Problem. Gesucht sind alle Eigenvekto-ren zum Eigenwert 1.
Beispiel 4.22Sei V = R2 und sei B = {e1, e2} die natürliche Basis. Bezüglich der natürlichen Basis Bist der Koordinatenvektor vB eines Vektors v gleich dem Vektor v, also
vB = v.
Sei f : R2 −→ R2 eine lineare Abbildung, die bezüglich der Basis B mit der Matrix
A =
(2 0−1 4
)beschrieben wird. Sei B′ = {b1, b2} mit
b1 =
(21
), b2 =
(01
)eine neue Basis von R2. Sie besteht aus Eigenvektoren. Das sieht man folgendermassen ein.Weil b1 und b2 bezüglich B ausgedrückt werden, gilt:
f(b1) = Ab1 =
(2 0−1 4
)(21
)=
(42
)= 2
(21
)= 2b1,
und
f(b2) = Ab2 =
(2 0−1 4
)(01
)=
(04
)= 4
(01
)= 4b2.
Die Eigenwerte sind 2 für b1 und 4 für b2. Es gilt
f(b1) = 2b1 + 0b2 ⇒ f(b1)B′ =
(20
)f(b2) = 0b1 + 4b2 ⇒ f(b2)B′ =
(04
).
Bezüglich der neuen Basis B′, bestehend aus Eigenvektoren b1 und b2, ist die Matrix A′,welche der linearen Abbildungen f zugeordnet ist, diagonal:
A′ = (f(b1)B′ , f(b2)B′) =
(2 00 4
).
Die Transformationsmatrizen S und T = S−1 sind
S = (b1B, b2B) =
(2 01 1
)⇒ T = S−1 = 1
2
(1 0−1 2
).
Zur Überprüfung
A′ = T ·A · S = 12
(1 0−1 2
)(2 0−1 4
)(2 01 1
)=
(2 00 4
).
ZHAW bodr, 28. April 2014 LA1Manuskript.tex