111
Lineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz.

Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

  • Upload
    others

  • View
    3

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

Lineare Algebra I

Zürcher Hochschule für Angewandte WissenschaftenRichard Bödi

Basierend auf dem Linearen Algebra Manuskript von RogerManz.

Page 2: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

Inhaltsverzeichnis

1 Matrizen 3

1.1 Körper und Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.2 Additive Eigenschaften von Matrizen . . . . . . . . . . . . . . . . . . . . . . 7

1.3 Multiplikative Eigenschaften von Matrizen . . . . . . . . . . . . . . . . . . . 8

1.4 Die transponierte Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

1.5 Spezielle Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

1.6 Stochastische Matrizen und das PageRank-Verfahren von Google . . . . . . 18

2 Lineare Gleichungssysteme 22

2.1 Darstellung linearer Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . 22

2.2 Lösen spezieller linearer Gleichungssysteme . . . . . . . . . . . . . . . . . . 24

2.3 Ein allgemeines Lösungsverfahren für lineare Gleichungssysteme - das Eli-minationsverfahren von Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . 27

2.4 Die Lösungsmenge linearer Gleichungssysteme . . . . . . . . . . . . . . . . . 30

2.5 Übungen zum Lösen von linearen Gleichungssystemen . . . . . . . . . . . . 32

2.6 Invertieren von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

2.7 Lösen eines PageRank Problems . . . . . . . . . . . . . . . . . . . . . . . . . 39

1

Page 3: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

INHALTSVERZEICHNIS 2

3 Vektorräume 42

3.1 Definition und Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

3.2 Unterräume, Durchschnitt und Summe . . . . . . . . . . . . . . . . . . . . . 45

3.3 Lineare Unabhängigkeit und lineare Hülle . . . . . . . . . . . . . . . . . . . 48

3.4 Klassifikation der Unterräume des R3 . . . . . . . . . . . . . . . . . . . . . . 51

3.5 Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

3.6 Dimension des Lösungsraumes der PageRank-Gleichung . . . . . . . . . . . 64

4 Lineare Abbildungen und Matrizen 68

4.1 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

4.2 Bild und Kern einer linearen Abbildungen . . . . . . . . . . . . . . . . . . . 73

4.3 Isomorphie von Vektorräumen . . . . . . . . . . . . . . . . . . . . . . . . . . 82

4.4 Koordinaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

4.5 Matrixdarstellungen linearer Abbildungen . . . . . . . . . . . . . . . . . . . 86

4.6 Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

4.7 Lineare Abbildungen und Basiswechsel . . . . . . . . . . . . . . . . . . . . . 100

4.8 Rang einer Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

4.9 Diagonalisierung quadratischer Matrizen . . . . . . . . . . . . . . . . . . . . 108

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 4: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

Kapitel 1

Matrizen

1.1 Körper und Matrizen

Das wichtigste Hilfsmittel zur praktischen Ausführung von Rechnungen in der Linearen Al-gebra ist die Matrix, ein rechteckiges Schema von Zahlen oder allgemeiner, von Elementeneines Körpers. Der Begriff des (Zahl-)Körpers wurde 1893 von Heinrich Weber in seinemLehrbuch der Algebra eingeführt:

3

Page 5: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 1. MATRIZEN 4

Definition 1.1Eine Menge K, die (mindestens) zwei unterschiedliche Elemente 0 und 1 enthält, undfür deren Elemente eine Addition + : K×K → K und eine Multiplikation · : K×K → Kdefiniert ist, heisst ein Körper, falls folgende Rechenregeln gelten:

• Assoziativgesetz der Addition: Für alle a, b, c ∈ K ist (a+ b) + c = a+ (b+ c).

• Kommutativgesetz der Addition: Für alle a, b ∈ K ist a+ b = b+ a.

• Neutralelement 0 der Addition: Für alle a ∈ K ist a+ 0 = a = 0 + a.

• Existenz des entgegengesetzten Elements: Für alle a ∈ K gibt es ein a′ ∈ K mita+ a′ = 0 = a′ + a. Man schreibt dann für a′ auch −a.

• Assoziativgesetz der Multiplikation: Für alle a, b, c ∈ K ist (a · b) · c = a · (b · c).

• Kommutativgesetz der Multiplikation: Für alle a, b ∈ K ist a · b = b · a.

• Neutralelement 1 der Multiplikation: Für alle a ∈ K ist a · 1 = a = 1 · a.

• Existenz des inversen Elements: Für alle a ∈ K \ {0} gibt es ein a′ ∈ K mita · a′ = 1 = a′ · a. Man schreibt dann für a′ auch a−1.

• Distributivgesetz: Für alle a, b, c ∈ K ist a · (b+ c) = a · b+ a · c.

Beispiel 1.1• Die rationalen Zahlen Q bilden einen Körper

• Die reellen Zahlen R bilden einen Körper

• Die komplexen Zahlen C bilden einen Körper, siehe Lineare Algebra II.

• Die Menge F2 = {0, 1} wird durch 1 + 1 = 0 zu einem Körper. Dieser Körperrepräsentiert die elementare Computer-Arithmetik.

Aufgabe 1Bilden die Menge der natürlichen Zahlen N = {1, 2, 3, . . . } und die Menge der ganzenZahlen Z jeweils Körper? Wie sieht es mit dem reellen Intervall [−1, 1] aus?

Die Bezeichnung Matrix wurde 1850 von James Joseph Sylvester eingeführt. Matrizenwaren allerdings schon in der Renaissance bekannt, wie das berühmte Bild Melencolia vonAlbrecht Dürer zeigt:

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 6: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 1. MATRIZEN 5

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 7: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 1. MATRIZEN 6

Definition 1.2Ein rechteckiges Schema

A = (aij) =

a11 a12 · · · a1na21 a22 · · · a2n...

......

am1 am2 · · · amn

aus m Zeilen und n Spalten mit Elementen aij aus einem Körper K heisst eine m×n-Matrix über K. Die Elemente Aij := aij heissen Einträge oder Komponenten derMatrix A. Die senkrecht untereinanderstehenden Komponenten heissen Spalten, diewaagrecht nebeneinanderstehenden Komponenten heissen Zeilen der Matrix. Bei denKomponenten aij heisst i der Zeilenindex und j der Spaltenindex. Für m = n heissteine Matrix quadratisch und die Komponenten aii heissen Diagonaleinträge.

Beispiel 1.2Die 2× 4-Matrix A =

(1 0 0 20 2 −4 12

)

Beispiel 1.3Die 4× 2-Matrix A =

1 00 20 −42 12

Beispiel 1.4Die quadratische 3× 3-Matrix A =

1 0 10 1 12 1 π

Aufgabe 2Welche Körper wurden für die Einträge der oben genannten Beispiele verwendet? Sind dieKörper eindeutig? Wie hängen die ersten beiden Beispiele miteinander zusammen?

Aufgabe 3Notiere eine 3× 5 Matrix A mit Aij = i+ j.

Definition 1.3Zwei Matrizen A = (aij) und B = (bij) sind gleich, in Symbolen A = B, wenn beidedie gleiche Anzahl von Zeilen und die gleiche Anzahl von Spalten haben und aij = bijfür alle Komponenten gilt.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 8: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 1. MATRIZEN 7

1.2 Additive Eigenschaften von Matrizen

Die Addition eines Körpers kann dazu verwendet werden, eine Addition auf Matrizen mitgleicher Anzahl von Zeilen und gleicher Anzahl von Spalten zu definieren.

Definition 1.4Für zwei m×n-Matrizen A = (aij) und B = (bij) ist die Summe bzw. die Differenz C =(cij) = A±B definiert durch cij = aij ± bij , d.h. Matrizen werden komponentenweiseaddiert bzw. subtrahiert.

BemerkungMatrizen mit unterschiedlicher Anzahl von Spalten oder Zeilen können nicht addiert wer-den.

Beispiel 1.5Für die Matrizen A =

(1 0 10 2 3.2

)und B =

(0 1 12 1 π

)ist A+B =

(1 1 22 3 3.2 + π

)

Die m× n-Matrix

O =

0 0 · · · 00 0 · · · 0...

......

0 0 · · · 0

heisst Nullmatrix. Sie ist das neutrale Element bezüglich der Matrizen-Addition, d.h. esgilt für alle m× n-Matrizen A:

A+O = A = O +A

Für die m× n-Matrix

A =

a11 a12 · · · a1na21 a22 · · · a2n...

......

am1 am2 · · · amn

heisst die Matrix

−A =

−a11 −a12 · · · −a1n−a21 −a22 · · · −a2n

......

...−am1 −am2 · · · −amn

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 9: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 1. MATRIZEN 8

die zu A entgegengesetzte Matrix. Es gilt

A+ (−A) = O = (−A) +A,

d.h. −A ist tatsächlich das zu A entgegengesetzte Element bzgl. der Matrizen-Addition.

Das Assoziativ- und Kommutativgesetz in Körpern überträgt sich komponentenweise aufdie Matrizen-Addition:

Satz 1.1Seien A,B,C drei m× n-Matrizen. Dann gelten die folgenden Rechenregeln:

1. Assoziativgesetz: A+ (B + C) = (A+B) + C

2. Kommutativgesetz: A+B = B +A

3. Neutrales Element bzgl. der Addition: A+O = A = O +A

4. Entgegengesetztes Element: A+ (−A) = O = (−A) +A

1.3 Multiplikative Eigenschaften von Matrizen

Bevor die Multiplikation zweier Matrizen erklärt wird, wird die sogenannte Skalarmultipli-kation definiert.

Definition 1.5Für eine m×n-Matrix A = (aij) mit Komponenten aij aus einem Körper K und einerZahl λ ∈ K ist die Skalarmultiplikation λ ·A definiert als

λ ·A = λ ·

a11 a12 · · · a1na21 a22 · · · a2n...

......

am1 am2 · · · amn

=

λa11 λa12 · · · λa1nλa21 λa22 · · · λa2n

......

...λam1 λam2 · · · λamn

Beispiel 1.6Für die Matrix A =

(1 0 10 2 3.2

)und λ = 5 ∈ K ist λ·A = 5·

(1 0 10 2 3.2

)=

(5 0 50 10 16

)

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 10: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 1. MATRIZEN 9

Ähnlich wie bei der Matrizen-Addition übertragen sich die Eigenschaften des Körpers aufdie Skalarmultiplikation, weil diese komponentenweise definiert ist:

Satz 1.2Seien A,B zwei m× n-Matrizen über einem Körper K und λ, µ ∈ K. Dann gelten diefolgenden Rechenregeln:

1. Assoziativgesetz: (λµ)A = λ(µA)

2. Kommutativgesetz: λ(µA) = µ(λA)

3. Neutrales Element bzgl. der Skalarmultiplikation: 1 ·A = A

4. Erstes Distributivgesetz: (λ+ µ)A = λA+ µA

5. Zweites Distributivgesetz: λ(A+B) = λA+ λB

Analog zur Addition von Matrizen könnte man auf die Idee kommen, die Multiplikationvon Matrizen ebenfalls komponentenweise zu definieren. In MATLAB zum Beispiel istdiese Multiplikation auch via A . ∗B implementiert. Die „richtige” Matrizenmultiplikationist jedoch anders definiert (in MATLAB durch A∗B gekennzeichnet), um später Matrizenzur Darstellung linearer Abbildungen (siehe Lineare Algebra II) verwenden zu können.

Definition 1.6Für eine k × m-Matrix A = (aij) und eine m × n-Matrix B = (bij) ist das ProduktC = (cij) = A ·B definiert durch

cij =m∑s=1

aisbsj .

BemerkungAls Merkregel kann die Matrizenmultiplikation auf folgende Weise veranschaulicht werden:

a11 · · · · · · a1m...

......

ai1 · · · ais · · · aim

......

...ak1 · · · · · · akm

b11 · · · b1j · · · b1n

......

...

· · · bsj · · ·

......

...

bm1 · · · bmj · · · bmn

=

c11 · · · c1j · · · c1n...

......

ci1 · · · cij · · · cin

......

...cm1 · · · cmj · · · cmn

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 11: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 1. MATRIZEN 10

Die grau unterlegten Komponenten der ersten Matrix werden mit ihren entsprechenden(ebenfalls grau unterlegten) Komponenten der zweiten Matrix multipliziert und diese Pro-dukte werden dann in cij alle aufsummiert.

Beispiel 1.7Für die Matrizen A =

1 20 3−1 1

und B =

(2 0 −1−1 4 3

)ist

A ·B =

1 · 2 + 2 · (−1) 1 · 0 + 2 · 4 1 · (−1) + 2 · 30 · 2 + 3 · (−1) 0 · 0 + 3 · 4 0 · (−1) + 3 · 3−1 · 2 + 1 · (−1) −1 · 0 + 1 · 4 −1 · (−1) + 1 · 3

=

0 8 5−3 12 9−3 4 4

Aufgabe 4Berechne das Matrizenprodukt von A =

(1 2 3 4−1 0 1 0

)und B =

0 1 0−1 1 01 1 10 0 0

Aufgabe 5Berechne das Matrizenprodukt von A =

(−1 0 1 0 −1

)und B =

540−6−5

Aufgabe 6Berechne das Matrizenprodukt von A =

−1 0 00 0 −10 1 0

mit sich selbst.

BemerkungDie Matrizenmultiplikation ist im allgemeinen nicht kommutativ, d.h. es kann

A ·B = B ·A

gelten. Das Produkt einer nichtquadratischen k × m-Matrix A und einer m × n-MatrixB ist nur für A · B definiert. Das Produkt B · A ist dagegen nicht definiert! Selbst fürquadratische Matrizen kann die Matrizenmultiplikation nicht kommutativ sein:(

1 10 1

)·(1 23 4

)=

(4 63 4

)=(1 33 7

)=

(1 23 4

)·(1 10 1

)

Die n× n-Matrix

D = diag(d11, . . . , dnn) =

d11 0 · · · 00 d22 · · · 0...

......

0 0 · · · dnn

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 12: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 1. MATRIZEN 11

heisst Diagonalmatrix. Eine spezielle Diagonalmatrix ist die Einheitsmatrix

In =

1 0 · · · 00 1 · · · 0...

......

0 0 · · · 1

Diese Matrix ist das neutrale Element bezüglich der Matrizen-Muiplikation, d.h. es gilt füralle m× n-Matrizen A:

A · In = A = Im ·A

Aufgabe 7Zeige, dass für zwei n × n-Diagonalmatrizen A und B das Produkt A · B wieder eineDiagonalmatrix ist und A ·B = B ·A gilt.

Satz 1.3Seien A,A1, A2 drei m× n-Matrizen, B,B1, B2 drei n× p-Matrizen und C eine p× q-Matrix über einem Körper K. Sei λ ∈ K. Für die Matrixmultiplikation gelten diefolgenden Rechenregeln:

1. Assoziativgesetz: A · (B · C) = (A ·B) · C

2. Skalares Assoziativgesetz: λ(A ·B) = (λA) ·B = A · (λB)

3. Neutrales Element bzgl. der Matrixmultiplikation: A · In = A = Im ·A

4. Erstes Distributivgesetz: (A1 +A2) ·B = A1 ·B +A2 ·B

5. Zweites Distributivgesetz: A · (B1 +B2) = A ·B1 +A ·B2

Die Frage nach der Existenz von inversen Elementen bzgl. der Multiplikation erweist sichals deutlich schwieriger als bei den entgegengesetzten Elementen der Addition.

Definition 1.7Gibt es zu einer quadratischen n× n-Matrix A eine n× n Matrix X mit

A ·X = In = X ·A,

so heisst X die zu A inverse Matrix. Sie wird mit X = A−1 bezeichnet. Die MatrixA heisst eine reguläre Matrix.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 13: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 1. MATRIZEN 12

Beispiel 1.8Die Matrizen A =

(3 45 7

)und B =

(7 −4−5 3

)sind zueinander invers, denn es gilt

A ·B =

(3 45 7

)·(

7 −4−5 3

)= I2

und

B ·A =

(7 −4−5 3

)·(3 45 7

)= I2.

Aufgabe 8Besitzt die Matrix A =

(0 11 0

)eine Inverse? Wenn ja, wie sieht diese aus?

Satz 1.4Sei A eine reguläre quadratischer Matrix und B,C zu A inverse Matrizen. Dann istB = C, d.h. die Inverse einer Matrix ist eindeutig.

BeweisEs gilt: B = In ·B = (C ·A) ·B = C · (A ·B) = C · In = C. □

Nicht alle Matrizen besitzen eine inverse Matrix, z.B. ist dies bei der Matrix

A =

(1 22 4

)der Fall. Angenommen es wäre A · B = I2 für eine Matrix B = (bij), so müssten nachDefinition der Gleichheit zweier Matrizen die folgenden vier Gleichungen gelten:

1b11 + 2b21 = 1

1b21 + 2b22 = 0

2b11 + 4b21 = 0

2b21 + 4b22 = 1

Multipliziert man die erste Gleichung mit 2, so erhält man 2b11+4b21 = 2, was der drittenGleichung widerspricht. Somit hat das obige Gleichungssystem keine Lösung und es kann

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 14: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 1. MATRIZEN 13

keine zu A inverse Matrix existieren.

Satz 1.5Besitzt A eine inverse Matrix A−1, so ist A die inverse Matrix von A−1, d.h. es ist

(A−1)−1 = A.

Ist B eine reguläre Matrix, so dass A ·B definiert ist, so gilt

(A ·B)−1 = B−1 ·A−1.

BeweisDie erste Aussage gilt aufgrund der Eindeutigkeit der inversen Matrix. Die zweite Aussagefolgt aus

(B−1 ·A−1) · (A ·B) = B−1 · ((A−1) · (A ·B))

= B−1 · ((A−1) ·A) ·B)

= B−1(In ·B) = B−1 ·B= In

und ebenso (A ·B) · (B−1 ·A−1) = In. □

Aufgabe 9Eine Diagonalmatrix D = diag(λ1, . . . , λn) besitzt genau dann eine Inverse, wenn alleλi = 0 sind? In diesem Fall ist D−1 = diag(λ−1

1 , . . . , λ−1n ).

Im Kapitel über lineare Gleichungssystem werden wir eine effektive Methode (Gauss-Algo-rithmus) kennenlernen, um die Inverse einer regulären Matrix zu bestimmen.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 15: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 1. MATRIZEN 14

1.4 Die transponierte Matrix

Eine weitere nützliche Operation auf Matrizen ist das Transponieren.

Definition 1.8Sei A = (aij) eine m × n-Matrix. Die zu A transponierte Matrix AT erhält manaus A, indem man die i-te Spalte von A zur i-ten Zeile von AT macht, d.h. es istAT = (aji).

Für A =

a11 · · · a1j · · · a1n

......

...

· · · asj · · ·

......

...

am1 · · · amj · · · amn

ist AT =

a11 · · · · · · am1...

......

a1j · · · asj · · · amj

......

...a1n · · · · · · amn

Aufgabe 10Bestimme die transponierten Matrizen von A =

(1 2 3 4−1 0 1 0

), B =

0 1 0−1 1 01 1 1

und

C =(1 3 −1

)Für die transponierte Matrix gelten die folgenden Rechenregeln:

Satz 1.6Seien A,B zwei m × n-Matrizen und C eine n × p-Matrix über einem Körper K undsei λ ∈ K. Dann gilt:

1. Additivität: (A+B)T = AT +BT

2. Idempotenz: (AT )T = A

3. Invarianz unter Skalarmultiplikation: (λA)T = λAT

4. Antikommutativität: (A · C)T = CT ·AT

5. Ist A eine reguläre Matrix, so ist (AT )−1 = (A−1)T

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 16: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 1. MATRIZEN 15

Beweis1) Es ist

((A+B)T )ij = (A+B)ji = Aji +Bji = (AT )ij + (BT )ij = (AT +BT )ij ,

also (A+B)T = AT +BT .

2) Wegen ((AT )T )ij = (AT )ji = Aij folgt (AT )T = A.

3) Die Invarianz unter Skalarmultiplikation folgt aus ((λA)T )ij = (λA)ji = λAji = λ(AT )ij .

4) Es gilt

((A · C)T )ij = (A · C)ji =n∑

k=1

Ajk · Cki =n∑

k=1

(AT )kj · (CT )ik

=

n∑k=1

(CT )ik · (AT )kj = (CT ·AT )ij ,

woraus nach Definition der Gleichheit von Matrizen (A · C)T = CT ·AT folgt.

5) Aus(A−1)T ·AT = (A ·A−1)T = ITn = In

folgt, dass (A−1)T die zu AT inverse Matrix ist, mit anderen Worten:

(AT )−1 = (A−1)T .

1.5 Spezielle Matrizen

Definition 1.9Eine Matrix, die oberhalb der Diagonalen nur Nullen enthalt, heisst untere Drei-ecksmatrix. Sind alle Elemente unter der Diagonalen null, so heisst sie obere Drei-ecksmatrix.

Beispiel 1.9Die Matrizen

1 2 10 2 3.20 0 −5

,

1 2 10 2 3.20 0 0

,

1 2 1 30 2 3.2 00 0 −5 2

,

1 2 10 2 3.20 0 10 0 0

, und

0 0 00 0 00 0 0

sind obere Dreicksmatrizen.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 17: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 1. MATRIZEN 16

Definition 1.10Eine quadratische n× n-Matrix A heisst symmetrisch, wenn AT = A gilt.

Beispiel 1.10Die Matrix

1 2 1 22 0 −4 π1 −4 3 02 π 0 9

ist symmetrisch.

Um symmetrische Matrizen zu generieren ist das folgende Resultat nützlich:

Satz 1.7Seien A eine m×n-Matrizen. Dann sind die Matrizen AT ·A und A ·AT symmetrischeMatrizen.

BeweisEs ist (AT ·A)T = AT · (AT )T = AT ·A, d.h. die Matrix AT ·A ist symmetrisch. Der Beweisfür A ·AT geht auf die gleiche Weise. □

Beispiel 1.11Für die Matrix

A =

(1 2 34 5 6

)ist

AT ·A =

1 42 53 6

·(1 2 34 5 6

)=

17 22 2722 29 3627 36 45

eine symmetrische Matrix.

Definition 1.11Eine quadratische n× n-Matrix A heisst orthogonal, wenn AT = A−1 gilt.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 18: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 1. MATRIZEN 17

Beispiel 1.12Die Matrix 1

2

√2 −1

2

√2 0

12

√2 1

2

√2 0

0 0 −1

ist orthogonal.

Aufgabe 11Zeige, dass die Matrix A =

(0 11 0

)sowohl symmetrisch als auch orthogonal ist.

Definition 1.12Sei λ ∈ K mit λ = 0. Die quadratischen n× n-Matrizen

Ei,λn =

1

. . .λ

. . .1

,

wobei der Eintrag λ in der iten Zeile (und iten Spalte) steht,

Eij,λn =

1. . .

1 λ. . .

1. . .

1

,

wobei der Eintrag λ ∈ K in der iten Zeile und jten Spalte der Matrix Eλij steht, und

Eijn =

1. . .

0 1. . .

1 0. . .

1

,

wobei die Einsen ausserhalb der Diagonalen in den Positionen ij und ji stehen, heissenElementarmatrizen.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 19: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 1. MATRIZEN 18

Satz 1.8Alle Elementarmatrizen sind invertierbar und es ist

1. (Ei,λn )−1 = Ei,λ−1

n

2. (Eij,λn )−1 = Eij,−λ

n

3. (Eijn )−1 = Eij

n

Beweis1) Das wurde schon am Ende vom Kapitel über die multiplikativen Eigenschaften vonMatrizen bewiesen.

2) Die Komponenten in der Diagonale des Produktes P = (Eij,λn )−1 · Eij,−λ

n sind alle 1.Der einzige Eintrag von P , der nicht von vornherein 0 ist, ist der Eintrag an der Stelle ij.Dieser Eintrag ist aber 1 · (−λ) + λ · 1 = 0. Also ist P = In und damit (Eij,λ

n )−1 = Eij,−λn .

3) Die Matrix Eijn ist orthogonal und symmetrisch, d.h. es ist

(Eijn )−1 = (Eij

n )T = Eijn .

Aufgabe 12Sei A eine m×n-Matrix. Beschreibe in Worten, wie die Matrizenprodukte A ·Ei,λ

n , Ei,λm ·A,

A · Eij,λn , Eij,λ

m ·A, und A · Eijn , Eij

m ·A sich von der Originalmatrix A unterscheiden.

1.6 Stochastische Matrizen und das PageRank-Verfahren vonGoogle

Literatur: 1) S. Brin, L. Page, The anatomy of a large-scale hypertextual web search en-gine, http://infolab.stanford.edu.edu/ backrub/google.html, 2) Kurt Bryan, Tanya Leise,The $25,000,000,000 Eigenvector. The Linear Algebra behind Google., http://www.rose-hulman.edu// bryan/googleFinalVersionFixed.pdf

Wie funktioniert die Suchmaschine Google?

Die meisten Suchmaschinen funktionieren nach dem folgenden Prinzip:

1. Ein sogenannter Web-Crawler durchforstet stetig das Internet nach frei zugänglichenSeiten und speichert eine Kopie dieser Seite

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 20: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 1. MATRIZEN 19

2. Der Inhalt der vom Web-Crawler gefundenen Seiten wird zwecks schnellem Zugriffauf Schlüsselwörter indiziert

3. Für jede gefundene Seite wird eine Wichtigkeit berechnet, nach deren das Suchergeb-nis sortiert wird.

Der letzte Schritt ist der spannendste. Die Wichtigkeit einer Internet-Seite wird bei Googlenach dem sogenannten PageRank-Verfahren berechnet. Dieses Verfahren lässt sich komplettmit Linearer Algebra beschreiben! In diesem Abschnitt wird der Anfang des Verfahrensbeschrieben. Spätere Kapitel greifen dann den PageRank-Algorithmus wieder auf, wennmehr Theorie zur Verfügung steht.

Was bedeutet die Wichtigkeit einer Webpage? Die Grundidee ist die, dass eine Webpagep1 umso wichtiger ist, je mehr andere Webpages p2, . . . , pk auf sie verweisen. Selbstverwei-se werden dabei nicht gezählt. Dabei muss die Wichtigkeit der Webpages p2, . . . , pk miteinberechnet werden. Das heisst, eine Webpage, auf die viele Webpages mit eigener hoherWichtigkeit verweisen, ist selbst wichtig.

Sei also P := {p1, . . . , pn} die Menge aller (gefundenen) Webpages und sei xk ∈ R dieWichtigkeit der Webpage pk. Es bezeichne Lk die Menge aller Webpages, die auf pk ver-weisen. Die Zahl nk repräsentiere die Anzahl aller von Webpage pk ausgehenden Links.Dann definieren wir die Wichtigkeit xk der Webpage pk als

xk =∑

pj∈Lk

xjnj

.

Definieren wir nun die PageRank-Matrix P = (pij) via

pij =

{1nj, falls Webpage pj einen Link auf Webpage pi hat

0, sonst,

und schreiben

X =

x1x2...xn

so können wir das PageRank-Problem als folgende Matrix-Gleichung schreiben:

P ·X = X

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 21: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 1. MATRIZEN 20

Beispiel 1.13Die PageRank-Matrix P für die Website

ist die Matrix

P =

0 0 0 0 0 0 1/3 01/2 0 1/2 1/3 0 0 0 01/2 0 0 0 0 0 0 00 1 0 0 0 0 0 00 0 1/2 1/3 0 0 1/3 00 0 0 1/3 1/3 0 0 1/20 0 0 0 1/3 0 0 1/20 0 0 0 1/3 1 1/3 0

Wie lässt sich nun das PageRanking X = (xi) berechnen? Gibt es überhaupt immer eineLösung?

Tatsächlich gibt es immer eine Lösung der Gleichung PX = X. Dies liegt an der speziellenForm der PageRank-Matrix P .

Definition 1.13Eine quadratische n×n-Matrix A = (aij) mit nicht-negativen reellen Komponenten aijheisst spaltenstochastisch, wenn die Summe aller Komponenten einer Spalte stets 1ergibt, d.h.

n∑i=1

aij = 1

für alle j = 1, . . . , n gilt. Entsprechend wird eine zeilenstochastische Matrix defi-niert.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 22: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 1. MATRIZEN 21

Aufgabe 13Begründe, warum die PageRank-Matrix für zusammenhängende Web-Sites spaltenstochas-tisch ist.

Der folgende Satz zeigt, das für spaltenstochastische Matrizen P die Gleichung P ·X = Xlösbar ist.

Satz 1.9Für jede spaltenstochastische Matrix P gibt es stets eine n × 1-Matrix X = 0 mitP ·X = X.

BeweisWird im Kapitel über Eigenwerte (Lineare Algebra II) nachgeholt. □

In späteren Kapiteln wird untersucht werden, wie sich der PageRank effektiv berechnenlässt, wie es mit der Eindeutigkeit der Lösung X aussieht und wie sich der PageRank beiunverbundenen Teilnetzen (von denen es im Internet eine grosse Anzahl gibt) verhält. Inden Übungen wird die Frage diskutiert, wie man eine Website konstruiert, so dass maneine möglichst hohe PageRank-Wertung bekommt.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 23: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

Kapitel 2

Lineare Gleichungssysteme

2.1 Darstellung linearer Gleichungssysteme

Definition 2.1Eine Menge von m linearen Gleichungen in n Unbekannten x1, . . . , xn der Form

a11x1 + a12x2 + · · · + a1nxn = c1a21x1 + a22x2 + · · · + a2nxn = c2

......

......

am1x1 + am2x2 + · · · + amnxn = cm

wobei aij und ci einem Körper K angehören, heisst ein lineares Gleichungssystemüber dem Körper K in den n Unbekannten x1, . . . , xn.

Um ein lineares Gleichungssystem kompakter zu schreiben, verwendet man Matrizen. Da-mit wird das obige System durch

A · x = c,

ausgedrückt, wobei

A =

a11 a12 · · · a1na21 a22 · · · a2n...

......

am1 am2 · · · amn

, x =

x1x2...xn

und c =

c1c2...cm

ist. Matrizen mit einer einzigen Spalte bzw. Zeile werden auch Spaltenvektor bzw. Zei-

22

Page 24: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 23

lenvektor genannt und werden üblicherweise mit kleinen Buchstaben bezeichnet.

Definition 2.2Ein lineares Gleichungssystem Ax = c heisst homogen, falls c = 0 ist. Für c = 0heisst das System inhomogen.

Beispiel 2.1Das lineare Gleichungssystem 1 2 0 3

−4 0 0 20 −2 1 3

x1x2x3x4

=

000

ist homogen.

Beispiel 2.2Das lineare Gleichungssystem 1 2 0 3

−4 0 0 20 −2 1 3

x1x2x3x4

=

150

ist inhomogen.

Definition 2.3Ein Vektor b = (bi) über einem Körper K heisst Lösung des linearen Gleichungs-systems Ax = c über K, wenn Ab = c ist.

Satz 2.1Ein homogenes lineares Gleichungssystem Ax = 0 hat immer den Nullvektor x = 0 alsLösung, d.h. es ist A · 0 = 0.

BeweisNach Definition der Matrizenmultiplikation ist A · 0 = 0. □

Aufgabe 14Inhomogene lineare Gleichungssysteme müssen nicht unbedingt eine Lösung besitzen. Zei-ge, dass (

1 22 4

)(x1x2

)=

(01

)ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 25: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 24

keine Lösung hat.

2.2 Lösen spezieller linearer Gleichungssysteme

Wie lassen sich lineare Gleichungssysteme allgemein lösen?

Bevor diese Frage beantwortet wird, betrachten wir spezielle lineare Gleichungssysteme,die sich einfach lösen lassen.

Im ganzen Kapitel betrachten wir das lineare Gleichungssystem Ax = c in n Unbekannten.

Satz 2.2Ist A eine reguläre quadratische n× n-Matrix, so ist

b = A−1c

eine Lösung des linearen Gleichungssystems Ax = c.

BeweisEs ist A(A−1c) = (AA−1)c = Inc = c, also ist b = A−1c eine Lösung von Ax = c. □

Satz 2.3Ist A eine Matrix, für die alle Komponenten ausserhalb der Diagonalen Null sind, soexistiert genau dann (mindestens) eine Lösung von Ax = c, wenn aus aii = 0 stetsci = 0 für alle i = 1, . . . ,min{m,n} folgt. In diesem Fall ist durch

bi =

{ci · a−1

ii , falls aii = 0 und i ≤ min{m,n}0, sonst

eine Lösung b = (bi) gegeben. Ist aii = 0 für alle i = 1, . . . ,min{m,n}, so ist die obenangegebene Lösung b die einzige Lösung.

BeweisDie ite Zeile des Gleichungssystem lautet aiixi = ci, da alle Komponenten von A ausserhalbder Diagonalen Null sind. Für aii = 0 erfüllt nur bi = cia

−1ii diese Gleichung. Ist aii = 0,

so ist nach Voraussetzung auch ci = 0, und die Gleichung aiixi = ci ist immer erfüllt. Indiesem Fall kann für xi ein beliebiges Körperelement hergenommen werden, insbesonderedas Element 0. □

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 26: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 25

Aufgabe 15Löse das lineare Gleichungssystem

3 0 0 00 0 0 00 0 2 00 0 0 10 0 0 0

x1x2x3x4

=

50040

Wieviele Lösungen hat dieses System?

Aufgabe 16Ist das lineare Gleichungssystem

3 0 0 00 0 0 00 0 2 00 0 0 10 0 0 0

x1x2x3x4

=

50041

lösbar?

Satz 2.4Sei A eine obere Dreiecksmatrix, deren sämtliche Diagonaleinträge nicht Null sind.Existiert eine Lösung von Ax = c, so lässt sich eine Lösung sukzessive berechnendurch das Lösen der Gleichungen in der Reihenfolge von unten nach oben:

a11x1 + a12x2 + · · · + a1nxn = c1a22x2 + · · · + a2nxn = c2

......

· · · + amnxn = cm

BeweisSei p = min{m,n}. Da A eine obere Dreiecksmatrix ist, sind für k > p alle Komponentenakj = 0. Da Ax = c nach Voraussetzung eine Lösung hat, muss für k > p auch ck = 0gelten, d.h. die letzten m − p Zeilen sind komplett Null und man kann diese als nichtvorhanden annehmen. Dies bedeutet, dass wir p = m, also m ≤ n, annehmen können.Damit sieht das Gleichungssystem wie folgt aus:

a11x1 + a12x2 + · · · + a1mxm + · · · + a1nxn = c1a22x2 + · · · + a2mxm + · · · + a2nxn = c2

......

ammxm + · · · + amnxn = cm

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 27: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 26

Die unterste Gleichung ammxm + · · · + amnxn = cm lässt sich nach Voraussetzung inden Unbekannten xm, . . . , xn lösen, andernfalls hätte das gesamte Gleichungssystem keineLösung. Sei bm, . . . , bn ∈ K eine solche Lösung. Die zweitunterste Gleichung

am−1,m−1xm + am−1,mbm + · · ·+ am−1,nbn = cm−1

lässt sich durch

bm−1 := a−1m−1,m−1(cm−1 − am−1,mbm − · · · − am−1,nbn)

lösen, denn a−1m−1,m−1 = 0. Die bisherige ”Lösung” bm − 1, bm, . . . , bn lässt sich jetzt in die

drittletzte Gleichung auf die gleiche Art und Weise einsetzen und man erhält eine wei-tere Lösungskomponente bm−2. So fortfahrend kann das gesamte Gleichungssystem gelöstwerden. □

Aufgabe 17Löse das lineare Gleichungssystem über R

3 5 −1 00 1 5 00 0 2 90 0 0 10 0 0 0

x1x2x3x4

=

51240

Wieviele Lösungen hat dieses System?

Aufgabe 18Löse das lineare Gleichungssystem über R

3 5 −1 00 1 5 00 0 2 9

x1x2x3x4

=

516

Wieviele Lösungen hat dieses System?

Aufgabe 19Löse das lineare Gleichungssystem über dem Körper mit zwei Elementen F2 = {0, 1}

1 0 1 00 1 1 10 0 1 10 0 0 0

x1x2x3x4

=

1110

Wieviele Lösungen hat dieses System?

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 28: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 27

2.3 Ein allgemeines Lösungsverfahren für lineare Gleichungs-systeme - das Eliminationsverfahren von Gauss

Definition 2.4Für eine m× n-Matrix A und eine m× k-Matrix B heisst die Matrix

(A,B) =

a11 a12 · · · a1n b11 b12 · · · b1ka21 a22 · · · a2n b21 b22 · · · b2k...

......

......

...am1 am2 · · · amn bm1 bm2 · · · bmk

die von A um B erweiterte Matrix.

Das Eliminationsverfahren von Gauss zum Lösen linearer Gleichungssysteme Ax = c be-ruht auf einfachen Operationen auf den Spalten von A und den Zeilen der um c erweitertenMatrix A. Eine wichtige Rolle werden deshalb die Elementarmatrizen spielen. Wir rekapi-tulieren die Eigenschaften dieser Matrizen:

Sei A eine m× n-Matrix und λ ∈ K, λ = 0.

1. Das Produkt Ei,λm · A entsteht aus der Matrix A durch Skalarmultiplikation der

iten Zeile mit λ. Das Produkt A · Ei,λn entsteht aus der Matrix A durch Skalar-

multiplikation der iten Spalte mit λ.

2. Das Produkt Eijm ·A entsteht aus der Matrix A durch Vertauschen der iten und

jten Zeile. Das Produkt A · Eijn entsteht aus der Matrix A durch Vertauschen

der iten und jten Spalte.

3. Das Produkt Eij,−λm · A entsteht aus der Matrix A, indem zur iten Zeile von A

das λ-fache der jten Zeile addiert wird. Das Produkt A ·Eij,−λn entsteht aus der

Matrix A, indem zur iten Spalte von A das λ-fache der jten Spalte addiert wird.

Die im oberen Rahmen beschriebenen Operation auf einer Matrix A heissen elementareZeilen- und Spaltenoperationen.

Satz 2.5Sei Ax = c ein lineares Gleichungssystem. Wendet man auf die erweiterte Matrix (A, c)eine beliebige elementare Zeilenoperation an, so besitzt das neue lineare Gleichungs-system Ax = c die gleiche Lösungsmenge wie Ax = c.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 29: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 28

BeweisSei b = (b1, . . . , bn)

T eine Lösung von Ax = c, d.h. es ist Ab = c. Sei E eine Elementarmatrixund sei Ax = c das durch Anwenden von E auf (A, c) entstandene Gleichungssystem. Dannist

Ab = (E ·A)b = E · (Ab) = Ec = c,

d.h. b ist auch eine Lösung von Ax = c. Nehmen wir umgekehrt an, dass Ab = c gilt, sofolgt

Ab = E−1E(Ab) = E−1(EAb) = E−1(Ab) = E−1c = E−1(Ec) = c,

d.h. b ist eine Lösung von Ax = c. □

Beim Vertauschen von Spalten muss man etwas vorsichtiger sein, weil man dort auch dieUnbekannten x1, . . . , xn mitvertauschen muss.

Satz 2.6Sei Ax = c ein lineares Gleichungssystem. Vertauscht man zwei Spalten i und j in derMatrix A und vertauscht gleichzeitig die Unbekannten xi und xj , d.h. A wird durchA = AEij

n und x durch x = Eijn x, so besitzt das lineare Gleichungssystem Ax = c die

gleiche Lösungsmenge wie Ax = c.

BeweisSei b = (b1, . . . , bn)

T eine Lösung von Ax = c, d.h. es ist Ab = c. Sei E = Eijn die

Elementarmatrix, die die Spalten i und j vertauscht. Dann ist wegen E = E−1

Ab = (AE)(Eb) = A(EE)b = Ab = c,

d.h. b ist auch eine Lösung von Ax = c. Nehmen wir umgekehrt an, dass Ab = c gilt, sofolgt

Ab = A(EE)b = (AE)(Eb) = Ab = c,

d.h. b ist eine Lösung von Ax = c. □

Nun haben wir alle Hilfsmittel, um das Gauss-Verfahren zum Lösen von linearen Glei-chungssystemen angeben zu können.

Der Eliminations-Algorithmus von Gauss

Das nach Gauss benannte Verfahren zur Lösung eines linearen Gleichungssystems benutztZeilenoperationen um das ursprüngliche lineare Gleichungssystem auf Dreiecksform zubringen, weil dann die Lösungen durch Rückwartseinsetzen (wie im letzten Abschnitt beiden Dreiecksmatrizen demonstriert) einfach berechnet werden können.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 30: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 29

Wir betrachten das lineare Gleichungssystema11 a12 · · · a1na21 a22 · · · a2n...

......

am1 am2 · · · amn

x1x2...xn

=

c1c2...cm

.

Wir zeigen, dass nach m maligen Wiederholen der unten aufgeführten Schritte die MatrixA = (aij) durch elementare Zeilenoperation so umformen kann, dass am Ende A die Form

A =

d11 ∗ · · · · · · ∗ ∗ · · · ∗0 d22 ∗ · · · ∗ ∗ · · · ∗... 0

. . ....

......

......

. . . ∗...

...0 0 · · · · · · drr ∗ · · · ∗0 0 · · · · · · 0 0 · · · 0...

......

......

0 0 · · · · · · 0 0 · · · 0

mit d11, . . . , drr = 0 hat. Ein lineares Gleichungssystem mit einer solchen Matrix habenwir schon früher gelöst.

Schritt 1. Ist die Matrix A = (aij) die Nullmatrix, so sind wir fertig. Andernfalls könnenwir durch eine Zeilenvertauschung (und ggf. eine Spaltenvertauschung) erreichen, dass maneine Matrix

C = (cij) =

c11 ∗ · · · ∗c21 ∗ · · · ∗...

......

cm1 ∗ · · · ∗

mit c11 = 0 erhält.

Schritt 2. Addiere zur zweiten Zeile das −c21/c11fache der ersten Zeile, zur dritten Zeiledas −c31/c11fache der ersten Zeile, etc. bis zur mten Zeile. Dadurch bekommt eine Matrix

c11 c12 · · · c1n

0... C ′

0

,

mit c11 = 0 und einer (m− 1)× (n− 1)-Matrix C ′.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 31: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 30

Nun werden Schritte 1 und 2 auf die Matrix C ′ angewendet, bis entweder C ′ keine Spaltenoder Zeilen mehr hat, oder C ′ eine Nullmatrix ist.

Man erhält mit diesem Verfahren sukzessive Matrizen der Form

c11 c12 · · · c1n0... C ′

0

,

c11 c12 c13 · · · c1n0 c′22 c′23 · · · c′2n0 0...

... C ′′

0 0

,

c11 c12 c13 c14 · · · c1n0 c′22 c′23 c′24 · · · c′2n0 0 c′′33 c′′34 · · · c′′3n0 0 0...

...... C ′′′

0 0 0

und so weiter, bis man schliesslich bei der Matrix A landet. Die Elemente c11, c

′22, c

′′33, . . .

heissen Pivot-Elemente.

2.4 Die Lösungsmenge linearer Gleichungssysteme

Definition 2.5Die Anzahl r der Zeilen in A, die nicht Null sind, heisst der Rang der Matrix A. Manschreibt r = Rang(A). Es gibt also genau r Pivot-Elemente.

Satz 2.7Ein homogenes lineares Gleichungssystem Ax = 0 über einem (unendlichen) KörperK hat genau dann nur die Lösung x = 0, wenn Rang(A) = n ist. Andernfalls existierenmehrere (unendlich viele) Lösungen.

BeweisSei b = (b1, . . . , bn)

T eine Lösung von Ax = 0.

Ist Rang(A) = n, so sind alle Pivotelemente (Diagonaleinträge) von A = (dij) von Nullverschieden. Insbesondere gibt es mindestes n Zeilen und die nte Zeile lautet dnnbn = 0,woraus bn = 0 wegen dnn = 0 folgt. Damit gilt für die vorletzte Zeile 0 = dn−1,n−1bn−1 +dnnbn = 0 = dn−1,n−1bn−1, woraus wieder bn−1 = 0 folgt. So fortfahrend erhalten wirbi = 0 für all i, also b = 0.

Ist Rang(A) < n, so ist dnn = 0, und die Komponente bn lässt sich beliebig aus dem KörperK wählen. Hat K unendlich viele Elemente, so gibt es auch unendlich viele verschiedeneLösungen. □

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 32: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 31

Satz 2.8Ein inhomogenes lineares Gleichungssystem Ax = c über einem (unendlichen) Kör-per K hat

• keine Lösung, wenn Rang(A, c) > Rang(A)

• genau eine Lösung, wenn Rang(A, c) = Rang(A) = n

• mehrere (unendlich viele) Lösungen, wenn Rang(A, c) = Rang(A) < n

ist.

Beweis1) Ist Rang(A, c) > Rang(A), so ist im transformierten Gleichungssystem Ax = c

d11 ∗ · · · · · · ∗ ∗ · · · ∗0 d22 ∗ · · · ∗ ∗ · · · ∗... 0

. . ....

......

......

. . . ∗...

...0 0 · · · · · · drr ∗ · · · ∗0 0 · · · · · · 0 0 · · · 0...

......

......

0 0 · · · · · · 0 0 · · · 0

x1x2...xn

=

c1c2......crcr+1

...cm

das Element cr+1 = 0. Damit ist die r+1te Gleichung gegeben als 0 = 0x1+· · ·+0xn = cr+1,die keine Lösung hat. Also hat das Gleichungssystem Ax = c und damit auch Ax = c keineLösung.

2) Ist Rang(A, c) = Rang(A) = n, so hat das transformierte Gleichungssystem Ax = c dieForm

d11 ∗ · · · · · · ∗0 d22 ∗ · · · ∗... 0

. . ....

......

. . . ∗0 0 · · · · · · dnn0 0 · · · · · · 0...

......

0 0 · · · · · · 0

x1x2...xn

=

c1c2......cn0...0

.

Wie in Satz 2.4 lässt sich eine Lösung b von Ax = c sukzessive von unten nach obenberechnen. Sind b und b′ zwei Lösungen von Ax = c, so ist

A(b′ − b) = Ab−Ab′ = c− c = 0

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 33: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 32

und nach dem vorigen Satz muss damit b = b′ sein, d.h. es gibt genau eine Lösung vonAx = b.

3) Im Fall Rang(A, c) = Rang(A) < n ist

d11 ∗ · · · · · · ∗ ∗ · · · ∗0 d22 ∗ · · · ∗ ∗ · · · ∗... 0

. . ....

......

......

. . . ∗...

...0 0 · · · · · · drr ∗ · · · ∗0 0 · · · · · · 0 0 · · · 0...

......

......

0 0 · · · · · · 0 0 · · · 0

x1x2...xn

=

c1c2......cr0...0

und wie zuvor lässt sich eine Lösung b von Ax = c sukzessive von unten nach oben berech-nen. Nach dem vorigen Satz gibt es nun aber mehrere (unendlich viele) Lösungen. □

2.5 Übungen zum Lösen von linearen Gleichungssystemen

Um den Gauss-Algorithmus von Hand anzuwenden, ist es bequem, das Gleichungssystemdurch folgende Tabelle darzustellen:

x1 x2 · · · xna11 a12 · · · a1n c1a21 a22 · · · a2n c2...

......

...am1 am2 · · · amn cm

und alle elementaren Zeilenoperationen darauf anzuwenden.

Beispiel 2.3Das lineare Gleichungssystem

2x1 − x2 + 3x3 − x4 + x5 = −22x1 − x2 + 3x3 − x5 = −3−4x1 + 2x2 − 4x3 + 5x4 − 5x5 = 3

−2x3 + 2x4 − 7x5 = −4−2x1 + x2 − x3 + 4x5 = 5

wird also umgeschrieben zu

x1 x2 x3 x4 x52 −1 3 −1 1 −22 −1 3 0 −1 −3−4 2 −4 5 −5 30 0 −2 2 −7 −4−2 1 −1 0 4 5

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 34: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 33

Nun werden sukzessive die Schritte 1 und 2 des Gauss-Verfahrens angewendet. Die Pivote-lemente werden dabei immer eingerahmt. Da a11 = 0 ist , ist dieses das erste Pivotelementund der erste Schritt entfällt. Für den zweiten Schritt muss für i = 2, . . . , 5 zur ite Zeiledas λi1fachen der ersten Zeile addiert werden, wobei

λi1 := − ai1a11

ist. Im Diagramm wird das so vermerkt:

λi1 x1 x2 x3 x4 x5

2 −1 3 −1 1 −2

λ21 = −a21/a11 = −1 2 −1 3 0 −1 −3λ31 = −a31/a11 = 2 −4 2 −4 5 −5 3λ41 = −a41/a11 = 0 0 0 −2 2 −7 −4λ51 = −a51/a11 = 1 −2 1 −1 0 4 5

Wendet man die elementaren Zeilenoperation an, so erhalten wir das Schema

x1 x2 x3 x4 x52 −1 3 −1 1 −20 0 0 1 −2 −10 0 2 3 −3 −10 0 −2 2 −7 −40 0 2 −1 5 3

Der Eintrag a22 ist Null, ebenso alle darunter liegenden Einträge. Deshalb lässt sich perZeilenvertauschung kein Pivotelement finden. Eine Vertauschung der 2ten und 4ten Spalteliefert uns aber ein Pivotelement

x1 x4 x3 x2 x52 −1 3 −1 1 −2

0 1 0 0 −2 −1

0 3 2 0 −3 −10 2 −2 0 −7 −40 −1 2 0 5 3

Es muss für i = 3, . . . , 5 zur ite Zeile das λi2fachen der zweiten Zeile addiert werden:

λi2 x1 x4 x3 x2 x52 −1 3 −1 1 −2

0 1 0 0 −2 −1

−3 0 3 2 0 −3 −1−2 0 2 −2 0 −7 −41 0 −1 2 0 5 3

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 35: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 34

Nach den drei Zeilenoperationen erhalten wir

x1 x4 x3 x2 x52 −1 3 −1 1 −20 1 0 0 −2 −10 0 2 0 3 20 0 −2 0 −3 −20 0 2 0 3 2

So fortfahrend erhalten wirλi3 x1 x4 x3 x2 x5

2 −1 3 −1 1 −20 1 0 0 −2 −1

0 0 2 0 3 2

1 0 0 −2 0 −3 −2−1 0 0 2 0 3 2

x1 x4 x3 x2 x52 −1 3 −1 1 −20 1 0 0 −2 −10 0 2 0 3 20 0 0 0 0 00 0 0 0 0 0

Damit terminiert der Gaus-Algorithmus, weil die 2 × 3-Teilmatrix rechts unten die Null-matrix ist. Man sieht nun, dass Rang(A) = Rang(A, c) = 3 < 5 ist, d.h. es gibt unendlichviele Lösungen, wobei sich die Variable s = x2 und t = x5 frei wählen lassen.

Aus der dritten Zeile lesen wir ab 2x3 + 3x5 = 2 oder x3 = (2 − 3t)/2. Die zweite Zeileergibt x4 − 2x5 = −1, also x4 = 2t − 1. Schliesslich erhält man aus der ersten Zeile dieGleichung 2x1 − x4 + 3x3 − x2 + x5 = −2, also

x1 =1

2((2t− 1)− 3(2− 3t)/2 + s− t− 2) = 11t/4 + s/2− 6/2.

Als Lösungsmenge L ergibt sich daher

L = {(11t/4 + s/2− 3, s, (2− 3t)/2, 2t− 1, t) | s, t ∈ K}

Beispiel 2.4Um das lineare Geichungssystem

5x1 − 3x2 − 2x3 = 13x1 + x2 + x3 − x4 − x5 = −1

2x2 − 2x3 + x4 = −12x1 − x3 − x4 − 2x5 = 1x1 − x2 + x4 + 3x5 = 7

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 36: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 35

zu lösen, bekommt man schrittweise die folgenden Zwischenresultate:

x1 x2 x3 x4 x55 −3 −2 0 0 131 1 1 −1 −1 −10 2 −2 1 0 −12 0 −1 −1 −2 11 −1 0 1 3 7

x1 x2 x3 x4 x51 1 1 −1 −1 −15 −3 −2 0 0 130 2 −2 1 0 −12 0 −1 −1 −2 11 −1 0 1 3 7

x1 x2 x3 x4 x51 1 1 −1 −1 −10 −8 −7 5 5 180 2 −2 1 0 −10 −2 −3 1 0 30 −2 −1 2 4 8

x1 x2 x3 x4 x51 1 1 −1 −1 −10 2 −2 1 0 −10 −8 −7 5 5 180 −2 −3 1 0 30 −2 −1 2 4 8

x1 x2 x3 x4 x51 1 1 −1 −1 −10 2 −2 1 0 −10 0 −15 9 5 140 0 −5 2 0 20 0 −3 3 4 7

x1 x2 x3 x4 x51 1 1 −1 −1 −10 2 −2 1 0 −10 0 −3 3 4 70 0 −5 2 0 20 0 −15 9 5 14

x1 x2 x3 x4 x51 1 1 −1 −1 −10 2 −2 1 0 −10 0 −3 3 4 70 0 0 −3 −20/3 −29/30 0 0 −6 −15 −21

x1 x2 x3 x4 x51 1 1 −1 −1 −10 2 −2 1 0 −10 0 −3 3 4 70 0 0 −3 −20/3 −29/30 0 0 0 −5/3 −5/3

Wegen Rang(A) = Rang(A, c) = 5 muss es eine eindeutige Lösung geben. Diese erhält mandurch sukzessives Rückeinsetzen von unten nach oben.

x5 = 1

x4 = −(−29/3− (−20/3) · 1)/3 = 1

x3 = −(7− 3 · 1− 4 · 1)/3 = 0

x2 = (−1− (−2) · 0− 1 · 1− 0 · 1)/2 = −1

x1 = −1− 1 · (−1)− 1 · 0− (−1) · 1− (−1) · 1 = 2

Beispiel 2.5Das lineare Geichungssystem

2x1 − x2 + 3x3 + x4 = 94x1 − 2x2 + 8x3 − x4 = −52x1 − x2 + 5x3 − x4 = −42x1 − x2 + 5x3 − 4x4 = 5

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 37: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 36

wird wie folgt durch den Gaussschen Algorithmus bearbeitet.

x1 x2 x3 x42 −1 3 1 94 −2 8 −1 −52 −1 5 −1 −42 −1 5 −4 5

x1 x2 x3 x42 −1 3 1 90 0 2 −3 −230 0 2 −2 −130 0 2 −5 −4

x1 x3 x2 x42 3 −1 1 90 2 0 −3 −230 2 0 −2 −130 2 0 −5 −4

x1 x3 x2 x42 3 −1 1 90 2 0 −3 −230 0 0 1 100 0 0 −2 19

x1 x3 x2 x42 3 −1 1 90 2 0 −3 −230 0 0 1 100 0 0 0 39

Wegen Rang(A) = 3 < 4 = Rang(A, c) ist dieses Gleichungsystem nicht lösbar.

2.6 Invertieren von Matrizen

Soll das lineare GleichungssystemAx = c

für verschiedene Vektoren c, d, e, . . . gelöst werden, so lässt sich das mit dem GaussschenAlgorithmus sehr einfach in einem Durchgang bewerkstelligen. Das Eliminationsverfahrenmuss nicht mit jedem einzelnen Vektor durchgeführt werden. Zu diesem Zweck werdendie Vektoren im Schema hinten angehängt und der Algorithmus mit diesem erweitertenSchema durchgeführt.

Beispiel 2.6Sei die Matrix

A =

2 3 33 −2 21 −1 2

und die Vektoren c =

596

, d =

1755

, e =

3−2−1

gegeben. Wir lösen die drei linearen Gleichungssysteme Ax = c, Ax = d und Ax = e

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 38: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 37

simultan mit dem Gaussschen Algorithmus.

x1 x2 x3 c d e

2 3 3 5 17 33 −2 2 9 5 −21 −1 2 6 5 −1

x1 x2 x3 c d e

1 −1 2 6 5 −13 −2 2 9 5 −22 3 3 5 17 3

x1 x2 x3 c d e

1 −1 2 6 5 −10 1 −4 −9 −10 10 5 −1 −7 7 5

x1 x2 x3 c d e

1 −1 2 6 5 −10 1 −4 −9 −10 10 0 19 38 57 0

x1 x2 x3 c d e

1 −1 2 6 5 −10 1 −4 −9 −10 10 0 1 2 3 0

x1 x2 x3 c d e

1 −1 0 2 −1 −10 1 0 −1 2 10 0 1 2 3 0

x1 x2 x3 c d e

1 0 0 1 1 00 1 0 −1 2 10 0 1 2 3 0

Damit bekommen wir als Lösungen 1−12

,

123

,

010

Beim Invertieren einer n × n-Matrix A sind n Gleichungssysteme zu lösen. Besteht dieinverse Matrix A−1 aus den Spalten s1, . . . , sn, so folgt aus A ·A−1 = In, dass die Spaltens1, . . . , sn Lösungen für die Gleichungssysteme

A · x = (1, 0, . . . , 0)T , . . . , A · x = (0, . . . , 0, 1, 0, . . . , 0)T , . . . , A · x = (0, . . . , 0, 1)T

sind.

Beispiel 2.7Um die Matrix A des vorherigen Beispiels zu invertieren, setzen wir also

x1 x2 x3 s1 s2 s32 3 3 1 0 03 −2 2 0 1 01 −1 2 0 0 1

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 39: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 38

an. Mit den gleichen Zeilenoperation wie vorher erhalten wir

x1 x2 x3 s1 s2 s32 3 3 1 0 03 −2 2 0 1 01 −1 2 0 0 1

x1 x2 x3 c d e

1 −1 2 0 0 13 −2 2 0 1 02 3 3 1 0 0

x1 x2 x3 c d e

1 −1 2 0 0 10 1 −4 0 1 −30 5 −1 1 0 −2

x1 x2 x3 c d e

1 −1 2 0 0 10 1 −4 0 1 −30 0 19 1 −5 13

x1 x2 x3 c d e

1 −1 2 0 0 10 1 −4 0 1 −30 0 1 1/19 −5/19 13/19

x1 x2 x3 c d e

1 −1 0 −2/19 10/19 −7/190 1 0 4/19 −1/19 −5/190 0 1 1/19 −5/19 13/19

x1 x2 x3 c d e

1 0 0 2/19 9/19 −12/190 1 0 4/19 −1/19 −5/190 0 1 1/19 −5/19 13/19

Damit ist die Matrix1

19

−2 9 −124 −1 −51 −5 13

die Inverse zu A.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 40: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 39

2.7 Lösen eines PageRank Problems

Die in Beispiel 1.13 vorgestellte Website

hatte die Matrix

P =

0 0 0 0 0 0 1/3 01/2 0 1/2 1/3 0 0 0 01/2 0 0 0 0 0 0 00 1 0 0 0 0 0 00 0 1/2 1/3 0 0 1/3 00 0 0 1/3 1/3 0 0 1/20 0 0 0 1/3 0 0 1/20 0 0 0 1/3 1 1/3 0

Um das PageRank-Problem P · (x1, . . . , x8)T = (x1, . . . , x8)T zu lösen, wird es umgeschrie-

ben als P · (x1, . . . , x8)T − (x1, . . . , x8)T = 0 bzw. als (P − I8) · (x1, . . . , x8)T = 0, d.h. wir

bekommen ein lineares homogenes Gleichungssystem Qx = 0 mit der Matrix

Q = P − I8 =

−1 0 0 0 0 0 1/3 01/2 −1 1/2 1/3 0 0 0 01/2 0 −1 0 0 0 0 00 1 0 −1 0 0 0 00 0 1/2 1/3 −1 0 1/3 00 0 0 1/3 1/3 −1 0 1/20 0 0 0 1/3 0 −1 1/20 0 0 0 1/3 1 1/3 −1

Homogene lineare Gleichungssystem haben immer die Lösung x = 0, d.h. alle Webseitenhaben den gleichen PageRank von Null. An dieser Lösung sind wir aber nicht interessiert.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 41: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 40

Wir wenden wieder den Gaussschen Algorithmus an. Dabei lassen wir die letzten Spalteweg, da diese Null ist.

x1 x2 x3 x4 x5 x6 x7 x8−1 0 0 0 0 0 1/3 01/2 −1 1/2 1/3 0 0 0 01/2 0 −1 0 0 0 0 00 1 0 −1 0 0 0 00 0 1/2 1/3 −1 0 1/3 00 0 0 1/3 1/3 −1 0 1/20 0 0 0 1/3 0 −1 1/20 0 0 0 1/3 1 1/3 −1

x1 x2 x3 x4 x5 x6 x7 x8−1 0 0 0 0 0 1/3 00 −1 1/2 1/3 0 0 1/6 00 0 −1 0 0 0 1/6 00 1 0 −1 0 0 0 00 0 1/2 1/3 −1 0 1/3 00 0 0 1/3 1/3 −1 0 1/20 0 0 0 1/3 0 −1 1/20 0 0 0 1/3 1 1/3 −1

x1 x2 x3 x4 x5 x6 x7 x8−1 0 0 0 0 0 1/3 00 −1 1/2 1/3 0 0 1/6 00 0 −1 0 0 0 1/6 00 0 1/2 −2/3 0 0 1/6 00 0 1/2 1/3 −1 0 1/3 00 0 0 1/3 1/3 −1 0 1/20 0 0 0 1/3 0 −1 1/20 0 0 0 1/3 1 1/3 −1

x1 x2 x3 x4 x5 x6 x7 x8−1 0 0 0 0 0 1/3 00 −1 1/2 1/3 0 0 1/6 00 0 −1 0 0 0 1/6 00 0 0 −2/3 0 0 1/4 00 0 0 1/3 −1 0 5/12 00 0 0 1/3 1/3 −1 0 1/20 0 0 0 1/3 0 −1 1/20 0 0 0 1/3 1 1/3 −1

x1 x2 x3 x4 x5 x6 x7 x8−1 0 0 0 0 0 1/3 00 −1 1/2 1/3 0 0 1/6 00 0 −1 0 0 0 1/6 00 0 0 −2/3 0 0 1/4 00 0 0 0 −1 0 13/24 00 0 0 0 1/3 −1 1/8 1/20 0 0 0 1/3 0 −1 1/20 0 0 0 1/3 1 1/3 −1

x1 x2 x3 x4 x5 x6 x7 x8−1 0 0 0 0 0 1/3 00 −1 1/2 1/3 0 0 1/6 00 0 −1 0 0 0 1/6 00 0 0 −2/3 0 0 1/4 00 0 0 0 −1 0 13/24 00 0 0 0 0 −1 22/72 1/20 0 0 0 0 0 −59/72 1/20 0 0 0 0 1 37/72 −1

x1 x2 x3 x4 x5 x6 x7 x8−1 0 0 0 0 0 1/3 00 −1 1/2 1/3 0 0 1/6 00 0 −1 0 0 0 1/6 00 0 0 −2/3 0 0 1/4 00 0 0 0 −1 0 13/24 00 0 0 0 0 −1 22/72 1/20 0 0 0 0 0 −59/72 1/20 0 0 0 0 0 59/72 −1/2

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 42: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 2. LINEARE GLEICHUNGSSYSTEME 41

x1 x2 x3 x4 x5 x6 x7 x8−1 0 0 0 0 0 1/3 00 −1 1/2 1/3 0 0 1/6 00 0 −1 0 0 0 1/6 00 0 0 −2/3 0 0 1/4 00 0 0 0 −1 0 13/24 00 0 0 0 0 −1 22/72 1/20 0 0 0 0 0 −59/72 1/20 0 0 0 0 0 0 0

Damit ist Rang(Q) = 7 < 8, d.h. das Gleichungssystem Q · x = 0 hat unendlich vieleLösungen (beachte, dass K = R ist). Nehmen wir t = x8/2 als freien Parameter, so ergibtsich

x8 = 2t

x7 = 72/59t

x6 = 22/72x7 + 1/2x8 = 22/59t+ t = −81/59t

x5 = 13/24x7 = 39/59t

x4 = 3/8x7 = 27/59t

x3 = 1/6x7 = 12/59t

x2 = 1/2x3 + 1/3x4 + 1/6x7 = 6/59t+ 9/59t+ 12/59t = 27/59t

x1 = 1/3x7 = 24/59t

Damit ist die Lösungsmenge des PageRanking-Problems gegeben durch

L = {(24, 27, 12, 27, 39, 81, 72, 118) · t | t ∈ K}

Für t = 0 führen alle Lösungen zum selben Ranking der Pages. Der PageRank wird beiGoogle so normiert, dass die Summe aller PageRanks genau 1 ergibt, d.h. wir müssen durch24+27+12+27+39+81+72+118 = 400 teilen. Die wichtigste Page ist Page 8, danachfolgt Page 6, danach Page 7, etc. Der Page-Rank von Seite 8 ist demnach 118/400 = 0.295,etc.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 43: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

42

Page 44: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 3. VEKTORRÄUME 43

Kapitel 3

Vektorräume

3.1 Definition und Beispiele

Definition 3.1Eine Menge V = (V,+, ·), die ein Element 0 enthält, heisst eine Vektorraum übereinem Körper K, falls eine Vektoraddition

+ : V × V → V : (v, w) 7→ v + w

und eine Skalarmultiplikation

· : K× V → V : (λ, v) 7→ λ · v

definiert ist, die folgende Gesetze erfüllt:

• Assoziativgesetz der Addition: Für alle u, v, w ∈ V ist (u+ v)+w = u+(v+w).

• Kommutativgesetz der Addition: Für alle u, v ∈ V ist u+ v = v + u.

• Neutralelement 0 der Addition: Für alle v ∈ V ist v + 0 = v = 0 + v.

• Existenz des entgegengesetzten Elements: Für alle v ∈ V gibt es ein v′ ∈ V mitv + v′ = 0. Man schreibt dann für v′ auch −v.

• Assoziativgesetz der Skalarmultiplikation: Für alle λ, µ ∈ K und alle v ∈ V ist(λ · µ) · v = λ · (µ · v).

• Distributivgesetze: Für alle λ, µ ∈ K und alle u, v ∈ V ist λ ·(v+w) = λ ·v+λ ·wund (λ+ µ) · v = λ · v + µ · v.

• Neutralelement 1 ∈ K der Skalarmultiplikation: Für alle v ∈ V ist 1 · v = v.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 45: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 3. VEKTORRÄUME 44

BemerkungDie Elemente eines Vektorraumes werden Vektoren genannt, das Neutralelement 0 heisstNullvektor.

Beispiel 3.1Unter dem Vektorraum Rn über dem Körper der reellen Zahlen R versteht man die Mengealler n-Tupel

Rn = R× · · · × R = {(x1, . . . , xn) | xk ∈ R}

zusammen mit der Matrizen-Addition + und der Matrizen-Skalarmultiplikation ·. In diesemFall ist (0, . . . , 0) der Nullvektor und zu v = (v1, . . . , vn) ist −v = (−v1, . . . ,−vn) derzu v entgegengesetzte Vektor. Wie in Kapitel 1.2 und 1.3 gezeigt, erfüllt (Rn,+, ·) alleBedingungen eines Vektorraumes.

Beispiel 3.2Die Menge

Mat(m,n,K) = Km×n =

A =

a11 . . . a1n...

...am1 . . . amn

∣∣∣∣∣∣∣ aij ∈ K

aller m×n-Matrizen über dem Körper K zusammen mit der Matrizen-Addition + und derMatrizen-Skalarmultiplikation · bildet einen Vektorraum über K.

Aufgabe 20Sei [a, b] ⊂ R ein abgeschlossenes reelles Intervall. Zeige, dass die Menge

C[a, b] := {f | f : [a, b] → R stetig}

aller reellwertigen Funktionen auf dem Intervall [a, b] zusammen mit der Addition

f + g : [a, b] → R : x 7→ f(x) + g(x)

und der skalaren Multiplikation

λg : [a, b] → R : x 7→ λ · g(x)

einen reellen Vektorraum bildet.

1. Warum ist die Addition und die Skalarmultiplikation abgeschlossen, d.h. warum sindf + g und λ · f wieder stetige Funktionen auf [a, b]?

2. Wie sieht in diesem Vektorraum der Nullvektor und die zu f entgegengesetzten Funk-tion aus?

3. Gibt es ein einfaches Argument, warum alle anderen Rechengesetze eines Vektorrau-mes gelten?

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 46: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 3. VEKTORRÄUME 45

Aufgabe 21Sei

R[x] := {n∑

k=0

akxk | ak ∈ R, n ∈ N}

die Menge aller reellwertigen Polynome. Für zwei Polynome p(x) =∑m

k=0 akxk und q(x) =∑n

k=0 bkxk und m ≥ n und λ ∈ K ist eine Addition

(p+ q)(x) =m∑k=0

(ak + bk)xk

und eine skalare Multiplikation

(λ · p)(x) =m∑k=0

(λ · ak)xk

erklärt.

1. Warum ist die Addition und die Skalarmultiplikation abgeschlossen, d.h. warum sindp+ q und λ · p wieder reelle Polynome?

2. Wie sieht in diesem Vektorraum der Nullvektor und das zu p entgegengesetzte Poly-nom aus?

3. Gibt es ein einfaches Argument, warum alle anderen Rechengesetze eines Vektorrau-mes gelten?

3.2 Unterräume, Durchschnitt und Summe

In diesem Abschnitt sei V stets ein Vektorraum über einem Körper K.

Definition 3.2Eine nichtleere Teilmenge U ⊆ V heisst Unterraum oder linearer Teilraum von V ,wenn U bzgl. der Addition und Skalarmultiplikation des Vektorraums V abgeschlossenist, d.h. wenn gilt

• Für alle u, v ∈ U ist u+ v ∈ U

• Für alle λ ∈ K und alle u ∈ U ist λu ∈ U .

BemerkungJeder Vektorraum V besitzt stets den Nullraum {0} und V selbst als Unterräume. Diesewerden die trivialen Unterräume von V genannt.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 47: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 3. VEKTORRÄUME 46

Beispiel 3.3Die Menge

U ={(x1, x2, x3) ∈ R3 | 2x1 + 3x2 + x3 = 0

}ist ein Unterraum von R3, denn für u, v ∈ U ist

2(u1 + v1) + 3(u2 + v2) + (u3 + v3) = (2u1 + 3u2 + u3) + (2v1 + 3v2 + v3) = 0 + 0 = 0,

woraus u+ v ∈ U folgt, und für λ ∈ K ist

2(λu1) + 3(λu2) + (λu3) = λ(2u1 + 3u2 + u3) = λ · 0 = 0,

woraus λ · u ∈ U folgt.

Aufgabe 22Warum ist die Menge

U ={(x1, x2, x3) ∈ R3 | 2x1 + 3x2 + x3 + 5 = 0

}kein Unterraum von R3?

Beispiel 3.4Sei A eine m× n-Matrix über einem K-Vektorraum. Die Lösungsmenge

U = {(x1, . . . , xn) ∈ Kn | Ax = 0}

des homogenen linearen Gleichungssystems Ax = 0 ist ein Unterraum von Kn, denn füru, v ∈ U ist

A(u+ v) = Au+Av = 0 + 0 = 0,

woraus u+ v ∈ U folgt, und für λ ∈ K ist

A(λu) = λ(Au) = λ0 = 0,

woraus λ · u ∈ U folgt.

Aufgabe 23Warum ist für c = 0 die Lösungsmenge

U = {(x1, . . . , xn) ∈ Kn | Ax = c}

des inhomogenen linearen Gleichungssystems Ax = c kein Unterraum von R3?

Beispiel 3.5Sei

V = {f | f : [a, b] → R}

der Vektorraum der reellwertigen Funktionen auf dem reellen Intervall [a, b]. Unterräumedieses Vektorraums sind

• die Menge C[a, b] aller stetigen Funktionen auf [a, b]

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 48: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 3. VEKTORRÄUME 47

• die Menge C1[a, b] der stetig differenzierbaren Funktionen auf [a, b]

• die Menge R[x] der reellen Polynome

• die Menge Pn = R[x]n der reellen Polynome vom Grad höchstens n

Satz 3.1Seien U1 und U2 zwei Unterräume des Vektorraumes V . Dann ist der DurchschnittU = U1 ∩ U2 wieder ein Unterraum von V .

BeweisSeien u,w ∈ U = U1∩U2 und λ ∈ K. Dann ist u+w sowohl in U1 als auch in U2 enthalten,denn beides sind Unterrräume von V . Also ist u+w ∈ U . Mit der gleichen Argumentationist auch λu ∈ U . Damit ist U ein Unterraum von V . □

Definition 3.3Seien U1 und U2 zwei Unterräume des Vektorraumes V . Dann heisst

U1 + U2 = {u1 + u2 | u1 ∈ U1, u2 ∈ U2}

die Summe der beiden Unterräume U1 und U2. Ist zudem U1 ∩ U2 = {0}, so schreibtman für die Summe U1 ⊕ U2 und nennt dies eine direkte Summe.

Satz 3.2Die Summe U1 + U2 zweier Unterräume U1 und U2 eines Vektorraumes V ist einUnterraum von V . In einer direkten Summe U1⊕U2 hat jeder Vektor w eine eindeutigeDarstellung w = u1 + u2 mit u1 ∈ U1 und u1 ∈ U2.

BeweisSeien u,w ∈ U := U1 + U2 und λ ∈ K. Dann gibt es u1, w1 ∈ U1 und u2, w2 ∈ U2 mitu = u1 + u2 und w = w1 + w2. Da U1 und U2 Unterräume sind, ist u1 + w1 ∈ U1 undu2 + w2 ∈ U2. Also bekommt man mittels Assoziative- und Kommutativgesetz

u+ w = (u1 + u2) + (w1 + w2) = (u1 + w1) + (u2 + w2) ∈ U1 + U2

undλu = λ(u1 + u2) = λu1 + λu2 ∈ U1 + U2.

Ist die Summe U = U1⊕U2 direkt und ist für u ∈ U sowohl u = u1+u2 als auch u = u′1+u′2für u1, u

′1 ∈ U1 und u2, u

′2 ∈ U2, so folgt

u1 − u′1 = u′2 − u2.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 49: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 3. VEKTORRÄUME 48

Die linke Seite der Gleichung ist in U1, die rechte Seite in U2, d.h. es ist u1−u′1 ∈ U1∩U2 ={0}, also u1 − u′1 = 0 oder u1 = u′1. Genauso zeigt man u2 = u′2. Damit ist die Darstellungvon u eindeutig. □

3.3 Lineare Unabhängigkeit und lineare Hülle

Definition 3.4Sei V ein Vektorraum über einem Körper K. Die Vektoren v1, . . . , vn ∈ V heissenlinear abhängig, wenn es Skalare λ1, . . . , λn ∈ K gibt, die nicht alle Null sind, sodass gilt:

λ1v1 + · · ·+ λnvn = 0.

Die Vektoren v1, . . . , vn ∈ V heissen linear unabhängig, wenn sie nicht linear ab-hängig sind, d.h. wenn aus λ1v1 + · · ·+ λnvn = 0 stets

λ1 = · · · = λn = 0

folgt.

BemerkungJeder einzelne Vektor v = 0 ist, für sich genommen, linear unabhängig.

Die lineare Abhängigkeit von Vektoren lässt sich wie folgt verstehen.

Satz 3.3Die Vektoren v1, . . . , vn ∈ V sind genau dann linear abhängig, wenn sich einer dieserVektoren als Linearkombination der anderen Vektoren darstellen lässt.

BeweisSeien v1, . . . , vn linear abhängig, d.h. es ist

λ1v1 + · · ·+ λnvn = 0

und mindestens ein Skalar (etwa λ1) ist ungleich Null. Dann ist

λ1v1 = −λ2v2 − · · · − λnvn,

alsov1 = −λ2

λ1v2 − · · · − λn

λ1vn.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 50: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 3. VEKTORRÄUME 49

Ist umgekehrt v1 = µ2v2 + · · ·+ µnvn, so folgt

−v1 + µ2v2 · · ·+ µnvn = 0

und der Koeffizient von v1 ist −1 = 0. □

Beispiel 3.6Die Vektoren

a =

123

, b =

021

, c =

144

sind wegen a+ b− c = 0 linear abhängig.

Beispiel 3.7Der Vektor ei := (0, . . . , 0, 1, 0, . . . , 0)T ∈ Kn, wobei die 1 an der iten Spalte sitzt, heisstder ite Einheitsvektor von Kn. Die Vektoren e1, . . . , en sind linear unabhängig, denn ausλ1e1 + · · ·+ λnen = 0 folgt

λ1

100...0

+ λ2

010...0

+ · · ·+ λn

000...1

=

λ1

λ2

λ3...λn

=

000...0

,

und aus der Gleichheit von Vektoren folgt

λ1 = λ2 = λ3 = · · · = λn = 0.

Definition 3.5Sei V ein Vektorraum über einem Körper K und seien v1, . . . , vn ∈ V . Die Menge allerLinearkombinationen Lin(v1, . . . , vn) der Vektoren v1, . . . , vn heisst lineare Hülle vonv1, . . . , vn. Damit ist

Lin(v1, . . . , vn) = {v ∈ V | v = λ1v1 + λ2v2 + · · ·+ λnvn, λk ∈ K} .

Man sagt, dass die Vektoren v1, . . . , vn die Menge Lin(v1, . . . , vn) erzeugen bzw. dassdie Vektoren v1, . . . , vn ein Erzeugendensystem von Lin(v1, . . . , vn) bilden.

Beispiel 3.8Nach dem vorhergehenden Beispiel lässt sich der Vektorraum Kn als die direkte Summe

Kn = Lin(e1)⊕ · · · ⊕ Lin(en)

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 51: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 3. VEKTORRÄUME 50

schreiben, denn für a ∈ Kn ist

a =

a1a2...an

= a1

100...0

+ · · ·+ an

000...1

,

und damit ist diese Darstellung auch eindeutig.

Satz 3.4Sei V ein Vektorraum über einem Körper K und seien v1, . . . , vn ∈ V Die lineare HülleLin(v1, . . . , vn) ist ein Unterraum von V .

BeweisSeien u, v ∈ Lin(v1, . . . , vn) und λ ∈ K, also

u =

n∑k=1

λkvk, v =

n∑k=1

µkvk.

Wegen

u+ v =n∑

k=1

λkvk +n∑

k=1

µkvk =n∑

k=1

(λk + µk)vk

ist auch u+ v ∈ Lin(v1, . . . , vn). Wegen

λu = λn∑

k=1

λkvk =n∑

k=1

(λλk)vk

ist λu ∈ Lin(v1, . . . , vn). □

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 52: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 3. VEKTORRÄUME 51

3.4 Klassifikation der Unterräume des R3

Satz 3.5Durch die Liste

• 0-dimensional: {0}

• 1-dimensional (Geraden durch den Ursprung):

gv := Lin(v) ={u ∈ R3 | u = λv, λ ∈ R

}• 2-dimensional (Ebenen durch den Ursprung):

Ev,w := Lin(v, w) ={u ∈ R3 | u = λv + µw, λ, µ ∈ R

}= gv ⊕ gw,

wobei v und w linear unabhängig sind

• 3-dimensional: R3

sind alle linearen Unterräume des Vektorraums R3 beschrieben.

BeweisAlle in der Liste beschriebenen Mengen sind nach den vorherigen beiden Kapiteln Unter-räume von R3. Sei U ein beliebiger Unterraum von R3 mit U = {0} und U = R3. Danngibt es einen Vektor v ∈ U mit v = 0. Da U ein Unterraum ist, muss mit v auch jedesskalare Vielfache λv in U sein, d.h. insbesondere ist

gv ⊆ U.

Ist U = gv, so sind wir fertig. Ist U = gv, so gibt es einen Vektor w ∈ U \ gv, d.h. v und wsind linear unabhängig. Dann ist aber mit der gleichen Argumentation wie zuvor

Ev,w ⊆ U.

Ist U = Ev,w, so sind wir wieder fertig. Ist U = Ev,w, so gibt es einen Vektor u ∈ U \Ev,w,d.h. u, v und w sind linear unabhängig. Wir zeigen nun, dass in diesem Fall U = R3 ist.Wir zeigen, dass die iten Einheitsvektoren e1, e2, e3 in U liegen. Betrachte die Gleichung

λ1e1 + λ2u+ λ3v + λ4w = 0.

Dies ergibt ein lineares Gleichungssystem in λ1, . . . , λ4:

1 · λ1 + u1λ2 + v1λ3 + w1λ4 = 0u2λ2 + v2λ3 + w2λ4 = 0u3λ2 + v3λ3 + w3λ4 = 0

Der Rang der zum linearen Gleichungssystem gehörigen Matrix A höchstens 3. Nach Satz2.7 (beachte Rang(A) ≤ 3 < 4) besitzt dieses Gleichungssystem damit unendlich viele

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 53: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 3. VEKTORRÄUME 52

Lösungen, also auch eine mit (λ1, . . . , λ4) = (0, 0, 0, 0). Dabei ist λ1 = 0, denn u, v und wsind linear unabhängig. Das bedeutet aber, dass

e1 = −λ2

λ1u− λ3

λ1v − λ4

λ1w ∈ U

ist. Ganz genauso zeigt man, dass e2 und e3 in U liegen. Wegen

R3 = Lin(e1)⊕ Lin(e2)⊕ Lin(e3)

folgt nun R3 ⊆ U , also U = R3. □

3.5 Basis und Dimension

Definition 3.6Ein Erzeugendensystem {v1, . . . , vn} eines Vektorraums V bestehend aus linear unab-hängigen Vektoren heisst eine Basis von V .

BemerkungDie Vektoren v1, . . . , vn eines Vektorraumes V bilden eine Basis von V , wenn gilt

• v1, . . . , vn sind linear unabhängig

• jeder Vektor v ∈ V lässt sich als Linearkombination der Vektoren v1, . . . , vn darstel-len, d.h. es ist

v =

n∑k=1

λkvk.

Beispiel 3.9Die Menge

e1 =

100...0

e2 =

010...0

. . . , en =

00...01

der iten Einheitsvektoren bildet eine Basis des Vektorraumes Kn.

Beispiel 3.10Wir betrachten den Vektorraum Pn = R[x]n aller Polynome p(x) =

∑nk=0 akx

k vom Grad≤ n. Die Polynome

p0(x) = 1, p1(x) = x, p2(x) = x2, . . . pn(x) = xn

bilden eine Basis des Vektorraumes Pn.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 54: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 3. VEKTORRÄUME 53

Beweis1) Wir zeigen zuerst die lineare Unabhängigkeit der Vektoren p0(x), . . . , pn(x). Sei

λ0 · 1 + λ1 · p1(x) + . . .+ λn · pn(x) = 0 für alle x ∈ R,

alsoλ0 · 1 + λ1 · x+ λ2 · x2 + . . .+ λn · xn = 0 für alle x ∈ R.

Die obige Gleichung muss für alle x ∈ R gelten, also insbesondere für x = 0:

λ0 · 1 = 0,

worausλ0 = 0

folgt. Mit dieser Tatsache reduziert sich die obenstehende Linearkombination auf dieForm

λ1 · x+ λ2 · x2 + . . .+ λn · xn = 0 für alle x ∈ R,

resp.x[λ1 + λ2 · x+ . . .+ λn · xn−1] = 0 für alle x ∈ R.

Für x = 0 folgt

λ1 + λ2 · x+ . . .+ λn · xn−1 = 0 für alle x ∈ R, x = 0.

Die linke Seite in der obigen Gleichung ist ein Polynom vom Grad n− 1 und ist gleichNull für alle x ∈ R, mit Ausnahme von x = 0. Weil das Polynom stetig ist, muss esauch an der Stelle x = 0 Null sein. Somit ist

λ1 + λ2 · x+ . . .+ λn · xn−1 = 0 für alle x ∈ R.

Werten wir das Polynom wieder an der Stelle x = 0 aus, dann folgt

λ1 = 0.

Fahren wir in dieser Weise fort, so schliesst man

λ0 = λ1 = . . . = λn = 0.

Damit ist gezeigt, dass die Polynome p0(x), . . . , pn(x) linear unabhängig sind.

2) Wir zeigen, dass Lin(p0(x), . . . , pn(x)) = Pn ist. Trivialerweise gilt

Lin(p0(x), . . . , pn(x)) ⊆ Pn.

Somit muss nur noch gezeigt werden, dass

Pn ⊆ Lin(p0(x), . . . , pn(x))

gilt, d.h., dass sich ein beliebiges Polynom p(x) ∈ Pn als Linearkombination der Poly-nome p0(x), . . . , pn(x) darstellen lässt. Dies ist aber trivial, weil Polynome ja gerade alsSummen von Termen der Form akx

k definiert sind. □

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 55: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 3. VEKTORRÄUME 54

BemerkungDie Basis eines Vektorraumes ist nicht eindeutig, d.h. es gibt verschiedene Basen in einemVektorraum.

Beispiel 3.11Die Vektoren

a =

(23

)und b =

(41

), resp. u =

(13

)und v =

(−12

)sind verschiedene Basen des R2:

a

b

u

v

Wir drücken den Vektor x =

(−10

)in der Basis B1 = {a, b}, resp. B2 = {u, v} aus.

In B1 ist

x = λ1a+ λ2b ⇔(−10

)= λ1

(23

)+ λ2

(41

)⇔

−1 = 2λ1 + 4λ2

0 = 3λ1 + λ2

Die Lösung ist λ1 = 0.1, λ2 = −0.3.

In B2 ist

x = λ1u+ λ2v ⇔(−10

)= λ1

(13

)+ λ2

(−12

)⇔

−1 = λ1 − λ2

0 = 3λ1 + 2λ2

Die Lösung ist λ1 = −0.4, λ2 = 0.6.

Wie lässt sich die allgemeine Lösung eines inhomogenen linearen Gleichungssystems be-schreiben? Wir betrachten das homogene lineare Gleichungssystem: Ax = 0 und dasinhomogene lineare Gleichungssystem: Ax = c.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 56: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 3. VEKTORRÄUME 55

SeiU = {u ∈ Rn|Au = 0}

der Lösungsraum des Gleichungssystems und sei {b1, . . . , bk} eine Basis des UnterraumsU . Die allgemeine Lösung uh ∈ U des homogenen linearen Gleichungssystems lässt sich alsLinearkombination dieser Basisvektoren darstellen:

uh = λ1b1 + . . .+ λkbk, λi ∈ R

und es giltAuh = 0.

Sei up irgend eine partikuläre Lösung des inhomogenen Gleichungssystems, also

Aup = c.

Sei u eine beliebige Lösung des inhomogenen Gleichungssystems, also Au = c. Aus Aup = cund Au = c folgt Au = Aup und somit

0 = Au−Aup = A(u− up) ⇔ u− up ∈ U.

Somit folgt

u− up = uh = λ1b1 + . . .+ λkbk ⇔ u = up + uh = up + λ1b1 + . . .+ λkbk.

Die allgemeine allgemeine Lösung u des inhomogenen linearen Gleichungssystems setztsich zusammen aus einer beliebigen partikulären Lösung und der allgemeinen Lösung deshomogenen Gleichungssystems.

Satz 3.6Gegeben sei das lineare inhomogene Gleichungssystem Ax = c. Sei U die Lösungs-menge des homogenen linearen Gleichungssystems und up eine partikuläre Lösung desinhomogenen Gleichungssystems. Dann ist die Lösungsmenge des inhomogenen linea-ren Gleichungssystems durch

U + up = {u+ up | u ∈ U}

gegeben.

Beispiel 3.12Gegeben sei das lineare inhomogene Gleichungssystem Ax = c mit der 3× 5 Matrix A unddem Vektor c:

A =

1 −3 0 0 70 −1 −1 0 30 2 0 −1 −6

, c =

23−2

.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 57: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 3. VEKTORRÄUME 56

Wir suchen zuerst eine Lösung des inhomogenen Gleichungssystem Ax = c:

x1 x2 x3 x4 x51 −3 0 0 7 20 −1 −1 0 3 30 2 0 −1 −6 −2

−→

x1 x2 x3 x4 x51 0 0 −1.5 −2 −10 1 0 −0.5 −3 −10 0 1 0.5 0 −2

Daraus folgt x1 = −1 + 1.5x4 + 2x5, x2 = −1 + 0.5x4 + 3x5, x3 = −2 − 0.5x4,x4, x5 ∈ R. Somit ist die Lösung bestimmt durch

x =

x1x2x3x4x5

=

−1−1−200

+ x4

1.50.5−0.510

+ x5

23001

, x4, x5 ∈ R.

Setzt man zum Beispiel x4 = x5 = 0, so erhalten wir eine partikuläre Lösung

up =

−1−1−200

.

Die beiden Vektoren v =

1.50.5−0.510

und w =

23001

erzeugen den Unterraum U aller Lösun-

gen des homogenen Gleichungssystems, also

U = Lin(v, w).

Wir überprüfen dies. Für u = λ1v + λ2w ∈ U ist

Au = A(λ1v + λ2w) = λ1Av + λ2Aw

= λ1

1 −3 0 0 70 −1 −1 0 30 2 0 −1 −6

1.50.5−0.510

+ λ2

1 −3 0 0 70 −1 −1 0 30 2 0 −1 −6

23001

=

00000

.

Satz 3.7Sei U ein Unterraum des Vektorraums V . Dann enthält jedes endliche Erzeugenden-system {u1, . . . , ur} von U eine Basis von U .

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 58: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 3. VEKTORRÄUME 57

BeweisDer Beweis des Satzes wird via vollständiger Induktion geführt.

Ist U = {0} der Nullraum, so ist die leere Menge ∅ eine Basis von U . In diesem Fall ist dieBehauptung trivial. Sei also U = {0}.

Induktionsanfang: r = 1. U wird von v1 erzeugt. Wegen U = {0} ist u1 = 0, und u1 istlinear unabhängig. Also ist {u1} eine Basis von U .

Induktionsvoraussetzung: Die Behauptung des Satzes sei richtig für alle Unterräume, dieein Erzeugendensystem mit weniger als r Elementen besitzen.

Induktionsschluss: Wenn u1, . . . , ur linear unabhängig sind, dann ist {u1, . . . , ur} eine Basisvon U nach Definition. Andernfalls gibt es eine Linearkombination λ1u1+. . .+λrur = 0, beider nicht alle Skalare λk gleich 0 sind. Bei geeigneter Numerierung kann λr = 0 annehmen.Dann ist

ur = − 1λr(λ1u1 + . . .+ λr−1ur−1)

eine Linearkombination von u1, . . . , ur−1. Also ist {u1, . . . , ur−1} ein Erzeugendensystemvon U . Diese Menge von r − 1 Vektoren enthält somit nach Induktionsvoraussetzung eineBasis von U . □

Um den Begriff der Dimension eines Vektorraumes einzuführen als Mächtigkeit einer seinerBasen, müssen wir nachweisen, dass je zwei Basen immer gleich viele Elemente haben. Einwichtiger Satz auf diesem Weg ist der sogenannte Basisergänzungssatz:

Satz 3.8Sei V ein Vektorraums V und seien v1, . . . , vr, w1, . . . ws ∈ V . Sind v1, . . . , vr linearunabhängig und ist Lin(v1, . . . , vr, w1, . . . ws) = V , so kann man {v1, . . . , vr} durcheventuelle Hinzunahme geeigneter Vektoren aus {w1, . . . ws} zu einer Basis von V er-gänzen.

BeweisWieder wird der Beweis des Satzes mittels vollständiger Induktion bzgl. s geführt.

Induktionsanfang: s = 0. Dann sind wir schon fertig, weil nach Voraussetzung {v1, . . . , vr}schon eine Basis ist.

Induktionsvoraussetzung: Die Behauptung des Satzes sei richtig für s = n.

Induktionsschluss: Seien v1, . . . , vr, w1, . . . wn+1 ∈ V , so dass v1, . . . , vr linear unabhän-gig und Lin(v1, . . . , vr, w1, . . . wn+1) = V ist. Ist schon Lin(v1, . . . , vr) = V , so sind wirwie zuvor wieder fertig. Sei also Lin(v1, . . . , vr) = V . Dann muss mindestens eines derwi nicht in Lin(v1, . . . , vr) enthalten sein. Für ein solches wi ist aber {v1, . . . , vr, wi}

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 59: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 3. VEKTORRÄUME 58

linear unabhängig, denn andernfalls wäre ja doch wi ∈ Lin(v1, . . . , vr). Nach Indukti-onsvoraussetzung kann man nun {v1, . . . , vr, wi} durch Auswahl geeigneter Vektoren aus{w1, . . . , wi−1, wi+1, . . . , wn+1} zu einer Basis von V ergänzen. □

Das zweite Hilfsmittel auf dem Weg zum Dimensionsbegriff ist der Austauschsatz:

Satz 3.9Seien {v1 . . . , vm} und {w1, . . . , wn} zwei Basen eines Vektorraums V . Dann gibt es zujedem vi ein wj , so dass {v1, . . . , vi−1, wj , vi+1, . . . , vm} wieder eine Basis ist.

BeweisWir wählen ein vi aus, das durch ein geeignetes wj ersetzt werden soll. Zunächst einmalgibt es ein wj ∈ Lin(v1, . . . , vi−1, vi+1, . . . , vm), denn andernfalls wäre

V = Lin(w1, . . . , wn) ⊆ Lin(v1, . . . , vi−1, vi+1, . . . , vm),

d.h. {v1 . . . , vm} wäre keine Basis. Dann ist {v1, . . . , vi−1, wj , vi+1, . . . , vm} linear unabhän-gig. Zudem ist Lin(v1, . . . , vi−1, wj , vi+1, . . . , vm, vi) = V . Nach dem Basisergänzungssatzist entweder {v1, . . . , vi−1, wj , vi+1, . . . , vm} schon eine Basis oder wird durch Hinzufügenvon vi eine solche. Letzteres geht aber nicht, weil sich wj als Linearkombination der Basis{v1 . . . , vm} darstellen lässt. Also muss {v1, . . . , vi−1, wj , vi+1, . . . , vm} eine Basis sein. □

Satz 3.10Je zwei Basen eines Vektorraums V haben gleich viele Elemente. Diese Anzahl wir dieDimension von V genannt und dimV genschrieben.

BeweisSeien {v1 . . . , vm} und {w1, . . . , wn} zwei Basen von V mit m ≤ n. Nach dem Austauschsatzlassen sich sukzessive alle Elemente von {v1 . . . , vm} durch Elemente von {w1, . . . , wn}austauschen. Wäre m < n, so hätte man eine echte Teilmenge von {w1, . . . , wn}, die wiedereine Basis von V wäre, was der Annahme, {w1, . . . , wn} sei eine Basis, widerspricht. Alsoist m = n. □

FolgerungIst V ein Vektorraum der Dimension n, so sind je n+ 1 Vektoren linear abhängig.

Beispiel 3.131) dimKn = n2) dimPn = n+ 13) dimMat(m,n,K) = mn4) dimC[a, b] = ∞

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 60: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 3. VEKTORRÄUME 59

Beispiel 3.14Wir bestimmen die Dimension des Teilraums

U =

x1x2x3x4

∈ R4 | 3x1 + x2 + 3x3 − 5x4 = 0

,

indem wir die Gleichung nach x2 auflösen: x2 = −3x1 − 3x3 + 5x4 und x1, x3, x4 als freieVariable auffassen. Somit

x =

x1x2x3x4

=

x1

−3x1 − 3x3 + 5x4x3x4

= x1

1−300

+ x3

0−310

+ x4

0501

, x1, x3, x4 ∈ R.

Die Vektoren

b1 =

1−300

, b2 =

0−310

, b3 =

0501

sind linear unabhängig. Sie erzeugen somit den Teilraum U . Die Dimension von U ist 3.

Beispiel 3.15Gegeben sei das lineare homogene Gleichungssystem1 −2 3

2 −4 63 −6 9

xyz

=

000

.

Wir bestimmen den Unterraum der Lösungen dieses Gleichungssystems. Matlab liefert viarref(A):

x y z

1 −2 3 00 0 0 00 0 0 0

Die Lösungen sindx = 2y − 3z, y ∈ R, z ∈ R.

Oder vektoriell ausgedrückt

x =

2y − 3zyz

= y

210

+ z

−301

.

Die Lösungsmenge ist ein 2 dimensionaler Unterraum des Vektorraums R3, welcher vonden Vektoren

a =

210

und b =

−301

erzeugt wird.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 61: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 3. VEKTORRÄUME 60

Beispiel 3.16Die Vektoren

a =

2321

, b =

342−3

, c =

0129

, d =

574−2

erzeugen den Unterraum Lin(a, b, c, d). Wir wollen die Dimension dieses Unterraums her-ausfinden. Wir wollen diese Frage algebraisch lösen, d.h. wir fragen nach den linear unab-hängigen Vektoren von a, b, c, d. Also

λ1a+ λ2b+ λ3c+ λ4d = 0 ⇔

λ1 λ2 λ3 λ4

2 3 0 5 03 4 1 7 02 2 2 4 01 −3 9 −2 0

rref−→

λ1 λ2 λ3 λ4

1 0 3 1 00 1 −2 1 00 0 0 0 00 0 0 0 0

Man sieht, dass die Vektoren a und b linear unabhängig sind und λ1 = −3λ3 − λ4, λ2 =2λ3 − λ4, λ3 mit λ4 ∈ R gilt. Also

0 = λ1a+ λ2b+ λ3c+ λ4d

= (−3λ3 − λ4)a+ (2λ3 − λ4)b+ λ3c+ λ4d

= (−3a+ 2b+ c)λ3 + (−a− b+ d)λ4 für alle λ3, λ4 ∈ R.

Wählen wir für die Parameter λ3 = 0 und λ4 = 1, so folgt

−a− b+ d = 0.

Wählen wir für die Parameter λ3 = 1 und λ4 = 0, so folgt

−3a+ 2b+ c = 0.

In diesen linearen Abhängigkeiten sind die Vektoren a und b die gemeinsamen, also schliesstman

c = 3a− 2b und d = a+ b,

d.h. die Vektoren c und d sind von den Vektoren a und b linear abhängig. Der UnterraumLin(a, b, c, d) ist zwei-dimensional und wird von den Vektoren a und b erzeugt. Es gilt somit

Lin(a, b, c, d) = Lin(a, b).

Beispiel 3.17Sei Mat(2, 3,R) = R2×3 der Vektorraum der 2 × 3 Matrizen über dem Körper R. Wirbestimmen die Dimension dieses Vektorraums, indem wir eine Basis angeben. Die Matrizen

A1 =

(1 0 00 0 0

), A2 =

(0 1 00 0 0

), A3 =

(0 0 10 0 0

),

A4 =

(0 0 01 0 0

), A5 =

(0 0 00 1 0

), A6 =

(0 0 00 0 1

)

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 62: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 3. VEKTORRÄUME 61

bilden eine Basis für R2×3. Denn

6∑k=1

λkAk =

(0 0 00 0 0

)⇔

(λ1 λ2 λ3

λ4 λ5 λ6

)=

(0 0 00 0 0

)⇒ λk = 0, k = 1, . . . , 6.

Also sind A1, . . . , A6 linear unabhängig. Für eine beliebige Matrix A =

(a11 a12 a13a21 a22 a23

)gilt

A =

3∑k=1

a1kAk +

3∑k=1

a2kAk.

Die Matrizen A1, . . . , A6 sind ein Erzeugendensystem für R2×3. Somit ist dim(R2×3) = 6.

Wir leiten noch den folgenden Dimensionssatz her.

Satz 3.11Es seien U und W zwei endlich-dimensionale Unterräume eines Vektorraumes V . Danngilt:

dim(U +W ) = dim(U) + dim(W )− dim(U ∩W ).

BeweisDie Mengen U ∩ W und U + W sind Unterräume von V . Es sei Bd = {d1, . . . , dr} eineBasis von U ∩W . Beachte, dass hierbei auch r = 0 zugelassen ist im Falle, dass U ∩W derNullraum, die Basis also die leere Menge ist. Die Basis Bd kann einerseits zu einer Basis

B1 = {d1, . . . , dr, a1, . . . , as}

von U , andererseits auch zu einer Basis

B2 = {d1, . . . , dr, b1, . . . , bt}

von W erweitert werden. Zunächst soll jetzt gezeigt werden, dass

B = {d1, . . . , dra1, . . . , as, b1, . . . , bt}

eine Basis des Summenraumes U +W ist.

Jeder Vektor v ∈ U+W kann nach Definition in der Form v = u+w mit u ∈ U und w ∈ Wdargestellt werden. Da sich u als Linearkombination von B1 und w als Linearkombinationvon B2 darstellen lässt, ist v eine Linearkombination von B:

u = λ1d1 + . . .+ λrdr + µ1a1 + . . .+ µsas,

w = λ′1d1 + . . .+ λ′

rdr + ν1b1 + . . .+ νtbt,

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 63: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 3. VEKTORRÄUME 62

also

v = u+ w = (λ1 + λ′1)d1 + . . .+ (λr + λ′

r)dr + µ1a1 + . . .+ µsas + ν1b1 + . . .+ νtbt.

Es gilt daher jedenfalls Lin(B) = U +W . Zum Nachweis der linearen Unabhängigkeit vonB betrachten wir die Gleichung

λ1d1 + . . .+ λrdr + µ1a1 + . . .+ µsas + ν1b1 + . . .+ νtbt = 0

oderλ1d1 + . . .+ λrdr + µ1a1 + . . .+ µsas = −ν1b1 − . . .− νtbt

mit Elementen λi, µi, νi ∈ R. Da in der letzten Gleichung die linke Seite ein Vektor aus U ,die rechte Seite aber ein Vektor aus W ist, müssen beide Seiten ein Vektor aus U ∩W sein,der sich somit als Linearkombination von d1, . . . , dr darstellen lassen muss:

λ1d1 + . . .+ λrdr + µ1a1 + . . .+ µsas = ρ1d1 + . . .+ ρrdr

−− ν1b1 − . . .− νtbt = ρ1d1 + . . .+ ρrdr

oder

(λ1 − ρ1)d1 + . . .+ (λr − ρr)dr + µ1a1 + . . .+ µsas = 0

ρ1d1 + . . .+ ρrdr + ν1b1 + . . .+ νtbt = 0

Wegen der linearen Unabhängigkeit von B1 und B2 ergibt sich hieraus

λi−ρi = 0, i = 1, . . . , r, µj = 0, j = 1, . . . , s, ρi = 0, i = 1, . . . , r, νk = 0, k = 1, . . . , t.

Somitλ1 = . . . = λr = µ1 = . . . = µs = ν1 = . . . = νt = 0.

Für die Dimensionen gilt demnach

dim(U ∩W ) = r, dim(U) = r + s, dim(W ) = r + t, dim(U +W ) = r + s+ t.

Es folgt jetzt

dim(U) + dim(W ) = (r + s) + (r + t) = r + (r + s+ t) = dim(U ∩W ) + dim(U +W ).

Für die direkte Summe U ⊕ W muss ja U ∩ W = {0} gelten. Aus Satz 3.11 ergibt sichsomit:

FolgerungEs seien U und W zwei endlich-dimensionale Unterräume eines Vektorraumes V . Danngilt:

dim(U) + dim(W ) = dim(U ⊕W ).

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 64: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 3. VEKTORRÄUME 63

Beispiel 3.18Gegeben seien die Unterräume U =

{(x1, x2, x3, x4)

T ∈ R4 | 2x1 − 3x2 + x3 − x4 = 0}

undW =

{(x1, x2, x3, x4)

T ∈ R4 | x1 − x2 + x3 + 3x4 = 0}. Für x ∈ U ist

x =

x1x2x3x4

= x1

1002

+ x2

010−3

+ x3

0011

, x1, x2, x3 ∈ R

und für x ∈ W gilt

xxx =

x1x2x3x4

= x2

1100

+ x3

−1010

+ x4

−3001

, x2, x3, x4 ∈ R.

Wir schliessendim(U) = 3 und dim(W ) = 3.

Für U ∩W muss

2x1 − 3x2 + x3 − x4 = 0

x1 − x2 + x3 + 3x4 = 0

oderx1 x2 x3 x42 −3 1 −1 01 −1 1 3 0

rref−→x1 x2 x3 x41 0 2 10 00 1 1 7 0

gelten. Daraus folgt x1 = −2x3 − 10x4 und x2 = −x3 − 7x4, x3, x4 ∈ R. Also

x =

x1x2x3x4

= x3

−2−110

+ x4

−10−701

, x3, x4 ∈ R.

Folglich dim(U ∩W ) = 2. Mit der Formel aus Satz 3.11 folgt

dim(U +W ) = dim(U) + dim(W )− dim(U ∩W ) = 3 + 3− 2 = 4.

Also muss R4 = U + W sein. Die Zerlegung eines beliebigen Vektors x ∈ R4 in eineSumme von Vektoren in U und W ist nicht eindeutig, weil die Summe nicht direkt ist. Als

Zahlenbeispiel: Für x =

22−12

gibt es die Zerlegungen

xU =

1121

∈ U, xW =

11−31

∈ W oder xU =

−5215−1

∈ U, xW =

70

−163

∈ W

mit x = xU + xW .

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 65: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 3. VEKTORRÄUME 64

3.6 Dimension des Lösungsraumes der PageRank-Gleichung

Im bisherigen Beispiel war der Lösungsraum des PageRank-Problems eindimensional. Des-halb gibt es auch ein eindeutiges Page-Ranking. Wir wollen nun untersuchen, ob dies immerder Fall ist. Dazu ändern wir unser Beispiel etwas ab, indem wir ein paar Links entfernenund so zwei unverbundene Teilnetze erhalten:

Bei unverbundenen Teilnetzen erwarten wir Probleme mit der Eindeutigkeit der Lösung,weil die Pages in unterschiedlichen Teilnetzen nicht verglichen werden können. Wir unter-suchen also die PageRank-Matrix des obigen Netzes:

P =

0 0 0 0 0 0 0 01/2 0 1 1 0 0 0 01/2 0 0 0 0 0 0 00 1 0 0 0 0 0 00 0 0 0 0 0 1/2 00 0 0 0 1/3 0 0 1/20 0 0 0 1/3 0 0 1/20 0 0 0 1/3 1 1/2 0

Wie zuvor müssen wir das lineare homogene Gleichungssystem Qx = 0 mit Q = P − I8lösen, wobei

Q =

−1 0 0 0 0 0 0 01/2 −1 1 1 0 0 0 01/2 0 −1 0 0 0 0 00 1 0 −1 0 0 0 00 0 0 0 −1 0 1/2 00 0 0 0 1/3 −1 0 1/20 0 0 0 1/3 0 −1 1/20 0 0 0 1/3 1 1/2 −1

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 66: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 3. VEKTORRÄUME 65

ist. Löst man dieses Gleichungssystem mittels dem Gauss-Verfahren, so erhält man den2-dimensionalen Lösungsraum

L ={λ(0, 1, 0, 1, 0, 0, 0, 0)T + µ(0, 0, 0, 0, 1, 2, 2, 10/3)T | λ, µ ∈ R

}.

Allgemein kann man leicht beweisen, dass die Dimension r des Lösungsraumes mindestensso gross wie die Anzahl der unverbundenen Teilnetze ist. Man sieht an unserem Beispiel,dass die Matrix Q aus vier Blöcken besteht:

Q =

(Q1 00 Q2

),

wobei die Einträge 4 × 4-Matrizen repräsentieren, und die Matrizen Q1 und Q2 selbstspalten-stochastische Matrizen sind. Das Gleichungssystem Qx = 0 lässt sich in zwei TeileQ1(x1, x2, x3, x4)

T = 0 und Q2(x5, x6, x7, x8)T = 0 aufspalten und separat lösen, wobei

jedes dieser Teile einen mindestens eindimensionalen Lösungsraum besitzt, der zusammen-gesetzt 2-dimensional wird.

Da das existierende Internet aus vielen unverbundenen Teilnetzen besteht, ist die Mehr-deutigkeit des PageRanks ein echtes Problem, das gelöst werden muss.

Um die Mehrdeutigkeit zu eliminieren, betrachten wir die n×n-Matrix S, deren sämtlicheEinträge gleich 1/n sind. Auch diese Matrix S ist spalten-stochastisch (und auch zeilen-stochastisch). Nun ersetzen wir die PageRank-Matrix P mit

M = (1− ρ)P + ρS,

wobei 0 < ρ ≤ 1 ist. Die Matrix M lässt sich als gewichteter Durchschnitt der MatrizenPund S verstehen. Ursprünglich wurde von Google der Wert ρ = 0.15 verwendet, aber diesist nicht zwingend. Ob Google aktuell dieses Wert verwendet, ist Teil des Firmengeheim-nisses.

Für λ = 1 ist M = S und die Lösungsmenge ist dann Lin((1, 1, . . . , 1)T ), d.h. alle Pagesbekommen die gleiche Wertigkeit, was vielleicht nicht wirklich zufriedenstellend ist, aberimmerhin ist die Lösungsmenge eindimensional.

Mit ρ = 0.15 erhalten wir für unser Beispiel die Matrix

M =

0.0187 0.0187 0.0187 0.0187 0.0187 0.0187 0.0187 0.01870.4437 0.0187 0.8688 0.8688 0.0187 0.0187 0.0187 0.01870.4437 0.0187 0.0187 0.0187 0.0187 0.0187 0.0187 0.01870.0187 0.8688 0.0187 0.0187 0.0187 0.0187 0.0187 0.01870.0187 0.0187 0.0187 0.0187 0.0187 0.0187 0.4437 0.01870.0187 0.0187 0.0187 0.0187 0.3021 0.0187 0.0187 0.44370.0187 0.0187 0.0187 0.0187 0.3021 0.0187 0.0187 0.44370.0187 0.0187 0.0187 0.0187 0.3021 0.8688 0.4437 0.0187

und den Lösungsraum von (M − I8)x = 0 als

Lin((0.0449, 0.5639, 0.0640, 0.5242, 0.1666, 0.2865, 0.2865, 0.4574)T ).

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 67: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 3. VEKTORRÄUME 66

Damit wird Page 2 am höchsten gewertet, danach folgt Page 4, dann Page 8.

Wir beweisen nun, dass für die modifizierte PageRank-Matrix M der Lösungsraum von(M − In)x = 0 stets eindimensional ist.

Definition 3.7Eine Matrix A = (aij) heisst positiv, falls alle Einträge aij > 0 sind.

Satz 3.12Ist A eine positive und spalten-stochastische Matrix, so hat jede Lösung b des homoge-nen linearen Gleichungssystem (A− In)x = 0 nur positive oder nur negative Einträge.

BeweisAngenommen, eine Lösung b besitzt Einträge mit unterschiedlichen Vorzeichen, also (A−In)b = 0 oder Ab = Inb = b. Weil A positiv ist, folgt aus bi =

∑nj=1 aijbj , dass auch die

Summanden aijbj unterschiedliche Vorzeichen haben müssen. Aus der Analysis wissen wirdann, dass wir folgende strikte Ungleichung bekommen:

|bi| =

∣∣∣∣∣∣n∑

j=1

aijbj

∣∣∣∣∣∣ <n∑

j=1

aij |bj |.

Summieren wir nun beide Seiten über i und vertauschen die Summationsindizes i und j inden Summen, so erhalten wir

n∑i=1

|bi| <n∑

i=1

n∑j=1

aij |bj | =n∑

j=1

(n∑

i=1

aij

)|bj | =

n∑j=1

|bj |.

Die letzte Gleichung gilt, da A spalten-stochastisch ist. Diese Gleichung ist aber ein Wi-derspruch in sich, d.h. die Einträge von b können nicht unterschiedliche Vorzeichen haben.Ist b = 0 und bi ≥ 0 für alle i, so folgt aus bi =

∑nj=1 aijbj schon bi > 0 für alle i. Analog

folgt aus bi ≤ 0 immer schon bi < 0 für alle i. □

Satz 3.13Sind v, w ∈ Rn mit n ≥ 2 linear unabhängig, so gibt es eine Linearkombinationu = λv + µw, so dass die Einträge von u sowohl positiv als auch negativ sind.

BeweisWeil v und w linear unabhängig sind, sind beide Vektoren nicht Null. Sei s =

∑ni=1 vi. Ist

s = 0, so muss v sowohl positive als auch negative Einträge haben und wir sind fertig. Sei

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 68: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 3. VEKTORRÄUME 67

also s = 0. Dann setzen wir

λ = −∑n

i=1wi

sund µ = 1.

Da v und w linear unabhängig sind, ist die Linearkombination u = λv+µw nicht Null. Esgilt

n∑j=1

uj =

n∑j=1

(−∑n

i=1wi

svj + wj

)= −1

s

n∑i=1

wi

n∑j=1

vj

+

n∑j=1

wj

= −1

s

n∑i=1

wis+n∑

j=1

wj = −s

s

n∑i=1

wi +n∑

j=1

wj = 0.

Damit muss der Vektor u sowohl positive als auch negative Einträge besitzen. □

Satz 3.14Ist A eine positive und spalten-stochastische Matrix, so ist der Lösungsraum L deshomogenen linearen Gleichungssystem (A− In)x = 0 eindimensional.

BeweisWir werden im Kapitel über Eigenwerte noch zeigen, dass dimL ≥ 1 ist. Wir beweisen hier,dass dimL ≤ 1 ist. Angenommen, es ist dimL ≥ 2. Dann gibt es zwei linear unabhängigeLösungen v und w von (A − In)x = 0. Nach dem vorigen Satz gibt es eine Linearkombi-nation u = λv + µw = 0, die Einträge mit unterschiedlichen Vorzeichen besitzt. Da derLösungsraum L ein linearer Unterraum von Rn ist, ist u ∈ L. Dies widerspricht aber 3.12.Also ist dimL ≤ 1. □

Die modifizierte PageRank-Matrix

M = (1− ρ)P + ρS

erfüllt also alle Eigenschaften, die für ein vernünftiges Ranking notwendig sind, nämlichEindeutigkeit und gleiches Vorzeichen.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 69: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

Kapitel 4

Lineare Abbildungen und Matrizen

4.1 Lineare Abbildungen

Definition 4.1Seien V und W zwei Vektorräume über demselben Körper K. Eine Abbildung

f : V −→ W

heisst linear, falls sie folgenden beiden Eigenschaften erfüllt:

• Additivität: Für alle u, v ∈ V ist f(u+ v) = f(u) + f(v).

• Invarianz bzgl. Skalarmultiplikation: Für alle λ ∈ K und alle v ∈ V ist f(λv) =λ · f(v).

BemerkungDurch mehrfaches Anwenden der Additivität und Invarianz bzgl. Skalarmultiplikation giltfür jede Linearkombination λ1v1 + . . .+ λnvn:

f(λ1v1 + . . .+ λnvn) = λ1f(v1) + . . .+ λnf(vn).

BemerkungDie oft als „lineare Funktion” bezeichnete Abbildung f(x) = ax + b ist für b = 0 wederadditiv noch invariant bzgl. Skalarmultiplikation. Sie definiert wohl eine affine Abbildung

68

Page 70: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 69

von R auf R, ist aber keine lineare Abbildung im Sinne von Definition 4.1.

Satz 4.1a) Für jede lineare Abbildung f : V −→ W ist f(0) = 0 und f(−v) = −f(v).

b) Die Hintereinanderausführung g ◦ f zweier linearer Abbildungen f : V −→ W undg : W −→ Z ist wieder eine lineare Abbildung g ◦ f : V −→ Z.

c) Die Hintereinanderausführung linearer Abbildungen f : V −→ W , g : W −→ Yund h : Y −→ Z ist assoziativ, d.h. es ist h ◦ (g ◦ f) = (h ◦ g) ◦ f : V −→ Z.

Beweisa) Es ist f(000) = f(0 · 000) = 0 · f(000) = 000 und f(v) = f((−1) · v) = (−1) · f(v) = −f(v).

b) Es gilt

g ◦ f(v1 + v2) = g(f(v1 + v2)) = g(f(v1) + f(v2))

= g(f(v1)) + g(f(v2)) = g ◦ f(v1) + g ◦ f(v2).

und

(g ◦ f)(λv) = g(f(λv)) = g(λf(v)) = λg(f(v)) = λ(g ◦ f)(v).

c) Die Hintereinanderausführung beliebiger Abbildungen ist assoziativ. □

Satz 4.2Ist A eine m× n Matrix über einem Körper K, dann ist

f : Kn −→ Km, x 7→ f(x) = A · x

eine lineare Abbildung.

BeweisWir müssen die Additivität und die Invarianz bzgl. Skalarmultiplikation nachweisen.

Für u, v ∈ Kn gilt

f(u+ v) = A · (u+ v) = A · u+A · v = f(u) + f(v).

Ferner gilt für u ∈ Kn und λ ∈ K

f(λu) = A · (λu) = λ(A · u) = λf(u). □

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 71: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 70

Beispiel 4.1Die Projektion

y

z

x

xxx

f(xxx)

f : R3 −→ R3,

xyz

7→

xy0

ist eine lineare Abbildung, denn diese Projektion lässt sich mittels einer Matrixmultiplika-tion darstellen: 1 0 0

0 1 00 0 0

xyz

=

xy0

.

Beispiel 4.2Für einen elektrischen Vierpol lässt sich die Abhängigkeit des Ausgangsstroms i2 undAusgangsspannung U2 vom Eingangsstroms i1 und Eingangsspannung U1 als lineare Ab-bildung in Matrixform darstellen. Damit wird zwischen Eingangs- und Ausgangsgrössen(jeweils Strom und Spannung) eine lineare Abhängigkeit beschrieben:

bC bC

bC bC

U1 U2R1 R2

R3i1 i2 (

i2U2

)=

1 +R3

R2−R1 +R2 +R3

R1R2

−R3 1 +R3

R1

( i1U1

).

Beispiel 4.3Die Abbildung

f : R2 −→ R2,

(xy

)7→(

x2

x+ y

)ist keine lineare Abbildung, denn es gilt:

f(

(x1x2

)+

(y1y2

)) =

((x1 + y1)

2

x1 + y1 + x2 + y2

)=

(x21 + 2x1y1 + y21x1 + y1 + x2 + y2

)=(

x21x1 + x2

)+

(y21

y1 + y2

)= f(

(x1x2

)) + f(

(y1y2

)).

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 72: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 71

Beispiel 4.4Die affine Abbildung

f : Rn −→ Rm, x 7→= Ax+ c

mit einer m×n Matrix A ist ebenfalls keine lineare Abbildung, falls der Translationsvektorc ungleich Null ist, denn für x1, x2 ∈ Rn gilt

f(x1 + x2) = A(x1 + x2) + c = Ax1 +Ax2 + c = Ax1 + c+Ax2 + c = f(x1) + f(x2).

Beispiel 4.5Sei Pn der Vektorraum der Polynome mit Grad(p(x)) ≤ n. Die Abbildung

f : Pn −→ Pn, p(x)) 7→ x · p′(x)

ist eine lineare Abbildung. Dabei ist p′(x) das Ableitungpolynom von p(x). Für p(x), q(x) ∈Pn und λ ∈ R gilt

f(p(x)+q(x)) = x·[p(x)+q(x)]′ = x·[p′(x)+q′(x)] = x·p′(x)+x·q′(x) = f(p(x))+f(q(x)),

undf(λp(x)) = x · [λp(x)]′ = x · λ · p′(x) = λ · [x · p′(x)] = λf(p(x)).

Der folgende Satz liefert ein einfaches Verfahren um lineare Abbildungen zwischen zweiVektorräumen zu konstruieren.

Satz 4.3Seien V = {0} und W endlichdimensionale Vektorräume über dem Körper K. SeiB = {v1, . . . , vn} eine Basis vom V . Ordnet man jedem Basisvektor vk ∈ B einenVektor wk aus W zu, dann gibt es genau eine lineare Abbildung f : V −→ W mitf(vk) = wk für k = 1, . . . , n.

BeweisWeil nach Voraussetzung V = {0} gilt, gibt es eine Basis B in V mit mindestens einemBasisvektor. Sei B = {v1, . . . , vn} eine Basis und seien w1, . . . , wn ∈ W . Die Abbildung

f : V −→ W

wird wie folgt definiert. Zuerst wird jedem Basisvektor vk ∈ B der Vektor wk ∈ W zuge-ordnet, also

wk = f(vk), k = 1, . . . , n.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 73: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 72

Für v ∈ V gibt es eindeutige Skalare λk ∈ K, k = 1, . . . , n, so dass gilt:

v =

n∑k=1

λkvk.

Wir definieren

f(v) =n∑

k=1

λkwk, mit wk = f(vk).

Wegen der Eindeutigkeit der Skalare λk ist f(v) ebenfalls eindeutig bestimmt. Wir zeigenjetzt die Linearität von f . Seien u =

∑nk=1 µkvk und v =

∑nk=1 λkvk ∈ V und α ∈ K.

Dann folgt

f(u+v) = f( n∑k=1

(µk+λk)vk)=

n∑k=1

(µk+λk)f(vk) =n∑

k=1

µkf(vk)+n∑

k=1

λkf(vk) = f(u)+f(v).

Ferner ist

f(αv) = f(

n∑k=1

αλkvk)=

n∑k=1

αλkf(vk)) = α

n∑k=1

λkf(vk)) = αf(v).□

Beispiel 4.6Wir betrachten den Vektorraum R2. Wir nehmen die natürliche Basis B = {e1, e2} von R2,d.h.

e1 =

(10

), e2 =

(01

).

Nach Satz 4.3 konstruieren wir ein lineare Abbildung

f : R2 −→ C0[−π, π]

von R2 nach C0[−π, π], dem Vektorraum der stetigen Funktionen auf dem Intervall [−π, π],indem wir die Zuordung auf den Basisvektoren der Basis B durch

f(e1) = sin(x), f(e2) = cos(x)

definieren. Für einen beliebigen Vektor x =

(x1x2

)∈ R2 gilt dann

x = x1 · e1 + x2 · e2 und f(x) = x1 · f(e1) + x2 · f(e2) = x1 · sin(x) + x2 · cos(x).

Nach Satz 4.3 ist f eine lineare Abbildung.

Satz 4.4Sei f : V −→ W eine lineare Abbildung von V nach W . Sei X ein Unterraum von Vund Y ein Unterraum von W . Dann gilt:

a) Der Bildraum f(X) = {f(x) ∈ W | x ∈ X} ist ein Unterraum von W .

b) Der Urbildraum f−1(Y ) = {x ∈ V | f(x) ∈ Y } ist ein Unterraum von V .

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 74: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 73

Beweisa) Für y1, y2 ∈ f(X) gibt es x1 und x2 ∈ X mit f(x1) = y1 und f(x2) = y2. Wegen

f(x1 + x2) = f(x1) + f(x2) = y1 + y2 und x1 + x2 ∈ X

ist y1 + y2 ∈ f(X). Ferner existiert für y ∈ f(X) ein x ∈ X mit f(x) = y und es folgtfür λ ∈ K

λy = λf(x) = f(λx) und λx ∈ X,

also λy ∈ f(X). Somit ist ein f(X) ein Unterraum von W .

b) Seien x1, x2 ∈ f−1(Y ). Dann ist f(x1) ∈ Y und f(x2) ∈ Y und

f(x1) + f(x2) = f(x1 + x2) ∈ Y,

woraus x1 + x2 ∈ f−1(Y ) folgt. Für λ ∈ K und x ∈ f−1(Y ), dann folgt f(x) ∈ Y und

λf(x) = f(λx) ∈ Y.

Also ist λx ∈ f−1(Y ) und f−1(Y ) ist ein Unterraum von V . □

4.2 Bild und Kern einer linearen Abbildungen

Definition 4.2Sei f : V −→ W eine lineare Abbildung von V nach W . Dann heisst die Menge

Ker(f) := {v ∈ V | f(v) = 0 ∈ W} = f−1({0})

der Kern von f . Die Menge

Im(f) := {f(v) ∈ W | v ∈ V } = f(V )

heisst das Bild von f .

Satz 4.5Sei f : V −→ W eine lineare Abbildung von V nach W . Dann gilt:

a) Ker(f) ist ein Unterraum von V . Im(f) ist ein Unterraum von W .

b) Ker(f) = {000} gilt genau dann, wenn f eine injektive Abbildung ist.

c) Im(f) = W gilt genau dann, wenn f surjektiv ist.

Beweisa) Folgt unmittelbar aus der Definition von Kern und Bild einer linearen Abbildung.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 75: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 74

b) Sei Ker(f) = {0}. Für u, v ∈ V mit f(u) = f(v) gilt

f(u− v) = f(u)− f(v) = 0,

also u− v ∈ Ker(f). Wegen Ker(f) = {0} ist damit u = v und f ist also eine injektiveAbbildung.Sei umgekehrt f eine injektive Abbildung, und sei u ∈ Ker(f). Dann folgt f(u) = 0.Ferner gilt f(0) = 0. Weil f eine injektive Abbildung ist, folgt u = 0 und somit Ker(f) ={0}.

c) Folgt unmittelbar aus der Definition einer surjektiven Abbildung. □

Beispiel 4.7Die Abbildung ist

f : R3 −→ R3, x 7→ f(x) =

2 2 31.5 2 2.52.5 0 2.5

x

eine lineare Abbildung. Wir wollen für den Unterraum Ker(f) eine Basis finden. Der KernKer(f) besteht aus allen Vektoren x = (x1, x2, x2)

T ∈ R3 mit Ax = 0. Also ist Ker(f) derLösungsraum eines homogenen linearen Gleichungssystems. Somit

x1 x2 x32 2 3 01.5 2 2.5 02.5 0 2.5 0

Gauss−→

x1 x2 x31 0 1 00 1 0.5 00 0 0 0

Die Lösungen sind gegeben durch

x1 = −x3, x2 = −0.5x3 bzw. durch t

−1−0.51

, t ∈ R.

Ker(f) ist somit eindimensional und hat als Basis den Vektor

−1−0.51

.

Für den Unterraum Im(f) wollen wir ebenfalls eine Basis bestimmen. Das Bild Im(f)enthält alle Vektoren y = f(x) = Ax für x ∈ R3. Für y = Ax ist

y =

2 2 31.5 2 2.52.5 0 2.5

x1x2x3

= x1

21.52.5

+ x2

220

+ x3

32.52.5

, x1, x2, x3 ∈ R.

Dies sind alle möglichen Linearkombinationen der Spaltenvektoren

u =

21.52.5

, v =

220

, w =

32.52.5

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 76: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 75

der Matrix A. Somit gilt Im(f) = Lin(u, v, w). Wir bestimmen die linear unabhängigenVektoren unter u, v, w. Also

λ1u+ λ2v + λ3w = 0

oderλ1 λ2 λ3

2 2 3 01.5 2 2.5 02.5 0 2.5 0

Gauss−→

λ1 λ2 λ3

1 0 1 00 1 0.5 00 0 0 0

Die Lösung ist die selbe wie oben, also λ1 = −λ3, λ2 = −0.5λ3, λ3 ∈ R. Für die Linear-kombinationen folgt

−λ3u− 0.5λ3v + λ3w = 0, λ3 ∈ R.

Setzen wir λ3 = 2, dann folgtv = −2u+ 2w,

d.h. v ist linear abhängig von u und w. Somit

Im(f) = Lin(u,w).

Andererseits sind u und w linear unabhängig, bilden also eine Basis von Im(f).

Aus diesem Beispiel folgt die allgemeine Situation, welche im folgenden Satz festgehaltenist.

Satz 4.6Durch eine m× n Matrix A wird eine lineare Abbildung definiert:

f : Kn −→ Km, x 7→ f(x) = Ax.

a) Der Bildraum Im(f) der linearen Abbildung f ist der Spaltenraum von A, d.h.

Im(f) = Lin(a1, . . . , an), ak = kter Spaltenvektor von A.

b) Sei {e1, . . . , en} die natürliche Basis von Kn. Die Bildvektoren f(ek) der Basisvek-toren ek sind die Spaltenvektoren der Matrix A = (a1, . . . , an). Also

ak = f(ek), k = 1, . . . , n.

c) Der Kern Ker(f) dieser linearen Abbildung ist die Lösungsmenge des homogenenlinearen Gleichungssystems

Ax = 0.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 77: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 76

BeweisSei

A =

a11 . . . a1n...

...am1 . . . amn

= (a1 . . . an), mit ak =

a1k...

amk

∈ Km.

a) Der Bildraum ist Im(f) = {f(x) ∈ Km| x ∈ Kn}. Sei w ∈ Im(f). Dann gibt es einx = (x1, . . . , xn)

T ∈ Kn mit

w = f(x) = Ax =

a11 . . . a1n...

...am1 . . . amn

x1

...xn

=

a11x1 + . . .+ a1nxn...

am1x1 + . . .+ amnxn

= x1

a11...

am1

+ . . .+ xn

a1n...

amn

= x1a1 + . . .+ xnan,

also w ∈ Lin(a1, . . . , an). Damit folgt

Im(f) ⊆ Lin(a1, . . . , an).

Sei umgekehrt w ∈ Lin(a1, . . . , an). Dann existieren Skalare x1, . . . , xn mit

w = x1a1 + . . .+ xnan.

Für x = (x1, . . . , xn)T ∈ Kn gilt f(x) = x1a1 + . . .+ xnan, also x ∈ Im(f) und es folgt

Lin(a1, . . . , an) ⊆ Im(f).

Zusammenfassend haben wir gezeigt:

Lin(a1, . . . , an) = Im(f).

b) Sei ek = (0 . . . 1 . . . 0)T ein Basisvektor aus Kn. Für den Bildvektor f(ek) ist

f(ek) = Aek =

a11 . . . a1k . . . a1n...

......

am1 . . . amk . . . amn

0...1...0

=

a1ka2k...

amk

= ak

c) Ker(f) besteht aus allen Vektoren v ∈ Rn mit der Eigenschaft f(v) = 0, also Av = 0.Dies sind gerade die Lösungen des homogenen Gleichungssystems. □

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 78: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 77

Beispiel 4.8Sei

f : R2 −→ R3, x 7→ f(x) =

2 21.5 22.5 0

x

eine lineare Abbildung. Die Bildvektoren von e1 und e2 sind dann:

f(e1) =

2 21.5 22.5 0

(10

)=

21.52.5

=: a1, f(e2) =

2 21.5 22.5 0

(01

)=

220

=: a2.

Somit ist Im(f) = Lin(a1, a2) der Unterraum, der von den linear unabhängigen Spalten-vektoren a1 und a2 der Matrix A erzeugt wird. Die untenstehende Abbildung zeigt Im(f).

x

y

eee1

eee2y

z

x

f(e2) = a2

z

f(e1) = a1f

Aufgabe 24Welches ist die Abbildungsmatrix für die lineare Abbildung

f : R3 −→ R3,

xyz

7→

xy + 2z

z

?

Lösung: Die Matrix A hat als Spalten die drei Bildvektoren f(ek):

A = (f(e1), f(e2), f(e3)).

Wir berechnen nun diese Bildvektoren mittels der Abbildung f :

f(e1) =

100

, f(e2) =

010

, f(e3) =

021

.

Die Matrix lautet somit:

A = (f(e1), f(e2), f(e3)) =

1 0 00 1 20 0 1

.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 79: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 78

BemerkungDie Vektoren a1, . . . , an in der Matrix A = (a1, . . . , an) bestimmen die Lage und die Di-mension des Bildraumes.

Satz 4.7Sei

f : Kn −→ Km, x 7→ f(x) = Ax

eine lineare Abbildung. Seien a1, . . . , an die Spaltenvektoren der Matrix A, also

A = (a1, . . . , an).

Die Dimension des Bildraumes Im(f) ist gleich der Anzahl linear unabhängiger Spal-tenvektoren der Matrix A.

Beispiel 4.9Sei

f : R4 −→ R3, x 7→ f(x) = Ax, A =

1 0 2 33 −5 21 19−2 2 −10 −10

eine lineare Abbildung. Wir versuchen die lineare Abhängigkeit der Spaltenvektoren derMatrix A = (a1, . . . , a4) herauszufinden. Wir lösen deshalb die Gleichung

4∑k=1

λkak = 0 bzw. λ1

13−2

+ λ2

0−52

+ λ3

221−10

+ λ4

319−10

=

000

,

resp. das lineare Gleichungssystem: 1 0 2 33 −5 21 19−2 2 −10 −10

λ1

λ2

λ3

λ4

=

000

bzw.

λ1 λ2 λ3 λ4

1 0 2 3 03 −5 21 19 0−2 2 −10 −10 0

Wir lösen dieses lineare Gleichungssystem mit Hilfe von rref(A). Das Resultat ist

λ1 λ2 λ3 λ4

1 0 2 3 00 1 −3 −2 00 0 0 0 0

worausλ1 = −2λ3 − 3λ4, λ2 = 3λ3 + 2λ4, λ3, λ4 ∈ R.

folgt. Somit ist

0 = λ1a1 + λ2a2 + λ3a3 + λ4a4

= (−2λ3 − 3λ4)a1 + (3λ3 + 2λ4)a2 + λ3a3 + λ4a4

= λ3(−2a1 + 3a2 + a3) + λ4(−3a1 + 2a2 + a4), λ3, λ4 ∈ R.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 80: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 79

Setzen wir λ3 = 1 und λ4 = 0 ein, dann folgt

−2a1 + 3a2 + a3 = 0.

Mit λ3 = 0 und λ4 = 1 schliessen wir

−3a1 + 2a2 + a4 = 0.

In diesen Abhängigkeiten sind die Vektoren a1 und a2 die gemeinsamen Vorkommenden,d.h. man kann schreiben

a3 = 2a1 − 3a2, a4 = 3a1 − 2a2,

d.h. a3 und a4 sind linear abhängig von a1 und a2. Die Spaltenvektoren a1, a2 sind linearunabhängig. Somit gilt

dim(Im(f)) = dim(Lin(a1, a2, a3, a4)) = dim(Lin(a1, a2)) = 2.

Als Erzeugendensystem für den Bildraum Im(f) kann man zum Beispiel die Vektoren a1und a2 nehmen.

Beispiel 4.10Sei

f : R3 −→ R3, x 7→ f(x) = Ax, A =

1 −2 −12 −4 −23 −6 −3

eine lineare Abbildung. Die Spaltenvektoren der Matrix A sind linear abhängig, denn esgilt

3∑k=1

λkak = 0 bzw.

λ1 λ2 λ3

1 −2 −1 02 −4 −2 03 −6 −3 0

rref−→

λ1 λ2 λ3

1 −2 −1 00 0 0 00 0 0 0

,

also λ1 = 2λ2 + λ3, λ2, λ3 ∈ R. Somit folgt

0 = λ1a1 + λ2a2 + λ3a3

= (2λ2 + λ3)a1 + λ2a2 + λ3a3

= λ2(2a1 + a2) + λ3(a1 + a3), λ2, λ3 ∈ R.

Setzen wir λ2 = 1 und λ3 = 0 ein, dann folgt

2a1 + a2 = 0.

Mit λ2 = 0 und λ3 = 1 schliessen wir

a1 + a3 = 0.

In diesen Abhängigkeiten ist der Vektor a1 der gemeinsame, d.h.

a2 = −2a1, a3 = −a1.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 81: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 80

Also sind a2 und a3 sind linear abhängig von a1. Somit gilt

dim(Im(f)) = dim(Lin(a1, a2, a3) = dim(Lin(a1)) = 1.

Der Bildraum Im(f) wird nur durch einen Bildvektoren erzeugt, z.B. durch

f(e1) = a1 =

123

Der Bildraum ist in diesem Fall eine Gerade mit der Parametergleichung

y = tf(e1) bzw.

y1y2y3

= t

123

, t ∈ R.

Beispiel 4.11Sei

f : R5 −→ R4, x 7→ f(x) = Ax, A =

1 0 2 2 12 2 2 10 00 3 −3 9 −3−1 0 −2 −2 −1

.

Wir wissen, dass die Lösungsmenge des Gleichungssystems Ax = 0 der Unterraum Ker(f)von R5 ist. Mit Hilfe von rref bestimmen wir erzeugende Vektoren des Unterraums Ker(f),indem wir das Gleichungssystem Ax = 0 lösen:

Ax = 0 ⇔

x1 x2 x3 x4 x51 0 2 2 1 02 2 2 10 0 00 3 −3 9 −3 0−1 0 −2 −2 −1 0

rref−→

x1 x2 x3 x4 x51 0 2 2 1 00 1 −1 3 −1 00 0 0 0 0 00 0 0 0 0 0

Alsox1 = −2x3 − 2x4 − x5, x2 = x3 − 3x4 + x5, x3, x4, x5 ∈ R.

Das Gleichungssystem hat somit drei freie Parameter. Die allgemeine Lösung des homoge-nen linearen Gleichungssystems lautet:

x =

−2x3 − 2x4 − x5x3 − 3x4 + x5

x3x4x5

= x3

−21100

+ x4

−2−3010

+ x5

−11001

.

Die drei Vektoren in der oben stehenden Gleichung sind Basisvektoren des UnterraumesKer(f). Also

dim(Ker(f)) = 3.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 82: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 81

Für Im(f) wird die lineare Unabhängigkeit der Spaltenvektoren der Matrix A analysiert,also

λ1a1 + λ2a2 + λ3a3 + λ4a4 + λ5a5 = 0.

Aus der rref-Darstellung lesen wir heraus:

λ1 = −2λ3 − 2λ4 − λ5, λ2 = λ3 − 3λ4 + λ5, λ3, λ4, λ5 ∈ R.

Somit

0 = λ1a1 + λ2a2 + λ3a3 + λ4a4 + λ5a5

= (−2λ3 − 2λ4 − λ5)a1 + (λ3 − 3λ4 + λ5)a2 + λ3a3 + λ4a4 + λ5a5

= λ3(−2a1 + a2 + a3) + λ4(−2a1 − 3a2 + a4) + λ5(−a1 + a2 + a5), λ3, λ4, λ5 ∈ R.

Durch geeignete Wahl von λ3, λ4, λ5 folgt

−2a1 + a2 + a3 = 0, −2a1 − 3a2 + a4 = 0, −a1 + a2 + a5 = 0.

Die gemeinsamen Vektoren sind a1 und a2, welche linear unabhängig sind. Somit folgt

dim(Im(f)) = 2.

Das letzte Beispiel hat gezeigt, dass es einen Zusammenhang gibt zwischen dim(Ker(f))und dim(Im(f)). Der folgende Satz zeigt, dass die Dimensionen von Ker(f) und Im(f)gekoppelt sind.

Satz 4.8Sei V ein endlich-dimensionaler und W ein beliebiger Vektorraum über dem KörperK. Sei f : V −→ W eine lineare Abbildung. Dann ist

dim(V ) = dim(Ker(f)) + dim(Im(f)).

BeweisDer Kern Ker(f) ist ein Unterraum von V . Sei {b1, . . . , bk} eine Basis von Ker(f), alsodim(Ker(f)) = k. Diese Basis lässt sich durch Vektoren a1, . . . , ad zu einer Basis von Vergänzen:

BV = {a1, . . . , ad, b1, . . . , bk}.

Dann ist alson = dim(V ) = k + d.

Wir zeigen jetzt, dass {f(a1), . . . , f(ad)} eine Basis von Im(f) ist. Es folgt dann, dass

d = dim(Im(f))

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 83: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 82

ist, und damit die Behauptung.

Die Vektoren f(ak) liegen in Im(f). Sie sind linear unabhängig, denn aus

0 = λ1f(a1) + . . .+ λdf(ad) = f(λ1a1 + . . .+ λdad)

folgt v = λ1a1+ . . .+λdad ∈ Ker(f). Also ist v auch eine Linearkombination von b1, . . . , bk.Sei also

v = λ1a1 + . . .+ λdad = µ1b1 + . . .+ µkbk.

Daraus folgt0 = λ1a1 + . . .+ λdad − µ1b1 − . . .− µkbk.

Da BV = {a1, . . . , ad, b1, . . . , bk} eine Basis von V ist, folgt insbesondere

λi = 0, i = 1, . . . , d.

Somit sind die Vektoren {f(a1), . . . , f(ad)} linear unabhängig.

Schliesslich sei w ∈ Im(f). Dann ist w = f(v) für ein v ∈ V . Nun ist

v = λ1a1 + . . .+ λdad + µ1b1 + . . .+ µkbk

eine Linearkombination von a1, . . . , ad und b1, . . . , bk, woraus

w = f(v) = λ1f(a1) + . . .+ λdf(ad)

folgt, da f(bi) = 0 für alle i = 1, . . . , k. Also ist w ∈ Lin(f(a1), . . . , f(ad)). Daraus folgtIm(f) ⊆ Lin(f(a1), . . . , f(ad)). Selbstverständlich gilt Lin(f(a1), . . . , f(ad)) ⊆ Im(f), also

Im(f) = Lin(f(a1), . . . , f(ad)).

Somit d = dim(Im(f)). □

4.3 Isomorphie von Vektorräumen

Definition 4.3Zwei Vektorräume V und W über dem Körper K heissen isomorph, wenn es einelineare bijektive Abbildung

f : V −→ W.

gibt.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 84: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 83

4.4 Koordinaten

Satz 4.9Sei V ein n-dimensionaler Vektorraum. Sei B = {v1, . . . , vn} eine Basis von V . Dann istB durch die Numerierung der Basisvektoren vk geordnet. Bezüglich dieser geordnetenBasis besitzt jeder Vektor w ∈ V genau n Skalare µ1, . . . , µn mit

w =

n∑k=1

µkvk,

d.h. der Vektor w lässt sich in eindeutiger Weise als Linearkombination der geordnetenBasisvektoren v1, . . . , vn darstellen.

BeweisWeil B = {v1, . . . , vn} eine Basis des Vektorraums V ist, erzeugen die Vektoren v1, . . . , vnden Vektorraum V , d.h. jeder Vektor w ∈ V lässt sich als Linearkombination dieser Basis-vektoren darstellen:

w =

n∑k=1

µkvk

Diese Darstellung ist eindeutig, denn hätte w zwei Darstellungen

w =

n∑k=1

µkvk und w =

n∑k=1

µ′kvk,

dann würde folgen:

n∑k=1

µkvk −n∑

k=1

µ′kvk =

n∑k=1

(µk − µ′k)vk = 0.

Weil die Vektoren v1, . . . , vn als Basis linear unabhängig sind, folgt

µk − µ′k = 0 bzw. µk = µ′

k für k = 1, 2, . . . , n. □

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 85: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 84

Definition 4.4Sei V ein n-dimensionaler Vektorraum über dem Körper K. Sei B = {v1, . . . , vn} eineBasis von V . Bezüglich dieser geordneten Basis besitzt jeder Vektor v ∈ V genau nSkalare µ1, . . . , µn ∈ K mit

v =n∑

k=1

µkvk.

Das Skalare µ1, . . . , µn heissen Koordinaten des Vektors v bezüglich der geordnetenBasis B.

Der Vektor vB =

µ1...µn

∈ Kn heisst Koordinatenvektor von v bezüglich B.

Satz 4.10Sei B = {v1, . . . , vn} eine geordnete Basis eines n-dimensionalen Vektorraums V überdem Körper K. Sei

k : V −→ Kn, v 7→ k(v) = vB

die Abbildung, die jedem Vektor v ∈ V seinen Koordinatenvektor vB zuordnet. DieAbbildung k heisst Koordinatenabbildung. Dann ist k ein Isomorphismus zwischendem Vektorraum V und dem Vektorraum Kn

BeweisDa B eine Basis des Vektorraums V ist, hat jeder Vektor v ∈ V nach Satz 4.9 eine eindeutigeDarstellung

v =

n∑k=1

µkvk.

a) Seien zwei Vektoren v =∑n

k=1 µkvk und w =∑n

k=1 λkvk aus V gegeben mit k(v) =k(w), d.h. vB = wB. Dann folgt

k(v) = k(w) oder

µ1...µn

=

λ1...λn

oder µk = λk, k = 1, . . . , n

was mit v = w gleichbedeutend ist. Die Abbildung k ist also injektiv.

Sei v =

µ1...µn

∈ Kn gegeben. Dann ist Vektor v =∑n

k=1 µkvk ein Urbild von v. Die

Abbildung k ist also surjektiv. Somit ist sie bijektiv.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 86: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 85

b) Sei λ ∈ K, und sind v =∑n

k=1 µkvk, w =∑n

k=1 λkvk zwei Vektoren aus V mit Koordi-natenvektoren

k(v) =

µ1...µn

, k(w) =

λ1...λn

,

dann gilt

k(v + w) =

µ1 + λ1...

µn + λn

=

µ1...µn

+

λ1...λn

= k(v) + k(w).

Ferner ist

k(λv) =

λλ1...

λλn

= λ

λ1...λn

= λk(v).

Beispiel 4.12Wir betrachten den Vektorraum R[x]3 = P3 aller Polynome vom Grad ≤ 3. Die Polynome

p0(x) = 1, p1(x) = x, p2(x) = x2, p3(x) = x3

bilden eine Basis von P3. Auch die die Polynome

p0(x) = 1, p1(x) = x+ 1, p2(x) = (x+ 1)2, p3(x) = (x+ 1)3

bilden eine Basis B dieses Vektorraumes. Dies wird genauso bewiesen wie bei der erstenBasis, aber man braucht noch den Entwicklungssatz für Taylorreihen, der in der Analysisbehandelt wird. Dieser Vektorraum hat also die Dimension 4. Das Polynom

p(x) = 5− 3x+ 4x2 + 2x3

ist bzgl. der ersten Basis ausgedrückt und lässt sich bezüglich der zweiten Basis B wie folgtdarstellen:

p(x) = 5− 3x+ 4x2 + 2x3 = 10 · 1− 5(x+ 1)− 2(x+ 1)2 + 2(x+ 1)3.

Die Skalare sind x0 = 10, x1 = −5, x2 = −2, x3 = 2. Der Vektor

y =

10−5−22

ist also der Koordinatenvektor des Polynoms p(x) bezüglich der Basis B. Wir bilden diesesPolynom auf diesen Koordinatenvektor ab:

f : P3 −→ R4, p(x) = 5− 3x+ 4x2 + 2x3 7→ f(p(x)) =

10−5−22

.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 87: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 86

Allgemein:

f : P3 −→ R4, p(x) =3∑

k=0

λk(x+ 1)k 7→

λ0

λ1

λ2

λ3

.

BemerkungSatz 4.10 besagt folgendes. Hat man eine Basis B = {v1, . . . , vn} in einem Vektorraum Vgewählt und drückt man einen beliebigen Vektor v ∈ V als Linearkombination

v =

n∑k=1

µkvk,

dieser Basisvektoren aus, so kann man diesen Vektor isomorph auf seinen Koordinaten-vektor vB abbilden und dann mit diesem Spaltenvektor operieren, anstatt mit dem ur-sprünglichen Vektor des Vektorraumes V . Die Vektoren aus Kn sind aus algebraischerSicht einfacher zu handhaben als die Vektoren aus V .

Der folgende Satz ist eine Reformulierung von Satz 4.10. Sie besagt, dass der Kn derPrototyp aller n-dimensionalen Vektorräume über dem Körper K ist.

Satz 4.11Jeder Vektorraum V über dem Körper K der Dimension n ist isomorph zum Kn.

4.5 Matrixdarstellungen linearer Abbildungen

In diesem Abschnitt wird einer linearen Abbildungen f : V −→ W zwischen zwei endlich-dimensionalen Vektorräumen V und W eine Matrizen A = (aij) mit Koordinaten aij ∈ Kzugeordnet. Dazu legen wir eine Basis BV = {v1, . . . , vn} in V und eine Basis BW ={w1, . . . , wm} in W fest. Der linearen Abbildung

f : V −→ W

wird bezüglich den gewählten Basen BV und BW eine m×n Matrix A wie folgt zugeordnet.

Für jeden Basisvektor vj ∈ BV , 1 ≤ j ≤ n ist f(vj) ∈ W . Also hat f(vj) in der Basis BW

eine eindeutige Darstellung als Linearkombination:

f(vj) =

m∑i=1

aijwi mit aij ∈ K für 1 ≤ i ≤ m, 1 ≤ j ≤ n. (4.1)

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 88: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 87

Mit den Koordinaten aij bilden wir eine m× n Matrix A.

Definition 4.5Die m×n Matrix A = (aij) heisst die Matrix der linearen Abbildung f : V −→ Wbezüglich den Basen BV = {v1, . . . , vn} in V und BW = {w1, . . . , wm} in W . DieMatrixwerte aij erhält man durch

f(vj) =

m∑i=1

aijwi mit aij ∈ K für 1 ≤ i ≤ m, 1 ≤ j ≤ n.

BemerkungDie der linearen Abbildung f zugeordneten Matrix A hängt nicht nur von f ab, sondernauch von der Wahl der beiden Basen BV und BW in V bzw. W . Wie die Matrix sich ändert,wenn man andere Basen wählt, wird im Abschnitt Basiswechsel beschrieben.

Beispiel 4.13Sei P3 = R[x]3 der Vektorraum der Polynome mit Grad(p(x)) ≤ 3. Die Abbildung

f : P3 −→ P3, p(x) 7→ f(p(x)) = x · p′(x)

von Beispiel 4.5 ist eine lineare Abbildung. Wir berechnen die 4 × 4 Matrix A = (aij),welche zu dieser linearen Abbildung gehört, bezüglich der Basis

B = {p0(x) = 1, p1(x) = x− 1, p2(x) = (x− 1)2, p3(x) = (x− 1)3}.

Die Matrixwerte aij erfüllen für j = 0, . . . , 3 folgende Gleichungen

f(pj(x)) =3∑

i=0

aijpi(x) =3∑

i=0

aij(x− 1)i

= a0j − a1j − a3j + a2j + (−2a2j + a1j + 3a3j)x+ (a2j − 3a3j)x2 + a3jx

3.

Gemäss der linearen Abbildung f gilt

f(pj(x)) = f((x− 1)j) = x[(x− 1)j ]′ = j · x(x− 1)j−1 =

0, für j = 0

x, für j = 1

2x2 − 2x, für j = 2

3x3 − 6x2 + 3x, für j = 3

Somit hat man für j = 0, . . . , 3 folgende Gleichungen

a0j − a1j − a3j + a2j + (−2a2j + a1j + 3a3j)x+ (a2j − 3a3j)x2 + a3jx

3 = j · x(x− 1)j−1.

Durch Koeffizientenvergleich hat man folgende Gleichungssysteme zu lösen.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 89: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 88

Für j = 0:

a00 − a10 − a30 + a20 = 0

−2a20 + a10 + 3a30 = 0

a20 − 3a30 = 0

a30 = 0

⇒ a00 = 0, a10 = 0, a20 = 0, a30 = 0.

Für j = 1:

a01 − a11 − a31 + a21 = 0

−2a21 + a11 + 3a31 = 1

a21 − 3a31 = 0

a31 = 0

⇒ a01 = 1, a11 = 1, a21 = 0, a31 = 0.

Für j = 2:

a02 − a12 − a32 + a22 = 0

−2a22 + a12 + 3a32 = −2

a22 − 3a32 = 2

a32 = 0

⇒ a02 = 0, a12 = 2, a22 = 2, a32 = 0.

Für j = 3:

a03 − a13 − a33 + a23 = 0

−2a23 + a13 + 3a33 = 3

a23 − 3a33 = −6

a33 = 3

⇒ a03 = 0, a13 = 0, a23 = 3, a33 = 3.

Somit ist die der linearen Abbildung f zugeordneten Matrix A:

A =

a00 a01 a02 a03a10 a11 a12 a13a20 a21 a22 a23a30 a31 a32 a33

=

0 1 0 00 1 2 00 0 2 30 0 0 3

.

Frage:

Was ist die Bedeutung oder der Nutzen der linearen Abbildung f zugeordneten Matrix A?

Antwort:

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 90: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 89

Sei A die Matrix einer linearen Abbildung f : V −→ W bezüglich einer Basis BV ={v1, . . . , vn} von V und einer Basis BW = {w1, . . . , wm} von W . Sei v ein Vektor aus V ,dann ist w = f(v) ein Vektor aus W . Die Vektoren v und w = f(v) lassen sich bezüglichder gewählten Basen BV und BW eindeutig darstellen:

v =

n∑j=1

vjvj und w = f(v) =

m∑i=1

wiwi.

Die Koordinatenvektoren sind demzufolge

vBV=

v1...vn

und wBW=

w1...

wm

.

Es gilt mit Einbezug der Gleichung (4.1), den Linearitätseigenschaften und Vertauschungder Summation:

w = f(v) = f( n∑j=1

vjvj)=

n∑j=1

vjf(vj) =

n∑j=1

vj( m∑i=1

aijwi

)=

n∑j=1

( m∑i=1

vjaijwi

)=

m∑i=1

( n∑j=1

vjaij)wi.

Dies ist eine weitere Linearkombination in den Basisvektoren aus BW . Also folgtm∑i=1

wiwi =m∑i=1

( n∑j=1

vjaij)wi,

und damit für die Koordinaten, die eindeutig sind

wi =

n∑j=1

aijvj , i = 1, . . . ,m. (4.2)

Die Gleichung (4.2) lässt sich mit den Koordinatenvektoren vBV, wBW

in Matrixform schrei-ben. Dabei ist die Matrix A = (aij) die Matrix, die zur linearen Abbildung f bezüglich derBasen BV und BW gehört. Somit

wi =n∑

j=1

aijvj , i = 1, . . . ,m bzw.

w1...

wm

=

a11 . . . a1n...

...am1 . . . amn

v1

...vn

(4.3)

bzw. wBW= A · vBV

. (4.4)

Die Koordinatenvektoren vBVvon v ∈ V und wBW

von w = f(v) stehen mit der Matrix Ain Beziehung zueinander, nämlich

wBW= A · vBV

.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 91: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 90

Wir fassen diese Tatsache im folgenden Satz zusammen.

Satz 4.12Sei f : V −→ W eine lineare Abbildung und sei A die m × n Matrix, welche zu fgehört bezüglich den Basen BV = {v1, . . . , vn} von V und BW = {w1, . . . , wm} von W .Sei v ein beliebiger Vektor aus V mit seinem Koordinatenvektor

vBV=

v1...vn

.

Um den Bildvektor w = f(v) ∈ W berechnen zu können, berechnet man zuerst denKoordinatenvektor wBW

:

wBW=

w1...

wm

= AvBV.

Der Bildvektor w = f(v) ist dann

w = f(v) =m∑k=1

wkwk.

Die folgende Abbildung visualisiert diesen Sachverhalt.

v ∈ V W ∋ w = f(v)

vBV∈Rn Rm ∋ wBW

= A · vBV

f

A

kBVkBW

Beispiel 4.14Sei P3 = R[x]3 der Vektorraum der reellen Polynome mit Grad(p(x)) ≤ 3. Sei

B = {p0(x) = 1, p1(x) = x− 1, p2(x) = (x− 1)2, p3(x) = (x− 1)3}

eine Basis von P3. Die Matrix A der linearen Abbildung f : P3 −→ P3 sei

A =

1 −2 0 3−1 3 −5 60 −2 1 23 −6 5 0

.

Wir berechnen das Bild f(p(x)) des Polynoms p(x) = 1 + 2x− 3x2 − 2x3 unter f . Zuerst

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 92: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 91

bestimmen wir den Koordinatenvektor pB(x). Es gilt

p(x) =

3∑k=0

λkpk(x)

1 + 2x− 3x2 − 2x3 =

3∑k=0

λk(x− 1)k

= λ0 − λ1 + λ2 − λ3 + (λ1 − 2λ2 + 3λ3)x+ (λ2 − 3λ3)x2 + λ3x

3.

Durch Koeffizientenvergleich folgt ein Gleichungssystem, welches die folgende Lösung hat:

λ0 = −2, λ1 = −10, λ2 = −9, λ3 = −2

Somit ist der Koordinatenvektor pB(x) = (−1,−10 − 9,−2)T . Der Koordinatenvektorf(p(x))B ist

f(p(x))B = A · pB(x) bzw. f(p(x))B =

1 −2 0 3−1 3 −5 60 −2 1 23 −6 5 0

−2−10−9−2

=

12579

.

Mit Satz 4.12 erhält man den Bildvektor f(p(x)) wie folgt:

f(p(x)) =3∑

k=0

wk(x− 1)k = 12 + 5(x− 1) + 7(x− 1)2 + 9(x− 1)3 = 5+ 18x− 20x2 + 9x3.

Beispiel 4.15Wir wissen, dass

V =

v =

abc

∈ R3| a+ b+ c = 0

und W =

w =

rstu

∈ R4| r + s+ t+ u = 0

Unterräume von R3 bzw. R4 sind. Die Vektoren in V lassen sich wie folgt beschreiben:

v =

abc

=

−b− cbc

= b

−110

+ c

−101

, b, c ∈ R.

Somit ist

BV =

v1 =

−110

, v2 =

−101

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 93: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 92

eine Basis von V . Analog ist für den Unterraum W

w =

rstu

=

−s− t− u

stu

= s

−1100

+ t

−1010

+ u

−1001

, s, t, u ∈ R.

Daraus folgt, dass

BW =

w1 =

−1100

, w2 =

−1010

, w3 =

−1001

eine Basis von W ist. Nun definieren wir eine Abbildung f : V −→ W durch

f

abc

=

a− 2b− c2a− b− c−a− b

−6a− 2c

.

Zuerst müssen wir nachprüfen, dass f(v) ∈ W ist. Aus v = (a, b, c)T ∈ V folgt a+b+c = 0.Für f(v) gilt

(a− 2b− c) + (2a− b− c) + (−a− b) + (−6a− 2c) = −4a− 4b− 4c = (−4)(a+ b+ c) = 0.

Somit folgt f(v) ∈ W .

Nun zeigen wir, dass f linear ist. Seien v1 = (a1, b1, c1)T , v2 = (a2, b2, c2)

T aus V undλ ∈ R. Dann ist

v1 + v2 = (a1 + a2, b1 + b2, c1 + c2)T und λv = (λa, λb, λc)T .

Es folgt:

f(v1 + v2) =

(a1 + a2)− 2(b1 + b2)− (c1 + c2)2(a1 + a2)− (b1 + b2)− (c1 + c2)

−(a1 + a2)− (b1 + b2)−6(a1 + a2)− 2(c1 + c2)

=

(a1 − 2b1 − c1) + (a2 − 2b2 − c2)(2a1 − b1 − c1) + (2a2 − b2 − c2)

(−a1 − b1) + (−a2 − b2)(−6a1 − 2c1) + (−6a2 − 2c2)

=

a1 − 2b1 − c12a1 − b1 − c1−a1 − b1

−6a1 − 2c1

+

a2 − 2b2 − c22a2 − b2 − c2−a2 − b2

−6a2 − 2c2

= f(v)1 + f(v2).

f(λv) =

λa− 2λb− λc2λa− λb− λc−λa− λb

−6λa− 2λc

= λ

a− 2b− c2a− b− c−a− b

−6a− 2c

= λf(v).

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 94: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 93

Die Werte der Matrix A berechnen wir mit Hilfe von Gleichung (4.1). Mit v1 ∈ BV undwi ∈ BW folgt:

f(v1) =

3∑i=1

ai1wi ⇔

−3−306

= a11

−1100

+ a21

−1010

+ a31

−1001

.

Durch Koeffizientenvergleich folgt ein Gleichungssystem, welches die folgende Lösung hat:

a11 = −3, a21 = 0, a31 = 6.

Ferner für v2 ∈ BV und wi ∈ BW :

f(v2) =3∑

i=1

ai2wi ⇔

−2−314

= a12

−1100

+ a22

−1010

+ a32

−1001

.

Mit Koeffizientenvergleich ergibt sich folgende Lösung:

a12 = −3, a22 = 1, a32 = 4.

Somit ist A =

a11 a12a21 a22a31 a32

=

−3 −30 16 4

die Matrix, die zur linearen Abbildung f gehört.

4.6 Basiswechsel

In diesem Abschnitt fragen wir uns, wie sich die Koordinaten eines Vektors v eines end-lichdimensionalen Vektorraums V ändern, wenn der Vektor v in verschiedenen Basen aus-gedrückt wird.

Jeder n-dimensionale Vektorraum V hat eine geordnete Basis B = {v1, . . . , vn}. Ein belie-biger Vektor v ∈ V lässt sich als Linearkombination dieser Basisvektoren ausdrücken:

v =

n∑k=1

λkvk.

Die Skalare λ1, . . . , λn sind die Koordinaten des Vektors v. Der Vektor

vB =

λ1...λn

∈ Kn

ist der Koordinatenvektor des Vektors v bezüglich der geordneten Basis B. Die lineareAbbildung

k : V −→ Kn, v 7→ k(v) = vB

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 95: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 94

ist der natürliche Isomorphismus zwischen den Vektorräumen V und Kn.

Wir leiten nun die Transformation der Koordinatenvektoren allgemein her. Seien dazuB1 = {a1, . . . , an} und B2 = {b1, . . . , bn} zwei Basen des n-dimensionalen Vektorraums V .Sei v ∈ V und seien vB1 = (λ1, . . . , λn)

T und vB2 = (µ1, . . . , µn)T die Koordinatenvektoren

des Vektors v, d.h.

n∑k=1

λkak = v =

n∑k=1

µkbk. (4.5)

Die Basisvektoren ak ∈ B1 lassen sich durch die Basisvektoren bi der Basis B2 ausdrücken.Es gilt

ak =n∑

i=1

ρikbi, k = 1, . . . , n. (4.6)

Somit ist (ak)B2= (ρ1k, . . . , ρnk) der k-te Koordinatenvektor des Basisvektors ak bezüglich

der Basis B2. Wir setzen die Vektoren ak der Gleichung (4.6) in Gleichung (4.5) ein, underhalten mit Vertauschung der Summation sequentiell die folgenden Gleichungen

n∑k=1

λkak =n∑

k=1

µkbk

n∑k=1

λk

(n∑

i=1

ρikbi

)=

n∑k=1

µkbk

n∑i=1

(n∑

k=1

ρikλk

)bi =

n∑k=1

µkbk Indizes umbenennen

n∑i=1

(n∑

k=1

ρikλk

)bi =

n∑i=1

µibi (4.7)

Die Skalare in einer Linearkombination sind eindeutig, also folgt aus Gleichung (4.7)

µi =

n∑k=1

ρikλk, i = 1, . . . , n. (4.8)

Die Gleichung (4.8) lässt sich in Matrixform schreiben:λ1...λi...λn

=

ρ11 . . . ρ1k . . . ρ1n...

......

ρi1 . . . ρik . . . ρin...

...ρn1 . . . ρnk . . . ρnn

µ1...µi...µn

bzw. vB2 = T · vB1 . (4.9)

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 96: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 95

Die Spaltenvektoren der Matrix T sind gerade die Koordinatenvektoren akB2der Basisvek-

toren ak ∈ B1 bezüglich Basis B2:

T = (a1B2, . . . , anB2

).

Man kann natürlich auch den Koordinatenvektor vB2 in den Koordinatenvektor vB1 trans-formieren. Die Vorgehensweise ist analog wie oben und führt auf eine Gleichung

vB1 = S · vB2 . (4.10)

Die Spaltenvektoren der Matrix S sind die Koordinatenvektoren bkB1der Basisvektoren

bk ∈ B2 bezüglich Basis B1:

S = (b1B1, . . . , bnB1

).

Aus den Gleichungen (4.9) und (4.10) folgt

vB2 = T · vB1 = T · S · vB2 oder vB1 = S · vB2 = S · T · vB1 .

Wir schliessen aus vB2 = T · S · vB2 , dass

0 = T · S · vB2 − vB2 = T · S · vB2 − I · vB2 = (T · S − I) · vB2

gilt. Da diese Gleichung für alle vB2 gilt, muss die zu T · S − I gehörige lineare Abbildungdie Nullabbildung sein. Dies bedeutet, dass T · S − I = 0 bzw. T · S = i ist. Analog folgtS · T = I. Die Matrizen S und T sind folgich zueinander invers:

T = S−1 oder S = T−1.

Die folgende Abbildung visualisiert die Koordinatentransformation.

Rn ∋ kB1(v) = vB1 , B1 = {a1, . . . , an}

v ∈ V

Rn ∋ kB2(v) = vB2 , B2 = {b1, . . . , bn}

kB1

kB2

T S

Dabei ist kBk: V −→ Rn der Isomorphismus zwischen V und Rn, der einem Vektor v aus

V seinen Koordinatenvektor vBkbezüglich der Basis Bk zuordnet. Aus der Abbildung liest

man unmittelbar die Koordinatentransformationen ab:

vB1 = S · vB2 oder vB2 = T · vB1 , S = T−1, T = S−1.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 97: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 96

Satz 4.13Seien B1 = {a1, . . . , an} und B2 = {b1, . . . , bn} zwei Basen eines n-dimensionalenVektorraums V . Sei v ∈ V und seien vB1 = (λ1, . . . , λn), vB2 = (µ1, . . . , µn) dieKoordinatenvektoren des Vektors v, d.h.

v =

n∑k=1

λkak resp. v =

n∑k=1

µkbk.

Transformiert man den Koordinatenvektor vB1 in den Koordinatenvektor vB2 , danngilt

vB2 = T · vB1 , T = (a1B2, . . . , anB2

), akB2=

ρ1k...

ρnk

mit ak =

n∑i=1

ρikbi.

Transformiert man den Koordinatenvektor vB2 in den Koordinatenvektor vB1 , danngilt

vB1 = S · vB2 , S = (b1B1, . . . , bnB1

), bkB1=

τ1k...

τnk

mit bk =n∑

i=1

τikai.

Die zwei Transformationsmatrizen T und S sind invers zueinander: T = S−1.

Beispiel 4.16Wir wählen in R2 zwei Basen B1 = {a1, a2} und B2 = {b1, b2} wie folgt

a1 =

(21

), a2 =

(0.51

)und b1 =

(1.50.5

), b2 =

(−0.52

).

Gegeben sei der Vektor v = (4, 3.5)T . Wir berechnen die Koordinatenvektoren von v be-züglich der Basis B1, resp. B2. Seien die Koordinatenvektoren

vB1 =

(λ1

λ2

), vB2 =

(µ1

µ2

).

Die Koordinaten λ1, λ2, resp. µ1, µ2 erhalten wir wie folgt.

v = λ1a1 + λ2a2 ⇔(

43.5

)= λ1

(21

)+ λ2

(0.51

)⇔

4 = 2λ1 + 0.5λ2

3.5 = λ1 + λ2

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 98: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 97

Die Lösungen sind λ1 = 1.5, und λ2 = 2. Somit vB1 = (1.5, 2)T . Analog für die Basis B2:

v = µ1b1 + µ2b2 ⇔(

43.5

)= µ1

(1.50.5

)+ µ2

(−0.52

)⇔

4 = 1.5µ1 − 0.5µ2

3.5 = 0.5µ1 + 2µ2

Die Lösungen sind µ1 = 3, und µ2 = 1. Somit vB2 = (3, 1)T . Die folgende Abbildung zeigtdie Basen B1, B2 und den Vektor v mit den Komponenten bezüglich dieser Basen.

a1a2

3b1 + b2 = v = 1.5a1 + 2a2

1.5a12a2

3b1

b1

b2

Der Koordinatenvektor vB1 = (1.5, 2)T des Vektors v transformiert sich bei Basiswechselalso in den Koordinatenvektor vB2 = (3, 1)T oder umgekehrt.

Beispiel 4.17Sei B1 = {e1, e2, e3} die natürliche Basis von R3 und v = (−2, 1, 3)T ein Vektor aus R3.Bezüglich dieser Basis ist der Koordinatenvektor vB1 = v, denn es gilt allgemein

v =

3∑k=1

λkek ⇔ v =

u1u2u3

= uλ1

100

+λ2

010

+λ3

001

⇒ vB1 =

λ1

uλ2

λ3

= v.

Eine neue Basis B2 = {b1, b2, b3} bestehe aus den Vektoren

b1 =

310

, b2 =

−121

, b3 =

22−3

.

Frage: Wie lautet der Koordinatenvektor vB2 des Vektors v bezüglich dieser Basis B2?

Antwort: vB2 = T · vB1

Weil die Basis B1 die natürliche Basis von R3 ist, ist es einfacher die Basisvektoren bkaus B2 bezüglich B1 auszudrücken, weil dann die Koordinatenvektoren bkB1

gleich denBasisvektoren bk sind, also:

b1B1= b1 =

310

, b2B1= b2 =

−121

, b3B1= b3 =

22−3

.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 99: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 98

Es folgt

S = (b1B1, b2B1

, b3B1) =

3 −1 21 2 20 1 −3

.

Für die Matrix T = S−1 ist

T = S−1 = − 1

25

−8 −1 −63 −9 −41 −3 7

.

Der Koordinatenvektor vB2 lautet bezüglich der Basis B2:

vB2 = T · vB1 = − 1

25

−8 −1 −63 −9 −41 −3 7

−213

=1

25

327−16

.

Dieses Resultat lässt sich überprüfen, denn mit den Koordinaten des KoordinatenvektorsvB2 folgt

v =1

25[3b1 + 27b2 − 16b3] =

1

25

3310

+ 27

−121

− 16

22−3

=

−213

.

Seien V,W und Z endlich-dimensionale Vektorräume. Gegeben seien zwei lineare Abbil-dungen f : V −→ W und g : W −→ Z mit den assozierten Matrizen Af und Ag.

Wie erhält man die assozierte Matrix Ag◦f der Komposition g ◦ f : V −→ Z?

Satz 4.14Seien V , W und Z endlich-dimensionale Vektorräume mit den Basen BV ={v1, . . . , vn}, BW = {w1, . . . , wm} und BZ = {z1, . . . , zp}. Sind f : V −→ W undg : W −→ Z lineare Abbildungen mit den assozierten Matrizen Af = (aij) undAg = (bki), dann ist g ◦f : V −→ Z eine lineare Abbildung mit der assozierten Matrix

Ag◦f = Ag ·Af .

BeweisDie zusammengesetzte Abbildung g◦f : V −→ Z ist nach Satz 4.1 eine lineare Abbildung.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 100: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 99

Sei Ag◦f = (ckj). Die Koeffizienten der assozierten Matrizen erfüllen die Gleichungen

f(vj) =m∑i=1

aijwi, j = 1, . . . , n

g(wi) =

p∑k=1

bkizk, i = 1, . . . ,m

g ◦ f(vj) =p∑

k=1

ckjzk, j = 1, . . . , n.

Wendet man g auf die erste Gleichung an. so erhält man

g ◦ f(vj) = g(f(vj)) = g( m∑i=1

aijwi

)=

m∑i=1

aijg(wi) =

m∑i=1

aij

( p∑k=1

bkizk

)=

p∑k=1

( m∑i=1

bkiaij

)zk, j = 1, . . . , n.

Es folgtp∑

k=1

ckjzk = g ◦ f(vj) =p∑

k=1

( m∑i=1

bkiaij

)zk, j = 1, . . . , n.

Weil {z1, . . . , zp} eine Basis ist, sind die Darstellungen eindeutig und es folgt

ckj =m∑i=1

bkiaij bzw. Ag◦f = Ag ·Af .□

Beispiel 4.18Sei V ein 2-dimensionaler, W ein 4-dimensionaler, und Z ein 3-dimensionaler Vektorraumüber einem Körper K mit den Basen BV = {v1, v2}, BW = {w1, w2, w3, w4} und BZ ={z1, z2, z3}. Seien f : V −→ W und g : W −→ Z lineare Abbildungen mit den assoziertenMatrizen

Af =

−2 30 21 −11 −2

, Ag =

−2 0 3 21 1 5 −2−3 0 −4 1

.

Die assozierte Matrix der Komposition g ◦ f der linearen Abbildungen f und g ist

Ag◦f = Ag ·Af =

−2 0 3 21 1 5 −2−3 0 −4 1

−2 30 21 −11 −2

=

9 −131 43 −7

.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 101: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 100

4.7 Lineare Abbildungen und Basiswechsel

Seif : V −→ W

eine lineare Abbildung von einem n-dimensionalen Vektorraum V in einen m-dimensionalenVektorraum W . Seien BV = {v1, . . . , vn} und B′

V = {v′1, . . . , v′n} zwei Basen von V undBW = {w1, . . . , wm} und B′

W = {w′1, . . . , w

′m} zwei Basen von W . Die Matrix von f

bezüglich den Basen BV und BW sei A.

Sei v ∈ V und sei w = f(v) ∈ W der Bildvektor von v unter der linearen Abbildung f .Für die entsprechenden Koordinatenvektoren gilt:

wBW= f(v)BW

= A · vBVoder kBW

(f(v)) = A · kBV(v).

Das untenstehende Diagramm visualisiert diesen Sachverhalt.

v ∈ V W ∋ w = f(v)

vBV∈Rn Rm ∋ wBW

= A · vBV

f

A

kBVkBW

Frage: Sei A′ die Matrix, die der linearen Abbildung f zugeordnet ist, wenn die lineare Ab-bildung f bezüglich den Basen B′

V und B′W ausgedrückt wird. Wie ist der Zusammenhang

zwischen den Matrizen A und A′ bei diesem Basiswechsel?

Lösung: Für die Koordinatenvektoren vB′V

und wB′W

= f(v)B′W

von v und w = f(v) gilt

wB′W

= f(v)B′W

= A′ · vB′V. (4.11)

Betrachte das Diagramm

v ∈ V W ∋ w = f(v)

vB′V∈Rn Rm ∋ wB′

W= A · vB′

V

f

A′kB′

VkB′

W

Mit dem Basiswechsel von BV nach B′V im Vektorraum V , resp. von BW nach B′

W imVektorraum W , transformieren sich die Koordinatenvektoren vBV

und wBWmit einer n×n

Transformationsmatrix T , resp. m×m Transformationsmatrix P wie folgt

vB′V= T · vBV

, wB′W

= P · wBW. (4.12)

Im Diagramm ist diese Situation wie folgt beschrieben:

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 102: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 101

vBV∈ Rn Rm ∋ wBW

v ∈ V W ∋ w

vB′V∈ Rn Rm ∋ wB′

W

A

A′

kBV

kB′V

kBW

kB′W

PT S = T−1

Aus dem Diagramm kann man ablesen, dass

wBW= A · vBV

, vBV= T−1 · vB′

V.

Somit

wB′W

= P · wBW

= P ·A · vBV

= P ·A · T−1 · vB′V

(4.13)

Vergleicht man die Gleichung (4.13) mit Gleichung (4.11), so folgt für die Matrix A′:

A′ = P ·A · T−1. (4.14)

Satz 4.15Sei f : V −→ W eine lineare Abbildung zwischen den Vektorräumen V und W .Seien BV = {v1, . . . , vn} und B′

V = {v′1, . . . , v′n} zwei Basen von V , sowie BW ={w1, . . . , wn} und B′

W = {w′1, . . . , w

′n} zwei Basen von W . Die lineare Abbildung f

lässt sich bezüglich den Basen BV und BW mit einer m×n Matrix A beschreiben. Seiv ∈ V und w = f(v). Für die Koordinatenvektoren bezüglich BV und BW gilt

wBW= A · vBV

.

Sei T die Transformationsmatrix von BV nach B′V und P die Transformationsmatrix

von BW nach B′W . Dann ist

wB′W

= B · vB′V

mitB = P ·A · T−1.

Beispiel 4.19Gegeben sei die natürliche Basis BR2 = {e1, e2} des Vektorraums R2 und die natürlicheBasis BR3 = {e1, e2, e3} des Vektorraums R3. Bezüglich diesen Basen sei eine lineare Ab-bildung f : R2 −→ R3 durch die Matrix

A =

1 −12 34 −1

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 103: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 102

gegeben. Seien B′R2 = {b1, b2} und B′

R3 = {c1, c2, c3} neue Basen des Vektorraums R2, resp.R3, mit

b1 =

(2−1

), b2 =

(−32

), und c1 =

121

, c2 =

−13−2

, c3 =

012

.

Für die Transformationsmatrix S = T−1 : R2 −→ R2 der Transformation von B′R2 nach

BR2 gilt

S = (b1BR3, b2BR3

) =

(2 −3−1 2

),

und für die Transformationsmatrix Q : R3 −→ R3 der Transformation von B′R3 nach BR3

gilt

Q = (c1BR3, c2BR3

, c3BR3) =

1 −1 02 3 11 −2 2

.

Daraus folgt

P = Q−1 =1

11

8 2 −1−3 2 −1−7 1 5

.

Die Matrix A transformiert sich bei diesem Basiswechsel von BR2 zu B′R2 im R2, resp. von

BR3 zu B′R3 im R3 in die Matrix B:

B = P ·A · S =1

11

8 2 −1−3 2 −1−7 1 5

1 −12 34 −1

( 2 −3−1 2

)=

1

11

17 −26−16 2925 −35

.

Das heisst, wird die lineare Abbildung f : R2 −→ R3 in den neuen Basen B′R2 und B′

R3

ausgedrückt, dann ist B die assozierte Matrix.

4.8 Rang einer Matrix

Der Rang einer Matrix A wurde schon im Kapitel über Matrizen eingeführt und als Anzahlder Pivotelemente von A (= die nach Anwenden des Gauss-Algorithmus auf A resultieren-de Matrix) definiert. Nach Konstruktion sind die Zeilen in A, die nicht Null sind, linearunabhängig. Die elementaren Zeilen- und Spaltenoperationen, die beim Gauss-Algorithmuszur Anwendung kommen, ändern die Anzahl der linear unabhängigen Zeilen (bzw. Spal-ten) nicht. Damit können wir den Rang einer Matrix neu definieren, ohne auf den Gauss-

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 104: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 103

Algorithmus zurückgreifen zu müssen.

Definition 4.6Sei A eine m× n Matrix. Die Anzahl der linear unabhängigen Spaltenvektoren derMatrix A heisst Spaltenrang von A. Die Anzahl der linear unabhängigen Zeilenvek-toren heisst Zeilenrang von A.Der von den Zeilenvektoren von A aufgespannte Unterraum von Kn heisst Zeilenraumvon A, die Spaltenvektoren spannen im Km den Spaltenraum von A auf.

Beispiel 4.20Wir bestimmen den Zeilen- und Spaltenrang der 3× 4 Matrix

A =

−2 4 6 81 0 −1 −21 5 4 3

.

Die Zeilenvektoren der Matrix A sind

z1 = (−2, 4, 6, 8), z2 = (1, 0,−1,−2), z3 = (1, 5, 4, 3).

Der von den Zeilenvektoren z1, z2, z3 aufgespannte Zeilenraum im R4 ist

Lin(z1, z2, z3) ={u ∈ R4 | u = u1z1 + u2z2 + u3z3, u1, u2, u3 ∈ R

}.

Weil der Zeilenraum ein Unterraum des R4 ist, ist jede Zeilenoperation zi + λzk wiederein Vektor aus dem Zeilenraum. Führen wir Zeilenoperation gemäss der Gauss-Eliminationdurch, dann erhalten wir−2 4 6 8

1 0 −1 −21 5 4 3

−→

−2 4 6 80 2 2 20 7 7 7

−→

−2 4 6 80 2 2 20 0 0 0

Wie man offensichtlich sieht, sind die Zeilenvektoren

z1 = (−2, 4, 6, 8), z′2 = (0, 2, 2, 2)

linear unabhängig, und der Zeilenraum ist immer noch derselbe, wird aber neu durch dieZeilenvektoren z1 und z′2 aufgespannt:

Lin(z1, z2, z3) = Lin(z1, z′2).

Der Zeilenrang von A ist somit zwei.

Wir bestimmen nun den Spaltenrang der Matrix A. Die Spaltenvektoren sind

s1 =

−211

, s2 =

405

, s3 =

6−14

, s4 =

8−23

.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 105: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 104

Der von den Spaltenvektoren s1, s2, s3, s4 aufgespannte Spaltenraum im R3 ist

Lin(s1, s2, s3, s4) ={v ∈ R3 | v = v1s1 + v2s2 + v3s3 + v4s4, v1, v2, v3, v4 ∈ R

}.

Der Spaltenraum ist ebenfalls ein Unterraum des R3 und Spaltenoperation si+λsk führennicht zum Spaltenraum hinaus. Gemäss Gauss-Elimination führen wir Spaltenoperationenaus. Also −2 4 6 8

1 0 −1 −21 5 4 3

−→

−2 0 0 01 2 2 21 7 7 7

−→

−2 0 0 01 2 0 01 7 0 0

.

Hier sind die Spalten s1 =

−211

und s′2 =

027

linear unabhängig, und der Spaltenraum

ist der gleiche, wird aber neu durch die Spaltenvektoren s1 und s′2 aufgespannt:

Lin(s1, s2, s3, s4) = Lin(s1, s′2).

Der Spaltenrang von A ist somit ebenfalls zwei.

Wir wollen die Rolle des Spaltenraumes einer Matrix A genauer erklären. Sei V ein n-dimensionaler Vektorraum mit der Basis BV = {a1, . . . , an} und W ein m-dimensionalerVektorraum mit der Basis BW = {b1, . . . , bm}. Die lineare Abbildung

k : V −→ Rn, k(v) = vB,

welche jedem Vektor v ∈ V seinen Koordinatenvektor vB bezüglich der Basis B zuordnet, istein Isomorphismus, unabhängig welche Basis gewählt wird. Sei f : V −→ W eine lineareAbbildung und sei A die Matrix, welche der linearen Abbildung f bezüglich den BasenBV und BW zugeordnet ist. Der Zusammenhang zwischen f , k und A wird in folgendemDiagramm wiedergegeben.

v ∈ V W ∋ w = f(v)

vBV= kBV

(v) ∈Rn Rm ∋ wBW= kBW

(w) = A · vBV

f

A

kBVkBW

Also haben wirkBW

(f(v)) = A · kBV(v).

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 106: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 105

Seien

s1 =

a11...

am1

, . . . , sn =

a1n...

amn

die Spaltenvektoren der Matrix A = (aij). Der Spaltenraum von A ist Lin(s1, . . . , sn).Ist Im(f) der Bildraum der linearen Abbildung f , dann sind Im(f) und SpaltenraumLin(s1, . . . , sn) isomorph:

Im(f) ∼= Lin(s1, . . . , sn).

Wir schränken den Isomorphismus kBW: W −→ Rm auf die Teilräume Im(f) ⊆ W und

Lin(s1, . . . , sn) ⊆ Rm ein:

kBW: Im(f) ⊆ W −→ Lin(s1, . . . , sn) ⊆ Rm, w 7→ kBW

(w) = kBW(f(v)) = A · kBV

(v).

Wir müssen beweisen, dass A · kBV(v) ∈ Lin(s1, . . . , sn) ist. Für

kBV(v) =

λ1...λn

,

gilt

A · kBV(v) =

a11 . . . a1n...

...am1 . . . amn

λ1

...λn

= λ1

a11...

am1

+ . . .+ λn

a1n...

amn

= λ1s1 + . . .+ λnsn ∈ Lin(s1, . . . , sn).

Wir schliessen daraus den folgenden Satz.

Satz 4.16Die Dimension des Bildraums Im(f) einer linearen Abbildung f ist gleich der Dimen-sion des Spaltenraums der Matrix A, die der linearen Abbildung f bezüglich BasenBV von V und BW von W zugeordnet ist:

dim(Im(f)) = dim(Lin(s1, . . . , sn)).

Der Unterraum Im(f) von W habe die Dimension r, also dim(Im(f)) = r. Nach Satz 4.8gilt

dim(V ) = dim(Ker(f)) + dim(Im(f)).

Daraus folgt dim(Ker(f)) = n− r. Sei

BKer(f) = {v′r+1, . . . , v′n}

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 107: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 106

eine Basis von Ker(f). Diese kann erweitert werden zu einer Basis

B′V = {v1, . . . , vr, v′r+1, . . . , v

′n}.

von V . Die Vektoren f(v1), . . . , f(vr) liegen alle in Im(f). Sie sind auch linear unabhängig:Sei dazu

λ1f(v1) + . . . λrf(vr) = 0.

Dann folgt0 = λ1f(v1) + . . .+ λrf(vr) = f(λ1v1 + . . .+ λrvr).

Also ist u = λ1v1 + . . .+ λrvr ∈ Ker(f). Der Vektor u lässt sich auch in der Basis BKer(f)ausdrücken:

u = λ1v1 + . . .+ λrvr = λr+1v′r+1 + . . .+ λnv

′n

oderλ1v1 + . . .+ λrvr − λr+1v

′r+1 − . . .− λnv

′n = 0.

Weil nun die Vektoren v1, . . . , vr, v′r+1, . . . , v

′n als Basis B′

V von V linear unabhängig sind,folgt

λ1 = . . . = λr = λr+1 = . . . = λn = 0.

Insbesondere λ1 = . . . = λr = 0, also sind die Vektoren f(v1), . . . , f(vr) linear unabhängigund weil dim(Im(f)) = r ist, bilden sie eine Basis

BIm(f) = {f(v1), . . . , f(vr)}.

von Im(f). Diese Basis kann zu einer Basis von W erweitert werden:

B′W = {f(v1), . . . , f(vr), wr+1, . . . , wm}.

Die Matrix A′, die der Abbildung f bezüglich den Basen B′V und B′

W zugeordnet ist, istdie Matrix

A′ = (f(v1)B′W, . . . , f(vr)B′

W, f(v′r+1)B′

W, . . . , f(v′n)B′

W).

Dabei ist

f(v1) = 1 · f(v1) + 0 · f(v2) + . . .+ 0 · f(vr) + 0 · wr+1 + . . .+ 0 · wm

f(v2) = 0 · f(v1) + 1 · f(v2) + . . .+ 0 · f(vr) + 0 · wr+1 + . . .+ 0 · wm

...f(vr) = 0 · f(v1) + 0 · f(v2) + . . .+ 1 · f(vr) + 0 · wr+1 + . . .+ 0 · wm

f(v′r+1) = 0 · f(v1) + 0 · f(v2) + . . .+ 0 · f(vr) + 0 · wr+1 + . . .+ 0 · wm

...f(v′n) = 0 · f(v1) + 0 · f(v2) + . . .+ 0 · f(vr) + 0 · wr+1 + . . .+ 0 · wm

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 108: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 107

Daraus folgt

f(v1)B′W

=

10...0

0...0

, f(v2)B′

W=

01...0

0...0

, . . . f(vr)B′

W=

00...1

0...0

,

f(v′r+1)B′W

=

00...0

0...0

, . . . f(v′n)B′

W=

00...0

0...0

.

Die Matrix A′ der linearen Abbildung f bezüglich den Basen B′V , resp. B′

W ist dann

A′ =

1 0 . . . 0 0 . . . 00 1 . . . 0 0 . . . 0... 0 . . . 0 0 . . . 00 0 . . . 1 0 . . . 0

0 0 . . . 0 0 . . . 0...

......

... . . ....

0 0 . . . 0 0 . . . 0

.

Aus der Form der Matrix A′ sehen wir, dass der Spaltenrang gleich dem Zeilenrang istund gleich r = dim(Im(f)) ist. Man kann immer eine Basis B′

V von V und eine Basis B′W

von W finden, so dass die Matrix A′ die obenstehende Gestalt hat. Der Spaltenrang derürsprünglichen Matrix A ist gleich dem Spaltenrang der neuen Matrix A′. Wir schliessendaraus den folgenden Satz.

Satz 4.17Sei A eine m × n Matrix, die der linearen Abbildung f : V −→ W bezüglich denBasen BV von V und BW von W zugeordnet ist. Der Spaltenrang der Matrix A istgleich dem Zeilenrang und ist gleich dim(Im(f)).

Weil der Zeilenrang und der Spaltenrang einer Matrix A gleich sind, spricht man nur vomRang der Matrix A.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 109: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 108

Definition 4.7Die Dimension des Zeilen- und des Spaltenraumes einer Matrix A heisst Rang von Aund wird mit rang(A) bezeichnet.

Mit dem Zeilen- oder dem Spaltenrang der Matrix A hat man sofort die Dimension desBildraums Im(f) der linearen Abbildung f : V −→ W .

Beispiel 4.21Wir bestimmen die Dimension von Ker(f) und Im(f) der linearen Abbildung f : V −→ Wmit Hilfe der zugeordneten Matrix

A =

1 −3 4 −2 5 42 −6 9 −1 8 22 −6 9 −1 9 7−1 3 −4 2 −5 −4

.

Daraus folgt unmittelbar dim(V ) = 6, dim(W ) = 4. Wir bestimmen den Zeilenrang mitHilfe der Gauss-Elimination, resp. mit Hilfe von rref:

1 −3 4 −2 5 42 −6 9 −1 8 22 −6 9 −1 9 7−1 3 −4 2 −5 −4

rref−→

1 −3 0 −14 0 −370 0 1 3 0 40 0 0 0 1 50 0 0 0 0 0

.

Aus der Stufenform der Gauss-Elimination lesen wir heraus, dass wir drei linear unabhän-gige Zeilenvektoren, resp. drei linear unabhängige Spaltenvektoren haben. Somit

rang(A) = 3, dim(Im(f)) = 3, dim(Ker(f)) = dim(V )− dim(Im(f)) = 3.

4.9 Diagonalisierung quadratischer Matrizen

In diesem Abschnitt betrachten wir lineare Abbildungen von einem n-dimensionalen Vek-torraum V in sich selbst:

f : V −→ V.

Bezüglich einer Basis B = {a1, . . . , an} lässt sich der linearen Abbildungen f eine quadra-tische n× n Matrix A zuordnen. Die Spaltenvektoren der Matrix A sind die Koordinaten-vektoren f/ak)B:

A = (f(a1)B, . . . , f(an)B).

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 110: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 109

Dabei ist

f(ak)B =

a1k...

ank

und f(ak) =

n∑i=1

aikai.

Bezüglich einer anderen Basis B′ = {b1, . . . , bn} ist der linearen Abbildungen f eine qua-dratische n× n Matrix A′ zugeordnet. Dabei gilt nach Satz 4.15

A′ = P ·A · T−1.

Wir bestimmen nun die Basis B′ so, dass die Matrix A′ möglichst einfach, d.h. diagonalwird, also

A′ =

λ1 0 . . . 00 λ2 0 . . . 0

. . ....

... λn−1 00 . . . 0 λn

⇔ A′ik =

{0 falls i = k

λk falls i = k.

Für die Matrix A′ gilt:A′ = (f(b1)B′ , . . . , f(bn)B′)

mit

f(bk)B′ =

A′1k...

A′nk

und f(bk) =

n∑i=1

A′ikbi = λkbk. (4.15)

Damit die Matrix A′ diagonal wird, mit den Diagonalwerten λk, müssen die Basisvektorenbk der Basis B′ wie folgt gewählt werden:

f(bk) = λkbk. (4.16)

Definition 4.8Sei f : V −→ V eine lineare Abbildung. Gibt es einen Skalar λ ∈ K und einen Vektorv ∈ V mit v = 0 mit der Eigenschaft f(v) = λv, so wird v ein Eigenvektor derlinearen Abbildung f zum Eigenwert λ genannt.

Sind die Basisvektoren B′ = {b1, . . . , bn} der gesuchten Basis B′ Eigenvektoren der linearenAbbildungen f , dann ist die Matrix A′ diagonal, und die Diagonalwerte sind die Eigenwerteλk der Eigenvektoren bk.

ZHAW bodr, 28. April 2014 LA1Manuskript.tex

Page 111: Lineare Algebra ILineare Algebra I Zürcher Hochschule für Angewandte Wissenschaften Richard Bödi Basierend auf dem Linearen Algebra Manuskript von Roger Manz. Inhaltsverzeichnis

KAPITEL 4. LINEARE ABBILDUNGEN UND MATRIZEN 110

Wie die Eigenvektoren, resp. die Eigenwerte einer linearen Abbildungen f : V −→ Vberechnet werden, wird in einem eigenen Kapitel gezeigt.

BemerkungDas PageRank-Problem Px = x ist ein Eigenwert-Problem. Gesucht sind alle Eigenvekto-ren zum Eigenwert 1.

Beispiel 4.22Sei V = R2 und sei B = {e1, e2} die natürliche Basis. Bezüglich der natürlichen Basis Bist der Koordinatenvektor vB eines Vektors v gleich dem Vektor v, also

vB = v.

Sei f : R2 −→ R2 eine lineare Abbildung, die bezüglich der Basis B mit der Matrix

A =

(2 0−1 4

)beschrieben wird. Sei B′ = {b1, b2} mit

b1 =

(21

), b2 =

(01

)eine neue Basis von R2. Sie besteht aus Eigenvektoren. Das sieht man folgendermassen ein.Weil b1 und b2 bezüglich B ausgedrückt werden, gilt:

f(b1) = Ab1 =

(2 0−1 4

)(21

)=

(42

)= 2

(21

)= 2b1,

und

f(b2) = Ab2 =

(2 0−1 4

)(01

)=

(04

)= 4

(01

)= 4b2.

Die Eigenwerte sind 2 für b1 und 4 für b2. Es gilt

f(b1) = 2b1 + 0b2 ⇒ f(b1)B′ =

(20

)f(b2) = 0b1 + 4b2 ⇒ f(b2)B′ =

(04

).

Bezüglich der neuen Basis B′, bestehend aus Eigenvektoren b1 und b2, ist die Matrix A′,welche der linearen Abbildungen f zugeordnet ist, diagonal:

A′ = (f(b1)B′ , f(b2)B′) =

(2 00 4

).

Die Transformationsmatrizen S und T = S−1 sind

S = (b1B, b2B) =

(2 01 1

)⇒ T = S−1 = 1

2

(1 0−1 2

).

Zur Überprüfung

A′ = T ·A · S = 12

(1 0−1 2

)(2 0−1 4

)(2 01 1

)=

(2 00 4

).

ZHAW bodr, 28. April 2014 LA1Manuskript.tex