147
Lineare Algebra und Analytische Geometrie I Wolf P. Barth Wintersemester 02/03 Mathematisches Institut der Universit¨ at Erlangen, Bismarckstraße 1 1 2 e-mail: [email protected] Version vom 6. M¨ arz 2003 Inhaltsverzeichnis 0 Einf¨ uhrung 2 1 Der Zahlenraum IR n 4 1.1 Lineare Gleichungssysteme ..... 4 1.2 Vektorrechnung im IR n ....... 13 1.3 Lineare Unterr¨ aume ........ 18 1.4 Lineare (Un-) Abh¨ angigkeit .... 22 1.5 Skalarprodukt im IR n ....... 31 2 Matrizen und Determinanten 39 2.1 Bewegungen im IR n ......... 39 2.2 Lineare Abbildungen und Matrizen 44 2.3 Matrizenrechnung ......... 48 2.4 Permutationen und Permutations- matrizen ............... 59 2.5 Die Determinante einer (n × n)- Matrix ................ 65 2.6 Eigenschaften der Determinante . . 69 3 Vektorr¨ aume 78 3.1 Gruppen ............... 78 3.2 orper ................ 81 3.3 Vektorr¨ aume ............ 84 3.4 Untervektorr¨ aume und Quotien- tenvektorr¨ aume ........... 89 3.5 Lineare Abbildungen ........ 93 3.6 Der Dualraum ........... 98 4 Koordinatentransformationen und ¨ Ahnlichkeit von Matrizen 103 4.1 Basiswechsel und Koordinaten- transformationen .......... 103 4.2 Eigenwerttheorie .......... 108 4.3 Der Satz von Cayley-Hamilton .. 122 4.4 Die Jordansche Normalform .... 131 4.5 Die Hauptachsentransformation . . 138

Vorlesung Vektorrechnung Analytische Geometrie Laset

  • Upload
    udgard

  • View
    352

  • Download
    1

Embed Size (px)

Citation preview

Page 1: Vorlesung Vektorrechnung Analytische Geometrie Laset

Lineare Algebra und Analytische Geometrie I

Wolf P. Barth

Wintersemester 02/03

Mathematisches Institut der UniversitatErlangen, Bismarckstraße 11

2e-mail: [email protected]

Version vom 6. Marz 2003

Inhaltsverzeichnis

0 Einfuhrung 2

1 Der Zahlenraum IRn 41.1 Lineare Gleichungssysteme . . . . . 41.2 Vektorrechnung im IRn . . . . . . . 131.3 Lineare Unterraume . . . . . . . . 181.4 Lineare (Un-) Abhangigkeit . . . . 221.5 Skalarprodukt im IRn . . . . . . . 31

2 Matrizen und Determinanten 392.1 Bewegungen im IRn . . . . . . . . . 392.2 Lineare Abbildungen und Matrizen 442.3 Matrizenrechnung . . . . . . . . . 482.4 Permutationen und Permutations-

matrizen . . . . . . . . . . . . . . . 592.5 Die Determinante einer (n × n)-

Matrix . . . . . . . . . . . . . . . . 65

2.6 Eigenschaften der Determinante . . 69

3 Vektorraume 783.1 Gruppen . . . . . . . . . . . . . . . 783.2 Korper . . . . . . . . . . . . . . . . 813.3 Vektorraume . . . . . . . . . . . . 843.4 Untervektorraume und Quotien-

tenvektorraume . . . . . . . . . . . 893.5 Lineare Abbildungen . . . . . . . . 933.6 Der Dualraum . . . . . . . . . . . 98

4 Koordinatentransformationen undAhnlichkeit von Matrizen 1034.1 Basiswechsel und Koordinaten-

transformationen . . . . . . . . . . 1034.2 Eigenwerttheorie . . . . . . . . . . 1084.3 Der Satz von Cayley-Hamilton . . 1224.4 Die Jordansche Normalform . . . . 1314.5 Die Hauptachsentransformation . . 138

Page 2: Vorlesung Vektorrechnung Analytische Geometrie Laset

0 Einfuhrung

An allen deutschen Universitaten mussen die Studenten der Mathematik (und auch der Physik) inden ersten Semestern die Vorlesungen ”Analysis“ und ”Lineare Algebra und Analytische Geometrie“horen. Das ist sinnvoll, weil der Stoff beider Vorlesungen fur jede Art von Mathematik - sei sie reinoder angewandt - fundamental ist. Der Stoff der Analysis-Vorlesungen ist Differentiation und Inte-gration, das kennt man im Prinzip aus dem Gymnasium. Diese Art von Mathematik wurde um dasJahr 1700 herum, im wesentlichen von I. Newton und G.W. Leibniz erfunden. Die Entwicklung derAnalysis verlief Hand in Hand mit der Entwicklung ihrer Anwendungen in Physik und Ingenieurwis-senschaften. Um 1700 waren ja auch die Wissenschaften Mathematik und Physik bei weitem nicht sovoneinander abgegrenzt wie heute. Die Analysis hat dann um 1900 ihren Einzug in den Mathematik-stoff der Gymnasien gefunden. Sie ist eine naturlich gewachsene Disziplin, mit starker Beziehung zuAnwendungen.

Anders ist es mit der Linearen Algebra. Die gab es vor dem zweiten Weltkrieg nicht als eigenstandi-ge Vorlesung. Naturlich gab es ihre Rechentechniken (vor allem lineare Gleichungssysteme, Matrizen,Determinanten) schon viel fruher. Aber man hat diese Rechentechniken damals nicht zu einem struk-turierten System zusammengefasst. Das tat man erst, nachdem auch die Algebra, fruher die Lehrevon den Gleichungen, seit den zwanziger Jahren des letzten Jahrhunderts, zu einer Lehre von Re-chenstrukturen wurde. Vor dem Krieg geschah dies vor allem unter dem Einfluss der in Erlangengeborenen Mathematikerin Emmy Noether, nach dem Krieg vor allem unter dem Einfluss einer Schulefranzosischer Mathematiker, die sich hinter dem Pseudonym ”N. Bourbaki“ verbargen.

Vorlesungen uber Geometrie, sei es analytische oder andere, dagegen gibt es, seit es Mathematik-vorlesungen gibt. Geometrie, schon den antiken Agyptern und Griechen bekannt, ist zusammen mitder Algebra die alteste Teildisziplin der Mathematik. Die Analytische Geometrie verlor nach und nachihren eigenstandigen Charakter, seit Descartes die kartesischen Koordinaten erfand. Seitdem kannman geometrische Beweise auch durch Koordinatenrechnungen erbringen. Dies fuhrte - vor allem in19. Jahrhundert - zu einem erbitterten Gegensatz zwischen den reinen (”synthetischen“) Geometern,und den Koordinatenrechnern, die die Geometrie als eine Anwendung der Algebra sahen.

Und es stellte sich eben heraus, dass genau das, was man unter ”Analytischer Geometrie“ versteht,eine Anwendung der Linearen Algebra ist. So wurde dann aus der Vorlesung ”Analytische Geometrie“,fruher eine Standardvorlesung fur Anfanger, die Vorlesung ”Lineare Algebra und Analytische Geome-trie“. Nach und nach traten dabei die Strukturen der Linearen Algebra in den Vordergrund, und diez.T. Jahrtausende alten geometrischen Inhalte in den Hintergrund. Das hat sich bis in die Gymnasienausgewirkt, wo leider auch der Stellenwert der Geometrie sehr gelitten hat.

Die grundlegenden Rechenmethoden der Analysis (Grenzwertbildung, Differenzieren, Integrieren)und der Linearen Algebra (Lineare Gleichungssysteme, Vektoren, Matrizen) sind zumindest rudi-mentar vom Gymnasium her vertraut. Ich habe die Erfahrung gemacht, dass die Studenten im erstenSemester mit der Linearen Algebra ganz andersartige Probleme, als mit der Analysis haben. In derLinearen Algebra liegt namlich sehr bald das Schwergewicht auf der Untersuchung mathematischer

”Strukturen“. Das ist in der Geschichte der Mathematik etwas relativ Neues. Erst in den letzten 100bis 150 Jahren schenkt man diesem Gesichtspunkt in der Mathematik Aufmerksamkeit. Und leiderist es genau das, was den Anfangern immer große Schwierigkeiten bereitet. Aber weil es eben eine derganz wichtigen Methoden in der modernen Mathematik ist, mussen wir uns damit befassen.

Jetzt sollte eigentlich eine Liste von Lehrbuchern der Linearen Algebra kommen. Eine solche Listezusammenzustellen ist nicht einfach: Bucher zur Linearen Algebra gibt es viele, aber keines, welches

2

Page 3: Vorlesung Vektorrechnung Analytische Geometrie Laset

mir zusagt. Das ist auch der Grund dafur, dass ich im WS 91/92 ein Skriptum geschrieben habe, dasich damals an die Studenten ausgab. Das positive Echo auf jenes Skriptum hat mich bewogen, seitdemzu den meisten meiner Vorlesungen den Studenten ein eigenes Skriptum an die Hand zu geben. Dasvorliegende Skriptum ist eine aufpolierte Version meines Skriptums von 91/92. Es unterscheidet sichvor allem durch meine gewachsene Fahigkeit, das mathematische Drucksystem TEX zu benutzen.Trotzdem, noch eine Liste von Standardlehrbuchern:

E. Brieskorn: Lineare Algebra und analytische Geometrie 1, 2, Vieweg 1983, 85G. Fischer: Lineare Algebra, Vieweg 1975W. Graeub: Lineare Algebra, Springer 1958H.J. Kowalsky: Lineare Algebra, de Gruyter 1963F. Lorenz: Lineare Algebra I, II, BI 1981, 1982

Nach jedem Abschnitt finden Sie eine Anzahl von Ubungsaufgaben. Einige habe ich mir selbstausgedacht, andere aus Quellen ubernommen, an die ich mich jetzt nicht mehr erinnere. Sehr vieleaber stammen aus Staatsexamensklausuren: entweder aus dem fruheren Vorexamen (Kennzeichen[V]) oder dem nicht-vertieften Examen (Kennzeichen [NV]). Aus diesen Aufgaben werde ich IhreUbungsaufgaben auswahlen.

3

Page 4: Vorlesung Vektorrechnung Analytische Geometrie Laset

1 Der Zahlenraum IRn

1.1 Lineare Gleichungssysteme

Lineare Gleichungssysteme sind die einzige Art von Gleichungen in der Mathematik, welche wirklichexakt losbar sind. Wir beginnen mit einem Beispiel, wie es schon aus der Antike uberliefert ist.

Beispiel 1. In einem Kafig seien Hasen und Huhner. Die Anzahl der Kopfe sei insgesamt 4, die Anzahlder Beine sei insgesamt 10. Frage: Wieviele Hasen und wieviele Huhner sind es?

Losung: Es sei x die Anzahl der Hasen und y die Anzahl der Huhner. Dann gilt also

x + y = 44x + 2y = 10

Dies ist ein System aus zwei linearen Gleichungen in zwei Unbekannten x und y. Wir konnen aus derersten Gleichung x = 4− y eliminieren und in die zweite einsetzen:

4(4− y) + 2y = 1016− 2y = 10−2y = −6y = 3x = 1

Antwort: Es sind drei Huhner und ein Hase.

Beispiel 2. Gegeben sei ein elektrisches Netzwerk der Form

U

R1 R2 R3

6 ? ?I1 I2 I3

Dabei seien U,R1, R2, R3 gegeben und I1, I2 und I3 gesucht.Losung: Nach den sogenannten Kirchhoffschen Gesetzen der Physik hat man die Gleichungen

I1 = I2 + I3, sowie R2I2 = R3I3 und R1I1 + R2I2 = U. Wir schreiben sie als ein System aus dreilinearen Gleichungen in den drei Unbekannten I1, I2 und I3 :

I1 − I2 − I3 = 0R2I2 − R3I3 = 0

R1I1 + R2I2 = U

Wir konnen hier etwa I1 = I2 + I3 eliminieren, um folgendes System aus zwei linearen Gleichungen inden Unbekannten I2 und I3 zu erhalten:

R2I2 − R3I3 = 0(R1 +R2)I2 + R1I3 = U

4

Page 5: Vorlesung Vektorrechnung Analytische Geometrie Laset

Hier eliminieren wir I2 = R3R2I3 (hoffentlich ist R2 6= 0 !) und erhalten schließlich die Gleichung

(R1 +R2)R3

R2I3 +R1I3 = U

(R1R2 +R1R3 +R2R3)I3 = R2U

I3 =R2U

R1R2 +R1R3 +R2R3

Aus den Eliminationsgleichungen fur I2 und I1 erhalten wir

I2 =R3U

R1R2 +R1R3 +R2R3, I1 =

(R2 +R3)UR1R2 +R1R3 +R2R3

.

Nach diesen Beispielen diskutieren wir jetzt den Allgemeinfall, wobei wir besonders darauf achtenmussen, welche Spezialfalle und Ausnahmen auftreten konnen:

Eine lineare Gleichung ist eine Gleichung der Art

a1x1 + a2x2 + ...+ anxn = b,

wo a1, a2, ..., an, b gegebene reelle Zahlen sind, und die reellen Zahlen x1, x2, ..., xn unbekannt undgesucht sind. Wir mussen leider verschiedene Falle unterscheiden:

A: Nicht alle Koeffizienten a1, ..., an sind 0. Dann sei etwa am, 1 ≤ m ≤ n, der erste von 0verschiedene Koeffizient. Die Gleichung sieht so aus:

0 · x1 + ...+ 0 · xm−1 + am · xm + am+1 · xm+1 + ...+ an · xn = b.

Wir konnen also x1, ..., xm−1 beliebig wahlen, auf die Gultigkeit der Gleichung hat dies keinen Einfluß.Ebenso konnen wir xm+1, ..., xn beliebig wahlen. Anschließend setzen wir

xm := (b− am+1xm+1 − ...− anxn)/am.

Damit haben wir fur jede Wahl der x1, ..., xm−1, xm+1, ..., xn die Gleichung gelost. Dies ist auf dieseWeise nur moglich, weil am 6= 0.

B1: Alle Koeffizienten a1, ..., an sind 0, aber es ist b 6= 0. Das Gleichungssystem hat dann diemerkwurdige Form

0 · x1 + ...+ 0 · xn = b.

Egal, wie man auch die Unbekannten x1, ..., xn wahlt, diese Gleichung ist nie zu erfullen. Sie istunlosbar.

B2: Alle Koeffizienten a1, ..., an sind 0 und auch b = 0. In diesem reichlich uninteressanten Fall istdie Gleichung stets erfullt, sie stellt keinerlei Bedingungen an die Unbekannten.

Ein lineares Gleichungssystem ist ein System

a1,1x1 + a1,2x2 + ... + a1,nxn = b1a2,1x1 + a2,2x2 + ... + a2,nxn = b2

......

......

am,1x1 + am,2x2 + ... + am,nxn = bm

5

Page 6: Vorlesung Vektorrechnung Analytische Geometrie Laset

aus mehreren linearen Gleichungen. Jedes derartige System kann man mit dem Eliminationsverfahrenbehandeln, so, wie wir es an den obigen einfachen Beispielen gesehen haben. Wir beschreiben dieseElimination jetzt in einer etwas formaleren Weise, um die Ubersicht nicht zu verlieren.

Wenn alle Koeffizienten a1,1, ..., am,1 in der ersten Spalte 0 sind, stellt das System keine Bedingungan die Unbekannte x1. Diese ist vollig frei wahlbar und auf die erste Spalte des Systems kommt esnicht an. Ist aber einer der Koeffizienten a1,1, ..., am,1 aus der ersten Spalte 6= 0, so sei etwa ap,1 davonder erste. Wir vertauschen die erste und die p−te Zeile. Dabei andern sich die Losungen des Systemsnicht. Aber danach haben wir a1,1 6= 0. Deswegen konnen wir die erste Zeile durch a1,1 dividieren undwieder andern sich die Losungen nicht. Dann sieht die erste Zeile so aus:

x1 +a1,2

a1,1x2 + ...+

a1,n

a1,1=

b1a1,1

.

Wir eliminieren nun x1, allerdings ohne die Eliminationsgleichung explizit hinzuschreiben, aus denrestlichen Gleichungen, indem wir von der zweiten, ..., m-ten Zeile a2,1 mal, ..., am,1 mal die ersteZeile subtrahieren. Da wir dies, wenn wir wollen, auch wieder ruckgangig machen konnen, andern sichauch hier die Losungen nicht, und unser Gleichungssystem nimmt die Form

x1 + a′1,2x2 + ... + a′1,nxn = b′1a′2,2x2 + ... + a′2,nxn = b′2

......

...a′m,2x2 + ... + a′m,nxn = b′m

an, mit neuen Koeffizienten a′1,2, ..., a′m,n und neuen Konstanten b′1, ..., b

′m. Jetzt kommt es nur noch

darauf an, die letzten m − 1 Gleichungen aufzulosen. Gelingt dies, so setzen wir deren Losungenx2, ..., xn in die erste Gleichung ein und berechnen daraus x1.

Indem wir dieses Verfahren sukzessive wiederholen, konnen wir das Gleichungssystem losen, außerwir gelangen irgend wann zu einer unlosbaren linearen Gleichung (Fall B1 von oben).

Wegen seiner prinzipiellen Wichtigkeit mussen wir das Eliminationsverfahren noch etwas weiterformalisieren. Dazu vereinbaren wir folgenden Sprachgebrauch (”Definitionen“):

Die Koeffizientenmatrix des Gleichungssystems ist das rechteckige Zahlenschemaa1,1 a1,2 ... a1,n

a2,1 a2,2 ... a2,n...

......

am,1 am,2 ... am,n

.Wenn wir hieran die rechten Seiten der Gleichungen anfugen

a1,1 a1,2 ... a1,n b1a2,1 a2,2 ... a2,n b2

......

......

am,1 am,2 ... am,n bm

,

so nennen wir dies erweiterte Koeffizientenmatrix.Die Veranderungen, welche wir am Gleichungssystem vornahmen, ohne seine Losungsmenge zu

andern, nennen wir elementare Zeilenumformungen. Es gibt drei Sorten davon:

6

Page 7: Vorlesung Vektorrechnung Analytische Geometrie Laset

Typ I: Vertauschen zweier Zeilen,Typ II: Multiplikation einer Zeile mit einer Konstanten c 6= 0,Typ III: Addition des c-fachen einer Zeile, c ∈ IR beliebig, zu einer anderen.

Mit diesen drei Sorten elementarer Zeilenumformungen konnen wir, links beginnend, eine Spaltenach der anderen leerfegen:

- Sind alle Koeffizienten in der Spalte 0, so andern wir nichts, sondern wenden uns sogleich dernachsten Spalte zu.

- Sind Koeffizienten in der Spalte 6= 0, davon der erste etwa in der p-ten Zeile, so vertauschen wirdiese p-te Zeile mit der ersten (Umformung vom Typ I). Anschließend multiplizieren wir die erste Zeilemit dem Kehrwert dieses Koeffizienten durch (Typ II), um zu erreichen, dass in dieser ersten Zeile dererste Koeffizient 1 ist. Schließlich addieren wir ein geeignetes Vielfaches der ersten Zeile zu jeder derfolgenden Zeilen (Typ III), um dort den Koeffizienten aus der ersten Spalte zu beseitigen.

- Haben wir erreicht, dass der erste Koeffizient einer Spalte = 1 und alle weiteren = 0 sind, lassenwir die erste Zeile beiseite und wenden uns der nachsten Spalte zu.

Beispiel 1: gegeben

(0 2 42 3 4

)

vertauschen erste und zweite Zeile

(2 3 40 2 4

)

Multiplikation beider Zeilen mit 12

(1 3

2 20 1 2

)

Beispiel 2: gegeben

(1 2 32 4 5

)

zweite Zeile minus zweimal erste

(1 2 30 0 −1

)

Multiplikation der zweiten Zeile mit −1

(1 2 30 0 1

)

Wir fassen das Resultat unserer Matrizen-Manipulationen zusammen:

Satz 1.1 Jede Matrix lasst sich durch elementare Zeilenumformungen auf eine Zeilenstufenform

n0︷︸︸︷0...0 1

n1︷︸︸︷∗...∗ ∗ ... ∗

nr︷︸︸︷∗...∗

. 0 0...0 1 ... ∗ ∗...∗

. . . 0 . 1 ∗...∗

. . . . . 0 0...00...0 0 0...0 0 0...0 0 0...0

bringen. Dabei konnen die Stufenlangen n0, n1, ..., nr eventuell 0 sein, und r, die Anzahl der Stufen

7

Page 8: Vorlesung Vektorrechnung Analytische Geometrie Laset

kann mit der Gesamtzahl aller Zeilen ubereinstimmen, sodass also keine Nullzeilen am unteren Endeder Matrix auftreten.

Da sich bei elementaren Umformungen der Koeffizientenmatrix die Losungen eines linearen Glei-chungssystems nicht andern, konnen wir diese Losungen auch bestimmen, nachdem wir die erweiterteKoeffizientenmatrix in Zeilenstufenform vorliegen haben. Ob das System losbar ist oder nicht, lesenwir an der letzten Stufe ab:

losbar unlosbar0...0 1 ... . ... . ... .

0 0...0 1 ... . ... .0 ... . ... .

... 1 ... .0 0...0 0

0...0 1 ... . ... . ... .0 0...0 1 ... . ... .

0 0...0 . ... .1 ... .0 0...0 1

... 0

In der Tat, die letzte Gleichung des rechten Systems lautet 0 ·xn = 1 und ist unlosbar. Und wenn eineGleichung unlosbar ist, dann ist das ganze System auch nicht losbar.

Wenn das System in Zeilenstufenform vorliegt, dann kann man die Unbekannten, die nicht zu einerStufe gehoren, beliebig vorgeben. Die Unbekannten, welche in einer Spalte mit Stufe stehen, konnen,in der letzten Zeile beginnend, einzeln berechnet werden, worauf sie in die vorhergehenden Zeileneingesetzt werden mussen.

Dieses Losungsverfahren, mit dem jedes System von linearen Gleichungen behandelt werden kann,heißt Gaußsches Eliminationsverfahren oder Gauß-Algorithmus. Seine Bedeutung, vor allem in derAngewandten Mathematik, ist immens.

Manche Mathematiker sind mit einer Zeilenstufenform noch nicht zufrieden. Wenn die Koeffizien-tenmatrix z.B. quadratisch ist, und die Zeilenstufemform so aussieht

Z =

1 z1,2 ... z1,n b′1

0 1. . .

......

.... . . zn−1,n b′n−1

0 0 1 b′n

,

kann man die Umformungen noch etwas weiter treiben:

Vorletzte Zeile - zn−1,n-mal die letzte Zeile,(n− 2)-te Zeile - zn−2,n-mal die letzte Zeile,

...erste Zeile - z1,n-mal die letzte Zeile.

Damit hat man erreicht, dass in der letzten Spalte alle Eintrage = 0 sind, bis auf den Eintrag = 1ganz unten. Mit einem analogen Verfahren, kann man auch alle Eintrage in der vorletzten Spalte auf0 bringen, bis auf den vorletzten Eintrag = 1. Man muss dazu von jeder Zeile geeignete Vielfache derletzten Zeile abziehen. Wenn man dies von rechts nach links mit allen Spalten macht, sieht am Ende

8

Page 9: Vorlesung Vektorrechnung Analytische Geometrie Laset

die erweiterte Koeffizientenmatrix so aus:

1 0 ... 0 b′′1

0 1... b′′2

.... . . . . .

......

0 ... 0 1 b′′n

.

Dazu gehort das besonders einfache Gleichungssystem

1 · x1 = b′′1...

1 · xn = b′′n

Hier kann man die Losungx1 = b′′1, ..., xn = b′′n

sehr einfach ablesen.

Wir schreiben lineare Gleichungssysteme noch etwas formaler

n∑ν=1

aµ,ν · xν = bµ, µ = 1, ...,m,

und beschließen diesen ersten Abschnitt mit einigen allgemeinen Tatsachen. Dabei nennen wir ein Glei-chungssystem homogen, wenn alle Zahlen b1, ..., bm auf seiner rechten Seite 0 sind. Andernfalls nennenwir das Gleichungssystem inhomogen. Ein homogenes Gleichungssystem hat immer die uninteressantetriviale Losung x1 = ... = xn = 0.

Satz 1.2 (Mehr Unbekannte als Gleichungen) Das homogene lineare Gleichungssystem

n∑ν=1

aµ,ν · xν = 0, µ = 1, ...,m,

habe n Unbekannte und m < n Zeilen. Dann konnen in den Losungen (x1, ..., xn) mindestens n −mParameter frei gewahlt werden.

Beweis. Die Anzahl der Stufen in einer Matrix mit n Spalten und m Zeilen ist hochstens m. Somitgibt es mindestens n −m Spalten, in denen keine Stufe steht, und in denen die Unbekannte beliebiggewahlt werden kann.

Satz 1.3 (Struktursatz) Ist eine spezielle Losung (y1, ..., yn) des inhomogenen Systems

n∑ν=1

aµ,ν · xν = bµ, µ = 1, ...,m

bekannt, so erhalt man daraus alle Losungen des inhomogenen Systems durch Addition aller Losungendes zugehorigen homogenen Systems.

9

Page 10: Vorlesung Vektorrechnung Analytische Geometrie Laset

Beweis. Nach Annahme ist fur µ = 1, ...,mn∑ν=1

aµ,ν · yν = bµ.

Deswegen haben wirn∑ν=1

aµ,ν · xν = bµ genau dann, wennn∑ν=1

aµ,ν · (xν − yν) = 0,

das heißt, wenn (x1 − y1, ..., xn − yn) eine Losung des homogenen Systems ist.

Aufgabe 1.1 Wenn funf Ochsen und zwei Schafe acht Taels Gold kosten, sowie zwei Ochsen und achtSchafe auch acht Taels, was ist dann der Preis eines Tieres? (Chiu-chang Suan-chu, ∼ 300 n.Chr.)

Aufgabe 1.2 Auf einem Markt gibt es Huhner zu kaufen. Ein Hahn kostet drei Geldstucke, eineHenne zwei, und Kuken kann man drei fur ein Geldstuck haben. Wie muss man es einrichten, umfur 100 Geldstucke 100 Huhner zu bekommen? (Hinweise: Es gibt mehrere Losungen, alle sind zubestimmen. Als Anzahlen von Huhnern sind dabei nur ganze Zahlen ≥ 0 zugelassen.)

Aufgabe 1.3 Bestimmen Sie alle Losungen des folgenden Gleichungssystems

2x1 − x2 − x3 + 3x4 + 2x5 = 6−4x1 + 2x2 + 3x3 − 3x4 − 2x5 = −5

6x1 − 2x2 + 3x3 − x5 = −32x1 + 4x3 − 7x4 − 3x5 = −8

x2 + 8x3 − 5x4 − x5 = −3

Aufgabe 1.4 Es seien r, s, t drei verschiedene reelle Zahlen. Zeigen Sie, dass fur alle a, b, c ∈ IR dasGleichungssystem

x1 + rx2 + r2x3 = ax1 + sx2 + s2x3 = bx1 + tx2 + t2x3 = c

genau eine reelle Losung hat und bestimmen Sie diese.

Aufgabe 1.5 Es sei n eine naturliche Zahl. Losen Sie das Gleichungssystem

x1 + x2 = 0x2 + x3 = 0

......

xn−2 + xn−1 = 0xn−1 + xn = 0xn + x0 = 0

Aufgabe 1.6 Ein 9-tupel (x1, ..., x9) ∈ IR9 heiße magisches Quadrat, wenn

x1 + x2 + x3 = x4 + x5 + x6 = x7 + x8 + x9 = x1 + x4 + x7 == x2 + x5 + x8 = x3 + x6 + x9 = x1 + x5 + x9 = x3 + x5 + x7

gilt. Stellen Sie ein lineares Gleichungssystem auf, das diesen acht Bedingungen aquivalent ist, undlosen Sie dieses.

10

Page 11: Vorlesung Vektorrechnung Analytische Geometrie Laset

Aufgabe 1.7 Bestimmen Sie t ∈ IR so, dass das folgende System

2x1 + 3x2 + tx3 = 3x1 + x2 − x3 = 1x1 + tx2 + 3x3 = 2

keine Losung, bzw. mehr als eine Losung, bzw. genau eine Losung hat.

Aufgabe 1.8 Untersuchen Sie, ob die beiden folgenden Gleichungssysteme eine von Null verschiedeneLosung haben:

a) x1 + x2 − x3 = 0 b) x1 + x2 − x3 = 02x1 − 3x2 + x3 = 0 2x1 + 4x2 − x3 = 0x1 − 4x2 + 2x3 = 0 3x1 + 2x2 + 2x3 = 0

Aufgabe 1.9 Bringen Sie die folgenden Matrizen durch elementare Zeilenumformungen auf Zeilen-stufenform:

1 2 2 31 0 −2 03 −1 1 −24 −3 0 2

2 1 3 23 0 1 −21 −1 4 32 2 −1 1

Aufgabe 1.10 a) Geben Sie alle moglichen Zeilenstufenformen einer Matrix mit zwei Zeilen und dreiSpalten an.b) Geben Sie hinreichende und notwendige Bedingungen dafur an, daß die Matrix(

a b rc d s

)

auf die Zeilenstufenform(1 ∗ ∗0 1 ∗

), bzw.

(0 1 ∗0 0 0

), bzw.

(0 0 10 0 0

)

gebracht werden kann.

Aufgabe 1.11 (NV) Fur jede naturliche Zahl n ≥ 1 gebe man ein unlosbares lineares Gleichungssy-stem mit n Unbekannten an, so dass je n dieser Gleichungen losbar sind.

Aufgabe 1.12 (NV) Sei m > n ≥ 1, und sei ein unlosbares lineares Gleichungssystem von m Glei-chungen in n Unbekannten gegeben. Man begrunde, dass es n+ 1 dieser Gleichungen gibt, die bereitskeine Losung haben.

Aufgabe 1.13 (NV) Man bestimme alle λ ∈ IR, fur die das lineare Gleichungssystem

2x1 + x2 = 13x1 − x2 + 6x3 = 54x1 + 3x2 − x3 = 2

5x2 + 2x3 = λ

losbar ist.

11

Page 12: Vorlesung Vektorrechnung Analytische Geometrie Laset

Aufgabe 1.14 (NV) Gegeben sei das lineare Gleichungssystem

2x1 + x2 + ax3 + x4 = 0x1 + ax4 − ax5 = 1

2x2 + x3 + 2x5 = 2

a) Man bestimme die Losungsmenge des Gleichungssystems fur a = 1.b) Gibt es ein a ∈ IR, fur welches das Gleichungssytem keine Losung hat?c) Gibt es ein a ∈ IR, fur welches das Gleichungssytem genau eine Losung hat?

Aufgabe 1.15 (NV) Fur welche Werte des Parameters s ∈ IR besitzt das lineare Gleichungssystemmit Koeffizientenmatrix A und rechter Seite b, wo

A =

s− 1 −1 0 −1

0 s− 2 1 −11 0 s 0s 1− s 1 0

, b =

−1s11

,a) genau eine Losung?b) keine Losung ?c) unendlich viele Losungen?

Aufgabe 1.16 (V) a) Fur welche Paare (a, b) ∈ IR2 hat das Gleichungssystem

2x1 + 2x2 + (a+ 1)x3 = 2x1 + 2x2 + x3 = 0ax1 + bx3 = −2

keine Losung (x1, x2, x3) ∈ IR3?b) Im Falle b = 1 bestimme man alle Losungen (in Abhangigkeit von a).

Aufgabe 1.17 (V) Fur welche reellen Zahlen b hat das Gleichungssystem

x1 + x2 + x3 = 0x1 + bx2 + x3 = 4bx1 + 3x2 + bx3 = −2

keine, genau eine, unendlich viele Losungen? Man gebe im letzten Fall die Losungsmenge an.

Aufgabe 1.18 (V) Man bestimme die Losungsgesamtheit (im IR5) des Gleichungssystems

x1 − x2 + x3 − x4 + x5 = 2x1 + x2 + x3 + x4 + x5 = 1 + λx1 + λx3 + x5 = 2

in Abhangigkeit von λ ∈ IR.

Aufgabe 1.19 (V) Betrachten Sie das lineare Gleichungssystem

λx + y = µx + λy + z = µ

y + λz = µin x, y, z ∈ IR.

Fur welche λ, µ ∈ IR ist dieses Gleichungssystem losbar?

12

Page 13: Vorlesung Vektorrechnung Analytische Geometrie Laset

1.2 Vektorrechnung im IRn

Unter einem Vektor verstehen wir in diesem ganzen ersten Kapitel ein n-tupel

x =

x1...xn

reeller Zahlen x1, ..., xn. Es ist ublich, sich Vektoren als derartige Spaltenvektoren vorzustellen, wahrendes aus schreibtechnischen Grunden besser ware, Zeilenvektoren

x = (x1, ..., xn)

zu benutzen. Vorlaufig spielt die Unterscheidung von Zeilen- und Spaltenvektoren keine Rolle unddeswegen werden wir Vektoren als Zeilenvektoren schreiben.

Das n-tupel (x1, ..., xn) ist etwas anderes als die Menge x1, ..., xn, da es bei einem n-tupel aufdie Reihenfolge der Eintrage ankommt und bei einer Menge nicht.

Der n-dimensionale Zahlenraum ist die Menge

IRn := (x1, ..., xn) : x1 ∈ IR, ..., xn ∈ IR

aller dieser Vektoren.

Beispiele:n = 1. IR1 = IR ist die Zahlengerade

-2 -1 0 1 2 3

12 e π

n = 2. Seit Descartes ist es ublich, nach Wahl eines Koordinatensystems, die Punkte der Ebenedurch Zahlenpaare (x1, x2) zu parametrisieren. Umgekehrt gibt die Ebene eine Veranschaulichung desRaums IR2 der Zahlenpaare (x1, x2). Man ”identifiziert“ den Zahlenraum IR2 mit der Ebene.

-x1

6

x2

>

(x1, x2)

q(-1,-1)q(0,-1)q(1,-1)

q(-1,0)q(0,0)q(1,0)

q(-1,1)q(0,1)q(1,1)

13

Page 14: Vorlesung Vektorrechnung Analytische Geometrie Laset

n = 3. Ebenso, wie die Punkte der Ebene mit den Zahlenpaaren (x1, x2) ∈ IR2 identifiziert wer-den konnen, so konnen nach Wahl eines Koordinatensystems die Punkte des Anschauungsraums mitZahlentripeln (x1, x2, x3) ∈ IR3 identifiziert werden.

-x1

6x3

*

x2

(x1, x2, x3)

Zu Beginn des 20. Jahrhunderts schlug A. Einstein den vierdimensionalen Zahlenraum IR4 in seinerspeziellen Relativitatstheorie als geometrisches Modell fur den uns umgebenden Raum vor, wobei dieZeit als vierte Koordinate interpretiert wird. Erst wenige Jahre vorher war es in der Mathematikublich geworden, geometrische Betrachtungen auch in mehr als drei Dimensionen durchzufuhren. Dieitalienischen Geometer hatten diese Zahlenraume hoherer Dimension, welche sie zunachst ”Hyperrau-me“ nannten, in die Mathematik eingefuhrt.

Mit den Vektoren des Zahlenraums IRn kann man die folgenden beiden Rechenoperationen durch-fuhren:

Addition:

x = (x1, ..., xn) ∈ IRn

y = (y1, ..., yn) ∈ IRn

x + y = (x1 + y1, ..., xn + yn) ∈ IRn -

6

:

*

................................................................

................................................................

................................................................

.............................................................................................................................................................

............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ..............................................................................

............. ............. ............. ............. ....................................................

............. ............. ............. ............. ............. ............. ............. ............. ..........................

y1 x1 x1 + y1

x2

y2

x2 + y2

x

y

x + y

Multiplikation:

c ∈ IRx = (x1, ..., xn) ∈ IRn

c · x = (c · x1, ..., c · xn) ∈ IRn -

6

**

............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ............. ..............................................................................

............. ............. ............. ............. ..........................

x1 c · x1

x2

c · x2

x

c · x

Beide Rechenoperationen sind komponentenweise nichts anderes, als das ubliche Addieren undMultiplizieren reller Zahlen. Deswegen gelten auch hier die wohlbekannten Rechenregeln

(x + y) + z = x + (y + z), x,y, z ∈ IRn Assoziativitat der Additionx + y = y + x, x,y ∈ IRn Kommutativitat der Addition

c · (x + y) = c · x + c · y, c ∈ IR,x,y ∈ IRn Distributivitat1 · x = x, x ∈ IRn

0 · x = 0 := (0, ..., 0).Viel mehr gibt es uber das Rechnen mit Vektoren nicht zu sagen. Wir mochten aber an einem

ganz einfachen Beispiel das Wesen der Linearen Algebra demonstrieren, das darin besteht, Algebraauf geometrische Sachverhalte anzuwenden, bzw. umgekehrt, intuitive Methoden aus der Geometriefur algebraische Anwendung zu abstrahieren. Als Beispiel diskutieren wir Geraden in der Ebene.

14

Page 15: Vorlesung Vektorrechnung Analytische Geometrie Laset

Eine Gerade L im Zahlenraum IRn wird gegeben durch einen Anfangsvektor v und einen Rich-tungsvektor 0 6= w ∈ IRn. Sie ist die Menge

L = v + tw ∈ IRn : t ∈ IR.

@@@@@@@@@@

L

:v + tw

0

v

@@R

w

Satz 1.4 Die Gerade L stimmt mit einer zweiten Geraden L′ = v′ + sw′ : s ∈ IR genau dannuberein, wenn v′ ∈ L und w′ = c ·w mit 0 6= c ∈ IR.

Beweis. ”⇒“ Wenn die Mengen L = v+tw : t ∈ IR und L′ = v′+sw′ : s ∈ IR ubereinstimmen,dann ist insbesondere (s = 0) der Vektor v′ ein Vektor auf L, also von der Form v′ = v + t0w. Ebensoist (s = 1) auch v′ + w′ ∈ L, also v + t0w + w′ = v′ + w′ = v + tw. Daraus folgt w′ = cw mitc = t− t0. Wegen w′ 6= 0 muss auch c 6= 0 sein.

”⇐“ Sei v′ = v + t0w ∈ L und w′ = cw. Dann ist

L′ = v′ + sw′ : s ∈ IR = v + (t0 + sc)w : s ∈ IR = v + tw : t ∈ IR,

denn wegen c 6= 0 durchlauft mit s auch t = t0 + sc alle reellen Zahlen.

Satz 1.5 Durch je zwei Vektoren x 6= y des IRn gibt es genau eine Gerade L.

Beweis. Existenz: wir wahlen v := x und w := y− x. Dann enthalt die Gerade L = v + tw : t ∈IR = x + t(y − x) : t ∈ IR beide Vektoren x (fur t = 0) und y (fur t = 1).

Eindeutigkeit: Sei L′ = v′ + tw′ : t ∈ IR eine Gerade, welche die Vektoren x und y enthalt.Wegen Satz 1.4 konnen wir diese Gerade auch schreiben als L′ = x + tw′ : t ∈ IR. Da y = x + t0w′

mit t0 6= 0 (wegen x 6= y), ist der Richtungsvektor w′ = 1t0

(y−x) ein Vielfaches des Richtungsvektorsy − x von L. Nach Satz 1.4 ist somit L′ = L.

Die Gerade durch x und y lasst sich etwas anders schreiben:

L = x + t(y − x) : t ∈ IR = (1− t)x + ty : t ∈ IR = sx + ty : s, t ∈ IR, s+ t = 1.

Die Gerade durch x und y ist nicht dasselbe, wie die Strecke zwischen x und y

x + t(y − x) : t ∈ IR 6= sx + ty : 0 ≤ s, t ∈ IR, s+ t = 1.

Fur s = t = 12 erhalt man den Mittelpunkt 1

2(x + y) dieser Strecke.

Nach diesen einfachen Tatsachen, welche in jedem Zahlenraum IRn richtig sind, betrachten wirjetzt den Zusammenhang von Geraden im IR2 mit linearen Gleichungen in zwei Unbekannten.

15

Page 16: Vorlesung Vektorrechnung Analytische Geometrie Laset

Satz 1.6 Fur eine Teilmenge L ⊂ IR2 sind folgende Eigenschaften aquivalent:(i): L ist eine Gerade durch den Nullpunkt (0 ∈ L).(ii): L ist Losungsmenge einer homogenen linearen Gleichung

a1x1 + a2x2 = 0,

mit Koeffizienten a1, a2, die nicht beide 0 sind.

Beweis. ”(i) ⇒ (ii)“ Als Anfangsvektor fur L nehmen wir den Nullvektor und beschreiben unsereGerade als

L = tw : t ∈ IR = (tw1, tw2) : t ∈ IR

mit Koeffizienten w1, w2, die nicht beide 0 sind. Fur unsere homogene Gleichung brauchen wir Koef-fizienten a1, a2 mit der Eigenschaft a1w1 + a2w2 = 0. Die Zahlen

a1 := w2, a2 := −w1

bieten sich dafur an. Wir behaupten, dass L mit der Menge (x1, x2) ∈ IR2 : w2x1 − w1x2 = 0ubereinstimmt. Wegen w2 · tw1−w1 · tw2 = 0 ist klar, dass L in dieser Menge enthalten ist. Umgekehrtist diese Menge aber, wie wir im nachsten Beweisschritt sehen werden, eine Gerade. Da sie 0 und wenthalt, stimmt sie nach Satz 1.5 mit L uberein.

”(ii) ⇒ (i)“ Falls a1 6= 0, so erfullt x = (x1, x2) die Gleichung a1x1 + a2x2 = 0 genau dann, wennx1 = −a2

a1x2, das heißt, wenn x = x2 · (−a2

a1, 1) auf der Geraden durch 0 mit dem Richtungsvektor w =

(−a2a1, 1) liegt. Wenn aber a1 = 0, so lautet die Gleichung a2x2 = 0. Da nun nach Voraussetzung a2 6= 0,

ist dies aquivalent mit x2 = 0. Diese Menge ist die Gerade durch den Nullpunkt mit Richtungsvektor(1, 0).

Satz 1.7 Fur eine Teilmenge L ⊂ IR2 sind aquivalent:(i) L ist eine Gerade nicht durch den Nullpunkt (nicht 0 ∈ L).(ii) L ist Losungsmenge einer inhomogenen linearen Gleichung a1x1 + a2x2 = b, wobei (a1, a2) 6=

(0, 0) und b 6= 0.

Beweis. ”(i) ⇒ (ii)“ Wir schreiben L = v + tw : t ∈ IR und betrachten die Gerade L0 := tw :t ∈ IR mit demselben Richtungsvektor durch den Nullpunkt. Nach Satz 1.6 ist L0 Losungsmengeeiner homogenen linearen Gleichung a1x1 + a2x2 = 0. Also ist

L = v + x : x ∈ L0= v + x : a1x1 + a2x2 = 0= y ∈ IR2 : a1y1 + a2y2 = a1v1 + a2v2.

Da L nicht durch den Nullpunkt geht, liegt v nicht auf L0, und es ist b := a1v1 + a2v2 6= 0.

”(ii) ⇒ (i)“ Jetzt ist

L = x ∈ IR2 : a1x1 + a2x2 = b= v + y ∈ IR2 : a1y1 + a2y2 = 0

wo v eine spezielle Losung der inhomogenen Gleichung a1v1 + a2v2 = b ist (Satz 1.3). Nach Satz1.6 beschreibt die homogene Gleichung a1y1 + a2y2 = 0 eine Gerade L0 = tw : t ∈ IR durch den

16

Page 17: Vorlesung Vektorrechnung Analytische Geometrie Laset

Nullpunkt. Somit ist L = v + tw : t ∈ IR eine Gerade, die wegen b 6= 0 nicht durch den Nullpunktgeht.

Wir sahen, die Losungsmenge einer linearen Gleichung in zwei Unbekannten, deren Koeffizientennicht beide 0 sind, ist eine Gerade in der Zahlenebene IR2. Die Losungsmenge eines Systems von zweiderartigen linearen Gleichungen

a1,1x1 + a1,2x2 = b1 (Losungsmenge L1)a2,1x1 + a2,2x2 = b2 (Losungsmenge L2)

ist deswegen der Durchschnitt L1 ∩ L2 der beiden Geraden. Fur diesen Durchschnitt gibt es folgendeMoglichkeiten:

1) L1 = L2: L1 ∩ L2 ist die Gerade L1 = L2

2) L1 6= L2, L1 ∩ L2 6= ∅ L1 ∩ L2 ist ein Punkt3) L1 6= L2, L1 und L2 parallel L1 ∩ L2 ist leer

Zu diesen drei Moglichkeiten gehoren die folgenden drei Stufenformen der Koeffizientenmatrix:

1)

(1 ∗ ∗0 0 0

)oder

(0 1 ∗0 0 0

)

2)

(1 ∗ ∗0 1 ∗

)

3)

(1 ∗ ∗0 0 1

)oder

(0 1 ∗0 0 1

)

Schließlich noch ein Wort zur Nomenklatur: Die Beschreibung L = v + tw : t ∈ IR = v + IRwheißt Parametrisierung oder explizite Beschreibung der Geraden L. Die Beschreibung a1x1 + a2x2 = bheißt implizit. Wenn c 6= 0, so ist ca1x1 + ca2x2 = cb eine implizite Beschreibung der gleichen Geraden(Zeilenumformung vom Typ II). Wahlt man - im Falle b 6= 0 - zum Beispiel c = 1

b , so erhalt man dieAchsenabschnittsform

1px1 +

1qx2 = 1.

- x1

6

x2

eeeeeee

q

p

Aufgabe 1.20 Zeigen Sie:a) Die drei Geraden im IR2

L1 :=

(−7

0

)+ IR ·

(21

), L2 :=

(50

)+ IR ·

(−1

1

), L3 :=

(08

)+ IR ·

(−1

4

)

schneiden sich in einem Punkt.

17

Page 18: Vorlesung Vektorrechnung Analytische Geometrie Laset

b) Die drei Punkte (10−4

),

(40

),

(−5

6

)liegen auf einer Geraden.

Aufgabe 1.21 Untersuchen Sie, ob die Gerade

L1 :=

520

+ IR ·

3−1

7

im IR3 die Gerade

L2 :=

61517

+ IR ·

−24−1

, bzw. L3 :=

−103

+ IR ·

42−1

schneidet und bestimmen Sie ggf. den Schnittpunkt.

Aufgabe 1.22 Beweisen Sie, dass sich die drei Seitenhalbierenden eines Dreiecks in einem Punkttreffen.

Aufgabe 1.23 (V) Beweisen Sie: Bei einem Tetraeder schneiden sich die Verbindungsgeraden derMitten gegenuberliegender Kanten in einem Punkt.

Aufgabe 1.24 Es seien L1, L2, L3 und L4 vier verschiedene Geraden in der Ebene IR2 derart, dasssich je zwei dieser Geraden in einem Punkt treffen. Si,j bezeichne den Schnittpunkt der Geraden Siund Sj, (1 ≤ i < j ≤ 4). Die sechs Schnittpunkte Si,j , 1 ≤ i < j ≤ 4 seien alle verschieden. BweisenSie, dass die Mittelpunkte der drei Strecken S1,2S3,4, S1,3S2,4 sowie S1,4S2,3 auf einer Geraden liegen.

1.3 Lineare Unterraume

Gegeben sei ein homogenes lineares Gleichungssystemn∑ν=1

aµ,νxν = 0, (µ = 1, ...,m).

Seine Losungsmenge

U = u ∈ IRn :n∑ν=1

aµ,νuν = 0, µ = 1, ...,m ⊂ IRn

hat folgende Eigenschaft: Sind x und y aus U , d.h.∑nν=1 aµ,νxν =

∑nν=1 aµ,νyν = 0 fur µ = 1, ...,m,

und sind s, t ∈ IR, dann ist auchn∑ν=1

aµ,ν · (sxν + tyν) = s ·n∑ν=1

aµ,νxν + t ·n∑ν=1

aµ,νyν = 0.

Es gilt also:

18

Page 19: Vorlesung Vektorrechnung Analytische Geometrie Laset

x,y ∈ U, s, t ∈ IR ⇒ sx + ty ∈ U (LIN)

Diese Eigenschaft (LIN) kann auch in zwei Teilen geschrieben werden:

x,y ∈ U ⇒ x + y ∈ U (LIN, add)x ∈ U, c ∈ IR ⇒ cx ∈ U (LIN, mul)

Sie ist fur die Lineare Algebra so wichtig, dass wir sie durch eine Definition hervorheben:

Definition 1.1 Eine Teilmenge ∅ 6= U ⊂ IRn heißt linearer Unterraum oder Untervektorraum wennsie die Eigenschaft (LIN) besitzt.

Bevor wir weitere Beispiele geben, notieren wir, dass jeder lineare Unterraum U den Nullvektorenthalt: Denn weil U nicht leer ist, enthalt U mindestens einen Vektor x, und dann wegen (LIN) auchden Nullvektor 0 = 0 · x.

Beispiele. 1) Jede Gerade L durch den Nullpunkt ist ein linearer Unterraum: Sei L = IR · w.Vektoren x und y ∈ L schreiben sich dann x = s ·w und y = t ·w. Folglich ist x + y = (s+ t) ·w ∈ Lund auch cx = cs ·w ∈ L.

2) Aus ganz trivialen Grunden sind der Nullraum 0, der nur den Nullvektor enthalt, und derTotalraum IRn, der alle Vektoren enthalt, lineare Unterraume.

3) Sei A ⊂ IRn eine beliebige (endliche oder unendliche) aber nicht leere Teilmenge. Jede endlicheSumme

x =k∑ν=1

cνaν , cν ∈ IR,aν ∈ A, k ∈ IN,

nennen wir eine Linearkombination von Vektoren aus A. Und die Menge aller Linearkombinationenvon Vektoren aus A

span(A) := k∑ν=1

cνaν : k ∈ IN, cν ∈ IR,aν ∈ A

heißt der von A aufgespannte Unterraum.Behauptung: span(A) ist der kleinste lineare Unterraum von IR, der die Menge A enthalt, d.h.:( i): span(A) ist ein linearer Unterraum,(ii): jeder lineare Unterraum U ⊂ IRn, der A enthalt, enthalt auch span(A).Beweis von ( i): Seien x =

∑k1 cµaµ und y =

∑l1 dνa

′ν Elemente in span(A). Dann ist auch

sx + ty =∑k

1 scµaµ +∑l

1 tdνa′ν eine Linearkombination von Vektoren aµ,a′ν ∈ A und gehort zu

span(A).Beweis von (ii): Enthalt der lineare Unterraum U ⊂ IRn die Menge A, so wegen wiederholter

Anwendung von (LIN) auch jede endliche Linearkombination von Vektoren aus A, und damit dieMenge span(A).

Wir betrachten Spezialfalle fur derart aufgespannte lineare Unterraume. Fur endliche MengenA = a1, ...,ak benutzen wir dabei immer die Abkurzung span(a1, ...,ak) := span(a1, ...,ak).

19

Page 20: Vorlesung Vektorrechnung Analytische Geometrie Laset

1) Mit eν ∈ IRn werden wir stets den Vektor bezeichnen, der an der ν-ten Stelle den Eintrag 1enthalt und sonst lauter Nullen:

eν = ( 0 , ..., 0, 1, 0, ..., 0 )↑ ↑ ↑1 ν n

Fur k = 1, ..., n ist dann

span(e1, ..., ek) = x =k∑1

cνeν

= x = (c1, ..., ck, 0, ..., 0)= x ∈ IRn : xk+1 = ... = xn = 0.

2) Seien v 6= w,v 6= 0 6= w Vektoren im IRn, so, dass v /∈ IR ·w, d.h., dass die Gerade durch v undw den Nullpunkt nicht enthalt. Dann heißt span(v,w) die von v und w aufgespannte Ebene. DieseEbene enthalt die Gerade durch v und w, aber außerdem noch alle Vielfachen tx von Vektoren x aufdieser Geraden.

3) Sind U1 und U2 ⊂ IRn zwei lineare Unterraume, so ist auch ihr Durchschnitt U1 ∩U2 wieder einlinearer Unterraum.

4) Wenn U1 und U2 ⊂ IRn zwei lineare Unterraume sind, so bezeichnet man mit U1 + U2 denlinearen Unterraum span(U1 ∪ U2).

Mit diesem Begriff des ”aufgespannten Unterraums“ konnen wir die Losbarkeitsbedingung fur einlineares Gleichungssystem

n∑ν=1

aµ,νxν = bµ, µ = 1, ...,m

anders formulieren: Wir bezeichnen mit aν ∈ IRm die ”Spaltenvektoren“ der Koeffizientenmatrix undmit b den Vektor auf der rechten Seite des Gleichungssystems:

aν =

a1,ν...

am,ν

, b =

b1...bm

.Mit diesen Vektoren kann man das Gleichungssystem in Vektorschreibweise

n∑ν=1

xνaν = b

schreiben. Man sieht: Das Gleichungssystem ist genau dann losbar, wenn die rechte Seite b eineLinearkombination der Spaltenvektoren a1, ...,an ist, d.h.,wenn

b ∈ span(a1, ...,an).

Schließlich treffen wir noch eine Vereinbarung, die an dieser Stelle uberperfektionistisch erscheinenmag: Wenn die Menge A leer ist, so vereinbaren wir span(A) soll der Nullraum sein, d.h. der lineareUnterraum, welcher nur den Nullvektor enthalt: span(∅) = 0.

20

Page 21: Vorlesung Vektorrechnung Analytische Geometrie Laset

Manchmal bezeichnet man auch Losungsmengen inhomogener Gleichungssysteme als Unterraume.Diese besitzen dann naturlich nicht die Eigenschaft (LIN). Wir werden solche Mengen affine Unter-raume nennen. Nach Satz 1.3 entsteht jeder affine Unterraum A aus einem linearen Unterraum U ,indem man zu einem Vektor v ∈ A alle Vektoren aus U addiert:

A = x = v + u : u ∈ U = v + U

- x1

6

x2

* x3

v

cc

ccc

ccccc

Ucc

cc

cccccc

A

Es gibt lineare Unterraume verschiedener Große:

0 Gerade Ebene ...0-dimensional 1-dimensional 2-dimensional ...

Diese Große nennt man ”Dimension“ eines linearen Unterraums. Der folgende Abschnitt dient u. a.der prazisen Definition des Dimensionsbegriffs.

Aufgabe 1.25 Betrachten Sie die acht Mengen von Vektoren x = (x1, x2) ∈ IR2 definiert durch dieBedingungen

1) x1 + x2 = 0,2) (x1)2 + (x2)2 = 0,3) (x1)2 − (x2)2 = 0,4) x1 − x2 = 1,5) (x1)2 + (x2)2 = 1,6) Es gibt ein t ∈ IR mit x1 = t und x2 = t2,7) Es gibt ein t ∈ IR mit x1 = t3 und x2 = t3,8) x1 ∈ ZZ.

Welche dieser Mengen sind lineare Unterraume?

Aufgabe 1.26 Liegt der Vektor (3,−1, 0,−1) ∈ IR4 im Unterraum, der von den Vektoren (2,−1, 3, 2),(−1, 1, 1,−3) und (1, 1, 9,−5) aufgespannt wird?

Aufgabe 1.27 Es seien U1, U2 ⊂ IRn lineare Unterraume. Zeigen Sie:a) U1 ∪ U2 ist ein linearer Unterraum, genau dann, wenn entweder U1 ⊂ U2 oder U2 ⊂ U1.b) Die folgenden beiden Aussagen sind aquivalent:b1) Fur jedes x ∈ IRn gibt es eindeutig bestimmte Vektoren u1 ∈ U1 und u2 ∈ U2 mit x = u1 + u2.b2) U1 + U2 = IRn und U1 ∩ U2 = 0.

Aufgabe 1.28 (NV) Zeigen Sie fur beliebige Teilmengen A,B ⊂ IRn

span(A ∪B) = span(A) + span(B).

21

Page 22: Vorlesung Vektorrechnung Analytische Geometrie Laset

1.4 Lineare (Un-) Abhangigkeit

Beispiel. Die beiden Vektoren e1 = (1, 0, 0) und e2 =(0, 1, 0) ∈ IR3 spannen die Ebene x ∈ IR3 : x3 = 0 auf.Dieselbe Ebene wird aber auch von den drei Vektoren

e1, e2, e1 + e2 = (1, 1, 0)

aufgespannt. Jeden dieser drei Vektoren konnte man weglas-sen, die restlichen beiden spannen diese Ebene immer nochauf. Wir sagen: Diese drei Vektoren sind linear abhangig.

-e1

3e2

:e1 + e2

Definition 1.2 Eine Menge A ⊂ IRn heißt linear abhangig, wenn es eine echte Teilmenge A′ ⊂A, A′ 6= A gibt mit span(A′) = span(A). Sonst heißt A linear unabhangig.

Beispiele: 1) Die oben betrachtete Menge A = e1, e2, e1 + e2 ⊂ IR3 ist linear abhangig, dennfur A′ = e1, e2 ⊂ A gilt A′ 6= A und span(A′) = span(A).

2) Die Menge A = e1, e2 enthalt die folgenden echten Teilmengen:A′ = e1 mit span(e1) = Gerade IR · e1,A′ = e2 mit span(e2) = Gerade IR · e2,A′ = ∅ mit span(∅) = Nullraum.Fur keine davon gilt span(A′) = span(A) = Ebene x3 = 0. Also ist A linear unabhangig.

3) Jede Menge, welche den Nullvektor enthalt, ist linear abhangig, denn wenn 0 ∈ A und A′ =A \ 0, dann ist A′ 6= A, aber span(A′) = span(A).

4) Enthalt A einen Vektor a mit a ∈ span(A \ a), dann ist A linear abhangig. Denn fur A′ :=A \ a gilt A 6= A′, aber wegen a =

∑l1 djaj ,aj ∈ A′,

span(A) = c0a +k∑1

cmbm : k ∈ IN, c0, c1, ..., ck ∈ IR,bm ∈ A′

= c0(l∑1

djaj) +k∑1

cmbm : aj ,bm ∈ A′

⊂ span(A′).

5) Wenn (voneinander verschiedene) Vektoren v1, ...,vk ∈ A existieren und Zahlen c1, ..., ck ∈ IR,nicht c1 = ... = ck = 0, mit

k∑m=1

cmvm = 0, (nicht-triviale lineare Relation)

dann ist A linear abhangig. Denn weil nicht alle cm = 0 sind, konnen wir nach Vertauschen der Indizesannehmen c1 6= 0 und dann schreiben

c1v1 = −k∑2

cmvm, v1 =k∑2

−cmc1

vm ∈ span(A′),

22

Page 23: Vorlesung Vektorrechnung Analytische Geometrie Laset

wo A′ := A \ v1.

Diese Beispiele sollten zunachst den Sachverhalt der linearen Abhangigkeit verdeutlichen. Dasletzte Beispiel ist aber bereits typisch dafur, wie wir kunftig lineare Un-/Abhangigkeit uberprufenwerden:

Satz 1.8 (Test auf lineare Abhangigkeit) Eine Teilmenge A ⊂ IRn ist genau dann linear abhan-gig, wenn es eine nichttriviale lineare Relation zwischen (voneinander verschiedenen) Vektoren aus Agibt.

Satz 1.9 (Test auf lineare Unabhangigkeit) Eine Teilmenge A ⊂ IRn ist genau dann linear un-abhangig, wenn sie folgende Eigenschaft besitzt:

Sind v1, ...,vk endlich viele (voneinander paarweise verschiedene) Vektoren in Aund c1, ..., ck Zahlen in IR mit

k∑m=1

cmvm = 0

dann ist c1 = ... = ck = 0.

Satz 1.9 ist nur eine Umformulierung von Satz 1.8. Deswegen genugt es, Satz 1.8 zu beweisen.Beweis von Satz 1.8. ”⇐“ Diese Beweisrichtung wurde als Beispiel 5) oben schon behandelt.

”⇒“ Sei A linear abhangig, d.h., es gibt eine Teilmenge A′ ⊂ A mit span(A′) = span(A) und A′ 6=A. Dann gibt es also einen Vektor v ∈ A, der nicht zu A′ gehort. Wegen v ∈ A ⊂ span(A) = span(A′)ist v eine Linearkombination v =

∑k1 cνvν von Vektoren vν ∈ A′. Dann ist

1 · v −k∑1

cνvν = 0

eine nichttriviale (da v einen Koeffizienten 6= 0 hat) lineare Relation zwischen Vektoren aus A.

Noch zwei weitere Beispiele:6) Sei A ⊂ IRn eine Teilmenge, die mehr als n Vektoren enthalt. Dann ist A linear abhangig.Beweis. A enthalt mindestens n+1 Vektoren v1, ...,vn+1. Das homogenen lineare Gleichungssystem

c1 · v1,1 + ... + cn+1 · vn+1,1 = 0...

......

c1 · v1,n + ... + cn+1 · vn+1,n = 0

aus n Gleichungen in den n+ 1 Unbekannten c1, ..., cn+1 hat nach Satz 1.2 eine Losung (c1, ..., cn+1) 6=(0, ..., 0). Damit haben wir eine nichttriviale lineare Relation

∑n+11 cνvν = 0 zwischen v1, ....,vn+1.

Nach Satz 1.8 ist A linear abhangig.Beispiel 7). Es seien

23

Page 24: Vorlesung Vektorrechnung Analytische Geometrie Laset

z1 = (0, ..., 0, 1, ..... .... ...)z2 = (0, ..., 0, 0, ..., 0, 1, ... ...)...

zr = (0, ..., 0, 0, ..., 0, 0, ..., 0, 1, ..)

die Zeilenvektoren aus einer Matrix in Zeilenstufenform. Diese Vektoren sind linear unabhangig.Beweis. Der Vektor zk habe seinen ersten Eintrag 6= 0 in der nk-ten Spalte, k = 1, ..., r. Da die

Matrix Zeilenstufenform hat, ist1 ≤ n1 < n2 < ... < nr ≤ n.

Wir testen auf lineare Unabhangigkeit: sei eine Linearkombination∑r

1 ckzk = 0 gegeben. Da nur dererste Vektor z1 in der n1-ten Spalte einen Eintrag 6= 0 besitzt, folgt hieraus c1 = 0. Von den ubrigenVektoren hat nur z2 einen Eintrag 6= 0 in der n2-ten Spalte, was c2 = 0 zur Folge hat, usw.

Gelegentlich haben wir es nicht mit einer Menge v1,v2, ... von Vektoren zu tun, sondern miteiner Folge v1,v2, ..., in der etwa Vektoren auch mehrmals vorkommen konnen. Eine solche (endlicheoder unendliche) Folge werden wir auch System von Vektoren nennen. Die Zeilenvektoren einer Matrixsind z.B. so ein System. Der Test auf lineare Unabhangigkeit fur ein System ist:

k∑1

cνvν = 0 ⇒ c1 = ... = ck = 0 ?

fur alle k ∈ IN. Ein System, in dem derselbe Vektor mehrmals vorkommt, ist somit stets linearabhangig.

Definition 1.3 Sei U ⊂ IRn ein linearer Unterraum. Eine Basis von U ist ein System v1, ...,vr vonVektoren aus U mit

( i) U = span(v1, ...,vr),(ii) v1, ...,vr sind linear unabhangig.

Die Zahl r heißt Lange der Basis.

Beispiele. Fur eine Gerade IR · v bildet der Vektor v eine Basis.Eine Basis fur eine Ebene IR · v + IR ·w bilden die Vektoren v und w.Die Vektoren e1, ..., en, bilden eine Basis des IRn. Wir nennen sie die Standardbasis, die Vektoren

nennen wir Koordinatenvektoren.Der Nullvektorraum 0 hat die leere Menge ∅ als Basis.

Satz 1.10 (Basis-Satz) Jeder lineare Unterraum U ⊂ IRn hat eine Basis.

Dies ist ein Spezialfall (V = 0) des folgenden Satzes 1.11, sodass wir nur diesen Satz 1.11 zubeweisen brauchen.

Satz 1.11 (Basis-Erganzungs-Satz) Es seien V ⊂ U ⊂ IRn lineare Unterraume und v1, ...,vr seieine Basis von V . Dann gibt es Vektoren u1, ...,us ∈ U so, dass das System v1, ...,vr,u1, ...,us eineBasis von U ist.

24

Page 25: Vorlesung Vektorrechnung Analytische Geometrie Laset

Beweis. Wenn U = V ist, dann ist nichts zu beweisen (s = 0). Wenn U 6= V ist, dann existiert einu ∈ U , das nicht ∈ V ist. Wir behaupten, das System v1, ...,vr,u ist linear unabhangig und verwendenden Test aus Satz 1.9. Sei also

r∑1

cνvν + cu = 0

eine lineare Relation. Dann muss c = 0 gelten, denn sonst wurde u = −1c

∑cνvν zu V gehoren. Weil

nun c = 0, so lautet die lineare Relation nur noch

r∑1

cνvν = 0.

Weil die v1, ...,vr eine Basis von V bilden, sind sie insbesondere linear unabhangig. Deswegen folgtjetzt auch c1 = ... = cr = 0 und v1, ...,vr,u sind linear unabhangig.

Wir setzen u1 := u und U1 := span(v1, ...,vr,u1). Dann bilden die Vektoren v1...,vr,u1 eine Basisvon U1. Wenn U1 = U ist, dann sind wir fertig. Andernfalls wiederholen wir diese Konstruktion immerwieder. So erhalten wir fur alle k ≥ 1 Untervektorraume Uk ⊂ U mit einer Basis v1, ...,vr,u1, ...,uk.Spatestens wenn r + k = n + 1 ist, konnen die n + 1 Vektoren v1, ...,vr,u1, ...,uk nicht mehr linearunabhangig sein (obiges Beispiel 6). Es muss also vorher schon einmal ein k = s gegeben haben mitUs = U.

Satz 1.12 (Basis-Auswahl-Satz) Sei U = span(v1, ...,vk) ⊂ IRn ein linearer Unterraum. Danngibt es unter den Vektoren v1, ...,vk eine Basis vi1 , ...,vir fur U .

Beweis. Wenn v1, ...,vk linear unabhangig sind, dann bilden sie eine Basis von U und wir sind fertig.Andernfalls gibt es unter ihnen einen Vektor vj der eine Linearkombination

∑i6=j civi der anderen

Vektoren ist. Dann wird U auch schon von den k − 1 Vektoren v1, ...,vj−1,vj+1, ...,vk aufgespannt.Spatestens nachdem wir diesen Schritt k − 1-mal wiederholt haben, gelangen wir zu einem linearunabhangigen Teilsystem der v1, ...,vk, welches U aufspannt.

Satz 1.13 (Invarianz der Basis-Lange) Die Lange einer Basis fur einen linearen Unterraum U ⊂IRn hangt nur von U ab und nicht von der gewahlten Basis.

Beweis. Seien v1, ...,vr und u1, ...,us zwei Basen fur U . Wir haben s ≤ r zu zeigen. Da v1, ...,vrden Unterraum U aufspannen, ist jedes uσ, 1 ≤ σ ≤ s, eine Linearkombination uσ =

∑rν=1 cσ,νvν . Das

lineare Gleichungssystem (vertauschte Indizes!)

s∑σ=1

cσ,νxσ = 0, (ν = 1, ..., r)

hat s Unbekannte und r Zeilen. Wenn s > r sein sollte, so gibt es eine Losung (x1, ..., xs) 6= (0, ..., 0)fur dieses Gleichungssystem (Satz 1.2). Es folgt

s∑σ=1

xσuσ =s∑

σ=1

(r∑

ν=1

cσ,νvν

)=

r∑ν=1

(s∑

σ=1

xσcσ,ν

)vν =

r∑ν=1

0 · vν = 0.

Also sind u1, ...,us linear abhangig. Weil sie eine Basis sind, ist dies unmoglich und es muss s ≤ rgewesen sein.

25

Page 26: Vorlesung Vektorrechnung Analytische Geometrie Laset

Die Satze 1.11 und Satz 1.13 ermoglichen folgende Definition:

Definition 1.4 Die Dimension eines linearen Unterraums U - in Zeichen dimU - ist die Lange einerBasis fur U .

Beispiele. 1) Da e1, ..., en ∈ IRn eine Basis bilden ist

dim(IRn) = n.

2) Der Zeilenrang einer (m × n)-Matrix ist die Dimension des von ihren Zeilenvektoren im IRn

aufgespannten linearen Unterraums. Dieser Zeilenrang andert sich nicht bei elementaren Zeilenum-formungen. Bei Umformungen vom Typ I und II ist dies klar. Bei Typ III sieht man es wie folgtein:

Die Zeilenvektoren seien z1, ..., zm und z′k := zk + c · zl, k 6= l, sei eine derartige Zeilenumformung.Sei Z := span(z1, ..., zm) ⊂ IRn und Z ′ := span(z1, ..., zk−1, z′k, zk+1, ..., zm). Wegen z′k ∈ Z ist Z ′ ⊂ Z.Wegen zk = z′k − c · zl ist auch Z ⊂ Z ′. Es ist also Z = Z ′ und dim(Z) = dim(Z ′).

Folglich andert sich der Zeilenrang auch nicht, wenn wir eine Matrix durch elementare Zeilen-umformungen auf Zeilenstufenform bringen. Bei einer Matrix in Zeilenstufenform ist der Zeilenranggerade die Anzahl der Stufen. Wir konnten den Zeilenrang einer Matrix also auch definieren als dieAnzahl der Zeilen 6= 0 in ihrer Zeilenstufenform.

3) Naturlich kann man analog den Spaltenrang einer Matrix als die Dimension des Vektorraumsdefinieren, der von den Spaltenvektoren der Matrix aufgespannt wird.

Satz 1.14 (Dimensionsformeln) ( i) Es seien U1 ⊂ U2 ⊂ IRn lineare Unterraume. Dann giltdim(U1) ≤ dim(U2) und dim(U1) = dim(U2) nur dann, wenn U1 = U2.(ii) Fur je zwei lineare Unterraume U1, U2 ⊂ IRn gilt

dim(U1 ∩ U2) + dim(U1 + U2) = dim(U1) + dim(U2).

Beweis. (i): Ist u1, ...,ur eine Basis von U1, so kann man sie nach dem Basis-Erganzungssatz zueiner Basis u1, ...,ur,ur+1, ...,us von U2 erganzen. Es folgt dim(U1) = r ≤ r + s = dim(U2) unddim(U1) = dim(U2) nur dann, wenn r = r + s, d.h. U1 = U2.

(ii): Sei u1, ...,ud eine Basis von U1 ∩ U2. Wir erganzen sie zu einer Basis u1, ...,ud,v1, ...,vr vonU1 und einer Basis u1, ...,ud,w1, ...,ws von U2. Wir testen das System u1, ...,ud,v1, ...,vr,w1, ...,ws

auf lineare Unabhangigkeit: sei etwa die lineare Relation

a1u1 + ...+ adud + b1v1 + ...+ brvr︸ ︷︷ ︸∈U1

+ c1w1 + ...+ csws︸ ︷︷ ︸∈U2

= 0

zwischen diesen Vektoren vorgelegt. Dann ist

c1w1 + ...+ csws = −(a1u1 + ...+ adud + b1v1 + ...+ brvr) ∈ (U1 ∩ U2),

alsoc1w1 + ...+ csws = α1u1 + ...+ αdud mit α1, ..., αd ∈ IR.

Da aber u1, ...,ud,w1, ...,ws als Basis von U2 linear unabhangig waren, folgt hieraus c1 = ... = cs = 0.Ganz analog folgt b1 = ... = br = 0, sodass die lineare Relation schließlich a1u1 + ...+adud = 0 lautet.Hieraus folgt dann endlich noch a1 = ... = ad = 0.

Da u1, ...,ud,v1, ...,vr,w1, ...,ws den Unterraum U1 + U2 aufspannen, haben wir bewiesen, dasssie eine Basis von U1 + U2 bilden. Somit ist

26

Page 27: Vorlesung Vektorrechnung Analytische Geometrie Laset

dim(U1) = d+ r dim(U2) = d+ sdim(U1 ∩ U2) = d dim(U1 + U2) = d+ r + sdim(U1) + dim(U2) = 2d+ r + s dim(U1 ∩ U2) + dim(U1 + U2) = 2d+ r + s.

Damit ist Formel (ii) bewiesen

Wir wenden unseren Dimensionsbegriff jetzt noch auf lineare Gleichungssysteme an:

Satz 1.15 Es sei ein homogenes lineares Gleichungssystemn∑ν=1

aµ,νxν = 0, (µ = 1, ...,m)

mit n Unbekannten vorgelegt. Fur die Zahlen

d := Dimension des Losungsraums r := Zeilenrang der Koeffizientenmatrix

gilt dann die Beziehung

d+ r = n

Beweis. Bei elementaren Zeilenumformungen der Koeffizientenmatrix andern sich weder d nochr. Wir konnen daher o.B.d.A. annehmen, die Koeffizientenmatrix habe Zeilenstufenform. Die Zahlder Stufen ist dann r. Es gibt also n − r Spalten ohne Stufe in der Koeffizientenmatrix. An diesenn − r Stellen konnen die Unbekannten beliebig gewahlt werden, die anderen r werden daraus dannberechnet. Eine Basis fur den Losungsraum erhalten wir, wenn wir in jeder dieser n− r Spalten eine1, in den anderen eine 0 vorgeben. Deswegen hat der Losungsraum die Dimension n− r.

Satz 1.16 (Korollar) Jeder lineare Unterraum U ⊂ IRn ist der Losungsraum eines homogenen li-nearen Gleichungssystems.

Beweis. Sei dim(U) = k und u1, ...,uk ∈ U eine Basis. Die k × n-Matrix mit den Zeilenvektorenu1, ...,uk hat also den Zeilenrang k. Diese Matrix ist die Koeffizientenmatrix eines homogenen linearenGleichungssystems

n∑ν=1

uµ,νyν = 0, µ = 1, ..., k,

fur die Unbekannten y1, ..., yn. Nach der Dimensionsformel von Satz 1.15 ist die Dimension seinesLosungsraums n− k. Wir wahlen eine Basis a1, ...,an−k ∈ IRn fur diesen Losungsraum. Dann gilt also

n∑ν=1

uµ,νaλ,ν = 0 fur µ = 1, ..., k, λ = 1, ...., n− k.

Jetzt kehren wir die Rolle von Koeffizienten und Unbekannten in diesem Gleichungssystem um. Dannsind die Vektoren u1, ...,uk Losungsvektoren des homogenen linearen Gleichungssystems

n∑ν=1

aλ,νuν = 0, λ = 1, ..., n− k.

27

Page 28: Vorlesung Vektorrechnung Analytische Geometrie Laset

Die Koeffizientenmatrix dieses Systems hat die Zeilenvektoren a1, ...,an−k und damit den Zeilenrangn− k. Alle Vektoren u1, ...,uk sind Losungen dieses neuen Systems. Damit enthalt sein LosungsraumV ⊂ IRn auch U = span(u1, ...,uk). Wieder verwenden wir die Dimensionsformel und folgern

dim(V ) = n− (n− k) = k = dim(U).

Wegen U ⊂ V folgt daraus U = V , d.h., U ist der Losungsraum des Gleichungssystems mit denZeilenvektoren a1, ...,an−k.

Satz 1.17 Fur ein lineares Gleichungssystem

n∑ν=1

aµ,νxν = bµ, (µ = 1, ..., n)

(genauso viele Gleichungen wie Unbekannte!) sind die folgenden Aussagen aquivalent:( i) Bei jeder Wahl der b1, ..., bn auf der rechten Seite ist das Gleichungssystem losbar.(ii) Bei jeder Wahl der b1, ..., bn auf der rechten Seite gibt es eine einzige Losung des Systems.(iii) Das zugehorige homogene System

n∑ν=1

aµ,νxν = 0, (µ = 1, ..., n)

hat nur die Null-Losung.(iv) Der Spaltenrang der Koeffizientenmatrix ist n.( v) Der Zeilenrang der Koeffizientenmatrix ist n.

Beweis. Eigenschaft (i) ist damit aquivalent, dass die Spaltenvektoren der Koeffizientenmatrixden ganzen Vektorraum IRn aufspannen. Dies ist damit aquivalent, dass die Koeffizientenmatrix denSpaltenrang n besitzt (iv). Daraus folgt, dass die n Spaltenvektoren linear unabhangig sind. Dennwaren sie linear abhangig, wurden auch schon n − 1 dieser Vektoren den IRn aufspannen. Aus demBasis-Auswahlsatz wurde der Widerspruch dim(IRn) < n folgen. Eigenschaft (iii) ist aber nichtsanderes als der Test auf lineare Unabhangigkeit fur die Spaltenvektoren.

Eigenschaft (ii) ist aquivalent mit (i) und (iii) zusammen. Wegen Satz 1.15 ist (iii) aquivalent mit(v).

Aufgabe 1.29 Aus den Zeilenvektoren der Matrix1 2 3 45 6 0 07 8 0 09 10 0 0

lassen sich 15 verschiedene, nichtleere Mengen von Vektoren bilden, und ebenso aus den Spaltenvek-toren. Welche dieser 30 Mengen sind linear abhangig?

28

Page 29: Vorlesung Vektorrechnung Analytische Geometrie Laset

Aufgabe 1.30 Es sei U ⊂ IRn ein k-dimensionaler Untervektorraum. Zeigen Sie, dass fur jede Teil-menge M ⊂ U die folgenden Eigenschaften aquivalent sind:1) M ist eine Basis von U ,2) M ist linear unabhangig und besteht aus k Vektoren,3) M spannt U auf und besteht aus k Vektoren.

Aufgabe 1.31 Berechnen Sie den Zeilenrang der Matrizen

A =

1 3 6 103 6 10 156 10 15 21

10 15 21 28

, B =

1 3 6 103 6 10 16 10 1 3

10 1 3 6

.Aufgabe 1.32 Es seien

U := x ∈ IR4 : x1 + 2x2 = x3 + 2x4,V := x ∈ IR4 : x1 = x2 + x3 + x4.

Bestimmen Sie Basen von U, V, U ∩ V und U + V .

Aufgabe 1.33 (NV) Gegeben sei die reelle 4× 4-Matrix

A =

−1 0 −1 2

0 −1 2 −1−1 2 −1 0

2 −1 0 −1

.Bestimmen Sie eine Basis fur den Losungsraum des homogenen linearen Gleichungssystems mit Ko-effizientenmatrix A.

Aufgabe 1.34 (NV) Es seien a, b, c reelle Zahlen. Bestimmen Sie den Zeilenrang der Matrix

A =

b 0 c 00 b 0 ca 0 b 00 a 0 b

.Aufgabe 1.35 (NV) Es sei U der von (1, 2, 3) und (4, 5, 6), sowie V der von (2, 1, 2) und (1, 2, 0)aufgespannte Unterraum des IR3. Man bestimme eine Basis von U ∩ V .

Aufgabe 1.36 (NV) Es seien U, V,W ⊂ IRn lineare Unterraume. Beweisen oder widerlegen Sie dieFormeln

dim(U ∩ (V +W )) = dim(U ∩ V ) + dim(U ∩W )− dim(U ∩ V ∩W ),dim(U + V +W ) = dim(U + V ) + dim(U +W )− dim(U + (V ∩W )).

29

Page 30: Vorlesung Vektorrechnung Analytische Geometrie Laset

Aufgabe 1.37 (NV) Im IR4 seien die Unterraume

U1 = IR

1111

+ IR

1234

und U2 = IR

6512

+ IR

3450

+ IR

1021

gegeben. Man berechne eine Basis von U1 ∩ U2.

Aufgabe 1.38 (NV) Im IR4 seien die folgenden Punktmengen gegeben:

E1 = x : x1 + x2 + x3 + x4 = x1 + 2x2 + 3x3 + 4x4 = 0,E2 = x : 5x1 + 8x2 + 11x3 + 14x4 = 2x1 + 5x2 + 8x3 + 11x4 = 0.

Man zeige:a) E1 und E2 sind zweidimensionale Unterraume des IR4;b) E1 = E2.

Aufgabe 1.39 (NV) Im IR4 seien die Vektoren

v1 =

1110

,v2 =

1203

,v3 =

1234

gegeben. Man bestimme ein Gleichungssystem, dessen Losungsgesamtheit IRv1 + IRv2 + IRv3 ist.

Aufgabe 1.40 (V) Gegeben sei das lineare Gleichungssystem

6x + 15y + 4z = a3x + 5y + 2z = b9x + 6z = c

fur (x, y, z) ∈ IR3.a) Man gebe die Menge E aller rechten Seiten (a, b, c) ∈ IR3 an, fur die es losbar ist. Welche Strukturhat diese Menge E?b) Welche Dimension hat der affine Losungsraum fur festes (a, b, c) ∈ E?c) Man gebe denselben in Abhangigkeit von (a, b, c) ∈ E an.

Aufgabe 1.41 (V) Geben Sie mit Begrundung die Dimension der linearen Hulle (= span) der fol-genden Teilmengen des IR3 an:a) S1 := (1 + n, 1 + 2n, 1 + 3n); n = 0, 1, ... ,b) S2 := (n, n2, n3);n = 1, 2, ....

Aufgabe 1.42 (V) Seien n, k ∈ IN, seien v1, ,v2, ...,vn ∈ IRk Vektoren, und sei wi :=∑ij=1 vj fur

i = 1, ..., n. Man zeige, dass die Folge (v1,v2, ...,vn) genau dann linear unabhangig ist, wenn die Folge(w1,w2, ...,wn) linear unabhangig ist.

30

Page 31: Vorlesung Vektorrechnung Analytische Geometrie Laset

Aufgabe 1.43 (V) U1, bzw. U2 seien die durch die Vektoren1234

,

4321

,

1010

bzw.

1000

,

2111

aufgespannten Unterraume des IR4. Man bestimme die Dimension und eine Basis von U1 ∩ U2.

Aufgabe 1.44 (V) Im reellen Vektorraum IR5 seien folgende Vektoren gegeben:

u1 = (−1, 4,−3, 0, 3); u2 = (2,−6, 5, 0,−2); u3 = (−2, 2,−3, 0, 6).

Sei U der von u1,u2,u3 aufgespannte Unterraum im IR5. Bestimmen Sie ein reelles lineares Glei-chungssystem, dessen Losungsraum genau U ist.

1.5 Skalarprodukt im IRn

Wir erinnern zunachst an den elementargeometrischen Begriff der Lange in n = 1, 2 und 3 Dimensio-nen:

n=1: Fur x ∈ IR ist |x| :=√x2 der Betrag der Zahl x.

n=2: Die Lange eines Vektors x = (x1, x2) ∈ IR2 ist

‖ x ‖:=√x2

1 + x22.

Dies ist der Inhalt des elementargeometrischen Satzes vonPythagoras.

-

6

>

x

x1

x2‖ x ‖

n=3: Die Lange eines Vektors x = (x1, x2, x3) ∈ IR3 ist

‖ x ‖:=√x2

1 + x22 + x2

3.

Dies ergibt sich nach zweimaligem Anwenden des Pythago-ras.

-

6

!!!!!

x

‖ x ‖

x1

x2

x3

Es liegt nahe, wie dieser Langenbegriff fur beliebige Dimension zu verallgemeinern ist:

Definition 1.5 Sei x = (x1, ..., xn) ∈ IRn. Dann heißt

‖ x ‖:=√x2

1 + x22 + ...+ x2

n

die Lange oder die Norm von x.

31

Page 32: Vorlesung Vektorrechnung Analytische Geometrie Laset

Auch fur den quadratischen Ausdruck unter der Wurzel fuhren wir eine eigene Notation ein:

Definition 1.6 Seien x = (x1, ..., xn) und y = (y1, ..., yn) Vektoren im Zahlenraum IRn. Dann heißt

(x.y) :=n∑ν=1

xν .yν

das Skalarprodukt von x mit y.

Mit dieser Definition des Skalarprodukts ist also

‖ x ‖=√

(x.x).

Das Skalarprodukt (x.y) und die Norm ‖ x ‖=√

(x.x) haben folgende Eigenschaften:

(i) Es ist stets ‖ x ‖≥ 0 und ‖ x ‖= 0 nur dann, wenn x = 0. Fur c ∈ IR ist

‖ cx ‖= |c|· ‖ x ‖ .

(ii) Bi-Linearitat:((c1x1 + c2x2).y) = c1(x1.y) + c2(x2.y), x1,x2,y ∈ IRn, c1, c2 ∈ IR,(x.(c1y1 + c2y2)) = c1(x.y1) + c2(x.y2), x,y1,y2 ∈ IRn, c1, c2 ∈ IR.

(iii) Symmetrie: (x.y) = (y.x), x,y ∈ IRn.

(iv) Cauchy-Schwarz-Ungleichung: |(x.y)| ≤‖ x ‖ · ‖ y ‖ (C.S.U.)

Beweis: Fur alle a, b ∈ IR ist

0 ≤‖ ax− by ‖2= (ax− by . ax− by) = a2 ‖ x ‖2 −2ab(x.y) + b2 ‖ y ‖2,

oder aquivalent damit2ab(x.y) ≤ a2 ‖ x ‖2 +b2 ‖ y ‖2 .

Setzen wir z.B. a =‖ y ‖ und b =‖ x ‖, so erhalten wir

2 ‖ x ‖ · ‖ y ‖ (x.y) ≤ 2 ‖ x ‖2 · ‖ y ‖2 .

Da die Behauptung fur x = 0 oder y = 0 richtig ist, konnen wir o.B.d.A. x 6= 0 6= y annehmen.Dann durfen wir in der letzten Gleichung kurzen und erhalten

(x.y) ≤‖ x ‖ · ‖ y ‖ .

Fur −x statt x gilt dieselbe Ungleichung, sodass also auch

−(x.y) = (−x.y) ≤‖ x ‖ · ‖ y ‖

gilt. Daraus folgt schließlich

|(x.y)| = max(x.y), −(x.y) ≤‖ x ‖ · ‖ y ‖ .

32

Page 33: Vorlesung Vektorrechnung Analytische Geometrie Laset

(v) Dreiecksungleichung: ‖ x + y ‖≤‖ x ‖ + ‖ y ‖ .

- x7y

*

x + yBeweis:

‖ x + y ‖2 = (x + y.x + y)= ‖ x ‖2 +2(x.y)+ ‖ y ‖2

≤ ‖ x ‖2 +2 ‖ x ‖ · ‖ y ‖ + ‖ y ‖2

= (‖ x ‖ + ‖ y ‖)2.

Nicht nur die Norm eines Vektors, auch das Skalarprodukt zweier Vektoren hat eine geometrischeBedeutung. Dazu betrachten wir zunachst zwei Einheitsvektoren (= Vektoren der Lange 1) im IR2 :

x = (cos(α), sin(α))y = (cos(β), sin(β))

(x.y) = cos(α)cos(β) + sin(α)sin(β)= cos(α− β).

Aus dem Additionstheorem fur die cos-Funktion folgt also, dass das Skalarprodukt (x.y) zweier Ein-heitsvektoren der Cosinus des Winkels zwischen beiden Vektoren ist. Fur zwei beliebige Vektorenx 6= 0 6= y definieren wir zunachst die Einheitsvektoren

x :=1‖ x ‖

x, y :=1‖ y ‖

y

und erhalten dann fur den Cosinus des Winkels zwischen x und y

(x.y) =(x.y)

‖ x ‖ · ‖ y ‖.

Dies nehmen wir zum Anlass fur die entsprechende Definition im IRn :

Definition 1.7 Seien x 6= 0 6= y Vektoren im IRn. Aus der Cauchy-Schwarz-Ungleichung folgt

−1 ≤ (x.y)‖ x ‖ · ‖ y ‖

≤ 1.

Da die Cosinus-Funktion das Intervall [0, π] bijektiv auf das Intervall [−1, 1] abbildet, gibt es genaueinen Winkel α ∈ IR mit

cos(α) =(x.y)

‖ x ‖ · ‖ y ‖, 0 ≤ α ≤ π.

Wir nennen diesen Winkel α den Winkel zwischen den Vektoren x und y. (Dieser Winkel hat keinVorzeichen! Er hangt nicht von der Reihenfolge der Vektoren x und y ab.)

33

Page 34: Vorlesung Vektorrechnung Analytische Geometrie Laset

Hier haben wir ziemlich großzugig Gebrauch von den Eigenschaften der Cosinus-Funktion ausAnalysis I gemacht. Die Beziehung zwischen Skalarprodukt und Cosinus des Zwischenwinkels ist furdas Verstandnis und die Anwendungen (z.B. in der analytischen Geometrie) von großer Bedeutung.Im weiteren Aufbau der Linearen Algebra selbst werden wir aber von dieser Tatsache keinen Gebrauchmachen, sondern nur, um den Bezug zur Anschauung aufrecht zu erhalten. In diesem Sinn sollte unsdeswegen die Anleihe bei der Vorlesung Analysis erlaubt sein.

Definition 1.8 Zwei Vektoren x,y ∈ IRn heißen orthogonal oder senkrecht aufeinander, in Zeichenx ⊥ y, wenn sie den Winkel π2 einschließen, also wenn (x.y) = 0 ist. (Hier ist auch x = 0 oder y = 0zugelassen.)

Satz 1.18 (n-dimensionaler Pythagoras) Es seien v1, ...,vr ∈ IRn Vektoren, die paarweise auf-einander senkrecht stehen:

(vk.vl) = 0 fur alle k 6= l.

Dann gilt‖ v1 + v2 + ...+ vr ‖2=‖ v1 ‖2 + ‖ v2 ‖2 +...+ ‖ vr ‖2 .

Beweis. Aus der Voraussetzung folgt, dass die linke Seite gleich

(v1 + ...+ vr .v1 + ...+ vr) =r∑

k,l=1

(vk.vl) =r∑

k=1

(vk.vk)

ist.

Definition 1.9 Ist A ⊂ IRn eine beliebige Menge, so sei

A⊥ := x ∈ IRn : (x.a) = 0 fur alle a ∈ A

die Menge der Vektoren x, die auf allen Vektoren aus A senkrecht stehen. Ist insbesondere A = U ⊂ IRn

ein linearer Unterraum, so nennen wir U⊥ das orthogonale Komplement zu U in IRn.

@

@@@

@@@@

@@@@@

U

U⊥

Beispiel. Sei A = a1, ...,am eine endliche Menge. Dann ist also

x ∈ A⊥ ⇔ (a1.x) = ... = (am.x) = 0

⇔n∑ν=1

a1,νxν = ... =n∑ν=1

am,νxν = 0

⇔n∑ν=1

aµ,νxν = 0 fur µ = 1, ...,m

34

Page 35: Vorlesung Vektorrechnung Analytische Geometrie Laset

Die Vektoren x ∈ a1, ...,am⊥ sind also genau die Losungen des linearen Gleichungssystems, dessenKoeffizientenmatrix aus den Zeilenvektoren a1, ...,am zusammengesetzt ist. Satz 1.15 zeigt in dieserSituation: dima1, ...,am⊥ = n− dimspan(a1, ...,am).

Satz 1.19 Fur jeden linearen Unterraum U ⊂ IRn gilt( 0) dim(U⊥) = n− dim(U),( i) (U⊥)⊥ = U ,(ii) U ∩ U⊥ = 0,(iii) U + U⊥ = IRn.

Beweis. (0): Sei dim(U) = r und u1, ...,ur ∈ U eine Basis des Unterraums. Nach Definition bestehtdas orthogonale Komplement U⊥ aus den Vektoren x ∈ IRn, die auf allen Vektoren u ∈ U senkrechtstehen. Aber weil u1, ...ur den Unterraum U aufspannen, ist dies gleichbedeutend damit, dass x aufu1, ...,ur senkrecht steht. Also ist U⊥ der Losungsraum eines homogenen linearen Gleichungssystems,dessen Koeffizientenmatrix die Zeilenvektoren u1, ...,ur besitzt. Deren Zeilenrang ist r, und aus derDimensionsformel (Satz 1.15) folgt dim(U⊥) = n− r.

(i): Da x ⊥ u genau dann gilt, wenn u ⊥ x, ist U ⊂ (U⊥)⊥. Nach (0) ist dim(U⊥)⊥ = n − (n −dimU) = dimU. Nun folgt U = (U⊥)⊥ aus Satz 1.14 (i).

(ii): Wenn x ∈ U und x ∈ U⊥, dann ist insbesondere (x.x) = 0 und daraus folgt x = 0.(iii): Sei u1, ...,um eine Basis fur U und um+1, ...,un eine Basis fur U⊥. (Wir benutzen hier die

Information dimU⊥ = n − dimU.) Wir testen die Vektoren u1, ...,um,um+1, ...,un auf lineare Un-abhangigkeit:

c1u1 + ...+ cmum︸ ︷︷ ︸∈U

+ cm+1um+1 + ...+ cnun︸ ︷︷ ︸∈U⊥

= 0.

Wegen (ii) ist alsom∑ν=1

cνuν =n∑

ν=m+1

cνuν = 0,

und da u1, ...,um, bzw. um+1, ...,un linear unabhangig sind, folgt c1 = ... = cm = 0 und cm+1 = ... =cn = 0. Nach Satz 1.14 (i) erzeugen dann u1, ...,um,um+1, ...,un den ganzen Zahlenraum IRn.

Satz 1.20 (Schmidtsche Orthonormalisierung) Jeder Unterraum U ⊂ IRn besitzt eine Ortho-normalbasis, d.h. eine Basis u1, ...,um, fur die gilt:

(uk.ul) = 0 falls k 6= l (Orthogonalitat)‖ uk ‖= 1 falls k = 1, ...,m (Normalitat)

Beweis. Wir gehen von einer beliebigen Basis v1, ...,vm des Unterraums U aus. Als erstes norma-lisieren wir v1:

u1 :=1

‖ v1 ‖v1.

Dann ersetzen wir v2 durchu′2 := v2 − (u1.v2)u1,

35

Page 36: Vorlesung Vektorrechnung Analytische Geometrie Laset

denn damit haben wir(u1.u′2) = (u1.v2)− (u1.v2)(u1.u1) = 0

erreicht. Als nachstes normieren wir u′2 :

u2 :=1

‖ u′2 ‖u′2.

Dieses Verfahren konnen wir mit jedem der Vektoren vk wiederholen: Haben wir fur ein k ≤ m schonerreicht, dass

(uj .ul) = 0 falls j 6= l ≤ k‖ uj ‖= 1 fur j = 1, ..., k,

wobei u1, ...,uk ∈ U Linearkombinationen der Vektoren v1, ...,vk sind, so definieren wir

u′k+1 := vk+1 − (u1.vk+1)u1 − ...− (uk.vk+1)uk ∈ U.

Da die Vektoren v1, ...,vk+1 linear unabhangig sind, ist vk+1 keine Linearkombination der v1, ...,vkund deswegen u′k+1 6= 0. Da die Vektoren u1, ...,uk schon orthonormal sind, berechnen wir fur jedesj = 1, ..., k :

(u′k+1.uj) = (vk+1.uj)− (u1.vk+1)(u1.uj)− ...− (uk.vk+1)(uk.uj)= (vk+1.uj)− (uj .vk+1)(uj .uj)= 0

Wir brauchen u′k+1 nur noch zu normalisieren und haben dann orthonormale Vektoren u1, ...,uk+1 ∈ Ukonstruiert. Nach endlich vielen derartigen Schritten haben wir eine Orthonormalbasis fur U.

Dieser Beweis funktionierte ja ganz schon, aber ein Wort der Warnung: Will man dieses Verfah-ren konkret anwenden, so bringen die Normierungen Zahlenfaktoren ins Spiel, die sich meist außerstunangenehm aufschaukeln!

Satz 1.21 (Orthogonalprojektion) Sei U ⊂ IRn ein linearer Unterraum. Zu jedem Vektor x ∈ IRn

gibt es dann genau einen Vektor P (x) ∈ U, derart, dass

x− P (x) ⊥ U.

Beweis. Nach Satz 1.19 (iii) wissen wir IRn = U + U⊥. Jeder Vektor x ∈ IRn ist deswegen eineLinearkombination x = u1 + u2 von Vektoren u1 ∈ U und u2 ∈ U⊥. Hatten wir zwei derartigeDarstellungen fur x:

x = u1 + u2 = u′1 + u′2 mit u1,u′1 ∈ U,u2,u′2 ∈ U⊥,

so konnten wir u1 − u′1 = u′2 − u2 ∈ U ∩ U⊥ folgern. Da nach Satz 1.19 (ii) aber U ∩ U⊥ = 0 ist,hatten wir u1 = u′1 und u2 = u′2. Das heißt, die Darstellung x = u1 + u2 mit u1 ∈ U und u2 ∈ U⊥ istnur auf eine Weise moglich.

Wir setzen P (x) := u1 und haben

((P (x)− x).u) = (−u2.u) = 0 fur alle u ∈ U.

Da die Darstellung x = u1 + u2 eindeutig ist, gibt es zu x nur einen derartigen Vektor P (x).

36

Page 37: Vorlesung Vektorrechnung Analytische Geometrie Laset

Aufgabe 1.45 Es sei U ⊂ IR5 der von den Vektoren (1, 2, 0, 2, 1) und (1, 1, 1, 1, 1) aufgespannte Un-terraum. Bestimmen Sie eine Orthonormalbasis von U und von U⊥.

Aufgabe 1.46 a) Beweisen Sie, dass sich die drei Mittelsenkrechten eines Dreiecks in einem Punktschneiden.b) Beweisen Sie, dass sich die drei Hohen eines Dreiecks in einem Punkt schneiden.

Aufgabe 1.47 Es seien x,y, z ∈ IRn. Zeigen Sie:a) |‖ x ‖ − ‖ y ‖| ≤‖ x− y ‖,b) ‖ x ‖=‖ y ‖ ⇔ (x− y) ⊥ (x + y),c) ist x 6= 0 und y 6= 0, so gilt

‖ x‖ x ‖2

− y‖ y ‖2

‖= ‖ x− y ‖‖ x ‖ · ‖ y ‖

,

d)‖ x− y ‖ · ‖ z ‖≤‖ y − z ‖ · ‖ x ‖ + ‖ z− x ‖ · ‖ y ‖.

Aufgabe 1.48 Zeigen Sie: In der Cauchy-Schwarz-Ungleichung |(x.y)| ≤‖ x ‖ · ‖ y ‖ gilt das Gleich-heitszeichen genau dann, wenn die Vektoren x und y ∈ IRn linear abhangig sind.

Aufgabe 1.49 Es seien L1 : v1 + IRw1 und L2 : v2 + IRw2 zwei Geraden im IRn mit linear un-abhangigen Richtungsvektoren w1,w2. Zeigen Sie: Auf L1 existiert genau ein Punkt x1 und auf L2

genau ein Punkt x2 so, dass x1 − x2 auf w1 und w2 senkrecht steht. (‖ x1 − x2 ‖ heißt Abstand derGeraden L1 und L2.)

Aufgabe 1.50 Es sei U ⊂ IRn ein linearer Unterraum und P die Orthogonalprojektion auf U . ZeigenSie fur alle x ∈ IRn,u ∈ U

‖ x− P (x) ‖≤‖ x− u ‖ .

Aufgabe 1.51 (NV) a) Erganzen Sie die beiden Vektoren

v1 =(

12,12,12,12

)und v2 =

(12,12,−1

2,−1

2

)zu einer Orthonormalbasis des IR4.b) Es sei E ⊂ IR4 die von v1 und v2 aufgespannte Ebene. Bestimmen Sie fur jeden Vektor x =(x1, x2, x3, x4) ∈ IR4 die Orthogonalprojektion x′ ∈ E, d.h., den Vektor x′ ∈ E mit (x− x′) ⊥ E.

Aufgabe 1.52 (NV) Im IR4 seien die aufeinander senkrecht stehenden Vektoren v1 = (1, 2, 3, 4) undv2 = (4, 1,−2, 0) gegeben. Man erganze v1,v2 zu einer Orthogonalbasis des IR4.

Aufgabe 1.53 (V) Man bestimme im IR4 den Winkel zwischen den Vektoren

x =

1111

, y =

0100

.

37

Page 38: Vorlesung Vektorrechnung Analytische Geometrie Laset

Aufgabe 1.54 (V) Zeige, dass zwei Vektoren x und y ∈ IRn genau dann zueinander orthogonal sind,wenn fur alle λ ∈ IR gilt

‖ x + λy ‖≥‖ x ‖ .

Aufgabe 1.55 (V) Im IR3 seien E1 und E2 zwei 2-dimensionale Untervektorraume, die sich in einerGeraden A schneiden. Der Schnittwinkel ϕ = 6 (E1, E2) von E1 mit E2 sei wie folgt definiert: Manwahle Vektoren vi ∈ Ei (i = 1, 2) der Lange 1, die senkrecht auf A stehen. Man darf annehmen, dass(v1.v2) ≥ 0 (andernfalls ersetze man v2 durch −v2). Dann ist

cos(ϕ) = (v1.v2).

Sei

E1 = (x, y, z) ∈ IR3 : x− y + 2z = 0,E2 = (x, y, z) ∈ IR3 : x+ 2y − 3z = 0.

Man berechne den Cosinus des Schnittwinkels von E1 und E2.

Aufgabe 1.56 (V) Die Standardbasisvektoren e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) des IR3

spannen ein Dreieck ∆ auf. Finden Sie einen 2-dimensionalen Unterraum E des IR3 und eine ortho-gonale Projektion π auf E, so dass π(∆) ein gleichseitiges Dreieck ist.

38

Page 39: Vorlesung Vektorrechnung Analytische Geometrie Laset

2 Matrizen und Determinanten

Wir betrachten hier Abbildungen Φ : IRn → IRn. Eine derartige Abbildung ordnet jedem Vektorx ∈ IRn einen Bildvektor Φ(x) ∈ IRn zu.

Definition 2.1 Eine Abbildung Φ heißt injektiv, falls gilt: Φ(x) = Φ(y)⇒ x = y.Φ heißt surjektiv, falls gilt: Zu jedem y ∈ IRn gibt es ein x ∈ IRn mit y = Φ(x). Ein solches x heißtUrbildvektor von y.Φ heißt bijektiv, falls Φ zugleich injektiv und surjektiv ist, d.h., falls es zu jedem y ∈ IRn genau einx ∈ IRn gibt mit y = Φ(x). In diesem Fall ist die Umkehrabbildung y 7→ x auch wieder eine Abbildung,sie wird mit Φ−1 bezeichnet.

Fur die Umkehrabbildung Φ−1 einer bijektiven Abbildung Φ ist nach Definition Φ−1(Φ(x)) =Φ−1(y) = x. Aber es gilt auch Φ(Φ−1(y)) = Φ(x) = y.

Die Abbildung x 7→ x, die jeden Vektor auf sich selber abbildet, kriegt einen eigenen Namen. Sieheißt die Identitat id : IRn → IRn. Zwei Abbildungen Φ1 und Φ2 kann man hintereinanderschalten:Φ2 Φ1 : IRn → IRn ist die Abbildung

x 7→ Φ1(x) 7→ Φ2(Φ1(x)).

Wenn Φ2 = Φ−11 , dann gilt also

Φ2 Φ1 = Φ1 Φ2 = id.

2.1 Bewegungen im IRn

Definition 2.2 Eine Bewegung im IRn ist eine Abbildung

Φ :

IRn → IRn

x 7→ Φ(x),

die den Abstand erhalt, d.h. eine Abbildung mit der Eigenschaft

‖ Φ(x)− Φ(y) ‖= ‖ x− y ‖

fur alle x,y ∈ IRn.

Wenn man einen ”starren Korper“ bewegt, andern sich die Abstande von Punkten in seinem In-neren nicht. Bei einer Bewegung des IRn im eben definierten Sinn stellt man sich vor, den ganzen IRn

so zu bewegen wie einen starren Korper.Beispiele. 1) Die Translation um einen festen Vektor a

T : x 7→ x + a

ist eine Bewegung wegen

‖ T (x)− T (y) ‖= ‖ x + a− (y + a) ‖= ‖ x− y ‖ .

39

Page 40: Vorlesung Vektorrechnung Analytische Geometrie Laset

2) Die Punktspiegelung am Ursprung

Φ : x 7→ −x

ist eine Bewegung, weil‖ Φ(x)− Φ(y) ‖= ‖ −x + y ‖= ‖ x− y ‖ .

3) Eine Hyperebene a⊥ ist die Losungsmenge einer linearen Gleichung (a.x) = 0 :

a⊥ = x ∈ IRn : (a.x) = 0 = x ∈ IRn :n∑1

aνxν = 0.

Naturlich soll hier a 6= 0 sein, um a⊥ = IRn auszuschließen. Deswegen konnen wir a als normiertannehmen: ‖ a ‖= 1. In diesem Fall hat die Abbildung

Φ1 : x 7→ x− (x.a)a

die Eigenschaften

Φ1(x) ∈ a⊥, (Φ1(x)− x) ⊥ a⊥,

d.h. Φ1 ist die Orthogonalprojektion auf a⊥. Wenn wir von x nichtnur einmal (x.a)a abziehen, sondern zweimal, so ist dies die Spie-gelung an der Hyperebene a⊥ :

Φ : x 7→ x− 2(x.a)a.r0

a⊥SSo

a

rSSSSw

x−(x.a)a

Φ1(x)SSSSwΦ(x)

−(x.a)a

Auch diese Abbildung ist eine Bewegung:

‖ Φ(x)− Φ(y) ‖=‖ x− 2(x.a)a− y + 2(y.a)a ‖=‖ x− y − 2(x− y.a)a ‖=‖ Φ(x− y). ‖,

und es genugt also, zu zeigen ‖ Φ(x) ‖=‖ x ‖ . Aber dies folgt aus

‖ Φ(x) ‖2= (x− 2(x.a)a .x− 2(x.a)a) =‖ x ‖2 −4(x.a)(a.x) + 4(x.a)2 =‖ x ‖2 .

4) Sind Φ1 und Φ2 Bewegungen, so ist auch Φ1 Φ2 eine Bewegung, denn

‖ Φ1(Φ2(x))− Φ1(Φ2(y)) ‖=‖ Φ2(x)− Φ2(y) ‖=‖ x− y ‖ .

Sei Φ eine beliebige Bewegung im IRn und a := Φ(0) ∈ IRn. Sei T die Translation x 7→ x−a. Dannist auch T Φ eine Bewegung (Beispiele 1 und 4), und sie hat die Eigenschaft

(T Φ)(0) = T (Φ(0)) = T (a) = a− a = 0.

Zu jeder Bewegung Φ gibt es also eine Translation T mit (T Φ)(0) = 0.

Definition 2.3 Eine Bewegung im IRn, die den Nullvektor fest lasst, heißt orthogonale Transforma-tion.

40

Page 41: Vorlesung Vektorrechnung Analytische Geometrie Laset

Satz 2.1 Jede Bewegung Φ im IRn ist ein Produkt Φ = T Ψ einer Translation T mit einer orthogo-nalen Transformation Ψ.

Beweis. Sei die Bewegung Φ gegeben. Ist T irgend eine Translation, so ist Ψ := T−1Φ orthogonalgenau dann, wenn Ψ(0) = 0, d.h. T (0) = Φ(0). Wir definieren also ganz einfach T : x 7→ x + Φ(0).Dann ist Ψ := T−1 Φ eine orthogonale Transformation mit Φ = T Ψ.

Orthogonale Transformationen Φ haben folgende Eigenschaften:

• Φ(0) = 0 (nach Definition),

• ‖ Φ(x)− Φ(y) ‖=‖ x− y ‖ (nach Definition einer Bewegung),

• ‖ Φ(x) ‖=‖ x ‖ (vorige Eigenschaft mit y = 0).

Satz 2.2 Eine orthogonale Transformation erhalt das Skalarprodukt zweier Vektoren, d.h. fur allex,y ∈ IRn gilt

(Φ(x).Φ(y)) = (x.y).

Beweis. Es ist

‖ Φ(x)− Φ(y) ‖2= (Φ(x)− Φ(y).Φ(x)− Φ(y)) =‖ Φ(x) ‖2 + ‖ Φ(y) ‖2 −2(Φ(x).Φ(y)).

Mit ‖ Φ(x) ‖=‖ x ‖, ‖ Φ(y) ‖=‖ y ‖ und ‖ Φ(x)− Φ(y) ‖=‖ x− y ‖ folgt

(Φ(x).Φ(y)) = −12

(‖ Φ(x)− Φ(y) ‖2 − ‖ Φ(x) ‖2 − ‖ Φ(y) ‖2)

= −12

(‖ x− y ‖2 − ‖ x ‖2 − ‖ y ‖2)

= (x.y)

Wir haben Bewegungen und damit orthogonale Abbildungen durch die Eigenschaft der Langentreuedefiniert. Satz 2.2 sagt, aus der Langentreue folgt die Winkeltreue.

Die Bilder der Vektoren uν einer Orthonormalbasis (kurz: O-N-Basis) v1 := Φ(u1), ...,vn := Φ(un)unter einer orthogonalen Transformation Φ haben wegen Satz 2.2 dieselben Skalarprodukte

(vk.vl) = (uk.ul) =

1 falls k = l,0 falls k 6= l.

Daraus folgt, dass die Vektoren v1, ...,vn linear unabhangig sind: Denn wenn wir testen

n∑k=1

ckvk = 0, c1, ..., cn ∈ IR,

sehen wir fur l = 1, ..., n, dass

0 = (vl.n∑k=1

ckvk) = cl(vl.vl) = cl.

41

Page 42: Vorlesung Vektorrechnung Analytische Geometrie Laset

Also ist das Bild der O-N-Basis u1, ...,uk wieder eine O-N-Basis.

Das Bild Φ(x) eines Vektors x =∑n

1 cνuν ist Φ(x) =∑n

1 dνvν mit

dν = (Φ(x).vν) = (Φ(x).Φ(uν)) = (x.uν) = cν .

Fur eine orthogonale Abbildung Φ gilt also:

Φ(n∑1

cνuν) =n∑1

cνΦ(uν)

Hieraus folgt insbesondere

Φ(c · x) = c · Φ(x) fur x ∈ IRn, c ∈ IR (Homogenitat)Φ(x + y) = Φ(x) + Φ(y) fur x,y ∈ IRn (Additivitat)

(LINEARITAT).

Diese Eigenschaft der Linearitat einer Abbildung hat der linearen Algebra ihren Namen gegeben.Die fundamentalen Beziehungen in der Linearen Algebra werden durch lineare Abbildungen vermittelt.Deswegen halten wir diese Eigenschaft fur - nicht nur orthogonale - Abbildungen als Definition fest.

Definition 2.4 Eine Abbildung F : IRn → IRm (hier kann durchaus m 6= n sein) heißt linear, wenn

F (c1x1 + c2x2) = c1F (x1) + c2F (x2) fur alle c1, c2 ∈ IR,x1,x2 ∈ IRn.

Satz 2.3 Eine Abbildung Φ : IRn → IRn ist orthogonal genau dann, wenn sie folgende beiden Eigen-schaften hat:( i) Φ ist linear.(ii) Es gibt eine O-N-Basis u1, ...,un ∈ IRn, welche unter Φ wieder auf eine O-N-Basis Φ(u1), ...,Φ(un)abgebildet wird.

Beweis. ”⇒“ Nach Satz 2.2 bildet eine orthogonale Abbildung jede (nicht nur eine einzige) O-N-Basis auf eine O-N-Basis ab. Und dass die Linearitat eine Konsequenz der Orthogonolitat ist, habenwir soeben gesehen.

”⇐“ Aus der Linearitat folgt ‖ Φ(x)−Φ(y) ‖=‖ Φ(x−y) ‖ fur alle Vektoren x,y ∈ IRn. Es genugtdeswegen ‖ Φ(x) ‖=‖ x ‖ fur jeden Vektor x ∈ IRn zu zeigen. Wir schreiben den Vektor x in unsererO-N-Basis als x =

∑n1 cνuν . Aus der Linearitat folgt Φ(x) =

∑n1 cνΦ(uν). Und da sowohl die uν als

auch ihre Bilder Φ(uν) eine O-N-Basis bilden, ist nach Pythagoras

‖ Φ(x) ‖2=n∑1

c2ν =‖ x ‖2 .

42

Page 43: Vorlesung Vektorrechnung Analytische Geometrie Laset

Beispiel. Rotation im IR2 um einen Winkel ϕ.Rotiert man die beiden Vektoren e1 = (1, 0) und e2 = (0, 1) der Stan-dardbasis des IR2 um einen Winkel ϕ, so erhalt man die O-N-Basis

Φ(e1) =

(cos(ϕ)sin(ϕ)

), Φ(e2) =

(−sin(ϕ)cos(ϕ)

)

des IR2. Es gibt deswegen eine einzige lineare (und dann auch orthogo-nale) Abbildung Φ : IR2 → IR2, welche diese Drehung der Basisvektorenbewirkt, namlich

Φ :

(x1

x2

)7→(x1cos(ϕ)− x2sin(ϕ)x1sin(ϕ) + x2cos(ϕ)

).

-e1

6e2

>

SSSSo

(cossin

)(−sincos

)

Die Orthogonalitat dieser linearen Abbildung ist leicht direkt nachzurechen:

(x1cos(ϕ)− x2sin(ϕ))2 + (x1sin(ϕ) + x2cos(ϕ))2 = x21cos(ϕ)2 + x2

2sin(ϕ)2 + x21sin(ϕ)2 + x2

2cos(ϕ)2

= x21 + x2

2.

Aufgabe 2.1 Beweisen oder widerlegen Sie: Fur alle Mengen A,B,C und Abbildungen f : A→ B, g :B → C gilt:a) Sind f und g injektiv, so auch g f .b) Sind f und g surjektiv, so auch g f .c) Ist f injektiv und g surjektiv, so ist g f bijektiv.d) Ist g f bijektiv, so ist g surjektiv und f injektiv.e) Ist g f bijektiv, so ist g injektiv und f surjektiv.

Aufgabe 2.2 Φ : IRn → IRp sei eine lineare Abbildung. Zeigen Sie:a) Φ ist genau dann injektiv, wenn gilt: Sind Vektoren v1, ...,vr ∈ IRn linear unabhangig, so sind auchdie Bildvektoren Φ(v1), ...,Φ(vr) ∈ IRp linear unabhangig.b) Φ ist genau dann surjektiv, wenn gilt: Spannen die Vektoren v1, ...,vr den Raum IRn auf, so spannenihre Bilder Φ(v1), ...,Φ(vr) den Raum IRp auf.

Aufgabe 2.3 (NV) Es seien U,W ⊂ IRn Untervektorraume und f : IRn → IRn eine orthogonale Ab-bildung mit f(U) = W . Beweisen Sie, dass f das orthogonale Komplement von U auf das orthogonaleKomplement von W abbildet.

Aufgabe 2.4 (NV) Es seien g und h zwei Geraden im euklidischen IR2, welche sich unter demWinkel α mit 0 < α ≤ π

2 schneiden. Seien sg und sh die Spiegelungen an g bzw. h.a) Fur welche α gibt es eine naturliche Zahl n mit (sg sh)n = id?b) Fur welche α ist sg sh = sh sg?

43

Page 44: Vorlesung Vektorrechnung Analytische Geometrie Laset

2.2 Lineare Abbildungen und Matrizen

Bei der Beschreibung der Rotation im letzten Abschnitt haben wir von folgendem Prinzip Gebrauchgemacht: Ist Φ : IRn → IRm eine lineare Abbildung, und sind v1 = Φ(e1), ...,vn = Φ(en), die Bilderder Basis-Vektoren e1, ..., en bekannt, so ist das Bild eines jeden Vektors x = (x1, ..., xn) =

∑n1 xνeν

bereits festgelegt durch

Φ(x) = Φ(n∑1

xνeν) =n∑1

xνΦ(eν) =n∑1

xνvν .

Umgekehrt kann man Vektoren v1, ...,vn ∈ IRm beliebig vorgeben, durch diese Formel wird dann einelineare Abbildung Φ : IRn → IRm definiert mit Φ(e1) = v1, ...,Φ(en) = vn. Daraus folgt

Satz 2.4 (Prinzip der linearen Ausdehnung) Zu jeder Wahl von Vektoren v1, ...,vn ∈ IRm gibtes eine lineare Abbildung Φ : IRn → IRm, welche die Vektoren e1, ..., en der Standardbasis auf dieseVektoren v1, ...,vn abbildet. Diese lineare Abbildung ist durch die Vektoren v1, ...,vn eindeutig festge-legt.

Wir schreiben nun die Vektoren Φ(eν) = vν als Spaltenvektoren

vν =

v1,ν

.

.

.vm,ν

und fugen sie zu einer Matrix

(vµ,ν)(µ=1,...,m

ν=1,...,n)

= m

v1,1 . . . v1,n

. . . . .

. . . . .

. . . . .vm,1 . . . vm,n

︸ ︷︷ ︸

n

mit m Zeilen und n Spalten zusammen. Aus dieser Matrix (vµ,ν) erhalt man das Bild Φ(x) einesVektors x = (xν) durch

Φ(x) = (n∑ν=1

vµ,νxν)µ=1,...,m.

Dies ist genau dieselbe Formel wie fur ein lineares Gleichungssystem. Naturlich ist das kein Zufall,denn auch ein lineares Gleichungssystem kann man als lineare Abbildung auffassen: Ist (aµ,ν) dieKoeffizientenmatrix des Systems, so ist die Abbildung

Φ

IRn → IRm

(xν) 7→n∑1

aµ,νxν

44

Page 45: Vorlesung Vektorrechnung Analytische Geometrie Laset

linear und das Losen der linearen Gleichungn∑1

aµ,νxν = bµ

besteht darin, fur den Vektor b ∈ IRm alle Vektoren x ∈ IRn zu finden, welche unter Φ auf b abgebildetwerden.

Beispiele. 1) Die Identitat

id :

IRn → IRn

x 7→ x

bildet jeden Vektor auf sich selbst ab, also auch die Standardbasis auf die Standardbasis. Ihre Matrixist die Einheitsmatrix

1ln :=

1 0 . . . 00 1 0 .. 0 . . .. . . . .. . . 00 . . . 0 1

= (δµ,ν)µ,ν=1,...,n.

Bei dieser Gelegenheit fuhren wir folgende Konvention ein: Die Zahl

δµ,ν :=

0 wenn µ 6= ν1 wenn µ = ν

heißt Kronecker-Delta.2) Es sei c ∈ IR. Die Streckung

Φ :

IRn → IRn

x 7→ c · x

bildet jeden Vektor eν auf c · eν ab. Ihre Matrix ist deswegen

c 0 . . . 00 c 0 .. 0 c . .. . . . .. . c 00 . . . 0 c

= (c · δµ,ν)µ,ν=1,...,n.

Spezialfalle sind die Identitat (c = 1), die Punktspiegelung am Nullpunkt (c = −1) und die Nullabbil-dung (c = 0).

3) Fur jeden Einheitsvektor a, ‖ a ‖= 1, haben wir gesehen, dass die Spiegelung an der Hyperebenea⊥ durch x 7→ x− 2(x.a)a gegeben wird. Dabei wird der Vektor eν auf

eν − 2(eν .a)a = eν − 2aνa = (δµ,ν − 2aνaµ)µ=1,...,n

abgebildet. Die zugehorige Matrix ist also (δµ,ν − 2aµaν).4) Die Matrix zu einer Rotation in der Ebene um den Winkel ϕ ist eine Drehmatrix(

cos(ϕ) −sin(ϕ)sin(ϕ) cos(ϕ)

).

45

Page 46: Vorlesung Vektorrechnung Analytische Geometrie Laset

Dies erhalt man aus der Form fur die Bilder der Einheitsvektoren e1 und e2, die wir am Ende desletzten Paragraphen angegeben haben.

5) Auch eine reine Vertauschung (Permutation) von Basisvektoren definiert eine lineare Abbildung.So gehort z.B. zu der Vertauschung e1 ↔ e2 die Matrix

0 1 0 . . 01 0 0 00 0 1 . .. . . . .. . 1 00 . . . 0 1

.

6) Es sei U ⊂ IRn ein m-dimensionaler Unterraum, der von einer O-N-Basis v1, ...,vm aufgespanntwird. Die Orthogonalprojektion (vgl. (1.5)) Φ auf diesen Unterraum bildet jeden Vektor x ∈ IRn aufden Vektor Φ(x) =

∑m1 cµvµ ab, fur den

((Φ(x)− x).vµ) = 0 fur alle µ, d.h. (Φ(x).vµ) = (x.vµ), also cµ = (x.vµ)

gilt. Die Orthogonalprojektion ist also die lineare Abbildung x 7→∑m

1 (x.vµ)vµ. Sie bildet eν auf∑mµ=1 vµ,νvµ ab und ihre Matrix ist m∑

µ=1

vµ,kvµ,l

k,l=1,...,n

.

7) Sind Φ : IRn → IRm und Ψ : IRm → IRl linear, so ist auch Ψ Φ : IRn → IRl wieder linear, denn

(Ψ Φ)(c1v1 + c2v2) = Ψ(Φ(c1v1 + c2v2)) = Ψ(c1Φ(v1) + c2Φ(v2)) = c1ΨΦ(v1) + c2ΨΦ(v2).

Was ist die zu Ψ Φ gehorige Matrix? Dazu sei

e1, ..., en Standardbasis des IRn, Φ(eν) =∑mµ=1 aµ,νfµ, (aµ,ν) die Matrix fur Φ,

f1, ..., fm Standardbasis des IRm, Ψ(fµ) =∑lλ=1 bλ,µgλ, (bλ,µ) die Matrix fur Ψ,

g1, ...,gl Standardbasis des IRl.

Wir berechnen die Bilder der Basisvektoren eν :

(Ψ Φ)(eν) = Ψ(m∑µ=1

aµ,νfµ) =l∑

λ=1

bλ,µaµ,νgλ =l∑

λ=1

cλ,νgλ

mit der Matrix

(cλ,ν)λ,ν = (m∑µ=1

bλ,µaµ,ν)λ,ν .

Schließlich formulieren wir noch

46

Page 47: Vorlesung Vektorrechnung Analytische Geometrie Laset

Satz 2.5 (Bildsatz) Ist Φ : IRn → IRm linear und U ⊂ IRn ein linearer Unterraum, so ist das Bildvon U

Φ(U) = Φ(u) ∈ IRm : u ∈ U

ein linearer Unterraum im IRm, und fur seine Dimension gilt

dimΦ(U) ≤ dimU.

Beweis. Sind v1 = Φ(u1) und v2 = Φ(u2) zwei Vektoren aus Φ(U), so gehort auch c1v1 +c2v2 = Φ(c1u1 + c2u2) zum Bildraum Φ(U). Ist u1, ...,uk eine Basis von U , so spannen die Vek-toren Φ(u1), ...,Φ(uk) ∈ IRm den linearen Unterraum auf. Nach dem Basisauswahlsatz (Satz 1.12) istdeswegen dimΦ(U) ≤ dim(U).

Aufgabe 2.5 Geben Sie die n×n-Matrizen an, die zu den folgenden linearen Abbildungen Φi : IRn →IRn (i = 1, ..., 4) gehoren:a) Φ1 ist die Spiegelung an der Hyperebene a⊥, wo a = (a1, ..., an) ∈ IRn mit ‖ a ‖= 1 gegeben ist.b) Φ2 ist die Orthogonalprojektion auf einen p-dimensionalen linearen Unterraum U , der durch eineOrthonormalbasis u1 = (u1,1, ..., u1,n), ...,up = (up,1, ..., up,n) aufgespannt wird.c) Φ3 = Φ1 Φ1.d) Φ4 = Φ2 Φ2.

Aufgabe 2.6 Es sei Φ : IR2 → IR2 die lineare Abbildung, die durch die Matrix(1 10 −1

)

beschrieben wird. Zeigen Sie:a) Φ Φ = id.b) Jeder Vektor x ∈ IR2 lasst sich eindeutig darstellen als x = u + v mit Φ(u) = u und Φ(v) = −v.

Aufgabe 2.7 (NV) Im IR2 seien die vier Punkte

v1 = (1, 1), v2 = (1,−1), v3 = (−1,−1), v4 = (−1, 1)

gegeben. Man bestimme zwei lineare Abbildungen ϕ,ψ : IR2 → IR2, welche die vi permutieren undaußerdem die Bedingungen

ϕ2, ψ 6= id, ϕψ = ψϕ−1

erfullen.

47

Page 48: Vorlesung Vektorrechnung Analytische Geometrie Laset

2.3 Matrizenrechnung

Wir bezeichnen mitM(m× n) = (aµ,ν)µ=1,...,m,ν=1,...,n : aµ,ν ∈ IR

den Raum der reellen m× n-Matrizen. Eine m× n-Matrix ist ein m · n-tupel von reellen Zahlen alsoein Vektor im IRm·n. Auch fur Matrizen haben wir deswegen die Vektorrechenoperationen:

1) Addition: A = (aµ,ν)B = (bµ,ν)

A+B = (aµ,ν + bµ,ν)

2) Skalarmultiplikation: A = (aµ,ν)c ∈ IR

c ·A = (c · aµ,ν)

Diese Operationen haben genau dieselben Eigenschaften wie die entsprechenden Operationen auf Vek-toren. Neu ist aber die Matrizen-Multiplikation:

3) Matrizenmultiplikation: A = (aλ,µ) ∈M(l ×m)B = (bµ,ν) ∈M(m× n)

A ·B = (∑mµ=1 aλ,µbµ,ν) ∈M(l × n)

l

A

︸ ︷︷ ︸m

· m

B

︸ ︷︷ ︸n

= l

A ·B

︸ ︷︷ ︸n

Das Matrizenprodukt A · B ist nur definiert, wenn die Matrix A genau so viele Spalten wie B Zeilenhat!

Beispiele fur Matrizenmultiplikation: 1) Das Skalarprodukt (a.b) zweier Vektoren a = (a1, ..., an)und b = (b1, ..., bn) ∈ IRn konnen wir als Matrizenprodukt auffassen. Dazu mussen wir die beiden Vek-toren folgendermaßen als Matrizen auffassen:

a = (a1, ..., an) = A ∈M(1× n) Zeilenvektor

b =

b1...bn

= B ∈M(n× 1) Spaltenvektor

Dann ist

A ·B = (a1, ..., an) ·

b1...bn

=n∑k=1

akbk = (a.b).

48

Page 49: Vorlesung Vektorrechnung Analytische Geometrie Laset

2) Eine Matrix A = (aµ,ν) ∈M(m×n) mit n Spalten kann man von rechts mit einem Spaltenvektorx ∈ IRn multiplizieren:

A · x =

a1,1 ... a1,n

a2,1 ... a2,n...

...am,1 ... am,n

· x1

...xn

= (n∑ν=1

aµ,ν · xν)µ=1,...,m

Das Resultat ist ein Spaltenvektor mit m Zeilen. Dieses Produkt haben wir bereits kennen gelernt:Die linke Seite eines linearen Gleichungssystems hat diese Form A · x, und eine lineare AbbildungIRn → IRm wird durch x 7→ A · x gegeben.

3) Ist 1lm die m×m-Einheitsmatrix und A ∈M(m× n), so ist

1lm ·A = (δλ,µ) · (aµ,ν) = (m∑µ=1

δλ,µ · aµ,ν) = (aλ,ν) = A.

Ebenso istA · 1ln = A.

4) Sind A(α) und A(β) die Drehmatrizen(cos(α) −sin(α)sin(α) cos(α)

),

(cos(β) −sin(β)sin(β) cos(β)

),

so ist das Produkt

A(α) ·A(β) =

(cos(α)cos(β)− sin(α)sin(β) −cos(α)sin(β)− sin(α)cos(β)sin(α)cos(β) + cos(α)sin(β) −sin(α)sin(β) + cos(α)cos(β)

)

=

(cos(α+ β) −sin(α+ β)sin(α+ β) cos(α+ β)

)die Drehmatrix zum Winkel α+β. Dieses Ergebnis ist eine direkte Konsequenz der Additionstheoremefur die Winkelfunktionen.

5) Sei E die Permutationsmatrix zur Vertauschung des ersten und des zweiten Basisvektors:

E =

0 1 0 . . . 01 0 0 . .0 0 1 . .. . . 1 . .. . . . .. . . 00 . . . . 0 1

∈M(m×m).

Dann ist fur jede m× n-Matrix A

E ·A =

0 1 0 . . . 01 0 0 . .0 0 1 . .. . . 1 . .. . . . .. . . 00 . . . . 0 1

·

a1,1 a1,2 . . . a1,n

a2,1 a2,2 . . . a2,n

a3,1 a3,2 . . . a3,n

. . . . . .

. . . . . .

. . . . . .am,1 am,2 . . . am,n

=

a2,1 a2,2 . . . a2,n

a1,1 a1,2 . . . a1,n

a3,1 a3,2 . . . a3,n

. . . . . .

. . . . . .

. . . . . .am,1 am,2 . . . am,n

.

49

Page 50: Vorlesung Vektorrechnung Analytische Geometrie Laset

Das heißt: Die Linksmultiplikation von E an A vertauscht in A die erste mit der zweiten Zeile. All-gemeiner konnen alle drei Arten elementarer Zeilenumformungen durch Linksmultiplikation mit denfolgenden Matrizen (Elementarmatrizen) erreicht werden:

Vertauschen zweier Zeilen(Elementarmatrix vom Typ I):

1.

10 . . . 1. 1 .. . .. 1 .1 . . . 0

1.

1

Multiplikation einer Zeile mit c ∈ IR(Elementarmatrix vom Typ II):

1.

1c

1.

1

Addieren des c-fachen einer Zeile zu einer anderen(Elementarmatrix vom Typ III):

1.

1 . c. .

1.

1

Fur die Matrizenmultiplikation gelten folgende Rechenregeln:

Assoziativitat: (A ·B) · C = A · (B · C)

Beweis. Wir berechnen

(AB)C = (∑µ

(∑λ

aκ,λbλ,µ)cµ,ν)κ,ν = (∑µ,λ

aκ,λbλ,µcµ,ν)κ,ν = (∑λ

aκ,λ(∑µ

bλ,µcµ,ν))κ,µ = A(BC).

Distributivitat: (A1 +A2) ·B = A1 ·B +A2 ·BA · (B1 +B2) = A ·B1 +A ·B2

(c ·A) ·B = A · (c ·B) = c ·A ·B fur c ∈ IR

Der Beweis hierfur ist ahnlich tiefsinnig wie fur die Assoziativitat.

50

Page 51: Vorlesung Vektorrechnung Analytische Geometrie Laset

Ein ganz entscheidender Unterschied zur Multiplikation reeller Zahlen besteht darin, dass dieMatrizenmultiplikation nicht kommutativ ist.

Im Allgemeinen ist A ·B 6= B ·A.

Wir berechnen dafur als Beispiel(a1 a0 a2

)·(b1 b0 b2

)=

(a1b1 a1b+ ab20 a2b2

),(

b1 b0 b2

)·(a1 a0 a2

)=

(b1a1 b1a+ ba2

0 b2a2

).

Im allgemeinen (z.B. wenn a = b = 1 und a1 + b2 6= a2 + b1) unterscheiden sich die beiden Dreiecks-matrizen durch ihren Eintrag rechts oben.

Nachdem wir nun die formalen Eigenschaften der Matrizenmultiplikation zusammengestellt haben,erinnern wir daran, dass diese Matrizenmultiplikation dem Hintereinanderausfuhren linearer Abbil-dungen entspricht: Sind Φ : IRl → IRm und Ψ : IRm → IRn linear mit Matrizen A ∈ M(m × l) undB ∈M(n×m), so gehort zur linearen Abbildung ΨΦ die Matrix B ·A (s. Ende des letzten Abschnitts2.2).

Wir wollen nun die Matrix zur Umkehrabbildung Φ−1 bestimmen, wenn diese existiert. Dazu seiΦ : IRm → IRn linear und bijektiv. Die Umkehrabbildung

Φ−1 :

IRn → IRm

y 7→ x falls Φ(x) = y

existiert dann und ist linear, denn

y1 = Φ(x1), y2 = Φ(x2) ⇒ Φ(c1x1 + c2x2) = y := c1y1 + c2y2

impliziertΦ−1(y) = c1x1 + c2x2 = c1Φ−1(y1) + c2Φ−1(y2).

Aus dem Bildsatz (Satz 2.5) folgt deswegen n ≤ m und m ≤ n, also m = n. Eine bijektive lineareAbbildung exisitiert also nur zwischen Zahlenraumen IRn und IRm gleicher Dimension m = n.

Sei nun Φ : IRn → IRn linear und invertierbar mit zugehoriger Matrix A. Die zu Φ−1 gehorigeMatrix sei B. Da Φ−1 Φ = Φ Φ−1 = id, und da dem Hintereinanderausfuhren linearer Abbildungendie Matrizenmultiplikation entspricht, folgern wir

A ·B = B ·A = 1ln.

Definition 2.5 Eine Matrix A ∈ M(n × n) heißt invertierbar, wenn es eine Matrix B ∈ M(n × n)gibt mit AB = BA = 1ln.

Naturlich braucht fur die Invertierbarkeit nur A ·B = 1ln oder B ·A = 1ln zu gelten, denn in beidenFallen folgt, dass die lineare Abbildung mit Matrix B die Umkehrabbildung zur linearen Abbildungmit Matrix A ist.

51

Page 52: Vorlesung Vektorrechnung Analytische Geometrie Laset

Die Matrix B mit dieser Eigenschaft ist durch A eindeutig bestimmt, denn aus AB1 = AB2 = 1lnund B1A = 1ln folgt

B1 = B1(AB1) = B1(AB2) = 1lnB2 = B2.

Wir nennen B die inverse Matrix zu A, B := A−1.

Beispiel. Die Inversen der Elementarmatrizen sind:

1.

10 . . . 1. 1 .. . .. 1 .1 . . . 0

1.

1

−1

=

1.

10 . . . 1. 1 .. . .. . 1 .1 . . . 0

1.

1

,

1.

1c

1.

1

−1

=

1.

11/c

1.

1

,

1.

1 . c. .

1.

1

−1

=

1.

1 . −c. .

1.

1

.

Satz 2.6 (Quadratische Matrizen) Die Matrix A ∈ M(n × n) gehore zur linearen Abbildung Φ,d.h.

Φ :

IRn → IRn

x 7→ A · x

Dann sind aquivalent:1) Φ ist bijektiv,1’) A ist invertierbar,2) Φ ist injektiv,2’) das homogene lineare Gleichungssystem A · x = 0 hat nur die triviale Losung x = 0,

52

Page 53: Vorlesung Vektorrechnung Analytische Geometrie Laset

3) Φ ist surjektiv,3’) das inhomogene lineare Gleichungssystem A ·x = b hat fur jede Wahl der rechten Seite b eine

Losung x,4) die Matrix A ist durch elementare Zeilenumformungen auf Dreiecksform

1 ∗ . . . ∗0 1 ∗ .. . . . .. . . . .. . . ∗0 . . . 0 1

zu bringen.

Beweis. Die Implikationen ”1)⇔ 1′)“ und ”1)⇔ 2) + 3)“ sind klar.

”2) ⇔ 2′)“ Die Injektivitat von Φ bedeutet, dass aus Φ(x1) = Φ(x2) folgt x1 = x2. Wegen derLinearitat von Φ ist Φ(x1) = Φ(x2) aquivalent mit Φ(x1−x2) = 0. Damit konnen wir die Injektivitatkurzer so charakterisieren: aus Φ(x) = 0 folgt x = 0. Da Φ(x) = A · x, ist dies aquivalent mit: AusA · x = 0 folgt x = 0, d.h. das homogene Gleichungssystem A · x = 0 hat nur die triviale Losungx = 0.

”3)⇔ 3′)“ Wegen Φ(x) = A · x ist 3′) tatsachlich nur eine einfache Umformulierung der Surjekti-vitat.

”2′) ⇒ 4)“ Die Matrix A werde durch elementare Zeilenumformungen auf Zeilenstufenform ge-bracht. Wenn diese Stufenform weniger als n Stufen enthielte, gabe es darin Spalten ohne Stufe. Indiesen Spalten konnte die Unbekannte beliebig gewahlt werden, es gabe dazu stets eine Losung des ho-mogenene Gleichungssystems A ·x = 0. Insbesondere hatte das homogene System eine Losung x 6= 0.Dies widerspricht der Eigenschaft 2′), die Anzahl der Stufen muss also n sein und die Zeilenstufenformist eine Dreiecksform.

”3′) ⇒ 4)“ Die Matrix A werde in Zeilenstufenform Z gebracht. Wenn Z weniger als n Stufenenthielte, ware das Gleichungssystem Z · x = en unlosbar. Machte man die elementaren Zeilenumfor-mungen wieder ruckgangig, so erhielte man aus Z die Matrix A zuruck und aus en einen Vektor b,fur den das Gleichungssystem A · x = b unlosbar ist. Dies ware ein Widerspruch zu 3’). Somit ist dieZeilenstufenform eine Dreiecksform.

”4) ⇒ 2′)“ Nach Voraussetzung konnen wir jetzt A durch elementare Zeilenumformungen auf dieDreiecksform D bringen. Das Gleichungssystem D · x = 0 hat nur die Null-Losung. Seine Losungensind aber die gleichen, wie die des Systems A · x = 0. Das beweist 2′).

”4)⇒ 3′)“ Sei eine rechte Seite b ∈ IRn beliebig vorgegeben. Wir wenden elementare Zeilenumfor-mungen auf die erweiterte Koeffizientenmatrix (A,b) an, mit denen wir A auf Dreiecksform bringenund die Losungen des inhomogenen Gleichungssystems nicht andern. Hat aber die KoeffizientenmatrixDreiecksform, so ist das Gleichungssystem bei beliebiger Wahl der rechten Seite losbar. Daraus folgt3′).

Beispiel. Wann ist eine 2× 2-Matrix

A =

(a bc d

)

53

Page 54: Vorlesung Vektorrechnung Analytische Geometrie Laset

invertierbar? Nach Satz 2.6 ist dies genau dann der Fall, wenn wir A auf eine Stufenform(1 ∗0 1

)bringen konnen. Falls a 6= 0 ist, dividieren wir erst die erste Zeile durch a und subtrahieren dann c-maldie neue erste Zeile von der zweiten. Wir erhalten die Stufenform 1

b

a

0 d− bc

a

.In diesem Fall ist

a · d− b · c 6= 0

die Bedingung dafur, dass A invertierbar ist. Falls a = 0 und c 6= 0 ist, vertauschen wir erste undzweite Zeile und kommen zur selben Bedingung. Wenn aber a = c = 0 ist, ist die Dreiecksform niezu erreichen. Es folgt: Unsere Bedingung ad − bc 6= 0 ist notwendig und hinreichend dafur, dass Ainvertierbar ist.

Wenn A invertierbar ist, so wollen wir A−1 auch ermitteln. Wieder wenden wir elementare Zeilen-umformungen an, und zwar in einer Form, die man auch fur großere Matrizen durchaus zur praktischenBestimmung von A−1 heranzieht. (Wir diskutieren nur den Fall a 6= 0.):

Elementarmatrix umgeformtes A umgeformte Einheitsmatrix(a bc d

) (1 00 1

)

(1/a 0

0 1

) (1 b/ac d

) (1/a 0

0 1

)(

1 0−c 1

) (1 b/a0 d− bc/a

) (1/a 0−c/a 1

)(

1 00 a/(ad− bc)

) (1 b/a0 1

) (1/a 0

−c/(ad− bc) a/(ad− bc)

)(

1 −b/a0 1

) (1 00 1

) (d/(ad− bc) −b/(ad− bc)−c/(ad− bc) a/(ad− bc)

)Hier haben wir in der dritten Spalte dieselben elementaren Zeilenumformungen auf die Einheitsma-trix angewendet, wie auf die Matrix A. Am Schluss der dritten Spalte ergibt sich das Produkt derElementarmatrizen, welche man von links an die Matrix A heranmultiplizieren muss, um A in dieEinheitsmatrix zu uberfuhren. Dieses Produkt ist deswegen die inverse Matrix

A−1 =1

ad− bc

(d −b−c a

).

54

Page 55: Vorlesung Vektorrechnung Analytische Geometrie Laset

Satz 2.7 Fur jede m× n-Matrix gilt

Zeilenrang von A = Spaltenrang von A.

Beweis. Ist A eine Matrix in Zeilenstufenform mit r Zeilen 6= 0, so sind, wie wir schon gesehenhaben, die r Zeilenvektoren linear unabhangig. Diese Zeilenvektoren spannen also einen linearen Un-terraum der Dimension r im IRn aus, der Zeilenrang ist r.

Die Spaltenvektoren liegen alle im linearen Unterraum IRr, der von den ersten r Koordinatenvek-toren im IRm aufgespannt wird. Der Spaltenrang ist also hochstens r. Nun enthalt die Matrix genausoviele Stufen wie Zeilen, namlich r. Auch die r Spaltenvektoren, in denen diese Stufen stehen sind linearunabhangig. Damit ist der Spaltenrang mindestens r, und insgesamt ergibt sich der Spaltenrang als r.

Weiter andert sich der Zeilenrang nicht bei elementaren Zeilenumformungen. Es bleibt also zu zei-gen, dass sich bei elementaren Zeilenumformungen auch der Spaltenrang nicht andert: Nun wissen wir,dass jede elementare Zeilenumformung in der Matrix A bewirkt werden kann als Links-MultiplikationE ·A mit einer Elementarmatrix E. Die Spaltenvektoren E · a1, ..., E · an von E ·A sind die Bilder derSpaltenvektoren a1, ...,an von A unter der linearen Abbildung x 7→ E · x. Der von ihnen aufgespann-te Unterraum des IRm ist das Bild von span(a1, ...,an) unter dieser linearen Abbildung. Nach demBildsatz (Satz 2.5) ist dim(span(E ·a1, ..., E ·an)) ≤ dim(span(a1, ...,an)). Bei einer elementaren Zei-lenumformung wird der Spaltenrang also nicht großer. Da wir dies auch auf die inverse Transformationanwenden konnen, bleibt der Spaltenrang tatsachlich gleich.

Definition 2.6 Die Zahl Spaltenrang(A) = Zeilenrang(A) heißt Rang der Matrix A.

Wir formulieren Satz 2.7 um, nachdem wir den Begriff der transponierten Matrix einfuhren: Seidazu

A =

a1,1 ... a1,n...

...am,1 ... am,n

∈M(m× n)

eine m× n-Matrix. Dann heißt die n×m-Matrix

At =

a1,1 ... am,1...

...a1,n ... am,n

∈M(n× n)

die transponierte Matrix zu A.

Satz 2.8 Der Rang einer Matrix stimmt mit dem Rang ihrer transponierten Matrix uberein:

Rang(A) = Rang(At).

Aufgabe 2.8 Es sei

A =

1 2 32 3 03 0 0

, B =

1 2 30 1 20 0 1

.Berechnen Sie die Matrizen A ·A, A ·B, B ·A und (B − 1l3)(B − 1l3)(B − 1l3).

55

Page 56: Vorlesung Vektorrechnung Analytische Geometrie Laset

Aufgabe 2.9 a) Bestimmen Sie alle Matrizen

A =

(a bc d

)∈M(2× 2)

mit A ·A = 1l2 und alle Matrizen A mit A ·A = 0.b) Bestimmen Sie alle Matrizen

A =

(a −bb a

)∈M(2× 2)

mit A ·A ·A ·A ·A = 1l2.

Aufgabe 2.10 Es sei A ∈M(n× n). Zeigen Sie, dass die folgenden Aussagen aquivalent sind:i) Fur jede Matrix X ∈M(n× n) ist A ·X = X ·A.ii) Es gibt ein c ∈ IR mit A = c · 1ln.

Aufgabe 2.11 Zeigen Sie, dass fur alle A ∈ M(p × n) der Rang von A mit dem Rang von A · Atubereinstimmt.

Aufgabe 2.12 Zeigen Sie fur alle A ∈M(m× n), B ∈M(n× p)

(A ·B)t = Bt ·At.

Aufgabe 2.13 Es bezeichne ∆ ⊂M(n× n) die Menge der oberen Dreiecksmatrizen

A =

a1 ∗ ∗

0. . . ∗

0 0 an

.Zeigen Sie:a) Fur alle A,B ∈ ∆ gilt A ·B ∈ ∆.b) Zu A ∈ ∆ gibt es ein B ∈ ∆ mit A ·B = 1ln genau dann, wenn a1 · ... · an 6= 0.

Aufgabe 2.14 Fur r ∈ IN sei die Matrix Ar = (ai,j) ∈ M(n× n) definiert durch ai,j = δi,j−r, i, j =1, ..., n. Beweisen Sie:a) Ar ·As = Ar+s.b) An1 = 0.

Aufgabe 2.15 Sind A,B ∈M(n× n), so heißen

[A,B] := A ·B −B ·A KommutatorA,B := A ·B +B ·A Anti-Kommutator

der Matrizen A und B. Die Matrizen σi ∈M(2× 2) seien definiert durch

σ1 :=12

√2

(0 11 0

), σ2 :=

12

√2

(0 −11 0

), σ3 :=

12

√2

(1 00 −1

).

Berechnen Sie die Kommutatoren [σi, σj ] und die Antikommutatoren σi, σj.

56

Page 57: Vorlesung Vektorrechnung Analytische Geometrie Laset

Aufgabe 2.16 (NV) Zur Matrix

A =

(2 1 −18 3 −3

)bestimme man alle 3× 2 Matrizen B mit A ·B = 1l2.

Aufgabe 2.17 (NV) Gegeben sei die Matrix

B =

−12−1

2

√3

12

√3 −1

2

.Berechnen Sie B2000 (d.h., die 2000-te Potenz von B).

Aufgabe 2.18 (NV) Sei n > 2. Die Matrix A = (aij)i,j=1,...,n habe den Rang r ≥ 2. Sei

B = (aij)i,j=1,...,n−1

die aus A durch Streichen der letzten Zeile und Spalte entstehende Matrix. Zeigen Sie, dass der Rangvon B

rg B ∈ r, r − 1, r − 2

erfullt, und geben Sie je ein Beispiel fur jeden der drei Falle.

Aufgabe 2.19 (NV) Sei M die Menge der n× n-Matrizen (aik) mit

aik ≥ 0 fur alle i, k = 1, ..., n undn∑k=1

aik = 1 fur i = 1, ..., n.

Zeigen Sie : A,B ∈M ⇒ A ·B ∈M .

Aufgabe 2.20 (NV) Es sei C ∈M(m×n) eine Matrix von Rang k. Man beweise: Es gibt MatrizenA ∈M(m× k) und B ∈M(k × n) mit C = A ·B.

Aufgabe 2.21 (NV) Sei E die zweireihige Einheitsmatrix und fur reelle Zahlen p und q sei

A =

(1− p pq 1− q

), B =

(−p pq −q

).

a) Bestimmen Sie fur k = 2, 3, ... reelle Zahlen ck mit Bk = ckB.

b) Zeigen Sie die binomische Formel (E +B)k =k∑i=0

(k

i

)Bi.

c) Ist p+ q 6= 0, so zeige man fur k ∈ IN

Ak = (E +B)k = E +1

p+ qB − (1− p− q)k

p+ qB.

Was gilt im Falle p+ q = 0?

57

Page 58: Vorlesung Vektorrechnung Analytische Geometrie Laset

Aufgabe 2.22 (V) Sei A eine reelle n×n-Matrix und b ∈ IRn \0. Man zeige, dass es kein x ∈ IRn

mit Ax = b gibt, wenn b auf jeder Spalte von A senkrecht steht.

Aufgabe 2.23 (V) Es sei A eine reelle n × n-Matrix, E die Einheitsmatrix, es sei (A − E) inver-tierbar, und es sei B := (A+ E)(A− E)−1. Man beweisea) (A+ E)(A− E)−1 = (A− E)−1(A+ E) durch Betrachtung von

(A− E + 2E)(A− E)−1 − (A− E)−1(A− E + 2E).

b) (B − E) ist invertierbar, indem man B − (A− E)(A− E)−1 = 2(A− E)−1 zeigt.c) (B + E)(B − E)−1 = A.

Aufgabe 2.24 (V) Man berechne die Inverse der Matrix

A =

1 1 1 10 1 1 10 0 1 10 0 0 1

.Aufgabe 2.25 (V) In der Matrix

A =

[P QR S

]∈M((m+ n)× (m+ n))

sei die Untermatrix P ∈M(m×m) invertierbar. Zeigen Sie: A ist genau dann invertierbar, wenn diesfur S −RP−1Q gilt.

Aufgabe 2.26 (V) Fur die Matrizen A ∈M(s×m), B ∈M(s× n) und C ∈M(n×m) soll

A = BC und rang(A) = rang(C)

gelten. N(A) sei der Nullraum von A, d.h. N(A) = x ∈ IRm : Ax = 0. Zeigen Sie:

N(A) = N(C).

Aufgabe 2.27 (V) Fur die reelle m×m-Matrix B = (bjk) gelte bkk 6= 0, k = 1, ...,m und

1|bkk|

m∑j=1,j 6=k

|bkj | < 1 fur k = 1, ...,m.

Zeigen Sie, dass B regular (=invertierbar) ist.

Aufgabe 2.28 (V) Es sei A eine reelle m×n-Matrix und b ∈ IRm Zeigen Sie, dass folgende Aussagenaquivalent sind:1) Das lineare Gleichungssytem A · x = b ist losbar.2) b ist orthogonal zum Losungsraum des Gleichungssytems At · y = 0.

Aufgabe 2.29 (V) Das Vektorprodukt [a,b] = (a2b3 − a3b2, a3b1 − a1b3, a1b2 − a2b1) fur Vektorena,b ∈ IR3 definiert bei festem a einen Endomorphismus (= lineare Abbildung) ϕa : IR3 → IR3, b 7→[a,b].a) Wie sieht die darstellende (3× 3)-Matrix von ϕa aus?b) Man bestimme alle Werte, die Rang ϕa bei passender Wahl von a annehmen kann.

58

Page 59: Vorlesung Vektorrechnung Analytische Geometrie Laset

Aufgabe 2.30 (NV) Auf dem mit dem Vektorprodukt versehenen IR3 betrachte man die linearenAbbildungen

f(x) = a× x und g(x) = x× a mit a =13

122

.a) Man stelle fest, fur welche u ∈ IR3 die Gleichung f(x) = u losbar ist.b) Fur die Vektoren

b =13

21−2

bzw. b′ =13

212

bestimme man alle Losungen der Gleichungen g(x) = b bzw g(x) = b′.c) Man zeige f · g = g · f und (f · g)2 = f · g.

2.4 Permutationen und Permutationsmatrizen

Definition 2.7 Eine Permutation von n Elementen, z.B. der Zahlen 1, 2, ..., n, ist eine bijektive Ab-bildung

σ : 1, ..., n → 1, ..., n.

Eine solche Permutation schreiben wir auch

σ =

(1 ... n

σ(1) ... σ(n)

).

Die Menge aller Permutationen von n Elementen bezeichnen wir mit Σn. Jedes σ ∈ Σn ist einebijektive Abbildung und besitzt daher eine Umkehrabbildung σ−1 ∈ Σn.

Beispiele.

n=1: Σ1 = id,

n=2: Σ2 =

id, σ1,2 =

(1 22 1

),

n=3: Σ3 =

id, σ1,2 =

(1 2 32 1 3

), σ1,3 =

(1 2 33 2 1

), σ2,3 =

(1 2 31 3 2

),(

1 2 32 3 1

),

(1 2 33 1 2

) .

59

Page 60: Vorlesung Vektorrechnung Analytische Geometrie Laset

Hier haben wir die Bezeichnung σk,l fur die Vertauschung(1 ... k ... l ... n1 ... l ... k ... n

)

benutzt.Mit je zwei Permutationen σ, τ ∈ Σn gehort auch die Hintereinanderschaltung (oder das Produkt)

σ τ : ν 7→ σ(τ(ν))

wieder zu Σn. Es ist zu beachten, dass

(σ τ)−1 = τ−1 σ−1,

denn es ist(τ−1 σ−1) (σ τ)(ν) = τ−1(σ−1 σ(τ(ν))) = τ−1τ(ν) = ν.

Satz 2.9 Die Menge Σn der Permutationen von n Zahlen enthalt

n! = 1 · 2 · 3 · ... · n

Elemente. Fur fest gewahltes σ ∈ Σn ist die Abbildung

Σn 3 τ 7→ τ σ ∈ Σn

bijektiv.

Beweis. Die Anzahlformel wird durch vollstandige Induktion gezeigt: Die Anzahl der Elemente inΣ1 ist 1 = 1! (Induktionsanfang). Nehmen wir nun n ≥ 2 an und dass Σn−1 aus (n − 1)! Elementenbestunde. Daraus schließen wir die Behauptung fur Σn: Jede Permutation σ ∈ Σn ist aber bestimmtdurch ihren Wert s := σ(n) (dafur gibt es n Moglichkeiten) und eine bijektive Abbildung 1, ..., n −1 → 1, ..., n \ s. Solche Abbildungen gibt es genauso viele, wie Σn−1 Elemente enthalt, nachInduktionsannahme also (n− 1)!. Deswegen enthalt die Menge Σn insgesamt

n · (n− 1)! = n!

Elemente.Die angegebene Abbildung τ 7→ τ σ ist bijektiv, weil τ 7→ τ σ−1 deren Umkehrabbildung ist.

Jede Permutation σ ∈ Σn bestimmt eine Permutationsmatrix

Eσ =

eσ(1)

eσ(2)...

eσ(n)

.

Diese Matrix ist aus der Einheitsmatrix durch Vertauschen von Zeilen entstanden, deswegen steht injeder Zeile und in jeder Spalte dieser Matrix genau eine Eins. Zum Beispiel haben wir

60

Page 61: Vorlesung Vektorrechnung Analytische Geometrie Laset

σ = σ1,2, Eσ =

0 1 0 ... 01 0 0 ... 00 0 1 ... 0. . . ... .0 0 0 ... 1

σ =

(1 2 3 ... n2 3 4 ... 1

), Eσ =

0 1 0 ... 00 0 1 ... 0...

......

...0 0 0 ... 11 0 0 ... 0

.

In der k-ten Spalte von Eσ steht der Spaltenvektor el, fur den σ(l) = k ist, d.h. der Vektor eσ−1(k).Also beschreibt die Permutationsmatrix Eσ die lineare Abbildung

ek 7→ eσ−1(k), k = 1, ..., n.

Zur Permutationsmatrix Eτσ gehort deswegen die lineare Abbildung

ek 7→ e(τσ)−1(k) = eσ−1(τ−1(k)) = Eσ(Eτ (ek)),

d.h. es istEτσ = Eσ · Eτ .

Insbesondere ist die Matrix Eσk,l · Eσ, die aus Eσ durch Vertauschen der k-ten mit der l-ten Zeilehervorgeht, gerade Eσσk,l .

Jede Permutationsmatrix kann durch elementare Zeilenumformungen vom Typ I (Zeilenvertau-schungen) in Zeilenstufenform gebracht werden. Dabei andert sich die Zahl n der Matrixeintrage = 1nicht. Die Zeilenstufenform von E ist deswegen die Einheitsmatrix 1l. Daraus folgt:

Jede Permutationsmatrix Eσ ist ein Produkt Ek1,l1 · ... · Ekm,lm von Elementarmatrizen Ek,l =Eσk,l, die zu Vertauschungen gehoren. Jede Permutation σ ist ein Produkt σkm,lm ... σk1,l1 vonVertauschungen.

Unser nachstes Ziel ist die Konstruktion der sogenannten Signum-Funktion.

Satz 2.10 (Existenz des Signums) Es gibt eine Abbildung sign : Σn → ±1 mit den Eigenschaf-ten

a) sign(σk,l) = −1 fur jede Vertauschung σk,l.b) sign(σ τ) = sign(σ) · sign(τ) fur alle σ, τ ∈ Σn.

Beweis. Nur fur diesen Beweis fuhren wir folgende Bezeichnung ein: Ein Fehlstand in der Permu-tation σ ∈ Σn ist ein Paar (i, j), 1 ≤ i < j ≤ n, mit σ(i) > σ(j). Eine Vertauschung σk,l zum Beispielhat die Bilder

(σ(1), ..., σ(n)) = (1, ..., k − 1, l, k + 1, ..., l − 1︸ ︷︷ ︸l−k−1

, k, l + 1, ..., n).

Sie hat damit 2(l − k − 1) + 1 = 2(l − k)− 1 Fehlstande.

61

Page 62: Vorlesung Vektorrechnung Analytische Geometrie Laset

Wir definieren die Signum-Funktion durch

sign(σ) := (−1)f , f = Anzahl der Fehlstande in σ.

Beweis von a). Die Anzahl der Fehlstande in σk,l ist, wie wir soeben bemerkt haben, ungerade.Beweis von b). Wir wissen dass jede Permutation σ ein Produkt von Vertauschungen

∏σkµ,lµ ist.

Wenn wir b) fur den Fall beweisen konnen, dass σ = σk,l eine Vertauschung ist, folgt deshalb

sign(σ τ) = sign(σk1,l1 ... σkm,lm τ) = sign(σk1,l1) · ... · sign(σkm,lm) · sign(τ) = sign(σ) · sign(τ)

ganz allgemein. Somit genugt es, die Behauptung nur fur σ = σk,l zu beweisen.Wenn l > k + 1, dann ist

σk,l = σk,k+1σk+1,k+2...σl−2,l−1σl−1,lσl−1,l−2...σk+1,k+2σk,k+1︸ ︷︷ ︸ungerade

.

Deswegen genugt es, die Behauptung fur Vertauschungen σk,k+1 zu beweisen. Wir zahlen die Fehlstandevon σk,k+1 τ :

- Wenn τ−1(k) < τ−1(k + 1), dann ist (τ−1(k), τ−1(k + 1)) kein Fehlstand von τ, wohl aber vonσk,k+1 τ.

- Wenn τ−1(k) > τ−1(k + 1), dann ist (τ−1(k), τ−1(k + 1)) ein Fehlstand von τ , aber nicht vonσk,k+1 τ.

Alle anderen Fehlstande von τ und σk,k+1 τ stimmen uberein. Die Anzahlen der Fehlstande vonτ und σk,k+1 τ unterscheiden sich also um ±1. Es folgt

sign(σk,k+1 τ) = −sign(τ),

und damit ist die Behauptung bewiesen.

In Σ3 beispielsweise gibt es die drei Vertauschungen σ1,2, σ1,3 und σ2,3 mit signum = −1 und diedrei Permutationen

σ Anzahl der Vertauschungen signum

id 0 +1(1 2 32 3 1

)= σ1,3 σ1,2 2 +1(

1 2 33 1 2

)= σ1,2 σ1,3 2 +1

mit signum = +1.

Definition 2.8 Unter der zyklischen Permutation (i1, i2, ..., ik), bzw. unter dem Zyklus (i1, i2, ..., ik),versteht man diejenige Permutation, welche

i1 7→ i2 7→ ... 7→ ik−1 7→ ik 7→ i1

abbildet und alle anderen i 6= i1, ..., ik fest lasst. Hierbei mussen die k Zahlen i1, ..., ik alle voneinanderverschieden sein.

62

Page 63: Vorlesung Vektorrechnung Analytische Geometrie Laset

Dieser Begriff des Zyklus fur Permutationen ist viel eleganter, als unsere bisherige Schreibweise.Hierzu Beispiele:

Zyklus bisherige Schreibweise(k, l) σk,l

(1, 2, 3)

(1 2 32 3 1

)

(1, 3, 2)

(1 2 33 1 2

)

(1, 2, 3, ..., n)

(1 2 3 ... n2 3 4 ... 1

)

Allerdings ist die Schreibweise einer Permutation als Zyklus nicht eindeutig: Es ist ja

(i1, i2, i3, ..., ik) = (i2, i3, ..., ik, i1).

Aber die Verwendung dieser Notation ist sehr vorteilhaft, vor allem wegen des folgenden Satzes:

Satz 2.11 Es seienσ = (i1, i2, ..., ik) und τ = (j1, j2, ..., jl)

zwei elementfremde Zyklen (d.h., kein iκ stimmt mit einem jλ uberein). Dann ist

σ τ = τ σ.

Beweis. Weil die Zyklen elementfremd sind, lasst σ alle jλ fest und τ alle iκ. Und ob wir nun zuerstdie iκ zyklisch vertauschen, und danach die jλ, oder umgekehrt, das lauft deswegen auf die gleichePermutation hinaus.

Sehr praktisch ist auch folgende Tatsache:

Satz 2.12 Jede Permutation σ ∈ Σn ist ein Zyklus, oder ein Produkt von zwei oder mehr paarweiseelementfremden Zyklen.

Beweis. Es sei i1 ∈ 1, ..., n die kleinste Zahl, welche von σ nicht festgelassen wird, also etwaσ(i1) = i2 mit i1 6= i2. Dann kann nicht σ(i2) = i2 sein, denn sonst ware σ wegen σ(i1) = σ(i2)und i1 6= i2 nicht injektiv. Wenn σ(i2) = i1 ist, haben wir unseren ersten Zyklus (ii, i2). Andernfallsist i3 := σ(i2) 6= i1, i2. Wieder kann σ(i3) = i1 sein, und wir haben (i1, i2, i3) als ersten Zyklus.Andernfalls ist i4 := σ(i3) 6= i1, i2, i3. So machen wir weiter. Weil wir insgesamt nur n Zahlen zurVerfugung haben, muss es irgend wann eine erste Zahl ik geben, wofur σ(ik) nicht von allen Zahleni1, ..., ik−1 verschieden ist. Wegen der Injektivitat von σ kann nicht σ(ik) = i2, i3, ... oder ik sein. Esbleibt nur σ(ik) = i1 ubrig, und wir haben einen Zyklus (i1, i2, ..., ik).

Entweder lasst σ alle anderen Zahlen i, 1 ≤ i ≤ n, i 6= i1, ..., ik fest, dann ist σ = (i1, ..., ik) selbstein Zyklus. Oder es gibt eine kleinste Zahl j1, j1 6= i1, ..., ik, mit j2 := σ(j1) 6= j1. Wie eben finden wir,ausgehend von j1 einen Zyklus j1, ..., jl mit σ(jλ) = jλ+1, λ < l, und σ(jl) = j1. Aus der Injektivitatvon σ folgt, dass die beiden Zyklen (i1, ..., ik) und (j1, ..., jl) elementfremd sind.

So machen wir weiter. Weil wir nur endlich viele Zahlen zur Verfugung haben, muss nach endlichvielen Schritten Schluss sein. Dann haben wir endlich viele Zyklen σ1, ..., σm konstruiert mit σ =σ1 ... σm.

63

Page 64: Vorlesung Vektorrechnung Analytische Geometrie Laset

.Das Rechnen mit Permutationen in Zyklenschreibweise ist auch deswegen vorteilhaft, weil Zyklen

sehr schon einfach zu multiplizieren sind. Statt der allgemeinen Aussage, hierzu ein Beispiel:Wir berechnen das Produkt σ := σ1 σ2 wo

σ1 = (1, 2, 3) und σ2 = (2, 3, 4)

ist. Wir berechnen das Bild von 1: Wegen σ2(1) = 1 ist

σ(1) = σ1(1) = 2.

Wir berechnen das Bild von 2:σ(2) = σ1(σ2(2)) = σ1(3) = 1,

also enthalt σ den Zyklus (1, 2). Wir berechnen das Bild von 3:

σ(3) = σ1(σ2(3)) = σ1(4) = 4,

und das Bild von 4:σ(4) = σ1(σ2(4)) = σ1(2) = 3.

Das Ergebnis ist:(1, 2, 3) (2, 3, 4) = (1, 2) (3, 4).

Aufgabe 2.31 Gegeben seien die Permutationen

σ1 =

(1 2 3 42 3 4 1

), σ2 =

(1 2 3 4 52 3 1 5 4

), σ3 =

(1 2 3 4 5 65 6 4 1 2 3

).

Schreiben Sie die zugehorigen Permutationsmatrizen Eσi , i = 1, 2, 3, als Produkte von Elementarma-trizen vom Typ I.

Aufgabe 2.32 Zeigen Sie fur die zyklische Permutation σ = (i1, i2, ..., ik)

sign(σ) = (−1)k+1.

Aufgabe 2.33 Stellen Sie alle Permutationen σ ∈ Σ4 als Zyklus oder als Produkt zyklischer Permu-tationen dar.

64

Page 65: Vorlesung Vektorrechnung Analytische Geometrie Laset

2.5 Die Determinante einer (n× n)-Matrix

Wir betrachten eine n× n-Matrix

A =

a1...

an

=

a1,1 ... a1,n...

...an,1 ... an,n

mit den Zeilenvektoren a1, ...,an ∈ IRn. Diese Zeilenvektoren spannen einen Spat , bzw. ein Parallelotop

P (a1, ...,an) = x ∈ IRn : x =n∑1

ckak, c1, ..., cn ∈ IR, 0 ≤ ck ≤ 1

auf.

*

α(a, b)

(c, d)

n = 2, A =

(a bc d

) 1

n = 3

Wir mochten das Volumen |A| dieses Spats berechnen. Der Fall n = 2 ist aus der Elementar-geometrie bekannt: Die Flache des Parallelogramms ist das Produkt der Seitenlangen mal sin(α):

∣∣∣∣∣(a bc d

)∣∣∣∣∣ = ‖ (a, b) ‖ · ‖ (c, d) ‖ ·sin(α)

= ‖ (a, b) ‖ · ‖ (c, d) ‖ ·√

1− cos2(α)

= ‖ (a, b) ‖ · ‖ (c, d) ‖ ·√

1− ( (a, b) . (c, d) )2

‖ (a, b) ‖2 · ‖ (c, d) ‖2

=√‖ (a, b) ‖2 · ‖ (c, d) ‖2 −( (a, b) . (c, d) )2

=√

(a2 + b2)(c2 + d2)− (ac+ bd)2

=√a2d2 + b2c2 − 2 · abcd

=√

(ad− bc)2

= |ad− bc|

Es ist ziemlich einsichtig, dass das Volumen vol(A) des Spats P (a1, ...,an) folgende Eigenschaftenhaben sollte:

(I) Beim Vertauschen zweier Zeilen in der Matrix A andert sich das Volumen vol(A) nicht.

65

Page 66: Vorlesung Vektorrechnung Analytische Geometrie Laset

(II) Streckt man einen Zeilenvektor mit einem Faktor t ∈ IR, so andert sich vol(A) mit dem Faktor|t|, d.h. in Formeln

vol(a1, ...,ak−1, t · ak,ak+1, ...,an) = |t| · vol(a1, ...,an) fur t ∈ IR.

-

-

ak t · ak

vol(A) |t| · vol(A)

(III) vol(a1, ...,ak, ...,al + tak, ...,an) = vol(a1, ...,ak, ...,al, ...,an) fur alle 1 ≤ k 6= l ≤ n und t ∈ IR.

-

3

-

al

ak tak

al + tak

(0) Fur die Einheitsmatrix 1l istvol(1l) = 1.

Die Eigenschaften (I)-(III) beschreiben die Anderung des Volumens von P (a1, ...,an), wenn mandie Vektoren elementaren Zeilentransformationen vom Typ (I)-(III) unterwirft. Wir wollen hier nichtweiter uber die formulierten Eigenschaften des Volumens spekulieren, sondern eine Funktion

det : M(n× n)→ IR

die Determinante der Matrix A, konstruieren, deren Absolutbetrag das Volumen vol(A) ist: vol(A) =|det(A)|. Von der Funktion det verlangen wir die folgenden Eigenschaften, die naturlich bis auf dasVorzeichen mit den Eigenschaften von vol ubereinstimmen:

(I) Vertauscht man in der Matrix A ∈ M(n × n) zwei Zeilen, so andert sich das Vorzeichen vondet(A).

(II) det(a1, ...,ak−1, t · ak,ak+1, ...,an) = t · det(a1, ...,an) fur alle t ∈ IR.

(III) det(a1, ...,ak, ...,al + tak, ...,an) = det(a1, ...,ak, ...,al, ...,an) fur alle 1 ≤ k 6= l ≤ n und t ∈ IR.

(0) (Normierung) Fur die Einheitsmatrix 1l gilt

det(1l) = 1.

Beispiel. Die Funktion

det

(a bc d

):= ad− bc

66

Page 67: Vorlesung Vektorrechnung Analytische Geometrie Laset

hat die Eigenschaften (0),(I),(II),(III). Hiervon sind (0), (I), und (II) unmittelbar einsichtig. ZumBeweis von (III) betrachten wir nur den Fall k = 1 und l = 2. Dann ist

det

(a b

c+ ta d+ tb

)= a(d+ tb)− b(c+ ta) = ad− bc+ t(ab− ba) = det

(a bc d

).

Satz 2.13 (Eindeutigkeit der Determinante) Wenn eine Funktion det : M(n×n)→ IR mit denEigenschaften (0) bis (III) existiert, dann ist sie durch diese Eigenschaften eindeutig festgelegt.

Beweis. Wir wissen, dass manA durch elementare Zeilenumformungen auf Zeilenstufenform bringenkann, bzw. umgekehrt, dass A durch elementare Zeilenumformungen aus einer Matrix Z in Zeilenstu-fenform hervorgeht. Da die Eigenschaften (I),(II),(III) genau festlegen, wie sich die Determinante beieiner elementaren Zeilenumformung andert, genugt es, die Eindeutigkeit fur Matrizen Z in Zeilenstu-fenform zu beweisen. Dazu unterscheiden wir die Falle:

Rang(A) < n. In diesem Fall ist der letzte Zeilenvektor zn in Z ein Nullvektor. Dann ist 0 ·zn = zn,und aus (II) folgt

det(Z) = det(z1, ..., zn) = det(z1, ..., zn−1, 0 · zn) = 0 · det(z1, ..., zn) = 0.

Rang(A) = n. Nun ist Z eine Dreiecksmatrix und der letzte Zeilenvektor ist zn = en. DurchAddition geeigneter Vielfacher dieses Vektors zu den vorhergehenden Zeilen (Umformung vom Typ(III)) konnen wir erreichen, dass der letzte Eintrag in den ersten n − 1 Zeilen 0 ist. Jetzt ist dervorletzte Zeilenvektor zn−1 = en−1, und durch elementare Zeilenumformungen vom Typ III konnenwir erreichen, dass auch der vorletzte Eintrag in den ersten n − 2 Zeilen 0 ist. Mit endlich vielenelementaren Zeilenumformungen vom Typ III, konnen wir also Z in die Einheitsmatrix 1l uberfuhren.Aus Eigenschaft (III) und (0) folgt

det(Z) = det(1l) = 1.

Ein ganz anderes Problem ist es, nachzuweisen, dass eine Funktion det mit den Eigenschaften(0),...,(III) tatsachlich existiert. Im Wesentlichen lauft dies auf die Existenz des Signums (Satz 2.10)hinaus, denn wenn eine Determinantenfunktion det(A) mit den Eigenschaften (0) und (I) existiert,dann gilt fur jede Permutationsmatrix Eσ

det(Eσ) = sign(σ).

Dies ist ein Zusammenhang zwischen Determinante und signum-Funktion. Wir benutzen die signum-Funktion nun fur unsere Definition der Determinante:

Definition 2.9 Es sei A = (ak,l)k,l=1,...,n ∈M(n× n) eine n× n-Matrix. Die Zahl

det(A) :=∑σ∈Σn

sign(σ) · a1,σ(1) · ... · an,σ(n)

heißt Determinante der Matrix A. (Diese Formel fur die Determinante stammt von Leibniz und istnach ihm benannt.)

67

Page 68: Vorlesung Vektorrechnung Analytische Geometrie Laset

Dass diese Determinante tatsachlich die Eigenschaften (0),...,(III) besitzt, weisen wir im nachstenAbschnitt nach. Zuerst einige einfache Beispiele, die zeigen sollen, was diese Formel bedeutet.

n=1: Im Fall n = 1 ist det(a) = a.

n=2: Fur n = 2 ist

det

(a1,1 a1,2

a2,1 a2,2

)= sign(id) · a1,1a2,2︸ ︷︷ ︸

σ=id

+ sign(σ1,2)a1,2a2,1︸ ︷︷ ︸σ=σ1,2

= a1,1a2,2 − a1,2a2,1.

Wenn wir die Matrix

(a1,1 a1,2

a2,1 a2,2

)=

(a bc d

)schreiben, dann wird

det

(a bc d

)= ad − bc.

n=3: Fur n = 3 haben wir

det

a1,1 a1,2 a1,3

a2,1 a2,2 a2,3

a3,1 a3,2 a3,3

= a1,1a2,2a3,3 σ = id

+ a1,2a2,3a3,1 σ =

(1 2 32 3 1

)= σ1,3 σ1,2

+ a1,3a2,1a3,2 σ =

(1 2 33 1 2

)= σ1,2 σ1,3

− a1,1a2,3a3,2 σ =

(1 2 31 3 2

)= σ2,3

− a1,2a2,1a3,3 σ =

(1 2 32 1 3

)= σ1,2

− a1,3a2,2a3,1 σ =

(1 2 33 2 1

)= σ1,3

.

Dies ist die klassische ”Regel von Sarrus“:

a3,1 a3,2 a3,3 a3,1 a3,2

a2,1 a2,2 a2,3 a2,1 a2,2

a1,1 a1,2 a1,3 a1,1 a1,2

@@@@@@

@@@@@@

@@@@@@ a3,1 a3,2 a3,3 a3,1 a3,2

a2,1 a2,2 a2,3 a2,1 a2,2

a1,1 a1,2 a1,3 a1,1 a1,2

68

Page 69: Vorlesung Vektorrechnung Analytische Geometrie Laset

Aufgabe 2.34 Berechnen Sie die Determinanten der Matrizen 1 2 34 5 43 2 1

und

11 12 1314 15 1413 12 11

.

2.6 Eigenschaften der Determinante

Wir wollen jetzt einige wichtige Eigenschaften der Determinante angeben. Insbesondere suchen wirnach praktischen Moglichkeiten, die Determinante einer gegebenen Matrix zu berechnen, da die Leib-nizsche Formel hierfur bei großen n ungeeignet ist.

Satz 2.14 (Fundamentaleigenschaften der Determinante) Die Funktion det : M(n × n) →IR, A 7→ det(A), hat folgende Eigenschaften:

1) Linearitat in Bezug auf jede Zeile:

det

a1...

ak−1

sak + ta′kak+1

...an

= s · det

a1...

ak−1

akak+1

...an

+ t · det

a1...

ak−1

a′kak+1

...an

.

2) Schiefsymmetrie in Bezug auf je zwei Zeilen:

det

a1...

ak−1

akak+1

...al−1

alal+1

...an

= −det

a1...

ak−1

alak+1

...al−1

akal+1

...an

3) Normierung: det(1ln) = 1.

Beweis. 1) Wir werten die Determinante auf der linken Seite der Gleichung mit der Leibnizformelaus:

69

Page 70: Vorlesung Vektorrechnung Analytische Geometrie Laset

∑σ∈Σn sign(σ) · a1,σ(1) · ... · (s · ak,σ(k) + t · a′k,σ(k)) · ... · an,σ(n) =

s ·∑σ∈Σn sign(σ) · a1,σ(1) · ... · ak,σ(k) · ... · an,σ(n)+

t ·∑σ∈Σn sign(σ) · a1,σ(1) · ... · a′k,σ(k) · ... · an,σ(n).

2) Wieder mit der Leibnizformel und mit Satz 2.10 ist die Determinante auf der rechten Seite derGleichung ∑

σ∈Σn sign(σ) · a1,σ(1) · ... · al,σ(k) · ... · ak,σ(l) · ... · an,σ(n) =∑σ∈Σn sign(σ) · a1,σσk,l(1) · ... · al,σσk,l(l) · ... · ak,σσk,l(k) · ... · an,σσk,l(n) =

−∑σ∈Σn sign(σσk,l) · a1,σσk,l(1) · ... · al,σσk,l(l) · ... · ak,σσk,l(k) · ... · an,σσk,l(n) =

−∑τ=σσk,l∈Σn sign(τ) · a1,τ(1) · ... · al,τ(l) · ... · ak,τ(k) · ... · an,τ(n).

3) Es ist det(1ln) =∑σ sign(σ) · δ1,σ(1) · ... · δn,σ(n), und der Summand ist nur dann 6= 0, wenn alle

Kronecker-Deltas = 1 sind, d.h. wenn k = σ(k) fur alle k = 1, ..., n. Also bleibt nur der Summand furσ = id ubrig, und die Determinante wird = 1.

Satz 2.15 (Korollar 1 zu Satz 2.14) Hat die n×n-Matrix A zwei gleiche Zeilen, so ist det(A) = 0.

Beweis. Sind die Zeilenvektoren ak und al gleich, so andert sich A und damit det(A) nicht, wenn wirbeide Zeilen vertauschen. Andererseits andert sich dabei wegen der Schiefsymmetrie das Vorzeichenvon det(A). Es folgt:

det(A) = −det(A), 2 · det(A) = 0, det(A) =12

(2 · det(A)) = 0.

(Fur Mathematiker: Hier brauchen wir zum ersten Mal wirklich eine andere reelle Zahl als 0 und 1,namlich 1

2 . Gabe es diese Zahl nicht, ware das Argument unrichtig.)

Satz 2.16 (Korollar 2 zu Satz 2.14) Die mit der Leibnizformel definierte Determinante hat dieEigenschaften (0),(I),(II),(III) aus Abschnitt 2.5.

Beweis. Normierung (0) und Schiefsymmetrie beim Vertauschen von Zeilen (I) sind die Eigenschaf-ten 3) und 2) von Satz 2.14. Eigenschaft (II) ist Teil der Linearitat der Determinante und Eigenschaft(III) folgt aus der Linearitat mit Hilfe von Korollar 1.

Satz 2.17 (Weitere Eigenschaften der Determinante) a) Fur A ∈M(n× n) gilt:

det(A) = 0⇔ Rang(A) < n.

b) A,B ∈M(n× n)⇒ det(A ·B) = det(A) · det(B) (Determinanten-Multiplikations-Satz).c) det(At) = det(A).

Beweis. a) ”⇐“ Wenn Rang(A) < n ist, dann sind die Zeilenvektoren ak von A linear abhangig.Es besteht also eine Gleichung

∑n1 ckak = 0, wo nicht alle Koeffizienten ck = 0 sind. Ist etwa cl 6= 0,

so folgt darausal = −

∑k 6=l

ckcl

ak.

70

Page 71: Vorlesung Vektorrechnung Analytische Geometrie Laset

Mit Korollar 1 erhalten wir fur die Determinante

det(A) = det

a1...

al−1

−∑k 6=l

ckcl

ak

al+1...

an

= −

∑k 6=l

ckcldet

a1...

al−1

akal+1

...an

= 0.

b) Wir beweisen die Aussage zunachst fur den Fall, dass A = E eine Elementarmatrix ist.Eine Elementarmatrix E vom Typ (I) entsteht aus der Einheitsmatrix durch Vertauschen zweier

Zeilen. Also ist det(E) = −det(1l) = −1. Die Matrix E ·B entsteht aus B ebenfalls durch Vertauschenzweier Zeilen. Und deswegen ist det(E ·B) = −det(B) = det(E) · det(B).

Eine Elementarmatrix E vom Typ (II) multipliziert in B eine Zeile mit einem Faktor c ∈ IR. FurE gilt det(E) = c und wegen der Linearitat der Determinante ist det(E ·B) = c · det(B).

Eine Elementarmatrix E vom Typ (III) entsteht aus der Einheitsmatrix indem man eine Vielfacheseiner Zeile zu einer anderen addiert. Wegen Eigenschaft (III) der Determinante ist also det(E) = 1.Da weiter det(E ·B) = det(B) ist, folgt die Behauptung auch in diesem Fall.

Wenn Rang(A) < n ist, sind die Zeilen von A linear abhangig und es gibt einen Zeilenvektorx = (x1, ..., xn) mit x · A = 0. Dann ist auch x · (A · B) = 0 und Rang(A · B) < n. Mit a) ”⇐“ folgtdet(B) · det(A) = det(A) = 0 und det(A ·B) = 0.

Wenn Rang(A) = n ist, gibt es Elementarmatrizen E1, ..., Ek so, dass A = E1 · ... · Ek. Es folgt

det(A ·B) = det(E1 · ... · Ek ·B) = det(E1) · ... · det(Ek) · det(B) = det(A) · det(B).

a) ”⇒“ Wir schreiben A als Produkt von Elementarmatrizen Eµ und einer Matrix Z in Zeilenstu-fenform:

A = E1 · ... · Em · Z.

Da die Determinanten der Elementarmatrizen 6= 0 sind, folgt aus b) dass det(Z) = det(A) = 0. Dannkann Z keine vollstandige Dreiecksform haben; die letzte Zeile in Z muss der Nullvektor sein. Es folgtRang(A) = Rang(Z) < n.

c) Mit der Leibnizformel und sign(σ) = sign(σ−1) ist

det(At) =∑σ∈Σn

sign(σ) · aσ(1),1 · ... · aσ(n),n

=∑σ∈Σn

sign(σ) · a1,σ−1(1) · ... · an,σ−1(n)

=∑

τ=σ−1∈Σn

sign(τ) · a1,τ(1) · ... · an,τ(n)

= det(A)

Eigenschaft c) bedeutet, dass alles, was fur die Zeilen einer Determinante gilt, auch fur Spaltenstimmt. Insbesondere ist also det(A) auch linear in Bezug auf jede Spalte und andert beim Vertauschenzweier Spalten das Vorzeichen.

71

Page 72: Vorlesung Vektorrechnung Analytische Geometrie Laset

Wir benotigen noch zwei haufig anwendbare Methoden zur Berechnung von Determinanten, diewir aber nicht extra als Satz formulieren mochten.

Kastchenregel. Die n× n-Matrix A habe Kastchenform

A =

(A1 ∗0 A2

),

wo A1 eine r × r-Matrix und A2 eine (n − r) × (n − r)-Matrix ist. Das heißt also, das linke untere(n− r)× r-Nullkastchen reicht bis zur Diagonale der Matrix. Dann sind in der Leibnizformel

det(A) =∑σ∈Σn

sign(σ) · a1,σ(1) · ... · ar,σ(r) · ar+1,σ(r+1) · ... · an,σ(n)

alle Produkte a1,σ(1) · ... · ar,σ(r) =0, wo die Permutation σ eine Zahl k, r + 1 ≤ k ≤ n auf eineZahl σ(k) ≤ r abbildet. Die Summe ist also nur uber solche Permutationen zu erstrecken, welche dieTeilmengen

1, ..., r und r + 1, ..., n

in sich abbilden. Diese Permutationen bestehen also aus zwei Permutationen

σ1 : 1, ..., r → 1, ..., r ∈ Σr, σ2 : r + 1, ..., n → r + 1, ..., n ∈ Σn−r.

Schreiben wir dies in die Leibnizformel, dann wird

det(A) =∑

σ1∈Σr,σ2∈Σn−r

sign(σ1σ2) · (a1,σ1(1) · ... · ar,σ1(r)) · (ar+1,σ2(r+1) · ... · an,σ(n))

=

∑σ1∈Σr

sign(σ1) · a1,σ1(1) · ... · ar,σ1(r)

· ∑σ2∈Σn−r

sign(σ2) · ar+1,σ2(r+1) · ... · an,σ2(n)

= det(A1) · det(A2).

Entwicklung nach Spalten oder Zeilen. Wir schreiben den ersten Zeilenvektor a1 unsererMatrix A als

(a1,1, ..., a1,k, ..., a1,n) = (a1,1, 0, ..., 0) + ...+ (0, ..., 0, a1,k, 0, ..., 0) + ...+ (0, ..., 0, a1,n)

und wenden die Linearitat der Determinante auf die erste Zeile an:

det(A) = det

(a1,1 0 ... 0

... A1,1

)...

+ det

0 ... 0 a1,k 0 ... 0

A′1,k... A′′1,k

...

+ det

(0 ... 0 a1,n

A1,n...

).

72

Page 73: Vorlesung Vektorrechnung Analytische Geometrie Laset

Hier bezeichnen wir mit Ak,l die Streichungsmatrix von A zur Stelle (k, l), d.h. die (n− 1)× (n− 1)-Matrix, welche aus der n×n-Matrix A entsteht, indem man die k-te Zeile und die l-te Spalte streicht.Die erste Determinante auf der rechten Seite hat Kastchenform und berechnet sich zu

det

(a1,1 0∗ A1,1

)= a1,1 · det(A1,1).

Die anderen Matrizen konnen auch auf diese Kastchenform gebracht werden. Und zwar mussen wirdazu die k-te Spalte mit der (k − 1)-ten Spalte vertauschen, dann mit der (k − 2)-ten usw. Insgesamtergeben sich dabei k − 1 Anderungen des Vorzeichens.

det

(0 a1,k 0

Al1,k . Ar1,k

)= (−1)1+kdet

(a1,k 0. A1,k

)= (−1)1+ka1,k · det(A1,k).

Damit haben wir die Entwicklung von det(A) nach der ersten Zeile:

det(A) =n∑k=1

(−1)1+k · a1,k · det(A1,k).

Ebenso kann man nach einer anderen (etwa der l-ten) Zeile entwickeln, wenn man diese erst durchl− 1 Vertauschungen nach oben bringt. Und genauso, wie man nach einer Zeile entwickeln kann, kannman die Determinante nach einer Spalte entwickeln.

Entwicklung nach der l-ten Zeile: det(A) =n∑k=1

(−1)k+l · al,k · det(Al,k)

Entwicklung nach der k-ten Spalte: det(A) =n∑l=1

(−1)k+l · al,k · det(Al,k)

Adjunkten und die Inverse Matrix. Die Streichungsdeterminanten det(Al,k) kann man zueiner n×n-Matrix zusammenfassen. Transponiert und mit Vorzeichen versehen heißen diese Determi-nanten die Adjunkten von A, und die Matrix

Aadj = ((−1)l+kdet(Al,k))t

heißt die Matrix der Adjunkten. Diese Matrix wurde transponiert, damit das Produkt

A ·Aadj = (aµ,ν)µ:Zeile

ν:Spalte

· ((−1)k+ldet(Ak,l)) l:Zeile

k:Spalte

= (n∑ν=1

aµ,ν(−1)k+νdet(Ak,ν))µ,k

leicht auszurechnen ist: Die Entwicklung nach Zeilen hat zur Folge, dass alle Diagonaleintrage

(A ·Aadj)l,l =n∑k=1

(−1)k+l · al,k · det(Al,k) = det(A)

sind. Und die Nicht-Diagonaleintrage (l1 6= l2)

n∑k=1

(−1)k+l2al1,kdet(Al2,k)

73

Page 74: Vorlesung Vektorrechnung Analytische Geometrie Laset

kann man interpretieren als Entwicklung nach der l2-ten Zeile fur die Determinante derjenigen Matrix,welche aus A entsteht, indem die l2-te Zeile durch die l1-te Zeile ersetzt worden ist. Diese Matrix hatzwei gleiche Zeilen, ihre Determinante ist = 0, und

(A ·Aadj)l1,l2 = det(A) · δl1,l2 .

Damit haben wir das Matrixprodukt

A ·Aadj = det(A) · 1ln

berechnet. Wenn det(A) 6= 0 ist, erhalten wir daraus die Formel

A−1 = 1det(A)A

adj

fur die inverse Matrix A−1.

Cramersche Regel. Bei Benutzung der Matrizenmultiplikation kann ein lineares Gleichungssy-stem mit Koeffizientenmatrix A auch

A · x = b

geschrieben werden. Ist die Matrix A quadratisch (d.h. eine n× n-Matrix), und ist A invertierbar, sokann man das Gleichungssystem ganz einfach so

x = A−1 · b

losen. Leider ist dies aber keine Zauberformel, sondern zeigt nur, dass es genauso schwer ist, die inverseMatrix zu berechnen, wie das Gleichungssystem zu losen. Trotzdem wollen wir unsere Formel fur A−1

hierauf anwenden.Die Losung wird also

x =1

det(A)·Aadj · b.

Die k-te Komponente des Losungsektors x ist dann

xk =1

det(A)·n∑l=1

(Aadj)k,l · bl =1

det(A)·n∑l=1

(−1)k+l · det(Al,k) · bl.

Die Summe kann interpretiert werden als die Entwicklung der modifizierten Koeffizientenmatrix

A(k) :=

a1,1 . . . a1,k−1 b1 a1,k+1 . . . a1,n...

......

...an,1 . . . an,k−1 bn an,k+1 . . . an,n

,nach der k-ten Spalte, wobei diese in A durch die rechte Seite b ersetzt worden ist. Mit dieser MatrixA(k) erhalt man also die Losung x = (x1, ..., xn) in der Form

xk =det(A(k))det(A)

.

74

Page 75: Vorlesung Vektorrechnung Analytische Geometrie Laset

Dies ist die Cramersche Regel zum Losen linearer Gleichungssysteme mit quadratischer und invertier-barer Koeffizientenmatrix.

Aufgabe 2.35 (NV) Berechnen Sie die Determinante der Matrix0 1 1 1 12 0 2 2 23 3 0 3 34 4 4 0 45 5 5 5 0

.

Aufgabe 2.36 (NV) Fur A ∈M(n× n) zeige man

det(A) = 0 ⇐⇒ ∃B ∈M(n× n) \ 0 mit AB = 0.

Aufgabe 2.37 Berechnen Sie

det

2 3 4 21 3 5 −23 7 9 22 5 12 −9

.Aufgabe 2.38 Es seien a1, ..., an ∈ IR. Beweisen Sie

det

1 1 ... 1a1 a2 ... ana2

1 a22 ... a2

n...

......

an−11 an−1

2 ... an−1n

=∏

1≤i<j≤n(aj − ai).

(”Vandermondesche Determinante“)

Aufgabe 2.39 Es seien a1, ..., an, b1, ..., bn ∈ IR. Berechnen Sie

det

1 1 1 ... 1b1 a1 a1 ... a1

b1 b2 a2 ... a2...

.... . . . . .

...b1 b2 ... bn an

.

Aufgabe 2.40 Es seien a, b, c ∈ IR. Berechnen Sie die Determinanten der Matrizen bc a2 a2

b2 ac b2

c2 c2 ab

, bc ab acab ac bcac bc ab

,a2 ab ab b2

ab ac b2 bcab b2 ac bcb2 bc bc c2

,a b b bb a b bb b a bb b b a

.

75

Page 76: Vorlesung Vektorrechnung Analytische Geometrie Laset

Aufgabe 2.41 Es seien x1, x2, x3, y1, y2, y3 ∈ IR. Berechnen Sie

det

0 x1 x2 x3

−x1 0 y3 −y2

−x2 −y3 0 y1

−x3 y2 −y1 0

.Aufgabe 2.42 (NV) In IRn seien die k Vektoren x1, ...,xk gegeben. Sei A = (aij)i,j=1,...,k die Matrixmit aij = (xi.xj). Beweisen Sie: Genau dann sind die Vektoren x1, ...,xk linear unabhangig, wenndet(A) 6= 0 ist.

Aufgabe 2.43 (NV) Sei A eine relle n×n-Matrix, deren Koeffizienten außerhalb der Diagonale alle1 sind und deren Diagonalkoeffizienten alle Null sind. Man zeige det(A) = (−1)n−1 · (n− 1).

Aufgabe 2.44 (NV) Sei n > 1. Unter den n2 Elementen aik einer n-reihigen quadratischen MatrixA seien genau n+ 1 Elemente gleich 1, die ubrigen seien gleich Null.a) Zeigen Sie: det(A) ∈ 0, 1,−1.b) Geben Sie fur n = 3 jeweils ein Beispiel an. Welcher der drei Falle tritt fur n = 2 nicht ein?

Aufgabe 2.45 (NV) Fur reelle Zahlen λ1, λ2, ..., λn berechne man die Determinante∣∣∣∣∣∣∣∣∣∣∣∣

1− λ1 −λ2 −λ3 ... −λn−λ1 1− λ2 −λ3 ... −λn−λ1 −λ2 1− λ3 ... −λn

......

. . .−λ1 −λ2 −λ3 ... 1− λn

∣∣∣∣∣∣∣∣∣∣∣∣.

Aufgabe 2.46 (V) Es sei A = (aij)1≤i,j≤n ∈M(n× n) mit aij = (−1)i · i fur i+ j > n und aij = 0sonst, also z.B.

A1 = −1, A2 =

(0 −12 2

), A3 =

0 0 −10 2 2−3 −3 −3

, A4 =

0 0 0 −10 0 2 20 −3 −3 −34 4 4 4

.Man berechne det(An) fur beliebiges n.

Aufgabe 2.47 (V) Seien A,B,C,D reelle n × n-Matrizen und X =

(A BC D

)die durch sie in

Blockschreibweise gegebene 2n × 2n-Matrix. Gelte AC = CA. Man zeige: det(X) = det(AD − CB),wenn det(A) 6= 0.

Aufgabe 2.48 (V) Es seien a, a1, ..., an ∈ IR. Beweisen Sie

det

a 0 ... 0 a1

0 a 0 a2...

. . ....

...0 0 0 a ana1 a2 ... an a

= an+1 − an−1(a21 + ...+ a2

n).

76

Page 77: Vorlesung Vektorrechnung Analytische Geometrie Laset

Aufgabe 2.49 (V) Zeigen Sie:a) Der Rang der Matrix

A =

a 0 b 00 a 0 bc 0 a 00 c 0 a

ist stets eine gerade Zahl.b) A ist genau dann invertierbar, wenn a2 6= bc ist.c) Geben Sie in diesem Fall A−1 an.

77

Page 78: Vorlesung Vektorrechnung Analytische Geometrie Laset

3 Vektorraume

In diesem Kapitel werden wir die Theorie, welche wir bisher entwickelt haben (lineare Gleichungs-systeme, lineare Unterraume, Matrizen, Determinanten), auf eine moglichst allgemeine, begrifflicheGrundlage stellen. Der Bezug zur geometrischen Vorstellung (=Realisierung im IRn), der fur das ersteVerstehen wahrscheinlich unerlasslich ist, wird dabei allerdings verloren gehen.

3.1 Gruppen

Definition 3.1 Eine Gruppe ist eine (nichtleere) Menge G zusammen mit einer Verknupfungsopera-tion

G×G → Gg, h 7→ g · h,

welche folgende Eigenschaften hat:Assoziativitat: Fur alle g, h, k ∈ G ist

(g · h) · k = g · (h · k).

Existenz der Eins: Es gibt ein e ∈ G mit

e · g = g fur alle g ∈ G.

Existenz des Inversen: Fur alle g ∈ G gibt es ein g−1 ∈ G mit g−1 · g = e.Die Gruppe heißt kommutativ oder abelsch, wenn zusatzlich gilt

g · h = h · g fur alle g, h ∈ G.

Bevor wir aus diesen Eigenschaften Konsequenzen ziehen, beschreiben wir erst Beispiele von Grup-pen, die wir schon kennen.

1) Die Menge IR mit der Addition ”+“ als Verknupfung ist eine abelsche Gruppe. Es ist e = 0und g−1 = −g. Diese Gruppe enthalt die Untergruppen (Q,+) der rationalen und (ZZ,+) der ganzenZahlen.

2) Der Zahlenraum IRn mit der Addition ”+“ als Verknupfung ist ebenfalls eine abelsche Gruppe.Es ist e = 0 der Nullvektor und x−1 = −x.

3) Die Menge IR∗ := IR\0 der rellen Zahlen 6= 0 ist eine abelsche Gruppe mit der Multiplikation

”·“ als Verknupfung. Dabei ist e = 1 und g−1 = 1g .

4) Mit ZZn bezeichnen wir die endliche Menge 0, 1, ..., n− 1. Die Addition modulo n

g + h :=

g + h

g + h− n

wenn

g + h ≤ n− 1g + h ≥ n

definiert auf dieser Menge eine Verknupfung, welche sie zu einer abelschen Gruppe macht. Es ist e = 0und

g−1 =

0 wenn g = 0

n− g wenn g > 0.

78

Page 79: Vorlesung Vektorrechnung Analytische Geometrie Laset

5) Die symmetrische Gruppe Σn ist die Menge aller Permutationen der Zahlen 1, ..., n mit derHintereinanderschaltung σ · τ = σ τ als Verknupfung. Es ist e = id und σ−1 die Umkehrabbildung.Diese Gruppe ist fur n ≥ 3 nicht abelsch, da z.B.

(1, 2)(2, 3) = (1, 2, 3) 6= (1, 3, 2) = (2, 3)(1, 2).

6) Die allgemeine lineare Gruppe ist die Menge GL(n, IR) aller invertierbaren n× n-Matrizen mitder Matrizenmultiplikation als Verknupfung. Das Einselement ist e = 1ln, das Inverse ist die inverseMatrix. Fur n = 1 ist dies die abelsche Gruppe IR∗, fur n ≥ 2 ist GL(n, IR) nicht abelsch.

7) Die reelle orthogonale Gruppe ist die Menge

O(n, IR) = A =

a1...

an

∈ GL(n, IR) : a1, ...,an bilden eine O-N-Basis des IRn

= A ∈ GL(n, IR) : A ·At = 1ln.

Sie ist eine Untergruppe der GL(n, IR), d.h., die Verknupfung ist die Matrizenmultiplikation.Wir betrachten die zwei-dimensionale orthogonale Gruppe O(2, IR) etwas genauer. Dies ist die

Menge aller 2× 2-Matrizen

(a bc d

)mit

(a bc d

)·(a cb d

)=

(a2 + b2 ac+ bdac+ bd c2 + d2

)=

(1 00 1

).

Die Gleichungena2 + b2 = c2 + d2 = 1, ac+ bd = 0

haben die Losungen

(a, b) = (cos(ϕ),−sin(ϕ)), (c, d) = ±(sin(ϕ), cos(ϕ)), ϕ ∈ IR.

Also besteht O(2, IR) aus den Matrizen(cos(ϕ) −sin(ϕ)sin(ϕ) cos(ϕ)

)(Drehmatrizen),

(cos(ϕ) −sin(ϕ)−sin(ϕ) −cos(ϕ)

)

=

(1 00 −1

)·(cos(ϕ) −sin(ϕ)sin(ϕ) cos(ϕ)

)(Spiegelung an der x2-Achse Drehung).

8) Die konforme Gruppe C∗ ist die Menge(a −bb a

)=√a2 + b2

(cos(ϕ) −sin(ϕ)sin(ϕ) cos(ϕ)

)∈ GL(2, IR)

= r ·A : 0 < r ∈ IR, A Drehmatrix.

Diese Matrizen beschreiben Drehstreckungen. Die Gruppe ist abelsch.

Wir stellen noch einige Konsequenzen aus den Gruppeneigenschaften zusammen:

79

Page 80: Vorlesung Vektorrechnung Analytische Geometrie Laset

(1) Die Eins e ∈ G mit der Eigenschaft e · g = g (”Linkseins“) ist auch eine ”Rechtseins“, d.h. esgilt g · e = g fur alle g ∈ G.Beweis. Zu beliebigem g ∈ G gibt es das Inverse g−1 mit g−1 ·g = e und dazu wieder ein Inversesg′ ∈ G mit g′ · g−1 = e. Daraus folgt

g = e · g = (g′ · g−1) · g = g′ · e = g′ · (e · e) = (g′ · e) · e = g′ · (g−1 · g) · e = (g′ · g−1) · g · e = g · e.

(2) Das ”Linksinverse“ g−1 zu g mit der Eigenschaft g−1 · g = e ist auch ein ”Rechtsinverses“, d.h.es gilt g · g−1 = e.

Beweis. Mit der Notation des vorhergehenden Beweises ist g = g′ · e und wegen der Eigenschaft(1) ist dies = g′. Also ist auch g · g−1 = g′ · g−1 = e.

(3) Das Einselement e ist eindeutig bestimmt.

Beweis. Sei auch e′ ∈ G mit e′ · g = g fur alle g ∈ G. Setzen wir g = e, so folgt daraus e′ · e = e.Da e aber auch eine Rechtseins ist, gilt e′ · e = e′.

(4) Das Inverse g−1 ist durch g eindeutig bestimmt.

Beweis. Es sei g−1 · g = g′ · g = e. Wegen (2) ist dann

g−1 = (g−1 · g) · g−1 = e · g−1 = (g′ · g) · g−1 = g′ · (g · g−1) = g′.

(5) Kurzungsregel: Seien a, b, g ∈ G. Wenn g · a = g · b gilt, dann auch (Linksmutiplikation mit g−1)die Gleichung a = b. Aus a · g = b · g folgt (nach Rechtsmultiplikation mit g−1) die Gleichunga = b.

(6) Losbarkeit von Gleichungen: Zu beliebigen g, h ∈ G gibt es genau ein x ∈ G und ein y ∈ G mit

g · x = h ( namlich x := g−1 · h, )y · g = h ( namlich y := h · g−1.)

Aufgabe 3.1 Welche der folgenden Teilmengen von M(n× n) bilden eine Gruppe bezuglich der Ma-trizenmultiplikation:a) SL(n, IR) := A ∈ GL(n, IR) : det(A) = 1,b) die Menge ∆ aus Aufgabe 2.13c) A ∈ ∆ : det(A) 6= 0,d) fur festes B ∈M(n× n) die Menge ZB := A : AB = BA,e) fur festes B ∈ GL(n, IR) die Menge A : ABAt = B.

Aufgabe 3.2 Zeigen Sie, dass die folgende Menge unter der Matrizenmultiplikation eine Gruppe ist:

Sp(2n) :=

(A BC D

)∈M(2n× 2n) :

A,B,C,D ∈M(n× n),ABt = BAt, CDt = DCt,ADt −BCt = 1ln

.

80

Page 81: Vorlesung Vektorrechnung Analytische Geometrie Laset

3.2 Korper

Definition 3.2 Ein Korper ist eine (nichtleere) Menge K mit zwei kommutativen Rechenoperationen

”+“ und ”·“ (D.h. also x+ y = y + x und x · y = y · x). Fur diese Operationen muss gelten:(a) K mit ”+“ ist eine abelsche Gruppe. (Das neutrale Element wird mit 0 ∈ K bezeichnet, und

das Inverse zu a ∈ K mit −a.)(b) K∗ := K\0 mit ”·“ ist eine abelsche Gruppe. (Das neutrale Element wird mit 1 ∈ K bezeichnet,

und das Inverse zu 0 6= a ∈ K ist 1a .)

(c) Fur alle a, b, c ∈ K gilt das Distributivgesetz

(a+ b) · c = a · c+ b · c.

Beispiele. 1. Die reellen Zahlen IR und die rationalen Zahlen Q mit den ublichen Rechenopera-tionen bilden einen Korper.

2. Der Korper C der komplexen Zahlen: Als Menge ist C = IR2 = (a, b) : a, b ∈ IR. Statt (a, b)schreibt man auch a+ b · i. Die Addition ist die ubliche Vektoraddition des IR2. Damit ist (a) erfullt.Die Multiplikation wird definiert wie in der konformen Gruppe

C∗ =

(a −bb a

): (0, 0) 6= (a, b) ∈ IR2

.

Wegen der Formel (a −bb a

)·(a′ −b′b′ a′

)=

(aa′ − bb′ −(ab′ + a′b)ab′ + a′b aa′ − bb′

)

definiert man die Multiplikation also durch

(a+ b · i) · (a′ + b′ · i) := aa′ − bb′ + (ab′ + a′b) · i.

Da man naturlich i = 0 + 1 · i setzt, ist insbesondere

i2 = −1.

Beweis von (b). Die so definierte Multiplikation in C ist assoziativ, weil Multiplikation von Matrizenassoziativ ist. Man sieht unmittelbar, dass sie kommutativ ist. Das Einselement ist 1 = 1 + 0 · i, weildieses Element zur Einheitsmatrix gehort (a = 1, b = 0). Die Inverse Matrix ist(

a −bb a

)−1

=1

a2 + b2·(

a b−b a

).

Also ist fur 0 6= a+ b · i ∈ C das Inverse

(a+ b · i)−1 =1

a2 + b2(a− b · i).

81

Page 82: Vorlesung Vektorrechnung Analytische Geometrie Laset

Beweis von (c). Ausgehend von der Definition berechnen wir

((a+ a′ · i) + (b+ b′ · i)) · (c+ c′ · i) = (a+ b+ (a′ + b′) · i) · (c+ c′ · i)= (a+ b)c− (a′ + b′)c′ + ((a+ b)c′ + (a′ + b′)c) · i

(a+ a′ · i) · (c+ c′ · i) + (b+ b′ · i) · (c+ c′ · i) = ac− a′c′ + (ac′ + a′c) · i+ bc− b′c′ + (bc′ + b′c) · i= (a+ b)c− (a′ + b′)c′ + ((a+ b)c′ + (a′ + b′)c) · i.

In C gibt es die Konjugationc = a+ b · i 7→ c = a− b · i.

Man benutzt sie, um den Betrag der komplexen Zahl c (die Lange des Vektors (a, b) )

|c| =√a2 + b2 =

√c · c

und ihr Inverses1c

=1|c|2

c

kurzer zu beschreiben.

3. Die endlichen Korper IFp (p eine Primzahl). Als Menge ist IFp die Teilmenge 0, 1, ..., p−1 ⊂ ZZ.Die Operationen ”+“ und ”·“ sind die ubliche Addition und Multiplikation, aber modulo p genommen.Bezeichnen wir die Zahl m ∈ ZZ, 0 ≤ m < p, aufgefasst als Element in IFp mit [m], so ist also

[m1] + [m2] = [m1 +m2 modulo p].

IFp mit der Addition ist eine abelsche Gruppe, die wir in Abschnitt 3.1 mit ZZp bezeichneten. DieMultiplikation ist explizit definiert durch

[m] · [n] = [r] wenn r + k · p = m · n fur ein k ∈ ZZ und 0 ≤ r < p.

Diese Multiplikation ist assoziativ und kommutativ, da dies fur die Multiplikation in ZZ gilt, und dasneutrale Element ist [1] ∈ IFp. Auch die Distributivgesetze ubertragen sich aus ZZ. Schwierigkeitenmacht nur die Existenz des Inversen fur die Multiplikation mit 0 6= [m] ∈ IFp. Hierzu ist nachzuweisen,dass die Multiplikation

IFp → IFp [n] 7→ [m] · [n]

surjektiv ist. Da IFp ein endliche Menge ist, genugt es zu zeigen, diese Abbildung ist injektiv, d.h.:

[n1], [n2] ∈ IFp mit [m] · [n1] = [m] · [n2] ⇒ [n1] = [n2].

Wegen des Distributivgesetzes genugt es, dafur zu zeigen

[m] · [n] = 0 ⇒ [n] = 0.

Nun bedeutet [m] · [n] = 0 ∈ IFp fur die ganzen Zahlen m und n, dass mn durch p teilbar ist. Dabeikann p nicht m teilen, weil 0 < m < p. Also muss der Primfaktor p die Zahl n teilen. Mit 0 ≤ n < pfolgt daraus [n] = 0.

Mit Elementen aus einem beliebigen Korper kann man genauso wie mit reellen Zahlen rechnen,wenn man nichts anderes als die genannten Korpereigenschaften benutzt. Alles, was wir zu linearen

82

Page 83: Vorlesung Vektorrechnung Analytische Geometrie Laset

Gleichungssystemen, Matrizenmultiplikation, Determinanten gesehen haben, gilt deswegen uber belie-bigen Korpern! Mit einer einzigen Ausnahme: Im Abschnitt 2.6 (Beweis des Korollars 1 zu Satz 2.14)haben wir benutzt, dass 1

2 ∈ IR. Im Korper IF2 ist 2 = 0 und das Element 2 besitzt hier kein Inverses.Das Element 1

2 existiert in IF2 nicht. Die in 2.6 gegebene Argumentation ware uber diesem Korperfalsch.

Auch eine Aussage wie ”x2 ≥ 0 fur x ∈ IR“ folgt nicht aus den Korpereigenschaften. Uber anderen

Korpern als IR ist sie in der Regel sinnlos. Deswegen gibt es das Skalarprodukt (Abschnitt 1.5) in dieserForm nur im IRn, nicht uber beliebigen Korpern. Auch der damit zusammenhangende Abschnitt 2.1(Bewegungen in IRn) ist nicht auf andere Korper als IR verallgemeinerbar.

Uber einem beliebigen Korper K gelten dagegen

Kapitel 1Satz 1.1 Zeilenstufenform durch elementare ZeilenumformungenSatz 1.2 Mehr Unbekannte als GleichungenSatz 1.3 Alle Losungen des inhomogenen Systems ...Satz 1.4-7 Geraden in Kn

Kapitel 2Satz 2.13 Eindeutigkeit der DeterminanteSatz 2.14-17 Eigenschaften der Determinante

Aufgabe 3.3 a) Bestimmen Sie alle Zahlen ω ∈ C mit ω3 = 1 in der Form ω = a+ ib.b) Bestimmen Sie ebenso alle ρ ∈ C mit ρ8 = 1.

Aufgabe 3.4 (V) Es sei U die Menge der komplexen 2× 2-Matrizen(a b−b a

)

mit a, b ∈ C und aa+ bb > 0. Zeigen Sie, dass U bezuglich der Matrizenmultiplikation eine Gruppe ist.

Aufgabe 3.5 Zeigen Sie, dass die gebrochen-linearen Funktionen

f : IR \ −d/c → IR, x 7→ ax+ b

cx+ d, ad− bc 6= 0,

bezuglich Hintereinanderschaltung eine Gruppe bilden.

83

Page 84: Vorlesung Vektorrechnung Analytische Geometrie Laset

3.3 Vektorraume

Ein Vektorraum ist eine Verallgemeinerung des Zahlenraums IRn. Er ist eine Menge, in der alle Ope-rationen der Vektorrechnung so, wie in Kapitel 1, verwendbar sind.

Definition 3.3 Ein Vektorraum uber dem Korper K (oder kurzer ausgedruckt: ein K-Vektorraum) isteine abelsche Gruppe V (Gruppenoperation ”+“ geschrieben, mit neutralem Element 0 ∈ V ) zusammenmit einer Operation

K × V → V, c,v 7→ c · v

von K auf V , fur die gilt:

(a) c1 · (c2 · v) = (c1c2) · v (Assoziativitat)fur alle c1, c2 ∈ K, v ∈ V,

(b) (c1 + c2) · v = c1 · v + c2 · v (Distributivitat)c · (v1 + v2) = c · v1 + c · v2 (Distributivitat)fur alle c1, c2, c ∈ K,v,v1,v2 ∈ V ,

(c) 1 · v = v fur alle v ∈ V .

Aus den Distributivgesetzen folgt fur alle v ∈ V :0 · v = (0 + 0) · v = 0 · v + 0 · v ⇒ 0 · v = 0 ∈ V,v + (−1) · v = (1− 1) · v = 0 · v = 0 ⇒ (−1) · v = −v.

Beispiele. 1. Der Zahlenraum IRn ist ein Vektorraum uber dem Korper IR. Jeder lineare UnterraumU ⊂ IRn ist ein Vektorraum uber IR. Ebenso ist fur einen beliebigen Korper K der Raum

Kn = K × ...×K︸ ︷︷ ︸n mal

= (x1, ..., xn) : x1, ..., xn ∈ K

ein Vektorraum uber K.

2. IR∞ sei die Menge aller unendlichen Folgen

(aν)ν∈IN = (a1, a2, a3, ....), aν ∈ IR.

Genau wie Vektoren im IRn konnen wir auch Folgen komponentenweise addieren und mit reellenZahlen multiplizieren. Dadurch wird IR∞ ein Vektorraum uber IR.

3. Der Hilbertraum

l2(IR) = (aν) ∈ IR∞ :∑

a2ν konvergent

= (aν) : es existiert ein M ∈ IR so, dass fur alle N ∈ IN gilt:N∑1

a2ν < M

der quadratsummierbaren reellen Folgen ist ein Vektorraum uber IR. Addition von Vektoren undMultiplikation mit Korperelementen sind komponentenweise definiert:

(aν) + (a′ν) = (aν + a′ν), c · (aν) = (c · aν).

84

Page 85: Vorlesung Vektorrechnung Analytische Geometrie Laset

Naturlich mussen wir hier zeigen, dass c · (aν) und (aν) + (a′ν) wieder zu l2(IR) gehoren:Wenn fur alle N ∈ IN gilt

∑N1 a2

ν < M , dann ist∑N

1 (caν)2 < c2M fur alle N . Wenn fur alle N ∈ INgilt, dass

∑N1 a2

ν < M und∑N

1 (a′ν)2 < M ′, dann zeigt die Cauchy-Schwarz-Ungleichung, dass

N∑1

aνa′ν ≤

√√√√ N∑1

a2ν ·

√√√√ N∑1

(a′ν)2 ≤√M ·M ′.

Daraus erhalten wir

N∑1

(aν + a′ν)2 =N∑1

a2ν + 2

N∑1

aνa′ν +

N∑1

(a′ν)2 ≤M + 2√M ·M ′ +M ′

fur alle N ∈ IN.Analog ist der Raum

l2(C) = (aν) : aν ∈ C,∞∑1

|aν |2 konvergent

der quadratsummierbaren Folgen komplexer Zahlen ein Vektorraum uber C.

4. Auch Funktionen konnen Vektorraume bilden. Zum Beispiel sindC0[a, b] Raum der stetigen Funktionen auf [a, b] ⊂ IR,Cq(a, b) Raum der q-mal stetig differenzierbaren Funktionen auf (a, b) ⊂ IR,

Vektorraume uber IR. UndK[X] Raum der Polynome

∑n0 aνX

ν , n ∈ IN, aν ∈ K,Kd[X] Raum der Polynome

∑d0 aνX

ν , aν ∈ K, vom Grad ≤ d,sind Vektorraume uber K.

5. Sind V1 und V2 Vektorraume uber K, so ist auch ihr kartesisches Produkt

V1 × V2 = (v1,v2) : v1 ∈ V1,v2 ∈ V2

mit komponentenweiser Definition der Vektorrechenoperationen

(v1,v2) + (v′1,v′2) = (v1 + v′1,v2 + v′2)

c · (v1,v2) = (c · v1, c · v2)

ein K-Vektorraum.

Definition 3.4 Eine Abbildung Φ : V1 → V2 des K-Vektorraums V1 in den K-Vektorraum V2 heißtlinear (genauer K-linear), wenn

Φ(s · x + t · y) = s · Φ(x) + t · Φ(y)

fur alle x,y ∈ V1, s, t ∈ K gilt.

Diese Art von Abbildungen ist uns vom Zahlenraum IRn her wohlbekannt.

85

Page 86: Vorlesung Vektorrechnung Analytische Geometrie Laset

Definition 3.5 Zwei Vektorraume V1 und V2 heißen isomorph, wenn es eine bijektive lineare Abbil-dung Φ : V1 → V2 gibt. Dann ist auch die Umkehrabbildung Φ−1 bijektiv und linear. Eine bijektivelineare Abbildung heißt Isomorphismus.

Isomorphe Vektorraume konnen mit den Mitteln der linearen Algebra voneinander nicht unter-schieden werden. (Das Fremdwort isomorph soll ja auch so etwas ausdrucken: gleichformig, gleichartig,gleich(?) ). Zwei Geraden IR ·v und IR ·w im IRn sind als Teilmengen des IRn verschieden, falls v undw linear unabhangig sind. Die lineare Ausdehnung der Zuordnung v 7→ w ist aber ein Isomorphismuszwischen diesen beiden Vektorraumen. Auf sich allein gestellt, als abstrakte Vektorraume, unabhangigvon ihrer Einbettung in den IRn sind diese beiden Geraden nicht zu unterscheiden.

Beispiele. 1. Der Vektorraum

Kd[X] = d∑0

aνXν : aν ∈ K

ist isomorph mit Kd+1 unter der linearen Abbildung

Φ :d∑0

aνXν 7→ (a0, ..., ad).

2. Jede invertierbare lineare Abbildung Φ : IRn → IRn ist ein Isomorphismus. Der IR-VektorraumIRn ist also nicht von sich selbst zu unterscheiden (nicht ganz unerwartet), aber das auf so vieleverschiedene Weisen, wie es invertierbare n× n-Matrizen gibt!

Eine (endliche oder unendliche) Folge v1,v2, ... von Vektoren vk ∈ V heißt linear unabhangig,wenn sie dem folgenden (aus IRn wohlbekannten) Test genugt: Fur alle n ∈ IN und c1, ..., cn ∈ K gilt

n∑1

ckvk = 0⇒ c1 = c2 = ... = cn = 0.

Beispiel. In V = C0[0, 1] betrachten wir die Folge der Monome 1, x, x2, ... xk, ... Dieses Systemist linear unabhangig:

n∑0

ckxk = 0 ⇒ ck =

1k!· d

k

dxk

(n∑0

cνxν

)∣∣∣∣∣x=0

= 0.

Definition 3.6 Eine Folge v1,v2, ... von Vektoren vk ∈ V heißt Basis von V , wenn sie1) linear unabhangig ist,2) den Vektorraum V aufspannt. (D.h., jedes v ∈ V ist eine endliche Linearkombination

∑n1 ckvk

mit ck ∈ K).Die Lange einer Basis von V heißt Dimension von V , in Zeichen dimK(V ). (Wie in Kapitel 1

zeigt man, dass die Lange einer Basis fur einen Vektorraum V unabhangig von der Auswahl dieserBasis ist.)

Beispiel. dimIR(Cn) = 2n.

86

Page 87: Vorlesung Vektorrechnung Analytische Geometrie Laset

Satz 3.1 Jeder endlich-dimensionale K-Vektorraum V ist isomorph zu Kn mit n = dimK(V ).

Beweis. Ist v1, ...,vn ∈ V eine Basis fur V , so definieren wir eine Abbildung Φ : Kn → V durch

Φ(c1, ..., cn) := c1v1 + ...+ cnvn.

Dann folgen Linearitat:

Φ(cc1, ..., ccn) = cc1v1 + ...+ ccnvn= c(c1v1 + ...+ cnvn)= cΦ(c1, ..., cn),

Φ(b1 + c1, ..., bn + cn) = (b1 + c1)v1 + ...+ (bn + cn)vn= b1v1 + ...+ bnvn + c1v1 + ...+ cnvn= Φ(b1, ..., bn) + Φ(c1, ..., cn),

Injektivitat:

Φ(c1, ..., cn) = 0 ⇒ c1v1 + ...+ cnvn = 0

⇒ c1 = ... = cn = 0,

da v1, ...,vn linear unabhangig.Surjektivitat: weil v1, ...,vn den Vektorraum V aufspannen.

Fur endlich-dimensionale K-Vektorraume gelten also die fur lineare Unterraume des IRn wohlbe-kannten Tatsachen:

Kapitel 1Satz 1.8,9 Test auf lineare (Un-)AbhangigkeitSatz 1.10-13 Basen

Kapitel 2Satz 2.4 Prinzip der linearen AusdehnungSatz 2.6 Quadratische Matrizen

Aufgabe 3.6 Welche der folgenden Systeme von Funktionen fν , ν ∈ IN, sind linear unabhangig (alsVektoren im Vektorraum C∞(IR)):a) fν = eνx,b) fν = x2 + 2νx+ ν2,c) fν = 1

ν+x2 .

Aufgabe 3.7 Es sei a 6= b ∈ IR. Betrachten Sie die acht Teilmengen von Funktionen f ∈ C∞(IR),definiert durch die Bedingungen

a) f(a) = 0 = f(b), b) f(a) = 1 = f(b),c) f(a) = f(b), d) f(a) 6= f(b),e) f ist injektiv, f) f ist surjektiv,g) f ist beschrankt, h) f ′′ + af = 0.

Welche dieser Mengen sind Untervektorraume von C∞(IR)?

87

Page 88: Vorlesung Vektorrechnung Analytische Geometrie Laset

Aufgabe 3.8 (NV) Es sei K ein endlicher Korper mit p Elementen und V ein zweidimensionalerVektorraum uber K.a) Wieviele Elemente hat V ?b) Wieviele lineare Abbildungen von V in sich gibt es?c) Wieviele dieser Abbildungen sind bijektiv?d) Geben Sie fur p = 2 die Matrizen aller bijektiven linearen Abbildungen von V in sich an.

Aufgabe 3.9 (V) Gegeben sei die Matrix

M =

2 0 0 01 2 0 00 0 2 00 0 0 5

.Man gebe die Dimension von spanMk : k ≥ 0 im reellen Vektorraum aller 4× 4-Matrizen an.

Aufgabe 3.10 (V) Untersuchen Sie, ob die Menge

1− cos x− sin x, 1− cos, 4x, sin 2x

von Funktionen aus dem reellen Vektorraum der Funktionen von IR nach IR linear unabhangig ist.

Aufgabe 3.11 (V) Es sei V ein k-dimensionaler Unterraum von Kn. Gibt es dann k naturlicheZahlen i1, ..., ik aus 1, ..., n, so dass die Abbildung

V → Kk, (x1, ..., xn) 7→ (xi1 , ..., xik)

ein Isomorphismus ist?

Aufgabe 3.12 (V) Sei p eine Primzahl und IFp der Korper mit p Elementen. Wieviele 2-dimensionaleIFp-Unterraume hat IF3

p?

Aufgabe 3.13 (V) Bekanntlich tragt Cn die Struktur eines Vektorraumes uber dem Korper C, aberauch uber dem Korper IR.a) Erganzen Sie die Vektoren b1 = (1, 0, 1) und b2 = (1,−1, 0) zu einer Basis des C-Vektorraums C3

und zu einer Basis des IR-Vektorraums C3.b) Die Abbildung h : Cn → IRm sei eine lineare Abbildung der IR-Vektorraume Cn und IRm. ZeigenSie, dass

f : Cn → Cm, f(x) = h(x)− ih(ix)

eine lineare Abbildung der C-Vektorraume Cn und Cm ist.c) Sei nun f : Cn → Cm eine lineare Abbildung der C-Vektorraume Cn und Cm. Zeigen Sie, dass eseine lineare Abbildung h : Cn → IRm der IR-Vektorraume Cn und IRm gibt, so dass f(x) = h(x)−ih(ix)fur alle x ∈ Cn.

Aufgabe 3.14 (V) Sei K ein Korper und seien f1, ..., fn ∈ K[X] Polynome vom Grad n − 2 (2 ≤n ∈ IN). Zeigen Sie, dass fur alle x1, ..., xn ∈ K gilt

det

f1(x1) ... fn(x1)...

...f1(xn) ... fn(xn)

= 0.

88

Page 89: Vorlesung Vektorrechnung Analytische Geometrie Laset

Aufgabe 3.15 (V) Sei n ∈ IN, n ≥ 1. Zeigen Sie, dass die Funktionen

1, sin x, sin 2x, ..., sin nx

linear unabhangig uber IR sind.

Aufgabe 3.16 (V) Es sei K ein Korper, V ein endlich-dimensionaler K-Vektorraum und f : V → Vein Endomorphismus vom Rang 1. Man beweise:a) Es gilt f2 = λf mit einem eindeutig bestimmten Skalar λ aus K.b) Es gilt

rang(idV + f) =

dim(V ), falls λ 6= −1,dim(V )− 1, falls λ = −1.

Aufgabe 3.17 (V) Als Anwendung der letzten Aufgabe leite man eine notwendige und hinreichendeBedingung fur die Invertierbarkeit der n× n-Matrix

A =

1 + a2

1 a1a2 ... a1ana2a1 1 + a2

2 ... a2an...

. . ....

ana1 ... 1 + a2n

mit a1, ..., an ∈ K

her.

3.4 Untervektorraume und Quotientenvektorraume

Definition 3.7 Es sei V ein Vektorraum uber dem Korper K. Eine nichtleere Teilmenge U ⊂ V heißtK-Untervektorraum, wenn

u1,u2 ∈ U, c1, c2 ∈ K ⇒ c1u1 + c2u2 ∈ U.

Ein K-Untervektorraum U ⊂ V ist mit den Rechenoperationen aus V selbst ein K-Vektorraum.Die folgenden Beispiele haben wir bereits kennengelernt:

• lineare Unterraume U ⊂ IRn,

• l2(IR) ⊂ IR∞,

• wenn A = a1,a2, ... ⊂ V eine (endliche oder unendliche) Teilmenge eines K-Vektorraums ist,so ist die Menge aller endlichen Linearkombinationen

span(A) = k∑1

cνaν : cν ∈ K,aν ∈ A

ein Untervektorraum von V ,

89

Page 90: Vorlesung Vektorrechnung Analytische Geometrie Laset

• wenn U1, U2 ⊂ V Untervektorraume sind, dann ist auch

U1 + U2 := span(U1 ∪ U2) = u1 + u2 : u1 ∈ U1,u2 ∈ U2

ein Untervektorraum von V und ebenso U1 ∩ U2,

• Fur jeden Vektor v 6= 0 aus V ist span(v) = K · v, die Gerade durch v ein Untervektorraumvon V .

Die folgenden Eigenschaften linearer Unterraume U ⊂ IRn gelten auch fur K-UntervektorraumeU ⊂ V eines endlich-dimensionalen K-Vektorraums V , da sich ihr Beweis wortlich ubertragt:

Kapitel 1Satz 1.14,15 DimensionsformelnSatz 1.17 Losungen linearer Gleichungssysteme und Zeilenrang der Koeffizientenmatrix

Kapitel 2Matrizenrechnung

Satz 2.6 Quadratische MatrizenSatz 2.7 Rang(A) = Rang(At)

Ein fester Untervektorraum U ⊂ V definiert folgendermaßen eine Relation ∼ auf der Menge V :

x ∼ y ⇔ x− y ∈ U.

Beispiel. U = IR ·(

11

)⊂ IR2.

(x1

x2

)∼(y1

y2

)⇔

(x1 − y1

x2 − y2

)= c ·

(11

), c ∈ IR

⇔ x1 − y1 = x2 − y2

⇔ x1 − x2 = y1 − y2

BBBBM

PPPix

y

(11

)

UV = IR2

Diese Relation ist eine Aquivalenzrelation, d.h., sie hat die Eigenschaften:

Reflexivitat: x ∼ x fur alle x ∈ V (weil 0 ∈ U)Symmetrie: x ∼ y⇒ y ∼ x fur alle x,y ∈ V (weil y − x = −(x− y) ∈ U)Transitivitat: x ∼ y und y ∼ z⇒ x ∼ z (weil x− z = (x− y) + (y − z) ∈ U)

Jeder Vektor x ∈ V definiert seine Aquivalenzklasse

v ∈ V : v ∼ x = x + U ⊂ V.

Die Menge aller Aquivalenzklassen bezeichnen wir mit V/U.

90

Page 91: Vorlesung Vektorrechnung Analytische Geometrie Laset

Satz 3.2 a) Die Vereinigung aller Aquivalenzklassen x + U ist der gesamte Vektorraum V.b) Der Durchschnitt zweier verschiedener Aquivalenzklassen ist leer.c) Auf der Menge V/U = x + U : x ∈ V kann man die Struktur eines K-Vektorraums (”Quotien-tenraum“ ) definieren, und zwar durch:

Addition: (x + U) + (y + U) := (x + y) + UMultiplikation: c · (x + U) := (c · x) + U fur c ∈ K.

Beweis. a) Wegen x ∈ x + U (Reflexivitat) ist

V =⋃

x∈Vx ⊂

⋃x∈V

(x + U).

b) Wenn x +U ∩y +U 6= ∅, dann gibt es also einen Vektor v ∈ x +U ∩y +U . Fur diesen Vektor giltv = x + u1 = y + u2 mit u1,u2 ∈ U. Daraus folgt x− y = u2 − u1 ∈ U, also x ∼ y.c) Zuerst ist nachzuweisen, dass unsere Definitionen der Addition und Multiplikation uberhaupt sinn-voll sind. Fur die Addition von Restklassen bedeutet das Folgendes: Aus der Restklasse x+U nehmenwir einen Vektor x her. Genauso gut hatten wir einen anderen Vektor x′ ∈ x + U nehmen konnen.Und statt y ∈ y + U hatten wir auch hier einen anderen Vektor y′ ∈ y + U nehmen konnen. Dannhatten wir als Summe der beiden Restklassen die Klasse

(x′ + y′) + U

definiert. Es ist zu zeigen, dass(x + y) + U = (x′ + y′) + U

gilt. Wegen x′ ∈ x + U,y′ ∈ y + U ist aber

x′ = x + u1, y′ = y + u2

mit u1,u2 ∈ U . Daraus folgt dann tatsachlich

(x′ + y′) + U = (x + u1 + y + u2) + U = (x + y) + (u1 + u2) + U = (x + y) + U.

Der Beweis bei der Multiplikation geht ganz genau so.Und weiter hilft alles nichts, wir mussen fur die Menge V/U der Aquivalenzklassen und die darauf

definierte Addition und Multiplikation mit Korperelementen die Vektorraumeigenschaften nachprufen.

Assoziativitat der Addition: ((x + U) + (y + U)) + (z + U) = (x + y + z) + U == (x + U) + ((y + U) + (z + U)),

Kommutativitat der Addition: (x + U) + (y + U) = (x + y) + U == (y + x) + U == (y + U) + (x + U),

Null: (x + U) + (0 + U)︸ ︷︷ ︸=U

= x + U,

Negatives: (x + U) + (−x + U) = 0 + U = U,Distributivgesetze: (c1 + c2)(x + U) = ((c1 + c2)x) + U = (c1x + c2x) + U =

= c1(x + U) + c2(x + U),c((x + y) + U) = c(x + y) + U = (cx + cy) + U == (cx + U) + (cy + U),(c1c2)(x + U) = (c1c2x) + U = c1(c2x + U),

Eins: 1 · (x + U) = (1 · x) + U = x + U.

91

Page 92: Vorlesung Vektorrechnung Analytische Geometrie Laset

Satz 3.3 (Dimensionsformel) Ist V ein endlich-dimensionaler Vektorraum und U ⊂ V ein Unter-vektorraum, so ist

dim(V ) = dim(U) + dim(V/U).

Beweis. Nach dem Basisatz existiert eine Basis u1, ...,ud fur U , die wir nach dem Basis-Ergan-zungssatz zu einer Basis u1, ...,ud,vd+1, ...,vn von V erganzen konnen. Die Formel ergibt sich, wennwir zeigen konnen, dass die Aquivalenzklassen vd+1 + U, ...,vn + U eine Basis des QuotientenraumsV/U bilden.

Aufspannen: Ist (v + U) ∈ V/U eine beliebige Aquivalenzklasse, so schreiben wir

v =d∑1

ckuk +n∑d+1

ckvk

und erhalten daraus

v + U = cd+1vd+1 + ...+ cnvn + ((c1u1 + ...+ cdud︸ ︷︷ ︸∈U

) + U)

= (cd+1vd+1 + ...+ cnvn) + U

= cd+1(vd+1 + U) + ...+ cn(vn + U).

Lineare Unabhangigkeit: Wenn∑nd+1(ckvk + U) = 0 ∈ V/U gilt, dann folgt

(n∑d+1

ckvk) + U = U

n∑d+1

ckvk ∈ U

n∑d+1

ckvk =d∑1

ckuk

d∑1

(−ck)uk +n∑d+1

ckvk = 0

c1 = ... = cd = cd+1 = ... = cn = 0.

Aufgabe 3.18 (V) Sei V ein n-dimensionaler Vektorraum uber einem Korper K. Sei v1, ...,vn eineBasis von V und W der von v1 + ...+ vn erzeugte Untervektorraum von V . Man bestimme eine Basisdes Quotientenvektorraums V/W .

Aufgabe 3.19 (V) Es seien U,U ′ lineare Teilraume eines Vektorraums V und x,x′ ∈ V . Wir schrei-ben x + U fur x + u|u ∈ U. Man zeige

x + U ⊂ x′ + U ′ ⇐⇒ U ⊂ U ′ und x′ − x ∈ U ′.

Aufgabe 3.20 (V) Sei U ⊂ IR4 der Untervektorraum des IR4, der von den Vektoren u1 = (1, 2,−1, 1)und u2 = (−1,−2, 1,−2) erzeugt wird, und V ⊂ IR4 der Untervektorraum des IR4, der von v1 =(1, 2,−1,−2), v2 = (−1, 3, 0,−2) und v3 = (2,−1,−1, 1) erzeugt wird. Zeigen Sie, dass U ein Unter-vektorraum von V ist, und geben Sie eine Basis des Raums V/U an.

92

Page 93: Vorlesung Vektorrechnung Analytische Geometrie Laset

3.5 Lineare Abbildungen

In 3.3 haben wir den Begriff der linearen Abbildung Φ : IRm → IRn durch die folgende Definitionverallgemeinert.

Definition 3.8 Es seien V und W zwei K-Vektorraume. Eine Abbildung Φ : V →W heißt K-linear,wenn fur alle x,y ∈ V und c1, c2 ∈ K gilt

Φ(c1x + c2y) = c1Φ(x) + c2Φ(y).

Beispiele. 1) Es sei V = W = C∞(IR) der Vektorraum der beliebig oft differenzierbaren reellenFunktionen. Dann ist die Differentiationsabbildung

Φ :

C∞ → C∞f 7→ df

dx

IR-linear.2) Es sei V = C0[a, b] der IR-Vektorraum der stetigen Funktionen auf dem Intervall [a, b] ⊂ IR und

W = IR. Dann ist die Integrationsabbildung

Φ :

C0 → IRf 7→

∫ ba f(t)dt

IR-linear.3) (Prinzip der linearen Ausdehnung) Es seien v1, ...,vm eine Basis des K-Vektorraums V und

w1, ...,wn eine Basis des K-Vektorraums W . Fur jeden Vektor v =∑m

1 cµvµ ∈ V ist das Bild untereiner linearen Abbildung Φ : V →W,

Φ(v) = Φ(m∑1

cµvµ) =∑

cµΦ(vµ)

eindeutig bestimmt durch die Bilder Φ(vµ) ∈ W der Basisvektoren vµ ∈ V . Und zu jeder moglichenWahl dieser Bildvektoren Φ(vµ) gibt es eine lineare Abbildung Φ. Entwickeln wir diese Bildvektorenin der Basis w1, ...,wn des Vektorraums W :

Φ(vµ) =n∑ν=1

aν,µwν ,

so ist das Bild von v =∑m

1 cµvµ

Φ(v) = Φ(m∑1

cµvµ) =n∑ν=1

(m∑µ=1

aν,µcµ)wν .

Zur Abbildung Φ gehort die n×m-Matrix

A = (aν,µ)ν=1,...,n: Zeileµ=1,...,m: Spalte

mit Eintragen aus dem Korper K. Wir halten fest:

93

Page 94: Vorlesung Vektorrechnung Analytische Geometrie Laset

Basisvektor vµ ∈ V abbilden,Bildvektor Φ(vµ) ∈W entwickeln

in der Basis w1, ...,wn ∈W :Φ(vµ) =

∑n1 aν,µwν

⇒ µ-ten Spaltenvektor

a1,µ...

an,µ

der Matrix A

Matrixprodukt A ·

c1...cm

⇒Entwicklungskoeffizienten

∑mµ=1 aν,µcµ

des Bildvektors Φ(∑m

1 cµvµ)in der Basis w1, ...,wn ∈W

Definition 3.9 Mit M(m × n,K) bezeichnen wir von jetzt an die Menge der m × n-Matrizen mitEintragen aus dem Korper K. Die bisher mit M(m × n) bezeichnete Menge heißt also von jetzt anM(m× n, IR).

Satz 3.4 a) Die Menge aller K-linearen Abbildungen Φ : V → W ist ein K-Vektorraum. Wir be-zeichnen ihn mit HomK(V,W ).b) M(n×m,K) ist ein K-Vektorraum der Dimension m · n.c) Jede Wahl von Basen v1, ...,vn ∈ V und w1, ...,wm ∈W definiert einen K-Isomorphismus

HomK(V,W )→M(n×m,K),

namlich die Zuordnung, welche jeder linearen Abbildung ihre Matrix (bezuglich der gewahlten Basen)zuordnet.

Beweis. a) Die Addition linearer Abbildungen Φ,Ψ : V →W wird durch

(Φ + Ψ)(x) := Φ(x) + Ψ(x)

definiert und die Multiplikation mit Skalaren c ∈ K durch

(c · Φ)(x) := c · Φ(x).

Es ist einfach, alle Vektorraumeigenschaften nachzurechnen.b) M(n×m,K) ist nur eine andere Schreibweise fur Kn·m.c) Dass die Zuordnung Φ 7→ A eine K-lineare Abbildung HomK(V,W )→M(n×m,K) ist, folgt

sofort aus den Definitionen.Injektivitat: Die einzige lineare Abbildung Φ : V → W, die zur Nullmatrix gehort, ist die Nullab-

bildung.Surjektivitat: Jede Matrix A gehort zu einer linearen Abbildung wegen des Prinzips der linearen

Ausdehnung.

Es sei Φ : V →W linear. Wie in 2.2 (Satz 2.5, Bildsatz) beweist man: Die Menge

Φ(V ) := Φ(v) ∈W : v ∈ V ⊂W

ist ein Untervektorraum von W . Er heißt auch das Bild, oder der Bildraum von Φ, in Zeichen Bild(Φ).Seine Dimension (notwendig ≤ dim(V )) heißt Rang der linearen Abbildung Φ.

94

Page 95: Vorlesung Vektorrechnung Analytische Geometrie Laset

Bemerkung. Bei jeder Auswahl von Basen fur V und W ist der Rang der Φ beschreibenden Matrixgleich dem Rang der linearen Abbildung Φ.

Beweis. Sei v1, ...,vm eine Basis von V und w1, ...,wn eine Basis von W , sei A = (aν,µ) dieΦ : V →W beschreibende Matrix in diesen Basen. Unter dem K-Isomorphismus

Kn →W,

x1...xn

7→ n∑ν=1

xνwν

wird der µ-te Spaltenvektor der Matrix A auf den Bildvektor Φ(vµ) abgebildet (Definition der MatrixA zur Abbildung Φ). Der Spaltenraum der Matrix A wird also surjektiv auf den Unterraum von Wabgebildet, der von den Bildvektoren Φ(vµ), µ = 1, ...,m, erzeugt wird. Dies ist der Bildraum Φ(V ). DaKn →W ein Isomorphismus ist, wird der Spaltenraum ⊂ V injektiv abgebildet. Insgesamt haben wireine injektive und surjektive lineare Abbildung des Spaltenraums von A auf den Vektorraum Bild(Φ),also einen K-Isomorphismus. Dabei bleibt die Dimension erhalten.

Ein Gegenstuck zu Bild(Φ) ist

Kern(Φ) := v ∈ V : Φ(v) = 0 ⊂ V.

Kern(Φ) ist ein Untervektorraum von V , denn wenn v1,v2 ∈ Kern(Φ), d.h., wenn Φ(v1) = Φ(v2) = 0,dann ist fur alle c1, c2 ∈ K auch Φ(c1v1 + c2v2) = c1Φ(v1) + c2Φ(v2) = 0.

Satz 3.5 a) (Dimensionsformel) Es ist

dim(V ) = dim(Kern(Φ)) + dim(Bild(Φ)).

b) (Homomorphiesatz) Die Zuordnung

V/Kern(Φ) 3 v +Kern(Φ) 7→ Φ(v) ∈ Bild(Φ)

definiert einen IsomorphismusV/Kern(Φ)→ Bild(Φ).

Beweis. Wegen der Dimensionsformel (Satz 3.3) ist dim(V/Kern(Φ)) = dim(V )− dim(Kern(Φ)).Deswegen folgt Aussage a) aus Aussage b) des Satzes.

Zum Beweis von b) mussen wir zunachst sehen, dass die angegebene Abbildung Φ : V/Kern(Φ)→Bild(Φ) wohldefiniert ist, d.h.: wenn v+Kern(Φ) = v′+Kern(Φ) gilt, dann mussen wir Φ(v) = Φ(v′)zeigen. Aber dies folgt naturlich sofort aus v − v′ ∈ Kern(Φ).

Linearitat von Φ:Φ(c1v1 + c2v2 +Kern(Φ)) = Φ(c1v1 + c2v2) =

= c1Φ(v1) + c2Φ(v2) = c1Φ(v1 +Kern(Φ)) + c2Φ(v2 +Kern(Φ)).

Surjektivitat von Φ:

w ∈ Bild(Φ)⇒ w = Φ(v) = Φ(v +Kern(Φ)) ∈ Bild(Φ).

Injektivitat von Φ:

Φ(v +Kern(Φ)) = 0⇒ Φ(v) = 0⇒ v ∈ Kern(Φ)⇒ v +Kern(Φ) = Kern(Φ) = 0 ∈ V/Kern(Φ).

95

Page 96: Vorlesung Vektorrechnung Analytische Geometrie Laset

Beispiel. Die lineare Abbildung Φ : IR3 → IR3 werde bezuglich der Standardbasis e1, e2, e3 ∈ IR3

durch die Matrix 0 1 00 0 10 0 0

gegeben. Dann ist

Kern(Φ) = x ∈ IR3 : A · x = 0= x ∈ IR3 : x2 = x3 = 0= span(e1),

Bild(Φ) = y ∈ IR3 : y = A · x fur ein x ∈ IR3

=

y ∈ IR3 :

y1

y2

y3

=

x2

x3

0

= y ∈ IR3 : y3 = 0= span(e1, e2)

Es ist also dim(Kern(Φ)) = 1 und dim(Bild(Φ)) = 2, und die Summe beider Dimensionen ist drei, inUbereinstimmung mit Satz 3.5 a).

Aufgabe 3.21 Bestimmen Sie Bild und Kern der linearen Abbildungen IR4 → IR4, die durch folgendeMatrizen gegeben werden:

a)

1 −1 0 01 1 0 05 0 −1 00 0 2 1

, b)

0 0 0 11 1 0 01 0 1 00 0 0 1

, c)

1 −1 1 10 1 −1 01 0 0 12 1 −1 2

.Aufgabe 3.22 Es seien Φ,Ψ : Kn → Kn zwei lineare Abbildungen. Zeigen Sie

rg(Φ) + rg(Ψ)− n ≤ rg(Φ Ψ) ≤ minrg(Φ), rg(Ψ)

und folgern Sie daraus fur invertierbares Ψ

rg(Φ Ψ) = rg(Φ).

Aufgabe 3.23 (Lagrange-Interpolation) Es sei V der IR-Vektorraum aller Polynome mit reellenKoeffizienten vom Grad ≤ n. Weiter seien t0, ..., tn paarweise voneinander verschiedene reelle Zahlenund

Pi(x) :=∏ν 6=i

x− tνti − tν

∈ V (i = 0, ..., n).

a) Zeigen Sie, dass P0, ..., Pn eine Basis von V bilden.b) Geben Sie fur die IR-lineare Abbildung

V → IRn+1, P 7→ (P (t0), ..., P (tn))

96

Page 97: Vorlesung Vektorrechnung Analytische Geometrie Laset

die zugehorige Matrix bezuglich der Basen 1, x, ..., xn von V und e1, ..., en+1 von IRn+1 an.c) Zeigen Sie, dass es zu jeder Wahl von c0, ..., cn ∈ IR genau ein Polynom P ∈ V gibt mit P (t0) =c0, ..., P (tn) = cn.d) Bestimmen Sie ein Polynom P vom Grad ≤ 3 mit

P (−1) = −6, P (0) = 2, P (1) = −2, P (2) = 6.

Aufgabe 3.24 Es seien U, V,W endlichdimensionale K-Vektorraume und Φ : U → V, Ψ : U → Wlineare Abbildungen. Beweisen Sie: Es gibt genau dann eine lineare Abbildung Ω : V → W mit Ψ =Ω Φ, wenn Kern(Φ) ⊂ Kern(Ψ).

Aufgabe 3.25 Es sei V = IR[X]2 der IR-Vektorraum der Polynome vom Grad ≤ 2. Bestimmen Sieeine Matrix zur linearen Abbildung Φ : V → V, f → df

dX bezuglicha) der Basis 1, X, X2 ∈ V ,b) der Basis (X − 1)2, X2, (X + 1)2 ∈ V .

Aufgabe 3.26 Es sei V ⊂ C der von 1, ω := 12(−1 + i

√3) und ω2 aufgespannte Q-Vektorraum.

a) Bestimmen Sie die Dimension von V .b) Geben Sie eine Matrix fur die Q-lineare Abbildung z 7→ i

√3z dieses Vektorraums in sich an.

Aufgabe 3.27 (NV) Es seien V und W Vektorraume uber einem Korper K und f : V → W einelineare Abbildung. Ferner seien n und r naturliche Zahlen mit 1 ≤ r ≤ n. Zeigen Sie fur v1, ...,vn ∈ V :Ist v1, ...,vr eine Basis des Kerns und f(vr+1, ..., f(vn) eine Basis des Bildes von V , so sindv1, ...,vn linear unabhangig.

Aufgabe 3.28 (NV) Fur eine lineare Abbildung ϕ : IRn → IRn zeige man

dimKern(ϕ2) ≤ 2 · dimKern(ϕ).

Aufgabe 3.29 (V) Es seien U, V,W Vektorraume uber einem Korper K und f : U → V, g : V →Wlineare Abbildungen. Man zeige, dass die Komposition g f genau dann ein Monomorphismus (=injektiv) ist, wenn f Monomorphismus und Kern(g) ∩Bild(f) = 0 ist.

Aufgabe 3.30 (V) V bezeichne den durch die Polynome 1, X,X2, ..., Xn erzeugten linearen Teilraumvon C[X], und qk ∈ V sei durch q0 = 1 und qk =

∏k−1i=0 (X − i) (1 ≤ k ≤ n) definiert.

a) Man begrunde, dass genau ein Automorphismus α von V mit α(Xk) = qk (0 ≤ k ≤ n) existiert.b) Man beweise, dass die durch

(δ(p))(x) = p(x+ 1)− p(x)

definierte Abbildung δ : V → V linear ist und berechne δ(qk).c) Man bestimme Kern und Bild von δ.d) Man berechne die α−1 δ α bezuglich 1, X, ...,Xn darstellende Matrix.

Aufgabe 3.31 (V) Im Vektorraum R2×2 der zweireihigen, reellen Matrizen sei der Endomorphismus

f : IR2×2 → IR2×2, f(X) := AX − (AX)t mit A :=

(1 23 0

)gegeben. Man bestimme je eine Basis

von Kern(f) und Bild(f) und zeige Kern(f) ∩Bild(f) = 0, Kern(f) +Bild(f) = IR2×2.

97

Page 98: Vorlesung Vektorrechnung Analytische Geometrie Laset

Aufgabe 3.32 (V) Zeigen Sie, dass die sogenannten Pauli-Matrizen

σ0 =

(1 00 1

), σ1 =

(0 11 0

), σ2 =

(0 −ii 0

), σ3 =

(1 00 −1

)

eine Basis des Vektorraums der komplexen 2× 2-Matrizen bilden.

3.6 Der Dualraum

Definition 3.10 Sei V ein K-Vektorraum. Eine lineare Abbildung

f : V → K

von V in den Grundkorper K heißt Linearform. Der Vektorraum HomK(V,K) der Linearformen aufV heißt der Dualraum V ∗ von V .

Beispiele. Sei V der Raum Kn der Spaltenvektoren x = (x1, ..., xn)t, xk ∈ K. Die i-te Koordina-tenfunktion

fi : x 7→ xi

ist eine Linearform auf V . Man kann fi auch schreiben als Matrizenprodut

fi(x) = xi = (0, ..., 0, 1, 0, ..., 0) ·

x1...xn

des Zeilenvektors ei = (0, ..., 0, 1, 0, ..., 0) mit x ∈ Kn. Allgemeiner definiert jeder Zeilenvektor a =(a1, ..., an) eine Linearform

x 7→ a · x = (a1, ..., an) ·

x1...xn

=n∑1

akxk

auf V . Es ist

a · x =n∑1

akxk =n∑1

akfk(x).

Satz 3.6 (Dualbasis) Sei v1, ...,vn ∈ V eine Basis. Dann gibt es Linearformen f1, ..., fn ∈ V ∗,eindeutig bestimmt durch die Eigenschaft

fi(vk) = δi,k.

Die Linearformen f1, ..., fn bilden eine Basis von V ∗, die sogenannte Dualbasis zur Basis v1, ...,vn ∈V .

98

Page 99: Vorlesung Vektorrechnung Analytische Geometrie Laset

Beweis. Wir definieren fi(x) als den i-ten Entwicklungskoeffizienten des Vektors x ∈ V bezuglichder fixierten Basis v1, ...,vn. D.h., es gilt x =

∑ni=1 fi(x)vi. Wegen

x =n∑1

fi(x)vi, y =n∑1

fi(y)vi ⇒ c1x + c2y =n∑1

(c1fi(x) + c2fi(y))vi

⇒ fi(c1x + c2y) = c1fi(x) + c2fi(y)

ist diese Abbildung linear, also fi ∈ V ∗. Wegen

vk = 1 · vk =n∑1

fi(vk)vi

ist fi(vk) = δi,k (d.h., wir haben gezeigt, eine Linearform fi mit dieser Eigenschaft existiert). Wennes zwei Linearformen fi, f

′i mit dieser Eigenschaft gabe, dann hatten wir fur alle x =

∑n1 xkvk ∈ V

(fi − f ′i)(x) =n∑1

xk(fi − f ′i)(vk) = 0.

Also stimmen die Funktionen fi und f ′i uberein, fi = f ′i .Die Linearformen f1, ..., fn spannen V ∗ auf: Es sei f ∈ V ∗ eine beliebige Linearform. Wir setzen

ak := f(vk) ∈ K. Dann haben wir fur jeden Vektor x =∑n

1 xkvk =∑n

1 fk(x)vk ∈ V

f(x) =n∑1

xkf(vk) =n∑1

xkak =n∑1

akfk(x),

also gilt f =∑n

1 akfk.Die Linearformen f1, ..., fn sind linear unabhangig: Wenn

∑n1 cifi = 0 ∈ V ∗, dann ist fur alle k

0 =n∑1

cifi(vk) =n∑1

ciδi,k = ck.

Jede lineare Abbildung Φ : V →W definiert eine duale Abbildung

Φ∗ :

W ∗ → V ∗

f 7→ f Φ

In Symbolen: ΦV -W

?K

f ∈W ∗@@@R

Φ∗f = f Φ

In Zeichen: f ∈W ∗, v ∈ V ⇒ (Φ∗(f))(v) := f(Φ(v))

Satz 3.7 Es seien Basenv1, ...,vm ∈ V und w1, ...,wn ∈W

festgehalten mit den zugehorigen Dualbasen

f1, ..., fm ∈ V ∗ und g1, ..., gn ∈W ∗.

Weiter sei Φ : V → W eine lineare Abbildung. Ist A ∈ M(n ×m,K) die beschreibende Matrix fur Φbezuglich der Basen v1, ...,vm und w1, ...,wn, dann ist die transponierte Matrix At ∈ M(m × n,K)die beschreibende Matrix fur die duale Abbildung Φ∗ : W ∗ → V ∗ bezuglich der Dualbasen.

99

Page 100: Vorlesung Vektorrechnung Analytische Geometrie Laset

Beweis. Es seien A = (aν,µ) ∈ M(n×m,K) die Matrix fur Φ und B = (bµ,ν) ∈ M(m× n,K) dieMatrix fur Φ∗. Dann ist

Φ(vk) =n∑ν=1

aν,kwν , Φ∗(gl) =m∑µ=1

bµ,lfµ,

und

bk,l =

m∑µ=1

bµ,lfµ

(vk) = (Φ∗(gl))(vk) = gl(Φ(vk)) = gl(n∑ν=1

aν,kwν) = al,k,

also wie behauptet B = At.

Aus Satz 3.7 und Rang(A) = Rang(At) erhalt man eine einfache Folgerung, die aus der Definitionvon Φ∗ zunachst keineswegs einsichtig ist:

Satz 3.8 (Korollar zu Satz 3.7) Fur jede lineare Abbildung Φ zwischen endlich-dimensionalen Vek-torraumen gilt

Rang(Φ) = Rang(Φ∗).

Unmittelbar aus der Definition ergeben sich die folgenden Rechenregeln fur

lineare Abbildungen Matrizen(Ψ Φ)∗ = Φ∗ Ψ∗ (B ·A)t = At ·Bt

(id)∗ = id 1lt = 1l(Φ−1)∗ = (Φ∗)−1 (A−1)t = (At)−1

Beweis. Seien Φ : V →W und Ψ : W → U linear. Fur alle f ∈ U∗ ist dann

(Ψ Φ)∗(f) = f Ψ Φ = Φ∗(f Ψ) = Φ∗(Ψ∗(f)).

Naturlich ist (id)∗(f) = f id = f fur alle Linearformen f und deswegen (id)∗ = id. Wenn Φ−1

existiert, dann ist Φ−1 Φ = id und deswegen Φ∗ (Φ−1)∗ = (Φ−1 Φ)∗ = (id)∗ = id.

Wir wenden dies an auf Vektoren v ∈ Km,w ∈ Kn und eine Matrix A ∈M(n×m,K) :

wt ·A · v = (At ·w)t · v

und folgern daraus:

At ·w = 0 ⇔ (At ·w)t · v = 0 fur alle v ∈ Km

⇔ wt · (A · v) = 0 fur alle v ∈ Kn

⇔ wt ·w′ = 0 fur alle w′ ∈W im Bild der linearen Abbildung v 7→ A · v.

Derselbe Sachverhalt druckt sich fur lineare Abbildungen Φ : V →W wie folgt aus:Die Linearform f ∈W ∗ liegt im Kern von Φ∗ genau dann, wenn f(w′) = 0 ist fur alle Vektoren w′ ∈

Bild(Φ) ⊂ W , d.h., genau dann, wenn die Funktion f auf dem Unterraum Bild(Φ) ”verschwindet“.Fur den Fall

K = IR, V = IRm,W = IRn,Φ :

V →Wv 7→ A · v

konnen wir dies auch so formulieren:

100

Page 101: Vorlesung Vektorrechnung Analytische Geometrie Laset

• Der Kern der linearen Abbildung IRn → IRm,w 7→ At ·w, ist das orthogonale Komplement inIRn zum Bild der linearen Abbildung IRm → IRn,v 7→ A · v.

• Das lineare Gleichungssystem A · v = b ist genau dann losbar, wenn b ∈ IRn orthogonal ist aufallen Losungen w des homogenen Systems At ·w = 0.

Beispiel. Wir betrachten wieder die lineare Abbildung Φ : IR3 → IR3 mit Matrix

A =

0 1 00 0 10 0 0

.Ihr Bild ist span(e1, e2) und

Kern(Φ∗)) = x ∈ IR3 ;At · x = 0= x ∈ IR3 : x1 = x2 = 0= span(e3)= (Bild(Φ))⊥

Ein Spezialfall hiervon ist schließlich folgende Aussage:

Satz 3.9 Das lineare GleichungssystemA · x = b

ist genau dann fur alle b ∈ IRn losbar, wenn das adjungierte System

At · y = 0

nur die Nullosung besitzt.

Aufgabe 3.33 Es seien Φ : IR3 → IR3 die lineare Abbildung mit der darstellenden Matrix 1 2 32 3 13 1 2

und f, g : IR3 → IR die Linearform

f : (x1, x2, x3) 7→ x1 + x2 − x3, g : (x1, x2, x3) 7→ 3x1 − 2x2 − x3.

Bestimmen Sie die Linearformen Φ∗(f) : IR3 → IR und Φ∗(g) : IR3 → IR.

Aufgabe 3.34 (V) Es seien V,W Vektorraume uber einem Korper K und f : V → W eine lineareAbbildung. Weiter seien V ∗,W ∗ die zu V,W dualen Vektorraume und f∗ die zu f duale Abbildung,d.h., f∗ : W ∗ → V ∗, µ 7→ µ f . Man zeige: f ist genau dann Monomorphismus (=injektiv), wenn f∗

Epimorphismus (=surjektiv) ist.

101

Page 102: Vorlesung Vektorrechnung Analytische Geometrie Laset

Aufgabe 3.35 (V) Fur Vektorraume V bezeichne V ∗ den Dualraum. Seien nun V ein K-Vektorraum,W ⊂ V ein linearer Unterraum, W⊥ := ϕ ∈ V ∗|ϕ(w) = 0 fur alle w ∈ W und V/W bzw. V ∗/W⊥

seien die entsprechenden Quotientenvektorraume. Definieren Sie

Φ : V ∗/W⊥ →W ∗ durch ϕ+W⊥ 7→ ϕ|W fur ϕ ∈ V ∗

undΨ : W⊥ → (V/W )∗ durch Ψ(ϕ)(v +W ) = ϕ(v) fur ϕ ∈W⊥.

Zeigen Sie: Beide, Φ und Ψ, sind wohldefiniert und Vektorraumisomorphismen.

Aufgabe 3.36 (V) Geben Sie zu den Vektoren

x1 = (1, 0,−2), x2 = (−1, 1, 0), x3 = (0,−1, 1) aus IR3

die Linearformen fi mit fi(xj) = δij an. Hierbei ist δij die Kroneckerfunktion.

Aufgabe 3.37 (V) SeiV = f ∈ IR[x]|Grad(f) ≤ 3

der IR-Vektorraum der Polynome vom Grad ≤ 3. durch

ϕ1(f) = f(1), ϕ2(f) = f ′(1),ϕ3(f) = f(−1), ϕ4(f) = f ′(−1),

werden Linearformen ϕi : V → IR definiert. (Dabei bezeichne f ′ die Ableitung von f .)a) Zeigen Sie, dass ϕ1, ..., ϕ4 eine Basis des Dualraums V ∗ von V bilden.b) Bestimmen Sie die dazu duale Basis von V .

Aufgabe 3.38 (V) Sei V = p = a0 + a1t+ a2t2 ⊂ IR[t] der Vektorraum aller Polynome vom Grad

≤ 2. Jedes x ∈ IR liefert vermoge ”Auswerten in x“ ein Element δx : V → IR, δx(p) := p(x) desDualraums V ∗ von V . Integration uber einem Intervall [a, b] gibt Iba : V → IR, Iba(p) :=

∫ ba p(t)dt, ein

weiteres Element von V ∗.a) Ist die Abbildung IR→ V ∗, x 7→ δx linear?b) Zeigen Sie: Zu paarweise verschiedenen Elementen x, y, z ∈ IR bilden δx, δy, δz eine Basis desDualraums V ∗.c) Stellen Sie I2

0 ∈ V ∗ als Linearkombination von δ0, δ1 und δ2 dar.

102

Page 103: Vorlesung Vektorrechnung Analytische Geometrie Laset

4 Koordinatentransformationen und Ahnlichkeit von Matrizen

4.1 Basiswechsel und Koordinatentransformationen

In diesem Abschnitt ist K ein beliebiger Korper. ”Vektorraum“ bedeutet stets ”K-Vektorraum“.

Ist v1, ...,vn eine Basis des Vektorraums V, so laßt sich jeder Vektor x ∈ V als Linearkombination

x = x1v1 + ...+ xnvn

mit (durch x) eindeutig bestimmten x1, ..., xn ∈ K darstellen. Diese Korperelemente x1, ..., xn heißenKomponenten von x, oder Koordinaten von x in der Basis v1, ...,vn. (Dass die Indizes jetzt obenangebracht sind, ist mathematisch bedeutungslos, mnemotechnisch aber hoffentlich von Vorteil.) Wirwollen hier der Frage nachgehen, wie sich diese Koordinaten des Vektors x andern, wenn wir ihn ineiner anderen Basis w1, ...,wn ∈ V entwickeln.

Dazu schreiben wir zuerst die neuen Basisvektoren als Linearkombinationen der alten:

w1 =∑ν

aν1vν , ..., wn =∑ν

aνnvν .

Die Koordinaten aνµ der neuen Basisvektoren wµ in der alten Basis bilden die Spalten einer Matrix

A =

a11 · · · a1

n...

...an1 · · · ann

∈M(n× n,K).

Diese Matrix A ist unsere Ubergangsmatrix. Sie stellt bezuglich der Basis v1, ...,vn eine lineare Abbil-dung dar, und zwar diejenige Abbildung, welche

v1 7→ w1, ..., vn 7→ wn

abbildet, (und dadurch eindeutig bestimmt ist). Da die w1, ...,wn eine Basis von V bilden, ist rang(A) =n, die Ubergangsmatrix A ist invertierbar.

Ein Vektor x ∈ V schreibt sich nun auf zwei Weisen

x =∑n

1 xνvν =

∑n1 y

µwµ,alte Koordinaten: neue Koordinaten: x1

...xn

y1

...yn

die aber durch folgende Beziehung verknupft sind:

n∑ν=1

xνvν = x =n∑µ=1

yµ(n∑ν=1

aνµvν) =n∑ν=1

(n∑µ=1

aνµyµ)vν .

Daraus folgt fur die Koordinaten:

Alte Koordinaten =

x1

...xn

=

a11 · · · a1

n...

...a1n · · · ann

· y1

...yn

,anders formuliert:

103

Page 104: Vorlesung Vektorrechnung Analytische Geometrie Laset

alte Koordinaten = A · neue Koordinaten

neue Koordinaten = A−1 · alte Koordinaten

Dieses Transformationsverhalten, welches die Koordinaten eines Vektors x ∈ V aufweisen, heißtkontravariantes Transformationsverhalten. (Die Koordinaten transformieren sich ”gegenlaufig“ zurUbergangsmatrix.)

Ein anderes Transformationsverhalten besitzen die Vektoren des Dualraums V ∗. Um das zu be-stimmen wahlen wir Dualbasen

f1, · · · , fn mit fµ(vν) = δµν (alt)g1, · · · , gn mit gj(wi) = δji (neu)

Jetzt entwickeln wir die alte Dualbasis in der neuen

fµ =n∑j=1

cµj gj ,

weil wir die hier auftretende Matrix (cµj ) sehr leicht bestimmen konnen:

fµ(wj) =n∑k=1

cµkgk(wj) =

n∑k=1

cµkδkj = cµj

fµ(wj) = fµ(n∑ν=1

aνjvν) =n∑ν=1

aνj fµ(vν) =

n∑ν=1

aνj δµν = aµj

cµj = aµj

Zur linearen Abbildung gµ 7→ fµ gehort die Matrix At,zur linearen Abbildung fµ 7→ gµ gehort die Matrix (At)−1.

Im Vektorraum V ∗ gehort also zum Ubergang von der alten Basis f1, ..., fn zur neuen Basis g1, ..., gn

die Ubergangsmatrix (At)−1. Jetzt wenden wir fur diesen Basiswechsel das an, was wir soeben ganzallgemein uber Koordinatentransformationen und Ubergangsmatrizen gesehen haben:

alte duale Koordinaten = (At)−1 · neue duale Koordinatenneue duale Koordinaten = At · alte duale Koordinaten.

Richtig schon wird diese Formel erst, wenn wir die Koordinaten eines Vektors im Dualraum alsZeilenvektor schreiben und dann die letzte Gleichung transponieren:

neue duale Koordinaten = alte duale Koordinaten ·A.

Dieses Transformationsverhalten heißt kovariant.

Jetzt ist es wohl angebracht, einige - hoffentlich klarende - Worte zur Notation zu verlieren:

104

Page 105: Vorlesung Vektorrechnung Analytische Geometrie Laset

• Vektoren, in ihrer ganzen Allgemeinheit, sind Elemente eines Vektorraums. Dieser kann ziemlichgefahrlich (=unanschaulich) sein: ein Dualraum, ein Quotientenraum, ein Funktionenraum, usw.Jede Veranschaulichung solcher Vektoren versagt. Nur uber die abstrakte Theorie der Vektor-raume gelingt es, solche Vektoren zu beschreiben.

• Ein Vektor des Anschauungsraums, mit einem Pfeilchen vorne dran, ist ein Element des Zah-lenraums IRn, und wird durch ein n-tupel reeller Zahlen gegeben. Dieses n-tupel konnen wirwahlweise als Spalte oder als Zeile schreiben. Darauf, auf die Systematik der Indizes, kommt esnicht an.

• Hat man einen endlichdimensionalen Vektorraum und darin eine Basis, so gehort zu jedem Vektordes Vektorraums sein Koordinatenvektor, ein n-tupel von Korperelementen (=Zahlen.) Um dieKoordinaten von den Vektoren zu unterscheiden, bekommen die Koordinaten ihren Index obenhin:

x =n∑ν=1

xνvν .

Einen Koordinatenvektor wollen wir uns immer als Spaltenvektor vorstellen, sodass seine oberenIndizes die Zeile angeben.

• Den Koordinatenvektor eines Vektors im Dualraum, bezuglich der Dualbasis, wollen wir unsimmer als Zeilenvektor vorstellen. Dessen Indizes bekommen die Dualkoordinaten unten, weilsie sich kovariant transformieren, so wie die Ubergangsmatrix die ursprunglichen Basisvektoren.Untere Indizes geben somit die Spalte an.

Eine gewisse Logik bekommt dieses System, wenn man sich folgende Version der EinsteinschenSummenkonvention zu eigen macht: Kommen in einer Formel zwei gleiche Indizes vor, einer untenund einer oben, so muss daruber automatisch summiert werden, auch wenn kein Summenzeichen dasteht. Damit ist also

∑xνvν dasselbe wie xνvν . Das Skalarprodukt eines Zeilenvektors mit einem

Spaltenvektor schreibt sich dann

(c1, ..., cn) ·

x1

...xn

= cνxν .

Nicht nur Koordinaten von Vektoren, oder von Vektoren im Dualraum, andern sich bei Koordina-tentransformationen, sondern auch Matrizen zu linearen Abbildungen. Dies mussen wir als Nachstesuntersuchen.

Sei dazu Φ : V → W eine lineare Abbildung des Vektorraums V in den Vektorraum W , seienv1, ...,vn ∈ V und w1, ...,wm ∈W Basen, sei

C =

c11 · · · c1

n...

...cm1 · · · cmn

die Matrix, welche die Abbildung Φ in diesen Basen beschreibt, d.h.

Φ(vν) =m∑i=1

ciνwi.

Jetzt wechseln wir zu neuen Basen

105

Page 106: Vorlesung Vektorrechnung Analytische Geometrie Laset

neue Basis Beziehung zur alten Basis Ubergangsmatrix

v′1, ...,v′n v′µ =

∑nν=1 a

νµvν A =

a11 · · · a1

n...

...an1 · · · ann

w′1, ...,w′m w′j =

∑mi=1 b

ijwi B =

b11 · · · b1m...

...bm1 · · · amm

und berechnen die neue Matrix C ′ fur die Abbildung Φ:

Φ(v′µ) =∑mj=1(c′)jµw

′j =

∑mi,j=1(c′)jµb

ijwi

v′µ =∑aνµvν ⇒ Φ(v′µ) =

∑nν=1 a

νµΦ(vν) =

∑nν=1

∑mi=1 a

νµciνwi.

Durch Koeffizientenvergleich findet man hieraus

n∑ν=1

aνµciν =

m∑j=1

(c′)jµbij ,

oder in Form eines Matrizenprodukts

C ·A = B · C ′

neue Matrix C ′ = B−1 · C ·A

Hier sind C,C ′ ∈M(m× n,K), B ∈M(m×m,K) und A ∈M(n× n,K).

Satz 4.1 Es sei Φ : V →W eine lineare Abbildung vom Rang r. Dann gibt es Basen in V und W , indenen Φ die beschreibende Matrix

dim(W )

(1lr 00 0

)︸ ︷︷ ︸

dim(V )

hat.

Beweis. Es sei C ∈M(m× n,K) die Matrix fur Φ bezuglich irgend welcher Basen von V und W .Es ist zu zeigen, dass es invertierbare Matrizen A ∈ GL(n,K) und B ∈ GL(m,K) gibt, derart, dassdas Produkt B−1 · C ·A die angegebene Form hat. Zunachst benutzen wir elementare Zeilentransfor-mationen, um C auf Zeilenstufenform zu bringen:

B−1 · C =

0 ... 1 ∗ ∗

0 ... 1 ∗ ∗0 ... 1 ∗

r0

.

106

Page 107: Vorlesung Vektorrechnung Analytische Geometrie Laset

Durch elementare Spaltenumformungen kann man alle Eintrage der ersten r Zeilen, bis auf die fuhren-den Einsen, auf 0 transformieren. Elementare Spaltenumformungen erhalt man als Produkt mit Ele-mentarmatrizen von rechts. Ist A′ das Produkt all dieser Elementarmatrizen, so haben wir also

B−1 · C ·A′ =

0 · · · 1 0 0

0 · · · 1 0 00 · · · 1 0

r0

.Jetzt vertauschen wir nur noch die Spalten so, dass die Spalten mit den Einsen in ihrer richtigen Rei-henfolge ganz nach links kommen. Auch dies ist zu erreichen durch Multiplikation mit einem Produktvon Elementarmatrizen von rechts. Bezeichnen wir mit A das Produkt aller Elementarmatrizen, mitdenen wir insgesamt von rechts multiplizierten, so hat B−1 · C ·A die angegebene Form.

Dieser Satz ist eine Formulierung des Homomorphiesatzes 3.5 b) in der Sprache der Matrizen. DerSinn seiner Aussage besteht darin, dass lineare Abbildungen eines endlich-dimensionalen Vektorraumsin einen anderen wenig vor dem forschenden Auge des Mathematikers verbergen konnen. Man kannihre Matrizen auf eine ganz einfache Normalform bringen, die nur vom Rang der linearen Abbildungabhangt.

Vollig anders ist die Situation fur lineare Abbildungen eines Vektorraums in sich selbst. Dann istnamlich der Bildraum W gleich dem Urbildraum V , wir haben nur eine einzige Basis, die wir wechselnkonnen, es ist in obiger Formel B = A zu setzen. Bei einem Basiswechsel des Vektorraums V mitUbergangsmatrix A wird die Matrix C zu einer linearen Abbildung Φ : V → V in

C ′ = A−1 · C ·A

transformiert. Den Rest dieses Semesters widmen wir der Frage nach einer moglichst einfachen FormC ′ auf welche wir die Matrix C transformieren konnen.

Definition 4.1 Zwei Matrizen C,C ′ ∈ M(n × n,K) heißen ahnlich oder aquivalent, wenn es eineinvertierbare Matrix A ∈ GL(n,K) gibt, so dass

C ′ = A−1 · C ·A.

Diese Ahnlichkeit von Matrizen ist eine Aquivalenzrelation im Sinne von Abschnitt 3.4:

• Reflexivitat: A = 1ln ⇒ C = 1l−1n · C · 1ln,

• Symmetrie: C ′ = A−1 · C ·A⇒ C = (A−1)−1 · C ′ ·A−1,

• Transitivitat: Aus C ′ = A−1 · C · A und C ′′ = B−1 · C ′ · B folgt C ′′ = B−1A−1 · C · AB =(AB)−1 · C ·AB.

107

Page 108: Vorlesung Vektorrechnung Analytische Geometrie Laset

Aufgabe 4.1 (NV) Der Homomorphismus ϕ : IR3 → IR2 werde bezuglich der kanonischen Basendurch die Matrix

M =

(0 2 21 −2 2

)beschrieben. Man berechne die Matrixdarstellung von ϕ bezuglich der Basis

a1 = (0, 1, 1), a2 = (1, 0, 3), a3 = (1, 0, 1)

des IR3 und der Basisb1 = (1, 1), b2 = (1,−1)

des IR2.

Aufgabe 4.2 (NV) Es sei V der Vektorraum der reellen, symmetrischen zweireihigen Matrizen und

A =

(a bb c

)∈ V.

Der Endomorphismus ϕ : V → V sei definiert durch ϕ(S) := AtSA. Man berechne die Matrix von ϕbezuglich der Basis

S1 =

(1 00 0

), S2 =

(0 11 0

), S3 =

(0 00 1

)von V .

Aufgabe 4.3 (V) Fur A ∈ IR2×2 definiert

ϕ(A) =

(1 23 −1

)·A

einen Endomorphismus von R2×2. Bestimmen Sie die Matrix von ϕ bezuglich der Standardbasis(1 00 0

),

(0 10 0

),

(0 01 0

),

(0 00 1

).

4.2 Eigenwerttheorie

Das Problem, eine moglichst einfache Normalform fur ahnliche Matrizen zu finden, hat eine Bedeu-tung, die weit uber die lineare Algebra, ja weit uber die Mathematik hinausgeht. Dies soll an einemeinfachen Differentialgleichungs-System aus der Mechanik illustriert werden. (Wie eine solche Diffe-rentialgleichung aufgestellt wird, ist kein Problem der Mathematik, Losungsmethoden dafur aber sehrwohl.) Wir betrachten die Schwingung zweier gekoppelter Federn:

108

Page 109: Vorlesung Vektorrechnung Analytische Geometrie Laset

tteeeeeeeeee

?

?

m

m

y2

y1

Ruhelagen der Federn seien y1 = 0 und y2 = 0,beide Federkonstanten seien k,beide Massen seien m,

dann gelten die Bewegungsgleichungenmy1 = −ky1 + k(y2 − y1) = k(y2 − 2y1),my2 = −k(y2 − y1).

Fur den Spaltenvektor (y1

y2

)∈ IR2

ist dies, nachdem wir noch zur Vereinfachung k = m = 1 normieren, die folgende Differentialgleichung(y1

y2

)=

(−2 1

1 −1

)·(y1

y2

).

Das Problem besteht in der Kopplung der beiden Gleichungen fur die beiden Koordinaten y1 und y2.Falls die Koeffizientenmatrix

C =

(−2 11 −1

)ahnlich zu einer Diagonalmatrix ware, etwa

C = A−1 ·(λ1 00 λ2

)·A,

dann hatten wir fur den Vektor (x1

x2

):= A ·

(y1

y2

)die Gleichung(

x1

x2

)= A · C ·

(y1

y2

)= A · C ·A−1 ·

(x1

x2

)=

(λ1 00 λ2

)·(x1

x2

).

Dies sind zwei entkoppelte Differentialgleichungen

x1 = λ1x1, x2 = λ2x

2

fur die beiden Komponenten. In den einschlagigen Vorlesungen behandelt man deren Losung durchExponential- und Winkelfunktionen.

Sei also jetzt V ein K-Vektorraum und Φ : V → V eine K-lineare Abbildung. Wir fragen, wannes eine Basis v1, ...,vn von V gibt, in der Φ durch eine Diagonalmatrix

C =

λ1 0 . .0 λ2 0. 0 λ3

. .

109

Page 110: Vorlesung Vektorrechnung Analytische Geometrie Laset

beschrieben wird. Wenn das so ist, dann gilt fur die Basisvektoren v1, ...,vn:

Φ(vν) = λν · vν , ν = 1, · · · , n.

(Diese Vektoren werden durch Φ also nur gestreckt, um den Faktor λν , ihre Richtung wird nichtgeandert.)

Definition 4.2 Ein Vektor 0 6= v ∈ V heißt Eigenvektor der linearen Abbildung Φ : V → V, wennein Skalar λ ∈ K existiert, so, dass

Φ(v) = λ · v.

Analog heißt 0 6= x ∈ Kn ein Eigenvektor zur Matrix C ∈M(n× n,K), wenn C · x = λ · x.

Der Streckungsfaktor λ ist durch den Eigenvektor v und die lineare Abbildung Φ eindeutig be-stimmt, denn wenn Φ(v) = λ1 · v = λ2 · v, dann folgt (λ1 − λ2) · v = 0, und wenn tatsachlich λ1 6= λ2

sein sollte, so wurde hieraus folgen

v =1

λ1 − λ2· (λ1 − λ2) · v = 0.

Aber ein Eigenvektor ist kein Nullvektor, Widerspruch!Dieser Streckungsfaktor λ ∈ K heißt der Eigenwert zum Eigenvektor v.

Satz 4.2 (Tautologie) Die Matrix C ∈M(n×n,K) ist ahnlich zu einer Diagonalmatrix, dann, undnur dann, wenn der Vektorraum Kn eine Basis besitzt, die aus lauter Eigenvektoren fur C besteht.

Dies braucht nicht mehr bewiesen zu werden, da es nur eine Zusammenfassung der obigen Diskus-sion ist.

Der zweifelhafte Wert von Satz 4.2 zeigt sich sofort, wenn man beginnt Eigenvektoren zur MatrixC tatsachlich zu suchen. Die entscheidende Idee besteht darin, zuerst Eigenwerte zu suchen:

Satz 4.3 Ein Skalar λ ∈ K ist genau dann Eigenwert der Matrix C (zu einem Eigenvektor 0 6= v ∈Kn), wenn gilt:

det(C − λ · 1ln) = 0 (Eigenwertgleichung)

Beweis. Fur einen Vektor v ∈ V ist

C · v = λ · v ⇔ (C − λ · 1ln) · v = 0.

Und es gibt eine Vektor 0 6= v ∈ V mit dieser Eigenschaft, genau dann, wenn

Rang(C − λ · 1ln) < n, (Satz 1.15),

und dies ist aquivalent mit

det(C − λ · 1ln) = 0 (Satz 2.17 a).

110

Page 111: Vorlesung Vektorrechnung Analytische Geometrie Laset

Beispiel. Wir suchen Eigenwerte der Matrix

C =

(−2 11 −1

)

vom Beginn dieses Paragraphen. Die Eigenwertgleichung fur diese Matrix ist

det(C − λ · 1l2) = det

(−2− λ 1

1 −1− λ

)= (−2− λ)(−1− λ)− 1 = λ2 + 3λ+ 1 = 0.

Die Wurzelnλ1,2 =

12

(−3±√

5)

dieser quadratischen Gleichung sind die Eigenwerte. Die zugehorigen Eigenvektoren v berechnet manaus den linearen Gleichungssystemen

(C − λ1 · 1l2) · v =

(−1

2(1 +√

5)v1 + v2

v1 + 12(1−

√5)v2

)=

(00

),

(v1

v2

)= s1 ·

(2

1 +√

5

), s1 ∈ K,

(C − λ2 · 1l2) · v =

(12(−1 +

√5)v1 + v2

v1 + 12(1 +

√5)v2

)=

(00

),

(v1

v2

)= s2 ·

(2

1−√

5

), s2 ∈ K.

Diese Eigenvektoren bilden zusammen zwei Geraden.

Beim Suchen der Eigenwerte kommt es also darauf an, die Nullstellen λ der Funktion λ 7→ det(C−λ · 1ln) zu finden.

Satz 4.4 Es sei C ∈M(n× n,K). Die Funktion

χC : K 3 λ 7→ det(C − λ1ln) ∈ K

ist ein Polynom vom Grad n. Mit der Abkurzung

sp(C) := c11 + c2

2 + ...+ cnn (Spur von C)

istχC(λ) = (−1)nλn + (−1)n−1 · sp(C) · λn−1 + ...+ det(C).

Beweis. Die Leibnizformel

χC(λ) =∑σ∈Σn

sign(σ) · (c1,σ(1) − λδ1,σ(1)) · ... · (cn,σ(n) − λδn,σ(n))

zeigt, daß χC(λ) ein Polynom in λ vom Grad ≤ n ist. Man findet auch als Koeffizienten

111

Page 112: Vorlesung Vektorrechnung Analytische Geometrie Laset

bei λn (σ = id :) (−1)n

bei λn−1 (σ = id :) (−1)n−1(c11 + ...+ cnn)

bei λ0 (λ = 0 :) det(C).

Definition 4.3 Das Polynom χC(λ) = det(C − λ1ln) heißt charakteristisches Polynom der MatrixC. Der folgende Satz 4.5 zeigt, dass alle Matrizen, welche dieselbe lineare Abbildung Φ beschreiben,dasselbe charakteristische Polynom haben. Man kann dieses Polynom dann also auch charakteristischesPolynom der Abbildung Φ nennen.

Satz 4.5 Ahnliche Matrizen haben dasselbe charakteristische Polynom.

Beweis. Wenn C ′ = A−1 · C ·A, dann ist

χC′(λ) = det(A−1 · C ·A− λ · 1ln)= det(A−1 · (C − λ · 1ln) ·A)= det(A)−1 · det(C − λ · 1ln) · det(A) (Determinantenmultiplikationssatz)= χC(λ).

Satz 4.6 (Korollar zu Satz 4.5) Ahnliche Matrizen haben

die gleiche Determinante (folgt schon aus dem Determinantenmultiplikationssatz),die gleiche Spur,die gleichen Eigenwerte.

Satz 4.7 (Diagonalisierbarkeitskriterien) a) (notwendig) Wenn eine Matrix C diagonalisierbar(=ahnlich zu einer Diagonalmatrix) ist, dann zerfallt ihr charakteristisches Polynom χC in ein Produktvon Linearfaktoren:

χC(λ) = (λ1 − λ) · ... · (λn − λ), λk ∈ K.

b) (hinreichend) Wenn χC in Linearfaktoren zerfallt und alle seine Wurzeln λ1, ..., λn paarweise ver-schieden sind, dann ist C diagonalisierbar.

Beweis. a) ist klar, man braucht nur die Determinante einer Diagonalmatrix C ′−λ1ln hinzuschrei-ben, wo C ′ eine zu C ahnliche Diagonalmatrix ist.

b) Zu den n paarweise verschiedenen Eigenwerten λ1, ..., λn finden wir als Losungen der linearenGleichungssysteme (C − λk1ln)v = 0 Eigenvektoren v1, ...,vn. Wir mussen zeigen, dass die v1, ...,vnlinear unabhangig sind.

Dazu beweisen wir durch vollstandige Induktion nachm = 1, ..., n folgende Aussage: Sind v1, ...,vm ∈Kn Eigenvektoren zu m paarweise verschiedenen Eigenwerten λ1, ..., λm, dann sind sie linear un-abhangig. Fur m = n ist dies die Behauptung.

112

Page 113: Vorlesung Vektorrechnung Analytische Geometrie Laset

Induktionsanfang: Fur m = 1 ist v1 ein Eigenvektor, der nach Definition 6= 0 ist. Er ist also linearunabhangig.

Induktionsschluss (m ≥ 2): Sind v1, ...,vm Eigenvektoren zu m paarweise verschiedenen Eigen-werten λ1, ..., λm, dann sind naturlich auch die Eigenwerte λ1, ..., λm−1 paarweise verschieden undv1, ...,vm−1 nach Induktionsannahme linear unabhangig. Um v1, ...,vm auf lineare Unabhangigkeit zutesten, nehmen wir

∑m1 ckvk = 0 an. Wenn hier cm = 0 ist, dann folgt aus der Induktionsannahme,

dass c1 = ... = cm−1 = 0 ist, und wir sind fertig. Wir brauchen uns deswegen nur auf den Fall cm 6= 0zu konzentrieren. Wir konnen dann schreiben

vm = − 1cm

m−1∑1

ckvk,

und daraus folgern

C · vm = λmvm (weil vm Eigenvektor)

= − 1cm

m−1∑1

ckC · vk

= − 1cm

m−1∑1

ckλkvk

Hieraus folgtm−1∑

1

ck(λm − λk)vk = 0.

Nach Induktionsannahme ist dann ck(λm − λk) = 0 fur k = 1, ...,m− 1. Wegen λm 6= λk folgt darausc1 = ... = cm−1 = 0.

Beispiel (Drehmatrix). Wir betrachten die Matrix

C =

(cos(ϕ) −sin(ϕ)sin(ϕ) cos(ϕ)

),

welche eine Drehung um den Winkel ϕ in der Ebene IR2 beschreibt. Ihr charakteristisches Polynom

χC(λ) = det

(cos(ϕ)− λ −sin(ϕ)sin(ϕ) cos(ϕ)− λ

)= (cos(ϕ)− λ)2 + sin(ϕ)2

hat die Nullstelle λ ∈ IR, fur welche λ = cos(ϕ) wahrend sin(ϕ) = 0. Es gibt nur die Falle

Winkel ϕ Eigenwert λ Drehung0 1 Identitatπ −1 Punktspiegelung

Dies ist auch anschaulich vollig klar: Bei einer echten Drehung (nicht um den Winkel 0 oder π)andert jeder Vektor seine Richtung.

Ganz anders ist die Situation, wenn man C als Matrix komplexer Zahlen auffasst, und Eigenwertein C sucht. Diese sind Wurzeln der quadratischen Gleichung

λ2 − 2 cos(ϕ)λ+ 1 = 0,

113

Page 114: Vorlesung Vektorrechnung Analytische Geometrie Laset

alsoλ1,2 = cos(ϕ)± i · sin(ϕ).

Beispiel (Jordan-Block). Wir werden uns im ubernachsten Abschnitt ausfuhrlich mit n × n-Matrizen der Form

C =

c 1

. . . . . .. . . 1

c

, c ∈ Kbeschaftigen. Ihr charakteristisches Polynom

χC(λ) = (c− λ)n

hat nur die einzige Nullstelle c, diese mit der ”Vielfachheit“ n. Wenn wir alle Eigenvektoren desJordan-Blocks bestimmen wollen, mussen wir das lineare Gleichungssystem

C · x = c · x, d.h. (C − c · 1ln) · x = 0

losen. Nun ist

(C − c1ln) · x =

0 1

. . . . . .. . . 1

0

·

x1

x2

...xn−1

xn

=

x2

x3

...xn

0

.

Dies ist der Nullvektor, falls x2 = ... = xn = 0, d.h. alle Eigenvektoren liegen auf der Geraden, welchevom ersten Koordinatenvektor e1 aufgespannt wird.

Wir formulieren jetzt ein Diagonalisierbarkeitskriterium, welches sowohl hinreichend als auch not-wendig ist. Theoretisch ist dies eine sehr befriedigende Beschreibung der Diagonalisierbarkeit, praktischfur das Problem, eine konkret gegebene Matrix zu diagonalisieren jedoch oft unbrauchbar.

Satz 4.8 (Notwendiges und hinreichendes Diagonalisierbarkeitskriterium) Eine Matrix C ∈M(n× n,K) ist genau dann diagonalisierbar, wenn

(1) das charakteristische Polynom χC in Linearfaktoren zerfallt, etwa

χC(λ) = (λ1 − λ)r1 · ... · (λk − λ)rk , r1 + ...+ rk = n,

wo die Wurzeln λ1, ..., λk alle paarweise verschieden sein sollen, aber mit ihren Vielfachheitenr1, ..., rk zu Potenzen zusammengefasst, und

(2) fur die verschiedenen Wurzeln λ1, ..., λk gilt

Rang(C − λj1ln) = n− rj (j = 1, ..., k).

114

Page 115: Vorlesung Vektorrechnung Analytische Geometrie Laset

Beweis ”⇒“ Sei C diagonalisierbar, also etwa ahnlich zur Matrix

C ′ =

λ1

. . .λ1

λ2

. . .

,

und seien r1, ..., rk die Vielfachheiten, mit denen die verschiedenen Eigenwerte λ1, ..., λk in C ′ auf-treten. Dann zerfallt das charakteristische Polynom χC(λ) = χC′(λ) = (λ1 − λ)r1 · ... · (λk − λ)rk inLinearfaktoren. Fur j = 1, ..., k ist

C − λj1ln = A−1 · C ′ ·A− λj1ln = A−1 · (C ′ − λj1ln) ·A

und deswegen Rang(C − λj1ln) = Rang(C ′ − λj1ln). Schließlich fallen in C ′ − λj1ln genau die rjDiagonaleintrage weg, die gleich λj sind, wahrend an den anderen Stellen der Diagonale die Zahlenλi − λj fur i 6= j stehen. Diese sind ungleich Null. So ist etwa

C ′ − λ11ln =

0. . .

0λ2 − λ1

λ2 − λ1

. . .

.

Der Rang von C ′ − λj1ln ist die Zahl der Diagonaleintrage 6= 0, und damit = n− rj .

”⇐“ Fur j = 1, ..., k seiVj := Kern(C − λj · 1ln)

der Eigenraum zu λj . Nach (2) ist dim(Vj) = n − (n − rj) = rj . Wir wahlen Basen v(j)1 , ...,v(j)

rj ∈ Vjfur die einzelnen Eigenraume. Es genugt zu zeigen, dass alle dieser Vektoren

v(1)1 , ...,v(1)

r1 ,v(2)1 , ......,v(k)

1 , ...,v(k)rk

linear unabhangig sind. Denn dann bilden sie eine Basis des Kn, eine Basis aus Eigenvektoren von C.Zum Test der linearen Unabhangigkeit nehmen wir also

c1(1)v

(1)1 + ...+ cr1(1)v

(1)r1 + ...+ c1

(k)v(k)1 + ...+ crk(k)v

(k)rk

= 0

an. Fur einen Eigenvektor v(j) ∈ Vj ist

(C − λ21ln) · ... · (C − λk1ln) · v(j) = (λj − λ2) · ... · (λj − λk)v(j)

= 0 falls j > 16= 0 falls j = 1

Multiplizieren wir also die obige lineare Relation mit dem Matrizenprodukt

(C − λ21ln) · ... · (C − λk1ln),

115

Page 116: Vorlesung Vektorrechnung Analytische Geometrie Laset

so erhalten wir

(λ1 − λ2) · ... · (λ1 − λk) · (c1(1)v

(1)1 + ...+ cr1(1)v

(1)r1 ) = 0,

c1(1)v

(1)1 + ...+ cr1(1)v

(1)r1 = 0,

c1(1) = ... = cr1(1) = 0.

Analog findet man dass auch die Koeffizienten fur j > 1 verschwinden.

Manchmal nennt man die Vielfachheit rj des Eigenwerts λj als Nullstelle des charakteristischenPolynoms auch die algebraische Vielfachheit dieses Eigenwerts. Und die Dimension n−Rang(C−λj1ln)des Eigenraums nennt man dann die geometrische Vielfachheit des Eigenwerts. Das Diagonalisierbar-keitskriterium kann man dann sehr griffig folgendermaßen formulieren: Fur jeden Eigenwert ist

algebraische Vielfachheit = geometrische Vielfachheit.

Was sagt Satz 4.8 uber einen Jordanblock? Der einzige Eigenwert c hat Vielfachheit n, wahrendder zugehorige Eigenraum Dimension =1 hat. Ein Jordanblock ist (fur n ≥ 2) nicht diagonalisierbar.Er ist geradezu im hochstmoglichen Maß un-diagonalisierbar.

Wenn wir eine Matrix diagonalisieren wollen, kommt es nach Satz 4.8, Eigenschaft (1), zunachstdarauf an, die Nullstellen des charakteristischen Polynoms dieser Matrix zu suchen. Der Erfolg dieserSuche hangt nun in viel geringerem Maß von unseren rechnerischen Fahigkeiten ab, als von Eigenschaf-ten des Grundkorpers K, denen wir bisher kaum Beachtung schenkten: Es gibt reelle Polynome (etwadas charakteristische Polynom einer Drehmatrix), welche keine reellen Nullstellen haben. KomplexeNullstellen aber haben reelle Polynome immer:

Satz 4.9 (Fundamentalsatz der Algebra) Ein komplexes Polynom

p(λ) = λn + an−1λn−1 + ...+ a1λ+ a0, aj ∈ C, n ≥ 1,

hat immer mindestens eine Nullstelle c ∈ C. Ja, es gibt sogar Zahlen c1, ..., cn ∈ C, (die nicht alleverschieden zu sein brauchen,) so, dass

p(λ) = (λ− c1) · ... · (λ− cn).

Der Beweis des Fundamentalsatzes der Algebra benotigt ganz andere Methoden, als wir sie bisherkennen gelernt haben. Ein Beweis ist beispielsweise Standardstoff der Vorlesung Funktionentheorie.Wir wollen diesen wichtigen Satz jetzt als wahr unterstellen und daraus Konsequenzen fur reelle undkomplexe Matrizen ziehen.

Fur eine komplexe Zahl c = a+ ib definiert man die komplex-konjugierte Zahl c = a− ib. Die Zahlc ∈ C ist reell genau dann, wenn c = c. Konjugation vertragt sich mit der Multiplikation komplexerZahlen:

c1c2 = (a1 + ib1)(a2 + ib2)= a1a2 − b1b2 + i(a1b2 + a2b1)= a1a2 − b1b2 − i(a1b2 + a2b1)= (a1 − ib1)(a2 − ib2)= c1 · c2.

116

Page 117: Vorlesung Vektorrechnung Analytische Geometrie Laset

Deswegen gilt fur ein Polynom p(λ) mit reellen Koeffizienten stets p(c) = p(c). Ist c ∈ C eine Nullstelledes reellen Polynoms p, so auch c. Ist nun der Grad des Polynoms p ungerade, so konnen nicht alleWurzeln als Paare komplex-konjugierter Wurzeln auftreten, es muss mindestens eine reelle Nullstellevon p geben. (Dass reelle Polynome ungeraden Grades immer mindestens eine reelle Nullstelle besitzen,kann man auch mit dem Zwischenwertsatz der Analysis zeigen.)

Hieraus folgt der zweite Teil des nachsten Satzes, dessen erster Teil sich aus dem Fundamentalsatzergibt.

Satz 4.10 Eine C-lineare Abbildung eines endlich-dimensionalen komplexen Vektorraums in sich hatimmer mindestens einen komplexen Eigenwert, also auch immer mindestens einen Eigenvektor.

Eine IR-lineare Abbildung eines reellen Vektorraums ungerader Dimension hat immer mindestenseine reellen Eigenwert, also auch mindestens einen reellen Eigenvektor.

Satz 4.11 (Trigonalisierung) Jede komplexe n× n-Matrix C ist ahnlich zu einer oberen Dreiecks-matrix

c1 ∗ · · · ∗

0 c2 ∗...

... .. . . ∗

0 · · · 0 cn

.

Beweis (Induktion nach n): Fur den Induktionsanfang n = 1 ist nichts zu zeigen.Sei also n ≥ 2. Nach dem Fundamentalsatz der Algebra existiert ein Eigenwert c1 mit einem

zugehorigen Eigenvektor v1 6= 0. Wir erganzen v1 zu einer Basis v1, ...,vn unseres Vektorraums Cn.Dabei verandert sich die Matrix C in

c1 ∗ · · · ∗0... D0

,

mit einer komplexen (n− 1× n− 1)-Matrix D. Nach Induktionsannahme existiert dann eine MatrixA ∈ GL(n− 1,C) so, dass A−1 ·D ·A eine obere Dreiecksmatrix ist. Dann hat auch die zu C ahnlicheMatrix

1 0 · · · 00... A−1

0

·c1 ∗ · · · ∗0... D0

·

1 0 · · · 00... A0

=

c1 ∗ · · · ∗0... A−1 ·D ·A0

Dreiecksgestalt.

Bemerkung 1 zum Beweis von Satz 4.11: Die induktiv gesuchten Eigenvektoren konnen zunachstalle zum gleichen Eigenwert λ1, dann zum nachsten Eigenwert λ2 der Matrix C, und so weiter, gewahlt

117

Page 118: Vorlesung Vektorrechnung Analytische Geometrie Laset

werden. Dann erhalt man als Diagonaleintrage in der zu C ahnlichen Matrix:

c1 = ... = cr1 = λ1

cr1+1 = ... = cr1+r2 = λ2...

......

cn−rk+1 = ... = cn = λk

paarweise voneinander verschieden.

Bemerkung 2 zum Beweis von Satz 4.11: Von den Eigenschaften des Korpers C haben wir nurden Fundamentalsatz der Algebra im Beweis benutzt. Wir hatten von vorneherein auch voraussetzenkonnen, dass das charakteristische Polynom χC in Linearfaktoren zerfallt, der Beweis ware genausodurchgegangen. Wir sehen: Eine Matrix ist (uber einem beliebigen Korper K) genau dann trigonali-sierbar, wenn ihr charakteristisches Polynom uber diesem Korper K in Linearfaktoren zerfallt.

Aufgabe 4.4 Gekoppelte Federn, wie am Anfang dieses Paragraphen, kannman sehr schon experimentell aufbauen. Die senkrechten Schwingungen kannman aber sehr schlecht beobachten, weil die Federn schnell horizontal insWackeln kommen. Einfacher ist das, wenn man die untere Masse mit einerdritten Feder (wie in nebenstehender Zeichnung) stabilisiert. Die Bewegungs-gleichungen lauten dann

my1 = −ky1 + k(y2 − y1) = k(y2 − 2y1),my2 = −k(y2 − y1)− ky2 = k(y1 − 2y2).

Bestimmen Sie (fur k = m = 1) Eigenwerte und Eigenvektoren der Koeffi-zientenmatrix dieses Systems (und verifizieren Sie, dass dieses System auchmathematisch einfacher zu behandeln ist).

tteeeeeeeeee

eeeee ??

m

m

y2

y1

Aufgabe 4.5 Berechnen Sie die (moglicherweise komplexen) Eigenwerte und Eigenvektoren der reel-len Matrix 0 2 −1

−2 0 21 −2 0

.Aufgabe 4.6 Es sei ϕ : Cn → Cn die lineare Abbildung, welche die Vektoren ek, k = 1, ..., n derStandardbasis folgendermaßen abbildet:

ϕ(ek) = ek+1 fur k = 1, ..., n− 1, ϕ(en) = e1.

Berechnen Sie das charakteristische Polynom von ϕ und bestimmen Sie im Fall n = 4 alle Eigenwerteund Eigenvektoren von ϕ.

Aufgabe 4.7 a) Es sei v = (λ1, ..., λn) ∈ Kn so, dass alle λν paarweise voneinander verschiedensind. Zeigen Sie, dass die Vektoren

vk := (λk1, ..., λkn), k = 1, ..., n,

linear unabhangig sind. (Hier ist λkν die k-te Potenz von λν .)

118

Page 119: Vorlesung Vektorrechnung Analytische Geometrie Laset

b) Es sei A ∈ M(n × n,K) mit n verschiedenen Eigenwerten. Zeigen Sie fur B ∈ M(n × n,K) dieAquivalenz der beiden folgenden Eigenschaften:i) AB = BA,ii) B = b01l + b1A+ b2A

2 + ...+ bn−1An−1 mit b0, b1, ..., bn−1 ∈ K.

Aufgabe 4.8 (NV) In einem vierdimensionalen Vektorraum V sei b1,b2,b3,b4 eine Basis. Einelineare Abbildung f : V → V habe die Eigenschaft

f(b1) = 0, f(b2) = b1 + 4b4,f(b3) = b2 − 8b4, f(b4) = b3 + 5b4.

Ist f diagonalisierbar?

Aufgabe 4.9 (NV) Man betrachte die Matrix

A =

1 0 0 01 1 1 01 0 2 01 0 1 1

.Ist A diagonalisierbar? Falls ja, geben Sie eine Matrix S an, so dass S−1AS Diagonalgestalt hat.

Aufgabe 4.10 (NV) Im IR-Vektorraum aller Abbildungen von IR in IR betrachte man den von denFunktionen

f(x) = ex, g(x) = xex, h(x) = e−x

aufgespannten Unterraum V = IRf + IRg + IRh und den Endomorphismus

ϕ : V → V, F 7→ F ′ (Differentiation)

von V . Bestimmen Sie die Eigenwerte und Eigenraume von ϕ.

Aufgabe 4.11 (NV) Bestimmen Sie eine Basis fur den Kern sowie die Eigenwerte der linearenAbbildung

f : IR2×2 → IR2×2 mit X 7→(

1 10 1

)X

(1 11 1

).

Ist f diagonalisierbar?

Aufgabe 4.12 (NV) Gegeben sei die reelle Matrix A =

1 2 20 2 1−1 2 2

.

a) Berechnen Sie das charakteristische Polynom und die Eigenwerte von A.b) Untersuchen Sie, ob A zu einer reellen Diagonalmatrix ahnlich ist.

Aufgabe 4.13 (NV) Fur n ≥ 1 sei V der Vektorraum der Polynome vom Grad ≤ n mit reellenKoeffizienten. Sei A : V → V die lineare Abbildung mit

(Af)(X) = f(X + 1)− f ′′(X)

wobei f ′′ die zweite Ableitung von f ist. Zeigen Sie, dass λ = 1 der einzige Eigenwert von A ist, undbestimmen Sie den zugehorigen Eigenraum.

119

Page 120: Vorlesung Vektorrechnung Analytische Geometrie Laset

Aufgabe 4.14 (NV) Entscheiden Sie, welche der folgenden Matrizen zueinander ahnlich sind undwelche nicht, und begrunden Sie Ihre Antwort:

a) A =

(1 10 1

), B =

(1 11 0

), C =

(1 01 1

).

b) A =

1 0 00 −1 00 0 −1

, B = 19

−1 4 84 −7 48 4 −1

.Aufgabe 4.15 (NV) Seien r, s reelle Zahlen mit 0 ≤ r, s ≤ 1, und sei

P =

0 1 0 0r 0 1− r 00 1− s 0 s0 0 1 0

.a) Ermitteln Sie alle Eigenwerte von P .b) Geben Sie alle Parameterpaare (r, s) an, fur die P diagonalisierbar ist.

Aufgabe 4.16 (NV) Der Endomorphismus f ∈ End(IR4) habe bezuglich der kanonischen Basis dieAbbildungsmatrix

0 −2 0 01 3 0 03 0 0 −20 −3 1 −3

.Man prufe, ob A diagonalisierbar ist, und bestimme gegebenenfalls eine Basis des IR4, bezuglich der fals Abbildungsmatrix eine Diagonalmatrix besitzt.

Aufgabe 4.17 (NV) a) Zeigen Sie, dass fur eine 2× 2-Matrix A uber einem beliebigen Korper gilt:A ist genau dann diagonalisierbar, wenn A entweder verschiedene Eigenwerte besitzt, oder wenn A einVielfaches der Einheitsmatrix ist.b) Die reelle 2× 2-Matrix A habe den Vektor (3, 4)t als Eigenvektor zum Eigenwert 2 und den Vektor(4,−3)t zum Eigenwert −1. Bestimmen Sie die Matrix A.

Aufgabe 4.18 (NV) Seien a und b reelle Zahlen mit a2 + b2 = 1. Ermitteln Sie alle Eigenwerte undEigenraume der Matrix

A =

−ab 12(a2 − b2) 0

12(a2 − b2) ab 0

0 0 1

.Aufgabe 4.19 (V) Sei

A =

−1 −5 5−5 −1 5−5 −5 9

.a) Geben Sie das charakteristische Polynom an. Berechnen Sie Eigenwerte und Eigenvektoren von A,und geben Sie die Eigenraume an.b) Zeigen Sie, dass es eine Matrix B ∈ C3×3 mit B2 = A gibt.

120

Page 121: Vorlesung Vektorrechnung Analytische Geometrie Laset

Aufgabe 4.20 (V) Seien V = IR3 und f : V → V die lineare Abbildung mit der Matrix

A =

3 −1 12 0 1−1 1 1

.Bestimmen Sie alle Unterraume U ⊂ V , fur die f(U) ⊂ U .

Aufgabe 4.21 (V) Sei A eine reelle 3×3-Matrix mit chakteristischem Polynom det(λ1l−A) = λ3−λ.(i) Man begrunde, dass A uber C diagonalisierbar ist.(ii) Man gebe den Rang der Matrizen A, A2, A2 + 1l, A2 − 1l an.(iii) Man bestimme alle r, s, t ∈ IR mit r1l + sA+ tA2 = 0.(iv) Man zeige, dass A1994 = A2 ist.(v) Man gebe eine solche reelle Matrix A an.

Aufgabe 4.22 (V) Gegeben seien die Matrizen

A =

1 2 30 2 30 0 −2

, B =

1 5 60 0 20 2 0

, C =

1 0 01 2 01 1 2

.Man beweise oder widerlege:a) Es gibt eine invertierbare Matrix T mit A = T−1BT .b) Es gibt eine invertierbare Matrix T mit A = T−1CT .

Aufgabe 4.23 (V) Ist die symmetrische Matrix

A =

(1√−1√

−1 1

)

diagonalisierbar? Wenn ja, berechne man eine Basis aus Eigenvektoren.

Aufgabe 4.24 (V) Fur die Matrizen0 1 1 11 0 1 11 1 0 11 1 1 0

und

0 1 1 11 0 1 132

12 0 1

12

32 1 0

zeige man, dass ihre Eigenwerte samt algebraischer Vielfachheit ubereinstimmen, aber nur eine dia-gonalisierbar ist.

Aufgabe 4.25 (V) Sei A =

(a cb d

)eine reelle Matrix mit b > 0 und c > 0. Zeigen Sie:

a) A hat zwei reelle Eigenwerte.b) Kein Quadrant der Ebene IR2 enthalt Eigenvektoren zu beiden Eigenwerten von A.

121

Page 122: Vorlesung Vektorrechnung Analytische Geometrie Laset

Aufgabe 4.26 (V) Gegeben seien die Matrizen

A :=

3 −1 −10 1 02 −1 0

und B :=

−1 0 08 −5 −8−8 4 7

∈M3(Q).

a) Zeigen Sie, dass sowohl A als auch B diagonalisierbar sind.b) Zeigen Sie, dass A und B simultan diagonalisierbar sind, d.h., dass es ein invertierbares T ∈M3(Q)gibt, derart dass TAT−1 und TBT−1 beide Diagonalgestalt haben.

Aufgabe 4.27 (V) Zeigen Sie, dass die Matrix

A =

2 1 00 1 −10 2 4

∈ IR3×3

uber IR nicht diagonalisierbar, aber trigonalisierbar (d.h. ahnlich zu einer Dreiecksmatrix) ist. gebenSie ein S ∈ GL(3, IR) an, so dass SAS−1 eine Dreiecksmatrix ist.

Aufgabe 4.28 (V) Bestimmen Sie alle Eigenvektoren und Eigenwerte der reellen Matrizen

A =

−2 2 −32 1 −6−1 −2 0

und B =

1 2 −1−2 3 1−3 8 1

und entscheiden Sie, ob A und B diagonalisierbar sind. Hinweis: beide Matrizen haben ganzzahligeEigenwerte.

Aufgabe 4.29 (V) Sei A =

0 −1 1−3 −2 3−2 −2 3

eine reelle Matrix. Geben Sie eine Basis des IR3 an,

die aus Eigenvektoren von A besteht.

4.3 Der Satz von Cayley-Hamilton

Wir werden jetzt in großem Stil Matrizen in Polynome einsetzen und damit rumrechnen. Uber denGrundkorper K werden wir zunachst nichts voraussetzen. Sei also

p(λ) = anλn + an−1λ

n−1 + ...+ a1λ+ a0

ein Polynom mit Koeffizienten aν ∈ K. Eine k×k Matrix C setzt man folgendermaßen in das Polynomp(λ) ein: Man schreibt ganz formal

p(λ) =n∑0

aνλν ,

p(C) =n∑0

aνCν

= anCn + an−1C

n−1 + ...+ a1C + a01lk.

122

Page 123: Vorlesung Vektorrechnung Analytische Geometrie Laset

Das funktioniert problemlos. Das einzige, was man sich merken muss, ist die Vereinbarung

C0 = 1lk.

Beispiel: Sei etwa p(λ) = λ2 − 1. Dann ist

p(C) = C2 − 1l.

Und die Faktorisierungp(λ) = (λ+ 1)(λ− 1)

schlagt durch auf das Matrizenpolynom:

(C + 1l)(C − 1l) = C2 + C − C − 1l = C2 − 1l.

Diese Produktformel gilt ganz allgemein:

Satz 4.12 Istp(λ) = q1(λ) · q2(λ)

ein Polynom-Produkt, so gilt fur jede k × k-Matrix C

p(C) = q1(C) · q2(C).

Zum Beweis setzt man C in das Produkt q1(λ) ·q2(λ) ein und multipliziert aus. Dann sammelt mannach Potenzen von C. Am Schluss kommen dieselben Koeffizienten heraus, wie wenn man die Polynomeq1(λ) und q2(λ) ausmultipliziert hatte. Ob wir die Potenzen einer Unbekannten λ aufsammeln, oderdie Potenzen einer quadratischen Matrix C, das lauft auf dieselben Koeffizienten hinaus.

Ein ganz wesentlicher Punkt ist, dass man im obigen Produkt die Faktoren vertauschen darf:

q1(C) · q2(C) = q2(C) · q1(C).

Obwohl Matrizen i.a. nicht kommutieren, kommutieren Matrizen, die Polynome der gleichen Matrix Csind, immer. Das ist eine sehr hilfreiche Tatsache. Ein zweiter hilfreicher Punkt ist, dass sich Polynomeund konjugierte Matrizen sehr gut vertragen:

Satz 4.13 Die Matrix C ′ = A−1 ·C ·A sei konjugiert zur Matrix C. Dann gilt fur jedes Polynom p(λ)

p(C ′) = A−1 · p(C) ·A.

Beweis. Wegen

(C ′)ν = (A−1 · C ·A) · (A−1 · C ·A) · ... · (A−1 · C ·A)= A−1 · C · C · ... · C ·A= A−1 · Cν ·A

kann man einfach ausmultiplizieren

p(C ′) =n∑0

aν(C ′)ν =n∑0

aν ·A−1 · Cν ·A = A−1 ·n∑0

aνCν ·A = A−1 · p(C) ·A.

123

Page 124: Vorlesung Vektorrechnung Analytische Geometrie Laset

Das ist ja alles sehr schon, aber in welches Polynom soll man denn eine Matrix C einsetzen? ZumBeispiel in ihr eigenes charakteristisches Polynom χC(λ).

Beispiel 1 (Drehmatrix) Aus personlicher Faulheit kurze ich jetzt ab

cos(ϕ) = c, sin(ϕ) = s,

und betrachte eine Drehmatrix

C =

(c −ss c

).

Ihr charakteristisches Polynom istχC(λ) = (c− λ)2 + s2.

Und wenn wir hier die Matrix C einsetzen, finden wir

χC(C) = (c · 1l2 − C)2 + s2 · 1l2

=

(0 s−s 0

)2

+

(s2 00 s2

)

=

(−s2 0

0 −s2

)+

(s2 00 s2

)= 0.

Es ist die Null-Matrix herausgekommen.Beispiel 2 (Nilpotente Matrix) Es sei

N =

0 ∗ ... ∗...

. . . . . ....

.... . . ∗

0 ... ... 0

eine obere n × n-Dreiecksmatrix, die auch auf der Diagonale nur Nulleintrage aufweist. Sie hat deneinzigen Eigenwert λ = 0 mit der Vielfachheit n. Ihr charakteristisches Polynom ist also

χN (λ) = (−λ)n.

Wir setzen die Matrix N ein:χN (N) = (−1)n ·Nn.

Und was kommt dabei heraus? Multiplizieren wir aus!Sei etwa N = (alk). Dann ist also alk = 0 fur k ≤ l. Und N2 = (

∑m a

lma

mk ) hat fur k ≤ l + 1 die

Eintrage ∑m

almamk =

l∑m=1

0 · amk +n∑

m=l+1

alm · 0 = 0.

In der Matrix N2 sind die Nulleintrage bereits in die erste Parallele oberhalb der Diagonale einge-drungen. Entsprechend vergroßert sich bei jeder Multiplikation mit N die Anzahl dieser Parallelen ausNulleintragen um 1. Die Matrix Nn enthalt dann nur noch Nulleintrage:

χN (N) = 0.

124

Page 125: Vorlesung Vektorrechnung Analytische Geometrie Laset

Hinter diesen Beispielen steckt System:

Satz 4.14 (Cayley-Hamilton) Fur jede komplexe n× n-Matrix C gilt

χC(C) = 0.

Beweis. Wir mussen K = C voraussetzen, weil wir den Fundamentalsatz der Algebra auf dascharakteristische Polynom χC(λ) anwenden. Das zerfallt in komplexe Linearfaktoren, und nach demTrigonalisierbarkeitskriterium 4.11 ist C ahnlich zu einer oberen Dreiecksmatrix C ′. Es ist

χC′(λ) = χC(λ),

und wegen 4.13 gilt mit der Transformationsmatrix A

χC′(C ′) = χC(C ′) = A−1 · χC(C) ·A.

Es wurde also genugen, die Aussage fur die obere Dreiecksmatrix C ′ zu beweisen. Mit anderen Worten:Wir konnen o.B.d.A. annehmen, C selbst ist eine obere Dreiecksmatrix.

Auf der Diagonale von C stehen dann die Eigenwerte, etwa in der Reihenfolge

λ1, λ2, ..., λn.

Wir beweisen jetzt durch Induktion nach k = 1, ..., n die folgende Aussage:

(λ1 · 1ln − C) · (λ2 · 1ln − C) · ... · (λk · 1ln − C) · ei = 0 fur i = 1, ..., k.

Etwas anders ausgedruckt: Die ersten k Spalten der Matrix

(λ1 · 1ln − C) · ... · (λk · 1ln − C)

sind Null-Spalten. Fur k = n ist dies die Behauptung unseres Satzes.Induktionsanfang (k = 1): Die Matrix λ1 · 1ln hat, ebenso wie die Matrix C in ihrer linken oberen

Ecke den Eintrag λ1. Alle anderen Eintrage dieser beiden Matrizen in der ersten Spalte sind = 0, wiesich das fur obere Dreiecksmatrizen gehort. Also sind alle Eintrage = 0 in der ersten Spalte der Matrixλ1 · 1ln − C.

Induktionsannahme: Die Behauptung gelte fur alle i < k.Induktionsschluss: Fur jedes i < k ist (Vertauschbarkeit von Polynomen derselben Matrix)

(λ1 · 1ln − C) · ... · (λk · 1ln − C) · ei= (λi+1 · 1ln − C) · ... · (λk · 1ln − C) · [(λ1 · 1ln − C) · ... · (λi · 1ln − C) · ei]= (λi+1 · 1ln − C) · ... · (λk · 1ln − C) · 0= 0

nach Induktionsannahme. Und fur i = k ist der (k, k)-Diagonal-Eintrag der Matrix λk · 1ln−C geradeλk − λk = 0. Deswegen ist

(λk · 1ln − C) · ek =k−1∑

1

ciei

125

Page 126: Vorlesung Vektorrechnung Analytische Geometrie Laset

eine Linearkombination der Vektoren e1, ..., ek−1. Und daraus folgt auch fur i = k

(λ1 · 1ln − C) · ... · (λk · 1ln − C) · ek(λ1 · 1ln − C) · ... · (λk−1 · 1ln − C) · (c1e1 + ...+ ck−1ek−1)

= 0.

Dieser Satz von Cayley-Hamilton gilt naturlich nicht nur fur komplexe Matrizen C, sondern auchfur reelle. Man kann ja jede reelle Matrix auch als eine komplexe Matrix auffassen.

Also, Cayley-Hamilton sagt aus: Wenn man eine Matrix in ihr eigenes charakteristisches Poly-nom einsetzt, kommt die Null-Matrix raus. Aber das charakteristische Polynom ist nicht das einzigePolynom mit dieser Eigenschaft. Dazu ein simples

Beispiel: Das charakteristische Polynom der Einheitsmatrix 1ln ist χ1l(λ) = (1 − λ)n. Aber nichtnur fur dieses Polynom, sondern sogar schon fur

p(λ) = 1− λ

giltp(1ln) = 1 · 1ln − 1ln = 0.

Satz 4.15 (Minimalpolynom) Ist µ(λ) 6≡ 0 ein Polynom vom kleinstmoglichen Grad mit µ(C) = 0,so teilt µ jedes andere Polynom p(λ) mit der Eigenschaft p(C) = 0.

Beweis. Sei p = p(λ) irgend ein Polynom mit p(C) = 0. Wenn µ das Polynom p teilt, also wenn

p(λ) = µ(λ) · q(λ)

mit einem Polynom q(λ) gilt, dann sind wir fertig. Andernfalls teilen wir p trotzdem durch µ. Dasgeht naturlich nicht: Wenn wir die aus der Schule bekannte Polynomdivision verwenden, dann bleibtein Rest r ubrig:

p(λ) = µ(λ) · q(λ) + r(λ).

Das Wesentliche dabei ist: der Rest r hat einen Grad kleiner als Grad(µ).Andererseits folgt aus p(C) = 0, dass

r(C) = p(C)− µ(C) · q(C) = 0.

Weil aber µ das Polynom kleinsten Grades sein sollte, mit der Eigenschaft µ(C) = 0, kann das nichtgut gehen. D.h., die Polynomdivision liefert keinen Rest r, sondern sie muss aufgehen.

Das Polynom µ kleinsten Grades mit der Eigenschaft µ(C) = 0 ist bis auf einen Normierungsfaktoreindeutig bestimmt. Denn ist etwa µ′ ein anderes solches Polynom, notwendig vom selben Grad wieµ, dann folgt aus Satz 4.15

µ = q · µ′,

wo q ein Polynom vom Grad Grad(µ)−Grad(µ′) = 0 ist. Also ist q eine Konstante.Diese letzte Aussage rechtfertigt die folgende Definition:

126

Page 127: Vorlesung Vektorrechnung Analytische Geometrie Laset

Definition 4.4 Sei C ∈M(k × k,K) eine quadratische Matrix. Das normierte Polynom

µC(λ) = λν + aν−1λν−1 + ... 6≡ 0

kleinsten Grades mit µC(C) = 0 heißt Minimalpolynom der Matrix C.

Aus dem Satz von Hamilton-Cayley folgt: Das Minimalpolynom µC teilt das charakteristischePolynom χC . Jede Wurzel von µC(λ) ist also auch eine Wurzel von χC(λ), d.h. ein Eigenwert. Davongilt aber auch die Umkehrung:

Satz 4.16 Jeder Eigenwert der komplexen Matriz C ist auch eine Wurzel ihres MinimalpolynomsµC(λ).

Beweis. Die Eigenwerte von C seien λ1, ..., λk. Wir gehen uber in eine Basis, in der C obereDreiecksform hat (Satz 4.11). Auf der Diagonale von C stehen dann die Eigenwerte λ1, ..., λk mitihren entsprechenden Vielfachheiten. Jede Potenz Cν ist wieder eine obere Dreiecksmatrix mit denDiagonaleintragen λν1 , ..., λ

νk. Fur jedes Polynom p(λ) =

∑aνλ

ν ist deswegen p(C) auch eine obereDreiecksmatrix mit den Diagonaleintragen∑

aνλν1 = p(λ1), ...,

∑aνλ

νk = p(λk).

Weil fur das Minimalpolynom µC gilt µC(C) = 0, mussen fur p(λ) = µC(λ) die DiagonaleintrageµC(λ1) = ... = µC(λk) = 0 sein.

Die Nullstellen von χC und µC stimmen also uberein. Der Unterschied zwische beiden Polynomenliegt nur darin, dass diese Nullstellen in χC mit einer hoheren Vielfachheit vorkommen konnen, als inµC .

Wir wollen noch etwas mehr mit Polynomen von Matrizen rumspielen. Dazu brauchen wir abernoch ein wenig mehr Informationen uber Polynome.

Satz 4.17 (Hilfssatz) Es seien p1(λ) und p2(λ) zwei komplexe Polynome ohne gemeinsame Null-stelle. Dann gibt es komplexe Polynome f1(λ) und f2(λ) mit

p1(λ) · f1(λ) + p2(λ) · f2(λ) = 1.

Beweis. O.B.d.A. habe das Polynom p2 einen Grad ≤ Grad(p1). Wenn p2 das Nullpolynom ware,musste p1 = c eine Konstante c 6= 0 sein, denn jedes Polynom von einem Grad > 0 hatte ja eineNullstelle (Fundamentalsatz der Algebra). Dann konnen wir f1 = 1/c, f2 beliebig nehmen. Das warnaturlich ein Trivialfall. Nehmen wir also jetzt an p2(λ) 6≡ 0.

Die Methode, welche wir anwenden, heißt euklidischer Algorithmus. Die Idee besteht darin, dieDivision mit Rest immer weiter zu iterieren. Also:

p1(λ) = p2(λ) · q2(λ) + p3(λ),p2(λ) = p3(λ) · q3(λ) + p4(λ),p3(λ) = p4(λ) · q4(λ) + p5(λ),

...

mitGrad(p2) > Grad(p3) > Grad(p4) > Grad(p5) > ...

127

Page 128: Vorlesung Vektorrechnung Analytische Geometrie Laset

Weil der Grad der beteiligten Polynome immer kleiner wird, kann das nicht auf Dauer gut gehen. Eswird eine harte Landung geben. Die sieht etwa so aus:

...pk−3(λ) = pk−2(λ) · qk−2(λ) + pk−1(λ)pk−2(λ) = pk−1(λ) · qk−1(λ) + pk(λ)pk−1(λ) = pk(λ) · qk(λ) + c.

Dabei ist pk(λ) noch ein echtes Polynom mit Grad(pk) > 0, aber der letzte Rest c ist ein Polynomvom Grad 0, eine Konstante.

Wenn c = 0 ware, wurde jede Nullstelle von pk auch eine von pk−1 sein. (Und wegen des F.S.d.A.hat pk eine Nullstelle.) Aus der vorletzten Zeile sieht man, dass die dann auch eine Nullstelle von pk−2

ware. Und hangelt man sich auf diese Weise Zeile fur Zeile weiter nach oben, bis in die allererste Zeileder ganzen Gleichungen, so wird diese Nullstelle von pk auch eine gemeinsame Nullstelle von p1 undp2. Widerspruch! Das beweist c 6= 0.

Setzen wir jetzt fk−1 := 1/c, fk := −qk/c, so konnen wir die letzte Zeile umschreiben in

fk−1 · pk−1 + fk · pk = 1.

Mit der vorletzten Zeile konnen wir pk raus- und pk−2 reinschmeißen. Mit einem abgeanderten Polynomfk−1 erhalten wir dann

fk−2 · pk−2 + fk−1 · pk−1 = 1.

Wieder kann man sich auf diese Weise ganz nach oben hangeln, und am Schluss steht die Behauptungda.

Obwohl das in der Praxis etwas muhsam ist, kann man diesen euklidischen Algorithmus dochkonkret anwenden. Das einfachste Beispiel dafur, das mir eingefallen und nicht ganz trivial ist, istfolgendes:

p1(λ) = λ2 + λ+ 1, p2(λ) = λ2 − 1.

Man sieht sofort, die Nullstellen ±1 von p2 sind keine Nullstellen von p1. Der euklidische Algorithmuslauft so:

λ2 + λ+ 1 = (λ2 − 1) · 1 + (λ+ 2),λ2 − 1 = (λ+ 2) · (λ− 2) + 3.

Mit c = 3 bricht der euklidische Algorithmus ab. Es folgt

1 =13

(λ2 − 1)− 13

(λ− 2) · (λ+ 2)

=13

(λ2 − 1)− 13

(λ− 2) · [(λ2 + λ+ 1)− (λ2 − 1)]

=13

(2− λ) · (λ2 + λ+ 1) +13

(λ− 1) · (λ2 − 1).

Die Formel aus vorstehendem Hilfssatz gehort in die (nicht-lineare) Algebra, mit linearer Algebrahat sie nichts zu tun. Aber mit ihr kann man zaubern. Wenden wir sie auf das charakteristischePolynom einer Matrix C an!

128

Page 129: Vorlesung Vektorrechnung Analytische Geometrie Laset

Satz 4.18 Es sei C eine komplexe n× n-Matrix, deren charakteristisches Polynom

χC(λ) = p1(λ) · p2(λ)

in zwei Faktoren p1(λ) und p2(λ) ohne gemeinsame Nullstellen zerfallt. Dann gibt es UntervektorraumeU1, U2 ⊂ Cn mit

i) U1 + U2 = Cn,ii) U1 ∩ U2 = 0,iii) u ∈ Ui ⇒ C · u ∈ Ui (i = 1, 2),iv) ist Φ : Cn → Cn die lineare Abbildung x 7→ C · x, und sind Φi := Φ|Ui : Ui → Ui, (i = 1, 2) die

Einschrankungen von Φ auf die Unterraume Ui, so gilt

p2(Φ1) = 0, p1(Φ2) = 0.

Beweis. Wir wahlen Polynome fi, i = 1, 2, wie im Hilfssatz 4.17 mit

f1(λ) · p1(λ) + f2(λ) · p2(λ) = 1.

Weiter definieren wir die Matrizen

Ci := fi(C) · pi(C), i = 1, 2,

und wahlen als Unterraume Ui ⊂ Cn die Bilder der linearen Abbildungen

Cn → Cn, x 7→ Ci · x.

Jetzt mussen wir die vier behaupteten Eigenschaften nachweisen:i) Nach Konstruktion der Polynome fi ist

C1 + C2 = f1(C) · p1(C) + f2(C) · p2(C) = 1l.

Jeder Vektor x ∈ Cn schreibt sich also

x = 1lx = C1 · x + C2 · x = u1 + u2

als Summe zweier Vektoren ui := Cix ∈ Ui, i = 1, 2.ii) Sei x ∈ U1 ∩ U2, also

x = C1 · v1 = C2 · v2

= f1(C) · p1(C) · v1 = f2(C) · p2(C) · v2

mit Vektoren v1,v2 ∈ Cn. Daraus folgt aber

p1(C) · x = p1(C) · f2(C)p2(C) · v2 = f2(C) · p1(C)p2(C) · v2 = 0,

denn nach Cayley-Hamilton istp1(C) · p2(C) = χC(C) = 0.

Genauso sieht man p2(C) · x = 0. Und wegen der Formel

x = C1 · x + C2 · x = f1(C) · p1(C)x + f2(C) · p2(C)x

129

Page 130: Vorlesung Vektorrechnung Analytische Geometrie Laset

aus dem Beweis fur i) gilt x = 0.iii) Es sei etwa

ui = fi(C)pi(C) · v ∈ Ui.

Wegen der Vertauschbarkeit von Polynomen derselben Matrix folgt

C · ui = C · fi(C)pi(C) · v = fi(C)pi(C) · Cv ∈ Ui.

iv) Jeder Vektor x ∈ U1 ist von der Form x = f1(C)p1(C) ·v, v ∈ Cn. Wegen der Vertauschbarkeitvon Polynomen der Matrix C gilt deswegen

p2(C) · x = p2(C) · f1(C)p1(C) · v = f1(C) · p1(C)p2(C) · v = f1(C) · 0 · v = 0.

Aufgabe 4.30 Verifizieren Sie den Satz von Cayley-Hamilton fur die Matrix

C =

0 1 00 0 11 0 0

.Aufgabe 4.31 Finden Sie die Unterraume Ui aus Satz 4.18 fur die Zerlegung des charakteristischenPolynoms der Matrix

C =

(0 11 0

)in seine beiden Linearfaktoren.

Aufgabe 4.32 Es sei D eine n × n-Matrix mit n verschiedenen Eigenwerten. Zeigen Sie fur jeden× n-Matrix C

C ·D = D · C ⇔ C = p(D)

mit einem Polynom p(λ).

Aufgabe 4.33 Der Matrizenraum M(2 × 2, IR) werde aufgefasst als vier-dimensionaler VektorraumIR4. Zeigen Sie fur jede Matrix C ∈ M(2 × 2, IR), dass alle ihre Potenzen 1l2, C, C2, C3, ... in einerEbene liegen.

130

Page 131: Vorlesung Vektorrechnung Analytische Geometrie Laset

4.4 Die Jordansche Normalform

Definition 4.5 Zwei Untervektorraume U1, U2 des K-Vektorraums V bilden eine Zerlegung von V ineine direkte Summe, in Zeichen:

V = U1 ⊕ U2,

wenn giltV = U1 + U2 und U1 ∩ U2 = 0.

Aquivalent hierzu ist, dass sich jeder Vektor v ∈ V eindeutig schreiben lasst als v = u1 + u2 mitu1 ∈ U1,u2 ∈ U2.

Beispiele. 1) Kn1+n2 = Kn1 ⊕Kn2

2) v1, ...,vn ∈ V bilden eine Basis von V , genau dann, wenn V = K · v1 ⊕ ...⊕K · vn.3) Die Vektorraume U1 und U2 ⊂ Cn aus Satz 4.18 bilden eine Zerlegung Cn = U1 ⊕U2 von Cn in

eine direkte Summe.

Sei Φ : V → V linear. Eine direkte Summen-Zerlegung V = U1 ⊕ ...⊕ Uk heißt Φ-invariant, wennΦ(Uj) ⊂ Uj fur j = 1, ..., k. Bei einer solchen Zerlegung kann man folgendermaßen eine Basis von Vwahlen:

v1, ...,vr1︸ ︷︷ ︸Basis von U1

,vr1+1, ...,vr1+r2︸ ︷︷ ︸Basis von U2

, ...,vn−rk+1, ...,vn︸ ︷︷ ︸Basis von Uk

.

Ist diese Zerlegung Φ-invariant, werden also die Basis-Vektoren von Uj wieder nach Uj hinein abge-bildet, dann ist die darstellende Matrix fur Φ in einer derartigen Basis von der Form

C1 0 · · · 0

0 C2...

.... . . 0

0 · · · 0 Ck

mit Matrizen Cj ∈M(rj×rj ,K), j = 1, ..., k. Eine solche Matrix, in der kleinere quadratische MatrizenCj langs der Diagonale aufgereiht sind, heißt auch direkte Summe der Matrizen C1, ..., Ck.

Dabei ist jede Matrix Cj die beschreibende Matrix fur die lineare Abbildung Φ|Uj : Uj → Uj , dieEinschrankung von Φ auf Uj , definiert durch

Φ|Uj :

Uj → Uju 7→ Φ(u)

Insbesondere ist das charakteristische Polynom der ganzen Matrix das Produkt

χC1(λ) · ... · χCk(λ)

der charakteristischen Polynome der Teilmatrizen (Kastchenregel).

Satz 4.19 (Invariante direkte Summenzerlegung) Es sei Φ : Cn → Cn eine lineare Abbildungmit charakteristischem Polynom

χΦ(λ) = (λ1 − λ)r1 · ... · (λk − λ)rk , r1 + ...+ rk = n, λ1, ..., λk ∈ C paarweise verschieden.

Dann gibt es eine Φ-invariante direkte Summenzerlegung Cn = U1 ⊕ ... ⊕ Uk so, dass dim(Uj) = rjund so, dass Φ|Uj das charakteristische Polynom (λj − λ)rj hat, j = 1, ..., k.

131

Page 132: Vorlesung Vektorrechnung Analytische Geometrie Laset

Satz 4.20 (Korollar) Jede komplexe n× n-Matrix C ist ahnlich zu einer direkten Summe von Ma-trizen C1, ..., Ck, wobei jede Matrix Cj ein charakteristisches Polynom (λj − λ)rj (nur eine einzigeNullstelle!) hat.

Beweis von Satz 4.19 (Induktion nach k). Fur den Induktionsanfang (k = 1) ist wieder einmalnichts zu zeigen.

Induktionsschluss: Sei k ≥ 2. Wir zerlegen das charakteristische Polynom χΦ(λ) in die zwei Fak-toren

p1(λ) = (λ1 − λ)r1 , p2(λ) = (λ2 − λ)r2 · ... · (λk − λ)rk .

Die beiden Faktoren p1 und p2 haben keine gemeinsame Nullstelle. Wir konnen also Satz 4.18 anwendenund finden eine direkte Summenzerlegung Cn = U1 ⊕ U2. Wegen Satz 4.18 iii) ist sie Φ-invariant.

Seien Φi, i = 1, 2 die Einschrankungen von Φ auf Ui. Das charakteristische Polynom von Φ ist also

χΦ(λ) = χΦ1(λ) · χΦ2(λ).

Nach Satz 4.18 iv) giltp1(Φ2) = (λ1id− Φ2)r1 = 0.

Das Minimalpolynom von Φ2 teilt also p1(λ) = (λ1 − λ)r1 . Wegen 4.16 kann dann auch das charakte-ristische Polynom von Φ2 nur die einzige Nullstelle λ1 haben (mit der Vielfachheit dim(U2)). Ebensosieht man, dass das charakteristische Polynom χΦ1(λ) nur die Nullstellen λ2, ..., λk hat, und keineWurzel λ1. Aus χΦ(λ) = χΦ1(λ) · χΦ2(λ) folgt dann

χΦ2(λ) = (λ1 − λ)r1 .

Wir haben eine Φ-invariante direkte Summenzerlegung Cn = U1 ⊕U2 so, dass Φ|U2 das charakteristi-sche Polynom (λ1 − λ)k1 hat. Und auf Φ|U1 wenden wir die Induktionsannahme an.

Satz 4.21 (Zusatz zu Satz 4.20 (Eindeutigkeit)) Die Unterraume Uj ⊂ Cn in der direkten Sum-men-Zerlegung aus Satz 4.20 sind durch die lineare Abbildung Φ eindeutig bestimmt.

Beweis. Nach Konstruktion ist (λj − λ)rj das charakteristische Polynom von Φ|Uj . Aus Cayley-Hamilton folgt fur jeden Vektor u ∈ Uj

(Φ− λj · id)rj (u) = 0.

Also ist Uj in Kern((Φ−λj ·id)rj ) enthalten. Ware Uj 6= Kern((Φ−λj ·id)rj ), dann wurde Kern((Φ−λj · id)rj ) die direkte Summe

U := ⊕k 6=jUkder anderen Unterraume in einem Untervektorraum 6= 0 schneiden (Dimensionsformel Satz 1.14 ii).Aber die Abbildung (Φ−λj · id)|U wird durch eine obere Dreiecksmatrix gegeben, deren Diagonalein-trage λk − λj , k 6= j alle 6= 0 sind. Deswegen ist (Φ − λj · id)|U invertierbar und keine Potenz dieserlinearen Abbildung hat einen nichttrivialen Kern. Also folgt

Uj = Kern((Φ− λj · id)rj )

und dadurch ist Uj eindeutig bestimmt.

132

Page 133: Vorlesung Vektorrechnung Analytische Geometrie Laset

Definition 4.6 Eine Matrix N (bzw. eine lineare Abbildung Φ : V → V ) heißt nilpotent, wenn eseine naturliche Zahl r gibt mit N r = 0, (bzw. Φr = 0).

Ist Φ : V → V nilpotent, so definiert jeder Vektor v ∈ V eine endliche Kette von Bildvektoren

v, Φ(v), Φ2(v), ..., Φp−1(v) 6= 0, Φp(v) = 0.

Spatestens fur p = r ist Φp(v) = 0 und wir brechen die Kette ab. (Zur Kette sollen nur die VektorenΦk(v) gehoren, welche ungleich 0 sind.)

Satz 4.22 Ist Φ : V → V eine nilpotente lineare Abbildung des endlich-dimensionalen VektorraumsV in sich, so gibt es eine Basis von V , die sich nur aus Ketten fur Φ zusammensetzt. In einer solchenBasis wird die Abbildung Φ durch eine Matrix beschrieben, welche die direkte Matrizensumme vonBlocken

0 1 0 . .. . . . .. . . 0. . 10 . . . 0

Jordanblock zum Eigenwert 0

ist.

Beweis. Wir betrachten die Untervektorraume Vk := Kern(Φk), k ≥ 0. Da Φ nilpotent ist, gibt esein p mit Φp = 0, aber Φp−1 6= 0. Diese Untervektorraume Vk, k = 0, ..., p, bilden eine Folge

0 = V0 ⊂ V1 ⊂ ... ⊂ Vp−1 ⊂ Vp = V,

und es gilt stets Φ(Vk) ⊂ Vk−1, k ≥ 2. Fur k = 1, ..., p sei rk := dim(Vk)−dim(Vk−1). Wir konstruierennun induktiv Vektoren uk1, ...,u

krk∈ Vk, k = p, p− 1, ..., 1 so, dass

(1) uk1, ...,ukrk

linear unabhangig,

(2) Vk = Vk−1 ⊕ span(uk1, ...,ukrk

),

(3) Φ(uk1) = uk−11 , ...,Φ(ukrk) = uk−1

rkfur k = 2, ..., p.

Aus (1) und (2) folgt, dass die Vektoren

up1, ...,uprp ,u

p−11 , ...,up−1

rp−1, ...,u1

1, ...,u1r1

eine Basis von V bilden. Wegen (3) besteht diese aus Ketten.Konstruktion von up1, ...,u

prp ∈ Vp = V : Wir wahlen eine Basis vp−1

1 , ...,vp−1n−rp , n = dim(V ), von

Vp−1 und erganzen diese mit up1, ...,uprp zu einer Basis von V . Dann erfullen die Vektoren up1, ...,u

prp

die Bedingungen (1) und (2).Wenn die Vektoren in uk+1

1 , ...,uk+1rk+1

∈ Vk+1 mit (1),(2) und (3) konstruiert sind, dann fahrenwir folgendermaßen fort: Es ist Kern(Φ) ⊂ Kern(Φk) = Vk ⊂ Vk+1. Wegen (2) schneidet Kern(Φ)den Vektorraum span(uk+1

1 , ...,uk+1rk+1

) nur im Nullvektor. Also ist Φ|span(uk+11 , ...,uk+1

rk+1) injektiv.

Daraus folgt, dass die Vektoren uk1 := Φ(uk+11 ), ...,ukrk+1

:= Φ(uk+1rk+1

) linear unabhangig sind. Es istVk−1 ∩ span(uk1, ...,u

krk

) = 0, denn wenn 0 6= c1uk1 + ... + crkukrk∈ Vk−1, dann ware Φk(c1uk+1

1 +

133

Page 134: Vorlesung Vektorrechnung Analytische Geometrie Laset

... + crk+1uk+1rk+1

) = 0, also c1uk+11 + ... + crk+1

uk+1rk+1

∈ Vk, im Widerspruch zu (2). Deswegen konnenwir die Vektoren uk1, ...,u

krk+1

erganzen zu einer Basis uk1, ...,ukrk+1

,ukrk+1+1, ...,ukrk

fur einen UnterraumUk ⊂ Vk mit Vk = Vk−1⊕Uk. Daraus folgt dann (1) und (2). Eigenschaft (3) ist wegen der Konstruktionder Vektoren uk1, ...,u

krk+1

ebenfalls erfullt.

Vk : uk1 ... ukrk↓ ↓ ↓

Vk−1 : uk−11 ... uk−1

rk... uk−1

rk−1

↓ ↓ ↓ ↓Vk−2 : uk−2

1 ... uk−2rk

... uk−2rk−1

...

Ist eine Kette v,Φ(v), ...,Φp(v) als Teil der Basis gewahlt, so gehort hierzu eine Blockmatrix0 0 ...1 0 ...0 1...

.... . .

.Das ist die Transponierte eines Jordan-Blocks. Kehrt man in der Basis die Reihenfolge der Vektorenin der Kette um, so wird daraus ein echter Jordan-Block.

Die in Satz 4.16 auftretenden Ketten sind i.a. nicht eindeutig bestimmt, deswegen sind auch diezur direkten Matrizensumme gehorenden Unterraume durch die lineare Abbildung i.a. nicht eindeutigbestimmt. Ihre Anzahlen und Dimensionen dagegen sind sehr wohl eindeutig bestimmt.

Satz 4.23 (Zusatz zu Satz 4.22: Eindeutigkeit) Die Großen der in Satz 4.16 auftretenden Jor-danblocke und die Anzahl der Blocke einer festen Große sind durch die Abbildung Φ eindeutig bestimmt.

Beweis. Die Folge0 = V0 ⊂ V1 ⊂ ... ⊂ Vp−1 ⊂ Vp = V

ist durch Φ eindeutig festgelegt (Vk = Kern(Φk)). Die Anzahl der Ketten der Lange p ist = dimVp.Die Anzahl der Ketten einer festen Lange l < p ist

dim(Vl)− dim(Φ(Vl−1))−Anzahl der Ketten der Lange > l

und hangt deswegen auch nur von der Abbildung Φ ab (Induktion nach p− l).

Satz 4.24 (Jordansche Normalform) Jede komplexe n × n-Matrix ist ahnlich zu einer direktenMatrix-Summe von Jordan-Blocken. Dabei sind die Anzahlen der Blocke einer festen Große zu einemfesten Eigenwert durch die Matrix eindeutig bestimmt.

Beweis. Nach Satz 4.20 ist die Matrix ahnlich zu einer direkten Matrix-Summe von Matrizen C0

mit einem charakteristischen Polynom (λ0 − λ)k. Trigonalisieren wir eine solche Matrix C0 mit Satz4.11, so sehen wir, dass C0 − λ01lk nilpotent ist. Wegen Satz 4.22 ist die Matrix C0 − λ01lk ahnlichzu einer direkten Summe von Jordan-Blocken mit Eigenwert 0. Dann ist C0 ahnlich zu einer direktenSumme von Jordan-Blocken gleicher Große zum Eigenwert λ0.

Die Eindeutigkeitsaussage folgt aus der Eindeutigkeit in Satz 4.21 und Satz 4.23.

134

Page 135: Vorlesung Vektorrechnung Analytische Geometrie Laset

Wegen des Eindeutigkeitsteils in Satz 4.24 konnen wir von der Jordanschen Normalform einerMatrix sprechen.

Beispiele. n=2: Die moglichen Jordan-Normalformen fur 2× 2-Matrizen sind(λ1 00 λ2

),

(λ 10 λ

),

(λ 00 λ

),

wo λ1 6= λ2. Um zu entscheiden, welche Jordan-Normalform eine reelle Matrix

C =

(a bc d

)

hat, berechnen wir das charakteristische Polynom

χC(λ) = (a− λ)(d− λ)− bc = δ − σλ+ λ2,

wo wir det(C) = δ und sp(C) = σ abkurzten. Die beiden Eigenwerte sind dann

λ1,2 =12

(σ ±√σ2 − 4δ),

und beide Eigenwerte fallen genau dann zusammen, wenn σ2 = 4δ. Daraus folgt: C ist ahnlich zu(λ1 00 λ2

)⇔ sp(C)2 > 4 · det(C),(

λ 00 λ

)⇔ sp(C)2 = 4 · det(C) und b = c = 0,(

λ 10 λ

)⇔ sp(C)2 = 4 · det(C) und b 6= 0 oder c 6= 0,

Wenn sp(C)2 < 4 ·det(C) ist, dann hat das charakteristische Polynom von C keine reellen Nullstellen,und die Matrix C ist reell nicht einmal trigonalisierbar.

n=3: Die moglichen Jordan-Normalformen fur 3× 3-Matrizen sind λ1 0 00 λ2 00 0 λ3

, λ1 1 0

0 λ1 00 0 λ2

, λ1 0 0

0 λ1 00 0 λ2

λ 1 0

0 λ 10 0 λ

, λ 1 0

0 λ 00 0 λ

, λ 0 0

0 λ 00 0 λ

mit λ1 6= λ2 6= λ3 6= λ1.

Die Bestimmung der Jordanschen Normalform einer gegebenen Matrix C ist nicht nur eine haufigeStaatsexamens- (und Klausur-) Aufgabe, sondern auch praktisch wichtig (z.B. bei linearen Differenti-algleichungen mit konstanten Koeffizienten). Wie geht man dabei vor? Als erstes muss man naturlichdas charakteristische Polynom der Matrix C berechnen und dann deren Eigenwerte. Will man dieTansformation in Jordansche Normalform konkret durchfuhren, braucht man als nachstes die Un-terraume Ui ⊂ Cn aus Satz 4.19. Dabei ist Ui der Kern der Matrix (λi−C)mi , wenn der Linearfaktor

135

Page 136: Vorlesung Vektorrechnung Analytische Geometrie Laset

(λi − λ) im Minimalpolynom µC mit der Vielfachheit mi vorkommt. Diese Vielfachheit kriegt manraus, indem man die Matrizenprodukte

λi1l− C, (λi1l− C)2, (λi1l− C)3, ...

ausrechnet. Deren Rang wird immer kleiner. Die Stelle, ab welcher der Rang sich nicht mehr verringert,liefert die Potenz mi.

Naturlich ist das Berechnen dieser Matrizenprodukte (von Hand) i.a. eine ziemliche Arbeit. Mansollte sich deswegen die Unterstutzung durch einen Computer sichern. Aber wenn nur die JordanscheNormalform selbst, und nicht die Koordinatentransformation dazu gefragt ist, genugt es meist denRang der Matrix λi1l − C zu bestimmen. Im Kern dieser Matrix liegt ja genau ein eindimensionalerUnterraum fur jeden Jordan-Block. Wenn diese Matrix also Rang r hat, ist n − r die Anzahl derJordan-Blocke. Weil in konkreten Aufgaben selten Matrizen mit mehr als funf Zeilen vorkommen, gibtes dann haufig nur noch eine einzige Moglichkeit fur die richtige Jordan-Normalform.

Aufgabe 4.34 (NV) a) Sei a ∈ IRn und sei f ein Endomorphismus des IRn mit fn−1(a) 6= 0 undfn(a) = 0. Man beweise, dass die Vektoren a, f(a), ..., fn−1(a) eine Basis des IRn bilden und gebe dieMatrix von f bezuglich dieser Basis an.b) Sei A ∈ IRn×n, B ∈ Rn×n, An−1 6= 0, Bn−1 6= 0, An = Bn = 0. Man beweise: Die Matrizen A undB sind ahnlich zueinander.

Aufgabe 4.35 (V) Gegeben sei eine n× n-Matrix der Form

A =

0 −a0

1. . . −a1

. . ....

1 −an−1

mit a0, a1, ..., an−1 ∈ K.i) Man zeige: Das charakteristische Polynom χ(X) = det(XEn −A) von A lautet

χ(X) = Xn + an−1Xn−1 + ...+ a1X + a0.

ii) Man zeige: Fur jeden Eigenwert λ von A hat der zugehorige Eigenraum die Dimension 1.iii) Man bestimme die Jordansche Normalform von A unter der Annahme, dass χ(X) in K[X] inLinearfaktoren zerfallt.

Aufgabe 4.36 (V) Sei 0 0 0 0 01 0 0 0 0−1 0 0 0 01 1 1 0 00 0 0 1 0

darstellende Matrix eines Endomorphismus f : IR5 → IR5 bzgl. der kanonischen Basis des IR5.a) Bestimmen Sie Basen der Eigenraume zu den Eigenwerten von f .b) Geben Sie eine Matrix M in Jordan-Normalform und eine Basis B des IR5 an, so dass M diedarstellende Matrix von f bzgl. B ist.

136

Page 137: Vorlesung Vektorrechnung Analytische Geometrie Laset

Aufgabe 4.37 (V) Es sei

A =

0 0 0 0 00 0 0 0 10 1 0 1 01 0 0 0 −10 0 0 0 0

∈M(5× 5,K).

Man berechne Ai fur i ∈ IN sowie das charakteristische Polynom und das Minimalpolynom von A, undman bestimme die Jordansche Normalform von A.

Aufgabe 4.38 (V) Gegeben sei die von einem Parameter p ∈ IR abhangige Matrix

A(p) :=

0 1 p1 0 −10 1 0

.1. Man bestimme das charakteristische Polynom von A(p).2. Man bestimme die Jordansche Normalform von A(p).3. Man bestimme das Minimalpolynom von A(p).

Aufgabe 4.39 (V) Sei

A =

−6 8 −8−4 6 −4

0 0 2

∈M(3× 3,C).

Bestimmen Siea) das Minimalpolynom von A,b) das charakteristische Polynom von A,c) die Jordansche Normalform von A.

Aufgabe 4.40 (V) Sei ϕ das Polynom (t− 1)3(t+ 1)2 ∈ C[t].a) Welche Jordanschen Normalformen treten bei komplexen 5×5-Matrizen mit dem charakteristischenPolynom ϕ auf?b) Zeigen Sie: Zwei komplexe 5 × 5-Matrizen mit dem charakteristischen Polynom ϕ sind ahnlich,wenn ihre Minimalpolynome ubereinstimmen.

Aufgabe 4.41 (V) Sei

A =

2 2 1−1 −1 −1

1 2 2

∈M(3× 3,C).

a) Bestimmen Sie die Eigenwerte und Eigenraume von A.b) Geben Sie die Jordansche Normalform von A an.c) Bestimmen Sie das Minimalpolynom von A.

137

Page 138: Vorlesung Vektorrechnung Analytische Geometrie Laset

Aufgabe 4.42 (V) a) Bestimmen Sie alle c ∈ IR, fur die

Ac =

2 −6c c0 −1 0−1

2 c 3

zu einer reellen Diagonalmatrix ahnlich ist.b) Bestimmen Sie die beiden Parameterwerte c1 und c2, fur die Ac einen zweifachen Eigenwert hat.Bestimmen Sie fur c = c1 und c = c2 die Eigenraume von Ac, und bestimmen Sie die JordanscheNormalform dieser Ac.

Aufgabe 4.43 (V) Wie sieht die Jordansche Normalform der Matrix

A =

0 1 00 0 11 −3 3

aus?

Aufgabe 4.44 (V) Es sei Pn der reelle Vektorraum aller Polynome f(t) ∈ IR[t] vom Grad ≤ n. Manbestimme die Jordansche Normalform des Endomorphismus

d

dt: PN → PN , f(t) 7→ f ′(t).

4.5 Die Hauptachsentransformation

Wir kommen noch einmal zuruck auf die Matrix

C =

(−2 1

1 −1

)

aus Abschnitt 4.2 mit ihren Eigenvektoren(2

1 +√

5

)und

(2

1−√

5

).

Diese beiden Vektoren sind nicht nur linear unabhangig, sondern wegen der Relation

4 + (1 +√

5)(1−√

5) = 0

stehen sie sogar senkrecht aufeinander. Damit hat die Matrix C gleich zwei hochst bemerkenswerteEigenschaften:

• Ihr charakteristisches Polynom hat zwei reelle Nullstellen,

138

Page 139: Vorlesung Vektorrechnung Analytische Geometrie Laset

• ihre zwei linear unabhangigen Eigenvektoren stehen aufeinander senkrecht.

Der gemeinsame Grund fur beides ist eine Eigenschaft der Matrix C, welche wir bisher bei Matrizennoch nicht beachteten: Sie ist symmetrisch!

Definition 4.7 Eine Matrix A ∈M(n× n,K) heißt symmetrisch, wenn

At = A.

Unsere 2× 2-Matrix C ist deswegen symmetrisch, weil im System der beiden gekoppelten Federndie untere Masse dieselbe Kraft auf die obere ausubt (Eintrag rechts oben), wie die obere Masse auf dieuntere (Eintrag links unten in C). Dieses fundamentale Naturprinzip ist der Grund fur die Symmetrieder Matrix C, und das hat fur uns die genannten erfreulichen Konsequenzen. Es gilt namlich allgemeinfur reelle Matrizen:

Satz 4.25 Alle Eigenwerte einer reellen symmetrischen Matrix sind reell. Das charakteristische Po-lynom einer solchen Matrix zerfallt also in reelle Linearfaktoren.

Beweis. Zunachst mussen wir davon ausgehen, dass die Eigenwerte der symmetrischen Matrix Skomplex sind, und dass zu einem solchen Eigenwert λ ∈ C auch nur ein komplexer Eigenvektor v ∈ Cn

gehort. Wir betrachten die folgende unschuldige Gleichungskette

λ · (vt · v) = (λv)t · v = (Sv)t · v = vt · St · v = vt · (Sv) = vt · Sv = vt · λv = vt · λv = λ · (vt · v).

Sie gilt, weil S reell und symmetrisch ist. Weiter benutzen wir, dass v = (vν) und dass

vt · v =n∑ν=1

|vν |2 = vt · v

reell und wegen v 6= 0 auch > 0 ist. Wir sehen:

(λ− λ) · (vt · v) = 0,

und daraus folgt, dass λ = λ reell ist.

Dieser Beweis ist kurz und teuflisch. Da es unmoglich ist, in dieser Kurze zu verstehen, was eigent-lich gespielt wird, wollen wir uns das charakteristische Polynom einer reellen symmetrischen 2 × 2-Matrix

A =

(a bb c

)einmal genauer ansehen. Das charakteristische Polynom ist

χA(λ) = λ2 − (a+ c)λ+ (ac− b2).

Die quadratische Formel liefert die Eigenwerte

λ1,2 =12

(a+ c±√

(a+ c)2 − 4(ac− b2)) ∈ IR.

139

Page 140: Vorlesung Vektorrechnung Analytische Geometrie Laset

Wegen (a+ c)2 − 4ac = (a− c)2 ist namlich der Ausdruck unter der Wurzel

(a− c)2 + 4b2

eine Summe zweier Quadrate und damit positiv. Das fur diese Argumentation wesentliche Quadratb2 steht hier nur deswegen, weil A symmetrisch ist. Wenn n > 2 ist, dann sind die Auswirkungender Nicht-Diagonal-Eintrage einer symmetrischen n× n-Matrix auf deren charakteristisches Polynomnicht mehr so einfach zu verfolgen, obwohl sich das Resultat der Uberlegung ja (nach Satz 4.25)verallgemeinert.

Mit Satz 4.25 beweisen wir jetzt ganz leicht den Satz von der ”Hauptachsentransformation“, einender wichtigsten Satze der ganzen Mathematik.

Satz 4.26 (Hauptachsentransformation fur reelle symmetrische Matrizen) Zu jeder reellensymmetrischen Matrix S gibt es eine reelle orthogonale Matrix T derart, dass T−1 · S · T eine Diago-nalmatrix ist.

Beweis. Wir beweisen die Behauptung fur n × n-Matrizen S durch Induktion nach n. Fur n = 1(Induktionsanfang) ist nichts zu zeigen. Sei also n ≥ 2.

Nach dem Fundamentalsatz der Algebra besitzt die Matrix S sicher einen Eigenwert λ1, der nachSatz 4.25 reell ist. Es gibt also einen dazu gehorigen reellen Eigenvektor v1. Wir konnen ihn o.B.d.A.als normiert annehmen. Dann erganzen wir v1 zu einer Ortho-Normalbasis v1,v′2, ...,v

′n des IRn. Die

MatrixT1 = (v1,v′2, ...,v

′n)

ist deswegen orthogonal und insbesondere invertierbar. Wir benutzen sie als Ubergangsmatrix undfinden

T−11 · S · T1 = T t1 · S · T1 (da T1 orthogonal)

=

vt1

(v′2)t...

(v′n)t

· S · (v1,v′2, ...,v′n)

=

vt1

(v′2)t...

(v′n)t

· (S · v1, S · v′2, · · · , S · v′n)

=

vt1 · λ1v1 vt1 · S · v′2 ... vt1 · S · v′n

(v′2)t · λ1v1 (v′2)t · S · v′2 ... (v′2)t · S · v′n...

......

(v′n)t · λ1v1 (v′n)t · S · v′2 · · · (v′n)t · S · v′n

=

λ1 ∗ ... ∗0... S2

0

.

140

Page 141: Vorlesung Vektorrechnung Analytische Geometrie Laset

Da S symmetrisch ist, gilt(T t1 · S · T1)t = T t1 · St · T1 = T t1 · S · T1,

diese Matrix ist also wieder symmetrisch. Die *-Eintrage in ihrer ersten Zeile sind deswegen alle= 0, und auch S2 ist wieder symmetrisch. Nach Induktionsannahme gibt es nun eine orthogonale(n− 1)× (n− 1)-Matrix T2 so, dass T−1

2 · S2 · T2 diagonal ist. Setzen wir

T :=

(1 00 T2

)· T1 ∈ O(n, IR),

so ist T−1 · S · T diagonal.

Die Spaltenvektoren der orthogonalen Matrix T sind die Vektoren der neuen Basis, in der dieMatrix S diagonalisiert ist. Da T orthogonal ist, stehen diese alle aufeinander senkrecht. Daraus folgt

Satz 4.27 (Korollar zu Satz 4.26) Zu jeder reellen symmetrischen Matrix gibt es eine Orthonor-malbasis aus Eigenvektoren.

Obwohl die Orthogonalitat der Eigenvektoren (insbesondere zu zwei verschiedenen Eigenwerten)eine Konsequenz der Hauptachsentransformation ist, wollen wir sie auch noch einmal direkt aus derSymmetrie der Matrix herleiten: Sei also S eine symmetrische relle n×n-Matrix mit zwei verschiedenenEigenwerten λ1 6= λ2 ∈ IR. Seien v1 und v2 ∈ IRn dazugehorige Eigenvektoren. Wir behaupten

(v1.v2) = vt1 · v2 = 0.

Der Beweis besteht im Wesentlichen aus der einen Zeile:

λ1 · vt1 · v2 = (S · v1)t · v2 = vt1 · St · v2 = vt1 · S · v2 = vt1 · (λ2v2) = λ2 · vt1 · v2.

Denn aus(λ1 − λ2) · (v1.v2) = 0

und λ1 6= λ2 folgt (v1.v2) = 0.

Satz 4.28 (Simultane Diagonalisierbarkeit) Fur zwei symmetrische reelle n×n-Matrizen S1 undS2 sind aquivalent:

a) Es gibt eine Orthonormalbasis des IRn, deren Vektoren Eigenvektoren gleichzeitig fur S1 und S2

sind.b) S1 · S2 = S2 · S1.

Beweis. ”a) ⇒ b)“ Ist T die Ubergangsmatrix in diese Orthonormalbasis, so sind also D1 :=T−1S1T und D2 := T−1S2T beides Diagonalmatrizen. Diese kommutieren, und daraus folgt

S1 · S2 = TD1T−1 · TD2T

−1 = T ·D1D2 · T−1 = T ·D2D1 · T−1 = TD2T−1 · TD1T

−1 = S2 · S1.

”b) ⇒ a)“ Nach dem Satz von der Hauptachsentransformation gibt es eine Orthonormalbasis desIRn aus Eigenvektoren fur S1. Die zugehorigen Eigenwerte brauchen nicht alle verschieden zu sein.

141

Page 142: Vorlesung Vektorrechnung Analytische Geometrie Laset

Seien λ1, · · · , λm die Verschiedenen unter den Eigenvektoren und Vk := v ∈ IRn : S2 · v = λk · v ⊂IRn, k = 1, ...,m, die zugehorigen Eigenraume. Es gibt also eine direkte Summenzerlegung

IRn = V1 ⊕ ...⊕ Vm

in paarweise orthogonale Eigenraume von S1.Sei v ∈ Vk. Aus b) folgt

S1 · (S2 · v) = S2 · (S1 · v) = S2 · λkv = λk · S2 · v.

In Worten: Der Vektor S2 ·v ist auch Eigenvektor von S1 zum selben Eigenwert λk, also S2 ·v ∈ Vk. Dadies fur beliebige Vektoren v ∈ Vk gilt, ist der Eigenraum Vk invariant unter der linearen Abbildung mitMatrix S2. Unsere orthogonale direkte Summen-Zerlegung ist also auch unter der linearen Abbildungv 7→ S2 · v invariant. Ist T eine Ubergangsmatrix in eine Orthonormalbasis, welche dieser Zerlegungangepasst ist, so ist T−1 · S2 · T eine entsprechende direkte Matrizensumme. Dabei sind die Kastchenin dieser Matrix symmetrisch, wahrend die Kastchen in T−1 · S1 · T Vielfache der Einheitsmatrixsind. Jetzt wenden wir den Satz von der Hauptachsentransformation auf die einzelnen Kastchen inT−1 ·S2 ·T an und erhalten Orthonormalbasen der einzelnen Eigenrame Vk aus Eigenvektoren fur S2.Die Vereinigung dieser Orthonormalbasen ist eine Orthonormalbasis des ganzen IRn aus Eigenvektorenfur S2, die gleichzeitig Eigenvektoren fur S1 sind.

Aufgabe 4.45 (NV) Gegeben sei die Matrix

S :=

0√

2 −1√2 −1

√2

−1√

2 0

.a) Zeigen Sie, dass die Matrix S den Eigenwert 1 besitzt.b) Bestimmen Sie eine Orthonormalbasis aus Eigenvektoren fur die Matrix S.

Aufgabe 4.46 (NV) Sei A eine symmetrische, reelle 3×3-Matrix, deren funfte Potenz die Einheits-matrix E ist. Man zeige A = E.

Aufgabe 4.47 (V) Man zeige, dass genau eine der beiden Matrizen

A =

1 1 11 2 01 0 10

, B =

1 2 12 1 01 0 10

das Quadrat einer reellen Matrix ist.

Aufgabe 4.48 (V) Zeigen Sie, dass die Matrix

A :=16

1 2 32 3 13 1 2

mittels einer orthogonalen Matrix S auf Diagonalform D = S−1AS gebracht werden kann, und gebenSie die Matrix D explizit an.

142

Page 143: Vorlesung Vektorrechnung Analytische Geometrie Laset

Aufgabe 4.49 (V) Uben Sie auf die Matrix

A =

−1 0 2 0

0 −1 0 22 0 −1 00 2 0 −1

∈ IR4×4

eine Hauptachsentransformation aus, d.h. bestimmen Sie eine Matrix S ∈ IR4×4, so dass StAS diago-nal ist.

143

Page 144: Vorlesung Vektorrechnung Analytische Geometrie Laset

Index

A⊥, 34C0[a, b], 85Cq(a, b), 85GL(n, IR), 79HomK(V,W ), 94K[X], 85K∗, 81Kd[X], 85M(m× n,K), 94V/U , 90V ∗, 98C, 81C∗, 791ln, 45IFp, 82IR∗, 78IR∞, 84Σn, 59ZZn, 78χC(λ), 111δµ,ν , 45∼, 90id, 39l2(C), 85l2(IR), 84sp, 111vol, 65Aquivalenzklasse, 90Aquivalenzrelation, 90, 107Ubergangsmatrix, 103ahnlich, 107

Abbildung, 39duale, 99lineare, 42

Achsenabschnittsform, 17Additivitat, 42adjungiert, 101Adjunkte, 73Anti-Kommutator, 56Assoziativitat, 84

Basis, 24, 86Invarianz der Lange, 25

Lange, 24Standard-, 24

Basis-Auswahl-Satz, 25Basis-Erganzungs-Satz, 24Basis-Satz, 24Bewegung, 39bijektiv, 39, 52Bild, 94Bildsatz, 47Bilinearitat, 32

Cauchy-Schwarz-Ungleichung, 32, 33Cayley-Hamilton, 125charakteristisches Polynom, 112Cosinus, 33Cramersche Regel, 75

Determinante, 54, 66Definition, 67Eindeutigkeit, 67Entwicklung, 73Fundamentaleigenschaften, 69Kastchenregel, 72Multiplikations-Satz, 70Normierung, 69Schiefsymmetrie, 69Streichungs-, 73und Volumen, 66Vandermondesche, 75weitere Eigenschaften, 70

Diagonalisierbarkeitsimultane, 141

Diagonalisierbarkeitskriterium, 110, 112, 114Dimension, 21, 86

des Losungsraums, 27eines linearen Unterraums, 26orthogonales Komplement, 35

Dimensionsformel, 95fur Quotientenraum, 92fur Unterraume, 26

direkte Summe, 131Distributivgesetz, 81Distributivitat, 84Drehmatrix, 45, 49, 79, 124

144

Page 145: Vorlesung Vektorrechnung Analytische Geometrie Laset

Drehstreckung, 79Drehung, 43Dreiecks-Ungleichung, 33Dualbasis, 98duale Abbildung, 99Dualraum, 98

Ebene, 20Eigenraum, 115Eigenschaft LIN, 19Eigenvektor, 110Eigenwert, 110Eigenwertgleichung, 110Einheitsmatrix, 45Einsteinsche Summenkonvention, 105elementare Zeilenumformung, 50Elementarmatrix, 50

Inverse, 52euklidischer Algorithmus, 127

Fehlstand, 61Fundamentalsatz der Algebra, 116

Gerade, 14und lineare Gleichungen, 15

GeradenDurchschnitt von, 17

Gleichunglineare, 5

Gruppe, 78allgemeine lineare, 79konforme, 79reelle orthogonale, 79symmetrische, 79

Hamilton-Cayley, 125Hauptachsentransformation, 140Hilbertraum, 84hintereinanderschalten, 39Hintereinanderschaltung, 60Homogenitat, 42Homomorphiesatz, 95Hyperebene, 40

Identitat, 39Identitat

Matrix, 45

injektiv, 39, 52invariante direkte Summenzerlegung, 132invertierbar, 51isomorph, 86Isomorphismus, 86

Jordan-Block, 114, 133Jordansche Normalform, 134

Kastchenregel, 72Korper, 81

endlicher, 82Kern, 95Kette, 133Koeffizientenmatrix, 6, 44

erweiterte, 6Kommutator, 56komplex-konjugiert, 116komplexe Zahlen, 81Komponenten, 103kontravariant, 104Koordinaten, 103Koordinatenvektoren, 24Kopplung, 109kovariant, 104Kronecker-Delta, 45

Lange, 31Langentreue, 41Lagrange-Interpolation, 96Leibniz-Formel, 67LIN, 19linear, 85, 93linear abhangig, 22linear unabhangig, 22, 86lineare Abbildung, 42, 93

Bild, 94Kern, 95Matrix, 94Rang, 94

lineare Ausdehnung, 44, 93lineare Unabhangigkeit

Test, 23, 86linearer Unterraum, 19lineares Gleichungssystem, 5

adjungiertes, 101homogenes, 9

145

Page 146: Vorlesung Vektorrechnung Analytische Geometrie Laset

Losbarkeit, 101Losbarkeitsbedingung, 20

lineares Gleichungssyteminhomogenes, 9

Linearform, 98Linearitat, 42Linearkombination, 19

Matrixahnliche, 107Addition, 48einer linearen Abbildung, 44, 94inverse, 52, 54, 74inverse 2× 2, 54invertierbare, 51Multiplikation, 48nilpotente, 124, 133Permutations-, 60quadratische, 52Rang, 55Skalarmultiplikation, 48symmetrische, 139transponierte, 55, 100

Matrizenprodukt, 48Assoziativitat, 50Distributivitat, 50

Minimalpolynom, 126, 127

nilpotent, 133Norm, 31Nullabbildung

Matrix, 45Nullraum, 19, 20

O-N-Basis, 41orthogonal, 34orthogonale Abbildung, 42orthogonale Transformation, 40orthogonale Transformation und O-N-Basis, 42orthogonale Transformation und Skalarprodukt,

41orthogonales Komplement, 34, 101Orthogonalprojektion, 36, 46

auf Hyperebene, 40Matrix, 46

orthonormal, 35Orthonormalisierung, 35

ParallelogrammFlache, 65

Parallelotop, 65Permutation, 46, 59

Fehlstand, 61Produkt, 60Vertauschung, 60zyklische, 62

Permutationsmatrix, 46, 49, 60Polynom, 85Prinzip der linearen Ausdehnung, 44Produkt

kartesisches, 85mit Elementarmatrix, 50von Drehmatrizen, 49

Produktmatrix, 46, 48Punktspiegelung, 40

Matrix, 45

quadratische Matrizen, 52Quotientenraum, 91Quotientenvektorraum, 91

Rang, 55, 94Reflexivitat, 90Regel von Sarrus, 68Relation, 90

Sarrus, 68Satz

soviele Gleichungen wie Unbekannte, 28von Cayley-Hamilton, 125von Pythagoras, 31von Pythagoras, n-dimensionaler, 34

Schiefsymmetrie, 69Schmidtsche Orthonormalisierung, 35Schwingung, 108senkrecht, 34Signum, 61Skalarprodukt, 32, 48Spaltenrang, 26, 28span, 19Spat, 65Spiegelung, 79

an Hyperebene, 40an Hyperebene, Matrix, 45

Spur, 111

146

Page 147: Vorlesung Vektorrechnung Analytische Geometrie Laset

StreckungMatrix, 45

Streichungsdeterminante, 73Struktursatz, 9Summe

direkte, 131Summenkonvention

Einsteinsche, 105surjektiv, 39, 53Symmetrie, 32, 90symmetrisch, 139System von Vektoren, 24

Testauf lineare Abhangigkeit, 23auf lineare Unabhangigkeit, 23, 86

Totalraum, 19Transformation

orthogonale, 40Transformationsverhalten

kontravariantes, 104kovariantes, 104von Matrizen, 106

Transitivitat, 90Translation, 39transponiert, 55Trigonalisierung, 117

Umkehrabbildung, 39Unter-Vektorraum, 19Untergruppe, 78Unterraum, 21

affiner, 21aufgespannter, 19linearer, 19

Untervektorraum, 89

Vektor, 13Vektorraum, 84Vertauschung, 60Vielfachheit

algebraische, 116geometrische, 116

VolumenEigenschaften, 65und Determinante, 66

Winkel, 33Winkeltreue, 41

Zahlengerade, 13Zahlenraum, 13Zeilenrang, 26, 28Zeilenstufenform, 7, 24Zeilenumformungen

elementare, 6Zyklus, 62

147