99
Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra II (Version vom 13. August 2014) Inhaltsverzeichnis § 1. Eigenwerte und Eigenvektoren ........................... 3 § 2. Diagonalisierbarkeit .................................. 8 § 3. Der Satz von Cayley-Hamilton ........................... 13 § 4. Die Jordansche Normalform ............................. 22 § 5. Das euklidische Standard-Skalarprodukt .................... 29 § 6. Allgemeine Skalarprodukte ............................. 34 § 7. Orthogonalität ...................................... 41 § 8. Orthogonale und unitäre Abbildungen ..................... 49 § 9. Dualräume und selbstadjungierte Operatoren ................. 62 § 10. Die Hauptachsentransformation .......................... 75 § 11. Faktorräume und Tensorprodukte ......................... 87

Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Embed Size (px)

Citation preview

Page 1: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Ralf Gerkmann

Mathematisches Institut der

Ludwig-Maximilians-Universität München

Lineare Algebra II

(Version vom 13. August 2014)

Inhaltsverzeichnis§ 1. Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . 3§ 2. Diagonalisierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8§ 3. Der Satz von Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . 13§ 4. Die Jordansche Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22§ 5. Das euklidische Standard-Skalarprodukt . . . . . . . . . . . . . . . . . . . . 29§ 6. Allgemeine Skalarprodukte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34§ 7. Orthogonalität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41§ 8. Orthogonale und unitäre Abbildungen . . . . . . . . . . . . . . . . . . . . . 49§ 9. Dualräume und selbstadjungierte Operatoren . . . . . . . . . . . . . . . . . 62§ 10. Die Hauptachsentransformation . . . . . . . . . . . . . . . . . . . . . . . . . . 75§ 11. Faktorräume und Tensorprodukte . . . . . . . . . . . . . . . . . . . . . . . . . 87

Page 2: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra
Page 3: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

§ 1. Eigenwerte und Eigenvektoren

Wichtige Begriffe und Sätze in diesem Abschnitt

– Eigenwerte, Eigenvektoren und Eigenräume von Endomorphismen und Matrizen– Darstellungsmatrizen von Endomorphismen, Ähnlichkeit– Grundlagen über Polynome (wichtig: die Vielfachheit einer Nullstelle)– die charakteristischen Polynome χA und χφ– Die Eigenwerte eines Endomorphismus sind genau die Nullstellen seines charakteristischen Polynoms.

Im gesamten Text bezeichnet K stets einen beliebigen Körper, solange nichts genaueres festgelegt wird.

Definition 1.1 Sei V ein K-Vektorraum und φ : V → V ein Endomorphismus von V .

(i) Ein Element λ ∈ K heißt Eigenwert von φ, wenn es ein v ∈ V mit v 6= 0V und φ(v) = λv gibt.(ii) Ein Vektor v ∈ V heißt Eigenvektor von φ, wenn v 6= 0V ist und ein λ ∈ K mit φ(v) = λv existiert.

Seien nun v ∈ V und λ ∈ K vorgegeben. Man nennt v einen Eigenvektor zum Eigenwert λ, wenn v 6= 0Vund die Gleichung φ(v) = λv erfüllt ist.

Definition 1.2 Sei V ein K-Vektorraum und φ ∈ EndK(V ). Für jedes λ ∈ K bezeichnet man dieMenge Eig(φ, λ) = {v ∈ V | φ(v) = λv} als den Eigenraum von φ zum Wert λ ∈ K. Er besteht aus demNullvektor 0V und den Eigenvektoren zum Eigenwert λ.

Aus der Linearen Algebra I ist bekannt, dass Kerne von linearen Abbildungen Untervektorräume sind. Die folgendeProposition zeigt also, dass Eig(φ, λ) für jedes λ ∈ K und jedes φ ∈ EndK(V ) ein Untervektorraum von V ist. Na-türlich kann diese Eigenschaft auch direkt nachgerechnet werden.

Proposition 1.3 Sei V ein K-Vektorraum und φ ∈ EndK(V ). Für jedes λ ∈ K ist der Eigenraumgegeben durch Eig(φ, λ) = ker(φ − λidV ). Das Element λ ist ein Eigenwert von φ genau dann, wennEig(φ, λ) 6= {0V } gilt.

Beweis: Für jeden Vektor v ∈ V gilt die Äquivalenz

v ∈ Eig(φ, λ) ⇔ φ(v) = λv ⇔ φ(v)− λv = 0V ⇔ φ(v)− λidV (v) = 0V

⇔ (φ− λidV )(v) = 0V ⇔ v ∈ ker(φ− λidV ).

Daraus folgt Eig(φ, λ) = ker(φ − λidV ). Ein Element λ ∈ K ist nach Definition Eigenwert genau dann,wenn ein v ∈ V mit v 6= 0V und φ(v) = λv existiert, also genau dann, wenn es ein Element ungleich 0V inEig(φ, λ) gibt. Weil 0V auf jeden Fall in Eig(φ, λ) liegt, ist dies wiederum äquivalent zu Eig(φ, λ) 6= {0V }.

—– 3 —–

Page 4: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Als nächstes sehen wir uns an, wie das Matrixkalkül zur Untersuchung von Eigenwerten und Eigenvektoren einge-setzt werden kann. Sei nunA ∈Mn,K eine quadratische Matrix. Wir bezeichnen v ∈ Kn als Eigenvektor vonA, wennv ein Eigenvektor der Abbildung φA : Kn → Kn, v 7→ Av ist. Ebenso sind die Eigenwerte von A nach Definition dieEigenwerte des Endomorphismus φA. Für jedes λ ∈ K definieren wir

Eig(A, λ) = Eig(φA, λ) = {v ∈ Kn | Av = λv}.

Wiederum besteht Eig(A, λ) aus den Eigenvektoren von A zum Eigenwert λ und dem Nullvektor 0Kn , und darüberhinaus gilt Eig(A, λ) = ker(A− λIn).

In der Linearen Algebra I wurde gezeigt, dass jede lineare Abbildung φ : V → W zwischen endlich-dimensionalenK-Vektorräumen V,W auf eindeutige Weise durch eine Matrix beschrieben werden kann, sobald man für V und W

Basen festgelegt hat. Ist A eine Basis von V und B eine Basis von W , dann verwenden wir die Bezeichung

MAB (φ)

für die Darstellungsmatrix von φ bezüglich der Basen A und B. Mit κA : V → Kn bezeichnen wir die Koordina-tenabbildung, die jedem Vektor v ∈ V seine A-Koordinaten zuordnet, wobei n = dimV ist. Wir erinnern an denwichtigen Zusammenhang

MAB (φ)κA(v) = κB(φ(v)).

Die Darstellungsmatrix MAB (φ) ist also dadurch gekennzeichnet, dass sie den Vektor v in A-Koordinaten entgegen-

nimmt und den Vektor φ(v) in B-Koordinaten als Ergebnis liefert.

Ist nun V = W , die Abbildung φ also ein Endomorphismus des Vektorraums von V , dann braucht man nur nocheine Basis von V , um φ zu beschreiben. Wir setzen MA(φ) = MA

A (φ) und nennen diese quadratische Matrix dieDarstellungsmatrix von φ bezüglich der Basis A.

Definition 1.4 Zwei Matrizen A,B ∈ Mn,K werden ähnlich genannt, wenn eine invertierbare MatrixT ∈ GLn(K) mit B = TAT−1 existiert.

Proposition 1.5 Sei V ein n-dimensionaler K-Vektorraum, und sei φ ∈ EndK(V ). Sind A,B ∈ Mn,K

Darstellungsmatrizen von φ bezüglich unterschiedlicher Basen von V , dann sind A und B ähnlich.

Beweis: Seien A und B Basen von V , so dass A = MA(φ) und B = MB(φ) erfüllt ist. Sei außerdemT = T AB die Matrix des Basiswechsels von A nach B, also die eindeutig bestimmte Matrix T ∈ GLn(K)

mit TκA(v) = κB(v) für alle v ∈ V . Auf Grund der Transformationsformel aus der Linearen Algebra I gilt

B = MB(φ) = MBB(φ) = T AB MAA(φ)T BA = T AB MA(φ)(T AB

)−1= TAT−1. �

Proposition 1.6 Sei V ein endlich-dimensionaler K-Vektorraum, φ ∈ EndK(V ) und A ∈ Mn,K

die Darstellungsmatrix von φ bezüglich einer beliebigen Basis A von V . Genau dann ist v ∈ V einEigenvektor von φ zu einem Eigenwert λ ∈ K, wenn der Koordinatenvektor κA(v) ein Eigenvektor vonA zum Eigenwert λ ist.

—– 4 —–

Page 5: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Beweis: Nach Definition der Darstellungsmatrix gilt AκA(v) = κA(φ(v)) für jedes v ∈ V . Sei nun λ ∈ Kvorgegeben. Ein Vektor v ist genau dann Eigenvektor von φ zum Eigenwert λ, wenn v 6= 0V und φ(v) = λv

erfüllt ist. Auf Grund der Bijektivitiät und der Linearität der Koordinatenabbildung κA gelten die Äquiva-lenzen v 6= 0V ⇔ κA(v) 6= 0Kn und

φ(v) = λv ⇔ κA(φ(v)) = κA(λv) ⇔ κA(φ(v)) = λκA(v) ⇔ AκA(v) = λκA(v).

Die letzte Gleichung zusammen mit κA(v) 6= 0Kn ist äquivalent zur Aussage, dass κA(v) ein Eigenvektorvon A zum Eigenwert λ ist.

Die Proposition zeigt insbesondere, dass die Eigenwerte von φ genau die Eigenwerte der Darstellungsmatrix A sind.

Im folgenden beschäftigen wir uns mit der Frage, wie man die Eigenwerte eines Endomorphismus findet. Dafürbenötigen wir einige Grundbegriffe und elementare Aussagen über Polynome. Wir nennen ein Polynom f ∈ K[x]

genau dann konstant, wenn f = 0K oder grad(f) = 0 gilt, wenn f also in K liegt.

Satz 1.7 (Division mit Rest)

Seien f, g ∈ K[x], wobei g nicht-konstant ist. Dann gibt es q, r ∈ K[x] mit f = qg + r, wobei r = 0K istoder zumindest grad(r) < grad(g) gilt.

Wir verzichten an dieser Stelle auf einen Beweis, weil dieser eher in die Algebra-Vorlesung gehört. Aus dem Schul-unterricht ist zumindest für K = R bekannt, dass die Polynome q und r durch Polynomdivision bestimmt werdenkönnen.

Jedem Polynom f ∈ K[x] kann durch a 7→ f(a) eine Abbildung K → K zugeordnet werden, die dadurch zu Standekommt, dass die Elemente a ∈ K in die Unbestimmte x eingesetzt werden. Man bezeichnet diese Abbildung auchals die dem Polynom f zugeordnete Polynomfunktion.

Für unendliche Körper gilt allgemein, dass verschiedene Polynome auch verschiedene Polynomfunktionen definie-ren. Für endliche Körper ist das aber nicht mehr richtig: Beispielsweise definieren die Polynome f, g ∈ F2[x] gegebendurch f = x und g = x2 dieselbe Polynomfunktion, denn es gilt

f(0) = g(0) = 0 und f(1) = g(1) = 1.

Ein Element a ∈ K wird Nullstelle von f ∈ K[x] genannt, wenn f(a) = 0K gilt. Man nennt ein Polynom g ∈ K[x]

einen Teiler von f , wenn ein h ∈ K[x] mit f = gh existiert. Ist grad(g) = 1, dann nennt man g auch einen Linearfaktordes Polynoms f . Auch die folgende Aussage ist im Grunde schon aus der Schulmathematik bekannt.

Satz 1.8 Sei f ∈ K[x] und a ∈ K. Genau dann gilt f(a) = 0K , wenn x− a ein Linearfaktor von f ist.

Beweis: Nach Satz 1.7 gibt es Polynome g, r ∈ K[x] mit f = (x − a)g + r, wobei das Polynom r wegenr = 0K oder grad(r) < grad(x − a) = 1 konstant ist. Ist nun a eine Nullstelle von f , dann gilt r = r(a) =

f(a) − (a − a)g(a) = 0K − 0K = 0K und somit f = (x − a)g. Ist umgekehrt x − a ein Linearfaktor von f ,dann gibt es ein g ∈ K[x] mit f = (x− a)g, und es folgt f(a) = (a− a)g(a) = 0K .

—– 5 —–

Page 6: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Definition 1.9 Sei f ∈ K[x] mit f 6= 0K und a ∈ K eine Nullstelle von f . Das maximale r ∈ Nmit derEigenschaft, dass (x− a)r ein Teiler von f ist, wird die Vielfachheit µ(f, a) der Nullstelle a genannt.

Nach Satz 1.7 gilt also µ(f, a) ≥ 1 für jede Nullstelle a von f . Ist f(a) 6= 0K , dann setzen wir µ(f, a) = 0. Das folgendeKriterium ist für die Bestimmung der Vielfachheit einer Nullstelle hilfreich.

Proposition 1.10 Sei f ∈ K[x] ein Polynom mit einer Zerlegung f = (x − a)rg, wobei r ∈ N0 undg(a) 6= 0K ist. Dann gilt r = µ(f, a).

Beweis: Die Gleichung f = (x−a)rg zeigt jedenfalls, dass µ(f, a) ≥ r gilt. Nehmen wir nun an, dass sogar µ(f, a) > r

gilt. Dann gibt es ein h ∈ K[x] mit f = (x− a)r+1h. Teilt man die Gleichung (x− a)rg = (x− a)r+1h durch (x− a)r,dann folgt g = (x− a)h und g(a) = (a− a)h(a) = 0K , im Widerspruch zur Voraussetzung g(a) 6= 0K . �

Sei f ∈ K[x] ein Polynom vom Grad ≥ 1. Man sagt, f zerfällt in Linearfaktoren, wenn es als Produkt von Linearfak-toren geschrieben werden kann. In ausgeschriebener Form bedeutet dies, dass Elemente c, λ1, ..., λr ∈ K existieren,so dass

f = c

r∏k=1

(x− λk) gilt.

Ein KörperK wird algebraisch abgeschlossen genannt, wenn jedes Polynom vom Grad≥ 1 inK[x] in Linearfaktorenzerfällt. In der Funktionentheorie zeigt man, dass zum Beispiel der KörperC der komplexen Zahlen diese Eigenschaftbesitzt. Dagegen istR nicht algebraisch abgeschlossen, denn das Polynom x2 +1 hat keine Nullstellen inR und kanndeshalb nach Satz 1.8 nicht in Linearfaktoren zerlegt werden. In der Algebra-Vorlesung wird aber gezeigt, dass zueinem Körper K ein algebraisch abgeschlossener Erweiterungskörper existiert. Im Fall K = R ist dies gerade derKörper C.

Nun werden wir sehen, inwiefern Polynome bei der Bestimmung der Eigenwerte einer Matrix weiterhelfen.

Definition 1.11 Für jede Matrix A ∈Mn,K nennt man

χA = (−1)n det(A− xIn) = det(xIn −A) ∈ K[x]

das charakteristische Polynom von A.

Satz 1.12 Die Eigenwerte einer Matrix A ∈ Mn,K sind genau die Nullstellen des charakteristischenPolynoms χA.

Beweis: Für jedes λ ∈ K gilt Eig(A, λ) = ker(A − λIn). Genau dann ist λ ein Eigenwert von A, wennker(A− λIn) 6= {0V } gilt (vgl. Prop. 1.3). Nach dem Dimensionssatz für lineare Abbildungen gilt weiter

dim ker(A− λIn) > 0 ⇔ rg(A− λIn) < n ⇔ det(A− λIn) = 0K ⇔ χA(λ) = 0K �

—– 6 —–

Page 7: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Definition 1.13 Ist V ein endlich-dimensionaler K-Vektorraum, φ ∈ EndK(V ) und A ∈ Mn,K dieDarstellungsmatrix von V bezüglich einer beliebig gewählen Basis, dann bezeichnen wir χφ = χA alscharakteristisches Polynom von φ.

Proposition 1.14 Das charakteristische Polynom χφ ist unabhängig von der gewählten Basis desVektorraums V .

Beweis: Sind A,B ∈Mn,K die Darstellungsmatrizen von φ bezüglich verschiedener Basen, dann sind Aund B nach Prop. 1.5 ähnlich. Es gibt also ein T ∈ GLn(K) mit B = TAT−1. Auf Grund der Multiplikati-vität der Determinantenfunktion folgt

χB = det(xIn −B) = det(T (xIn)T−1 − TAT−1) = det(T (xIn −A)T−1)

= det(T ) det(xIn −A) det(T )−1 = det(xIn −A) = χA. �

Korollar 1.15 Auch für jeden Endomorphismus φ ∈ EndK(V ) eines endlich-dimensionalen K-Vektorraums V gilt: Die Eigenwerte von φ sind genau die Nullstellen des Polynoms χφ.

Beweis: Sei A die Darstellungsmatrix von φ bezüglich einer beliebigen Basis von V . Dann gilt χφ = χAnach Definition. Auf Grund von Prop. 1.6 sind darüber hinaus die Eigenwerte von φ genau die Eigenwertevon A. Also sind die Eigenwerte von φ nach Satz 1.12 genau die Nullstellen von χA und damit auch genaudie Nullstellen von χφ.

—– 7 —–

Page 8: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

§ 2. Diagonalisierbarkeit

Wichtige Begriffe und Sätze in diesem Abschnitt

– Diagonalmatrizen– Diagonalisierbarkeit von Matrizen und Endomorphismen– algebraische und geometrische Vielfachheit eines Eigenwerts– Kriterien für die Diagonalisierbarkeit eines Endomorphismus

Definition 2.1 Sind λ1, ..., λn ∈ K, dann bezeichnen wir mit diag(λ1, ..., λn) die Matrix D = (dij) mitden Einträgen

dij =

{λk falls i = j = k

0 falls i 6= j.

Eine Matrix dieser Form wird Diagonalmatrix genannt. Man bezeichnet eine Matrix A ∈ Mn,K alsdiagonalisierbar, wenn sie ähnlich zu einer Diagonalmatrix ist.

Definition 2.2 Einen Endomorphismus φ eines endlich-dimensionalen K-Vektorraums V bezeich-net man als diagonalisierbar, wenn eine Basis von V existiert, so dass die Darstellungsmatrix von φ

bezüglich dieser Basis eine Diagonalmatrix ist.

Proposition 2.3 Sei V ein endlich-dimensionaler K-Vektorraum, φ ∈ EndK(V ) und A ∈ Mn,K dieDarstellungsmatrix von φ bezüglich einer beliebigen Basis von V . Genau dann ist A diagonalisierbar,wenn φ diagonalisierbar ist.

Beweis: Sei A eine Basis von V , so dass A = MA(φ) erfüllt ist.

„⇐“ Weil φ nach Voraussetzung diagonalisierbar ist, gibt es eine Basis B von V , so dass D = MB(φ) eineDiagonalmatrix ist. Die Matrizen A und D sind also die Darstellungsmatrizen von φ bezüglich der BasenA,B. Nach Prop. 1.5 sind A und D ähnlich, und damit ist A nach Definition diagonalisierbar.

„⇒“ Ist A diagonalisierbar, dann gibt es ein T ∈ GLn(K) mit der Eigenschaft, dass D = TAT−1 eineDiagonalmatrix ist. Für jedes v ∈ V gilt nach Definition der Darstellungsmatrix jeweils

AκA(vk) = κA(φ(v)) ⇔ T−1DTκA(vk) = κA(φ(v)) ⇔ DTκA(vk) = TκA(φ(v)).

Aus der Linearen Algebra I ist bekannt, dass T = T AB für eine geignete Basis B von V gilt. Wir erhalten

DT AB κA(v) = T AB κ

A(φ(v)) ⇔ DκB(v) = κB(φ(v))

Weil MB(φ) die eindeutig bestimmte Matrix mit MB(φ)κB(v) = κB(φ(v)) für alle v ∈ V ist, folgt MB(φ) =

D. Dies zeigt, dass φ diagonalsierbar ist.

—– 8 —–

Page 9: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Proposition 2.4 Sei V 6= {0V } ein endlich-dimensionaler K-Vektorraum und φ ∈ EndK(V ).Dann sind die folgenden Aussagen äquivalent:

(i) Der Endomorphismus φ ist diagonalisierbar.(ii) Der Vektorraum V besitzt eine Basis bestehend aus Eigenvektoren von φ.

Beweis: „(i)⇒ (ii)“ Nach Voraussetzung gibt es eine Basis A = (v1, ..., vn) von V mit der Eigenschaft,dass D = MA(φ) eine Diagonalmatrix ist, D = diag(λ1, ..., λn) mit λk ∈ K für 1 ≤ k ≤ n. Der k-teSpaltenvektor von D ist jeweils das λk-fache des k-ten Einheitsvektors ek. Es folgt

Dek = λkek ⇔ MA(φ)κA(vk) = λkκA(vk) ⇔ κA(φ(vk)) = κA(λkvk) ⇔ φ(vk) = λkvk

für 1 ≤ k ≤ n, wobei im letzten Schritt die Bijektivität von κA verwendet wurde. Als Element einer Basis istvk 6= 0V ; zusammen mit der Gleichung φ(vk) = λkvk zeigt dies, dass A aus Eigenvektoren von φ besteht.

„(ii)⇒ (i)“ Sei A = (v1, ..., vn) eine Basis von V , wobei vk jeweils ein Eigenvektor von φ zum Eigenwertλk ist, für 1 ≤ k ≤ n. Außerdem sei D = MA(φ). Dann gilt jeweils φ(vk) = λkvk, und die Rechnung ausdem vorherigen Absatz hat gezeigt, dass dies äquivalent zu Dek = λkek ist. Die k-te Spalte von D ist alsogleich λkek, für 1 ≤ k ≤ n. Daraus folgt D = diag(λ1, ..., λn), also ist D eine Diagonalmatrix und φ damitdiagonalisierbar.

Als nächstes zeigen wir, dass der Vektorraum V bezüglich eines diagonalisierbaren Endomorphismus in Eigenräumezerlegt werden kann. Die beiden folgenden Aussagen dienen zur Vorbereitung.

Proposition 2.5 Sei V ein K-Vektorraum, φ ∈ EndK(V ), und seien λ1, ..., λr verschiedene Elementevon K. Für jedes k ∈ {1, ..., r} sei vk ∈ V jeweils ein Eigenvektor zum Eigenwert λk. Dann ist das Tupel(v1, ..., vr) linear unabhängig.

Beweis: Wir führen den Beweis durch vollständige Induktion über r. Für r = 1 ist die Aussage wegenv1 6= 0V klar. Sei nun r ∈ N, und setzen wir nun die Behauptung für dieses r voraus. Es seien λ1, ..., λr+1 ∈K verschieden, und sei vk ∈ V für 1 ≤ k ≤ r+1 jeweils ein Eigenvektor zum Eigenwert λk. Zum Nachweisder linearen Unabhängigkeit seien α1, ..., αr+1 ∈ K mit der Eigenschaft

r+1∑k=1

αkvk = 0V . (2.1)

Dann liefert die Multiplikation von (2.1) mit dem Wert λr+1 einerseits

r+1∑k=1

αkλr+1vk = 0V , (2.2)

andererseits erhält man durch Anwendung von φ auf (2.1) aber auch

r+1∑k=1

αkλkvk =

r+1∑k=1

αkφ(vk) = φ

(r+1∑k=1

αkvk

)= φ(0V ) = 0V . (2.3)

—– 9 —–

Page 10: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Subtrahieren wir die Gleichungen (2.2) und (2.3) voneinander, so erhalten wir

r+1∑k=1

αkλr+1vk −r+1∑k=1

αkλkvk =

r+1∑k=1

αk(λr+1 − λk)vk = 0V .

Da das Tupel (v1, ..., vr) nach Induktionsvoraussetzung linear unabhängig sind, folgt αk(λr+1 − λk) = 0Kfür 1 ≤ k ≤ r. Wegen λr+1−λk 6= 0K folgt αk = 0K für 1 ≤ k ≤ r. Setzen wir dies wiederum in (2.1) ein, soerhalten wir αr+1vr+1 = 0V , und wegen vr+1 6= 0V folgt αr+1 = 0K . Damit ist die linearen Unabhängigkeitvon (v1, ..., vr+1) nachgewiesen.

Proposition 2.6 Sei φ ein Endomorphismus eines K-Vektorraums V , und seien λ1, ..., λr verschiedeneElemente des Körpers K. Dann gilt

Eig(φ, λk) ∩

∑6=k

Eig(φ, λ`)

= {0V } für 1 ≤ k ≤ r.

Beweis: Nehmen wir an, dass ein k ∈ {1, ..., r} und ein Vektor v 6= 0V in der angegebenen Schnittmenge.Dann gibt es Vektoren v` ∈ Eig(φ, λ`) für 1 ≤ ` ≤ r mit

vk = v =∑6=k

v` ⇔∑` 6=k

v` + (−1K)vk = 0V .

Aber wegen vk 6= 0V steht dies steht im Widerspruch zur Prop. 2.5, das Tupel bestehend aus den Vektorenv` mit v` 6= 0V linear unabhängig ist.

Mit diesen Ergebnissen erhalten wir ein neues Kriterium für die Diagonalisierbarkeit eines Endomorphismus.

Proposition 2.7 Sei V 6= {0V } endlich-dimensionaler K-Vektorraum und φ ∈ EndK(V ). Dann sinddie folgenden Aussagen äquivalent:

(i) Der Endomorphismus φ ist diagonalisierbar.(ii) Es gibt verschiedene Elemente λ1, ..., λr ∈ K, so dass

V =

r⊕`=1

Eig(φ, λ`) erfüllt ist.

Beweis: „(i)⇒ (ii)“ Nach Voraussetzung existiert eine BasisA = {v1, ..., vn} von V bestehend aus Eigen-vektoren. Seien λ1, ..., λr die verschiedenen Eigenwerte von φ. Weil alle Elemente der Basis Eigenvektorensind, gibt es für jedes k ∈ {1, ..., n} ein ` ∈ {1, ..., r} mit φ(vk) = λ`vk. Es gilt dann also vk ∈ Eig(φ, λ`).Setzen wir U =

∑r`=1 Eig(φ, λ`), dann gilt insgesamtA ⊆ U . WeilA eine Basis und U ein Untervektorraum

von V ist, stimmt V mit der Summe U ein, und nach Prop. 2.6 ist diese Summe direkt.

„(ii)⇒ (i)“ Für jedes ` ∈ {1, ..., r} sei A` eine Basis von Eig(φ, λ`). Auf Grund der direkten Summenzer-legung ist dann A =

⋃r`=1A` eine Basis von V . Jedes A` besteht aus Eigenvektoren von φ, somit auch die

Basis A. Daraus folgt die Diagonalisierbarkeit von φ.

—– 10 —–

Page 11: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Definition 2.8 Sei V ein endlich-dimensionaler K-Vektorraum, φ ein Endomorphismus von V undλ ∈ K ein Eigenwert von φ.

(i) Die Vielfachheit µ(χφ, λ) von λ als Nullstelle des Polynoms χφ bezeichnet man als algebraischeVielfachheit µa(φ, λ) des Eigenwerts λ.

(ii) Den Wert µg(φ, λ) = dim Eig(φ, λ) nennt man die geometrische Vielfachheit von λ.

In Beweisen ist es oft günstig, wenn die algebraische und geometrische Vielfachheit auch für Nicht-Eigenwerte de-finiert ist. Wenn λ ∈ K kein Eigenwert von φ ist, dann setzt man µa(φ, λ) = µg(φ, λ) = 0. Für eine quadratischeMatrix A ∈ Mn,K definiert man algebraische und geometrische Vielfachheit in jedem Fall auf analoge Weise: Mansetzt µa(A, λ) = µ(χA, λ) und µg(A, λ) = dim Eig(A, λ).

Nach Satz 1.12 ist ein Element λ ∈ K genau dann Eigenwert eines Endomorphismus φ, wenn λ eine Nullstelle vonχφ ist. Also ist µa(φ, λ) > 0 äquivalent dazu, dass es sich bei λ um einen Eigenwert handelt. Wegen Prop. 1.3 ist dieEigenschaft von λ, ein Eigenwert zu sein, auch äquivalent zu µg(φ, λ) > 0. Darüber hinaus gilt

Proposition 2.9 Sei V ein endlich-dimensionaler K-Vektorraum, φ ∈ EndK(V ) und λ ∈ K.Dann gilt µg(φ, λ) ≤ µa(φ, λ).

Beweis: Sei r = µg(φ, λ) und {v1, ..., vr} eine Basis von Eig(φ, λ). Wir ergänzen diese durch vr+1, ..., vnzu einer Basis A von V . Sei nun A = MA(φ) die Darstellungsmatrix von φ bezüglich dieser Basis. Fürjedes k ∈ {1, ..., r} gilt φ(vk) = λvk. Dies zeigt, dass die k-te Spalte von A jeweils das λ-fache des k-ten Einheitsvektors ist, insbesondere sind die unteren n − r Einträge des Spaltenvektors leer. Es gibt alsoMatrizen B ∈Mr×(n−r),K und C ∈Mn−r,K , so dass A die Blockgestalt(

λIr B

0 C

)annimmt.

Auf Grund der Determinantenformel für Blockmatrizen erhalten wir

χφ = χA = (−1)n det(A− xIn) = (−1)n det((λ− x)Ir) det(C − xIn−r)

= (−1)n(λ− x)r det(C − xIn−r).

Die Gleichung zeigt, dass λ eine mindestens r-fache Nullstelle von χφ ist. Weil die algebraische Vielfachheitdie genaue Vielfachheit der Nullstelle ist, folgt daraus µg(φ, λ) = r ≤ µa(φ, λ).

Proposition 2.10 Sei V 6= {0V } endlich-dimensionaler K-Vektorraum und φ ∈ EndK(V ). Dann sinddie folgenden Aussagen äquivalent:

(i) Der Endomorphismus φ ist diagonalisierbar.(ii) Das charakteristische Polynom χφ ∈ K[x] zerfällt in Linearfaktoren, und es gilt µa(φ, λ) =

µg(φ, λ) für jeden Eigenwert λ von φ.

—– 11 —–

Page 12: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Beweis: „(i) ⇒ (ii)“ Nach Voraussetzung gibt es eine Basis A von V , so dass die DarstellungsmatrixD = MA(φ) eine Diagonalmatrix ist. Gilt D = diag(λ1, ..., λn) mit n = dimV , dann erhalten wir

χφ = χD = (−1)n det(D − xIn) = (−1)n det diag(λ1 − x, ..., λn − x)

= (−1)nn∏k=1

(λk − x) =

n∏k=1

(x− λk).

Also zerfällt χφ in Linearfaktoren. Nehmen wir nun an, die Elemente der Basis A sind so sortiert, dassλ1, ..., λr die r verschiedenen Eigenwerte von φ sind. Dann gilt χφ =

∏rk=1(x − λk)ek , wobei jeweils ek =

µa(φ, λk) ist. Auf Grund der Produktzerlegung gilt∑rk=1 µa(φ, λk) = grad(χφ) = n. Nach Prop. 2.7 gilt

andererseits

V =

r⊕k=1

Eig(φ, λk)

und aus dieser direkten Summenzerlegung folgtr∑

k=1

µg(φ, λk) =

r∑k=1

dim Eig(φ, λk) = dimV = n.

Aus∑rk=1 µg(φ, λk) = n =

∑rk=1 µa(φ, λk) und µg(φ, λk) ≤ µa(φ, λk) für 1 ≤ k ≤ n (Prop. 2.9) folgt

schließlich µg(φ, λk) = µa(φ, λk) für alle k.

„(ii)⇒ (i)“ Seien λ1, ..., λr die verschiedenen Eigenwerte von φ. Nach Kor. 1.15 sind dies genau die Null-stellen von χφ, und weil dieses Polynom nach Voraussetzung in Linearfaktoren zerfällt, gilt

χφ =

r∏k=1

(x− λk)ek mitr∑

k=1

ek = grad(χφ) = dimV.

Nach Definition der algebraischen Vielfachheit gilt ek = µa(φ, λk) für 1 ≤ k ≤ n. Wir betrachten nunden Untervektorraum U =

∑rk=1 Eig(φ, λk). Nach Prop. 2.6 ist dies eine direkte Summe, und auf Grund

unserer Voraussetzung erhalten wir

dimV =

r∑k=1

µa(φ, λk) =

r∑k=1

µg(φ, λk) =

r∑k=1

dim Eig(φ, λk) = dimU ≤ dimV.

Aus U ⊆ V und dimU = dimV folgt U = V . Also gilt insgesamt V =⊕r

k=1 Eig(φ, λk). Nach Prop. 2.7 istφ somit diagonalisierbar.

Wir fassen das Ergebnis dieses Kapitels in einem Satz zusammen.

Satz 2.11 Sei V 6= {0V } endlich-dimensionaler K-Vektorraum und φ ∈ EndK(V ). Dann sind diefolgenden Aussagen äquivalent:

(i) Der Endomorphismus φ ist diagonalisierbar.(ii) Der Vektorraum V besitzt eine Basis bestehend aus Eigenvektoren von φ.

(iii) Es gibt verschiedene λ1, ..., λr ∈ K mit V =⊕r

k=1 Eig(φ, λk).(iv) Das charakteristische Polynom χφ zerfällt in Linearfaktoren, und es gilt µa(φ, λ) = µg(φ, λ) für

jeden Eigenwert λ von φ.

—– 12 —–

Page 13: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

§ 3. Der Satz von Cayley-Hamilton

Wichtige Begriffe und Sätze in diesem Abschnitt

– Minimalpolynom eines Vektorraum-Endomorphismus– Satz von Cayley-Hamilton– Das Minimalpolynom ist ein Teiler des charakteristischen Polynoms.– Satz über die Hauptraumzerlegung

Für den Inhalt dieses Abschnitts spielt folgende Beobachtung eine wichtige Rolle: In ein Polynom f ∈ K[x] lassensich nicht nur Elemente des Körpers K, sondern auch Endomorphismen eines beliebigen K-Vektorraums einsetzen.Ist V ein solcher Vektorraum, φ ∈ EndK(V ) und f =

∑nk=0 akx

k, dann definieren wir

f(φ) =

n∑k=0

akφk ,

wobei φ0 = idV , φ1 = φ und φk für k ≥ 2 jeweils für die k-fache Komposition φ ◦ ... ◦ φ des Endomorphismus steht.

Proposition 3.1 Sei V ein K-Vektorraum, φ ∈ EndK(V ), und seien f, g ∈ K[x]. Dann gilt (f + g)(φ) =

f(φ) + g(φ) und (fg)(φ) = f(φ) ◦ g(φ).

Beweis: Beide Gleichungen können direkt nachgerechnet werden. Wir schreiben die beiden Polynomef, g in der Form f =

∑nk=0 akx

k und g =∑nk=0 bkx

k mit n ∈ N und ak, bk ∈ K für 0 ≤ k ≤ n, wobei auchak = 0K oder bk = 0K zugelassen ist. Für die Summe gilt dann

(f + g)(φ) =

n∑k=0

(ak + bk)φk =

n∑k=0

akφk +

n∑k=0

bkφk = f(φ) + g(φ).

Zur Vereinfachung der nachfolgenden Rechnung setzen wir ak = bk = 0K für alle k > n. Das Produkt fgist dann gegeben durch(n∑k=0

akxk

)(n∑`=0

b`x`

)=

n∑k=0

n∑`=0

akb`xk+` =

2n∑m=0

( ∑k+`=m

akb`

)xm =

2n∑m=0

(m∑k=0

akbm−k

)xm.

Einsetzen von φ liefert (fg)(φ) =

2n∑m=0

(m∑k=0

akbm−k

)φm, anderseits gilt auch

f(φ) ◦ g(φ) =

(n∑k=0

akφk

)◦

(n∑`=0

b`φ`

)=

n∑k=0

n∑`=0

akb`φk+`

=

2n∑m=0

( ∑k+`=m

akb`

)φm =

2n∑m=0

(m∑k=0

akbm−k

)φm.

—– 13 —–

Page 14: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Insgesamt erhalten wir die gewünschte Gleichung (fg)(φ) = f(φ) ◦ g(φ).

Auch quadratische Matrizen können in Polynome eingesetzt werden. Man definiert A0 = In, A1 = A und bezeichnetfür k ≥ 2 mit Ak jeweils das k-fache Matrixprodukt A · ... ·A. Für jedes Polynom f =

∑nk=0 akx

k definiert man dann

f(A) =

n∑k=0

akAk.

Man beachte, dass nach Definition jeweils φf(A) = f(φA) gilt, denn für jeden Vektor v ∈ Kn ist

f(φA)(v) =

(n∑k=0

akφkA

)(v) =

n∑k=0

akφkA(v) =

n∑k=0

akAkv =

(n∑k=0

akAk

)v = f(A)v = φf(A)(v).

Aus φ(f+g)(A) = (f + g)(φA) = f(φA) + g(φA) = φf(A) + φg(A) = φf(A)+g(A) folgt (f + g)(A) = f(A) + g(A), und dieRechnung

φ(fg)(A) = (fg)(φA) = f(φA) ◦ g(φA) = φf(A) ◦ φg(A) = φf(A)g(A)

liefert entsprechend (fg)(A) = f(A)g(A) für beliebige Polynome f, g ∈ K[x]. Wir werden uns bei den folgendenAusführungen auf Polynome beschränken, aber mit Hilfe der Gleichung φf(A) = f(φA) kann jedesmal leicht nach-gewiesen werden, dass auch die jeweils analoge Aussage für Matrizen gilt.

Proposition 3.2 Sei V ein endlich-dimensionaler K-Vektorraum. Für jedes φ ∈ EndK(V ) gibt es einPolynom 0K 6= f ∈ K[x] mit f(φ) = 0EndK(V ).

Beweis: Aus der Linearen Algebra I ist bekannt, dass mit V auch EndK(V ) ein endlich-dimensionalerK-Vektorraum ist. Dies bedeutet, dass das Tupel (φ0, ..., φn) für hinreichend großes n linear abhängig ist.Es gibt also ein n ∈ N0 und Koeffizienten a0, a1, ..., an ∈ K, nicht alle gleich Null, mit

a0φ0 + a1φ

1 + ...+ anφn = 0EndK(V ).

Setzen wir f =∑nk=0 akx

k, dann gilt f(φ) = 0EndK(V ) und f 6= 0K .

Definition 3.3 Sei V ein endlich-dimensionaler K-Vektorraum und φ ∈ EndK(V ). Ist f ∈ K[x]

ein normiertes Polynom minimalen Grades mit der Eigenschaft f(φ) = 0EndK(V ), so nennt man es einMinimalpolynom von φ.

Satz 3.4 Sei V ein endlich-dimensionaler K-Vektorraum. Für jedes φ ∈ EndK(V ) gibt es genau einMinimalpolynom, das wir mit mφ bezeichnen. Ist f ∈ K[x] ein beliebiges Polynom mit f(φ) = 0EndK(V ),dann ist mφ ein Teiler von f .

—– 14 —–

Page 15: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Beweis: Zunächst beweisen wir die Existenz. Nach Prop. 3.2 gibt es jedenfalls ein Polynom f 6= 0K mitf(φ) = 0EndK(V ). Gehen wir davon aus, dass f unter allen Polynomen mit dieser Eigenschaft minimalenGrad besitzt, und ist c ∈ K der Leitkoeffizient von f , dann ist c−1f ein Minimalpolynom von φ.

Nun beweisen wir die Eindeutigkeit. Seien f, g ∈ K[x] zwei verschiedene Minimalpolynome von φ. Danngilt grad(f) = grad(g), und weil f, g beide normiert sind, hat das Polynom h = f − g 6= 0K einen kleinerenGrad als f und g. Sei c ∈ K der Leitkoeffizient von h und h = c−1h. Dann ist h normiert, und es gilt

h(φ) = c−1 (f(φ)− g(φ)) = c−1(0EndK(V ) − 0EndK(V )

)= 0EndK(V ).

Aber dies widerspricht der Minimalitätseigenschaft von f und g. Also kann es keine zwei verschiedenenMinimalpolynome geben.

Zum Beweis der letzten Aussage sei f ∈ K[x] ein Polynom mit f(φ) = 0EndK(V ). Division mit Rest liefertPolynome q, r ∈ K[x] mit f = qmφ + r, wobei entweder r = 0K oder r 6= 0K und grad(r) < grad(mφ)

gilt. Nehmen wir an, dass der zweite Fall vorliegt, und dass c ∈ K der Leitkoeffizient von r ist. Setzen wirr = c−1r = c−1(f − qmφ), dann folgt

r(φ) = c−1(f − qmφ)(φ) = c−1 (f(φ)− q(φ) ◦mφ(φ)) =

c−1(0EndK(V ) − q(φ) ◦ 0EndK(V )

)= 0EndK(V ).

Dies steht im Widerspruch zur Minimalitätseigenschaft von mφ, wodurch nur die Möglichkeit r = 0Kübrig bleibt. Es gilt also f = qmφ, damit ist mφ ein Teiler von f .

Lemma 3.5 Ordnet man jedem normierten, nicht-konstanten Polynom f = xn +

n−1∑k=0

akxk die Matrix

Af =

0 −a0

1 0 −a1

1. . .

.... . . 0 −an−2

1 −an−1

zu, dann gilt jeweils χAf = f.

Beweis: Nach Definition des charakteristischen Polynoms gilt

χAf = det

x a0

−1 x a1

−1. . .

.... . . x an−2

−1 x+ an−1

Wir berechnen diese Determinante durch Entwicklung zur n-ten Spalte. Sei k ∈ {1, ..., n}. Streichen wir inder Matrix die k-te Zeile und die n-te Spalte, hat der sich oberhalb bzw. unterhalb der weggelassenen Zeilebefindende Teil der Restmatrix die Form (

Bk 0

0 Ck

)

—– 15 —–

Page 16: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

mit den Blockmatrizen

Bk =

x

−1 x. . . . . .

−1 x

und Ck =

−1 x

−1. . .. . . x

−1

wobei Bk ∈ Mk−1,K und Ck ∈ Mn−k,K ist. Es gilt detBk = xk−1, detCk = (−1)n−k, und die Formel fürdie Determinaten von Blockmatrizen liefert den Wert (detBk)(detCk) = (−1)n−kxk−1 für die Restmatrix.Der entsprechende Summand im Laplaceschen Entwicklungssatz ist dann

(−1)n+k(−1)n−kxk−1ak−1 = ak−1xk−1

im Fall k < n und (−1)2n(−1)0xn−1(x+ an−1) = xn + an−1xn−1 im Fall k = n. Insgesamt erhalten wir also

die Determinante

xn + an−1xn−1 +

n−1∑k=1

ak−1xk−1 = xn + an−1x

n−1 +

n−2∑k=0

akxk = f �

Für den weiter unten folgenden Satz von Cayley-Hamilton benötigen wir eine weitere Klasse von Minimalpolyno-men.

Proposition 3.6 Sei V ein endlich-dimensionaler K-Vektorraum. Für jedes φ ∈ EndK(V ) und jedenVektor 0V 6= v ∈ V gibt es ein Polynom 0K 6= f ∈ K[x] mit f(φ)(v) = 0V .

Beweis: Weil V endlich-dimensional ist, muss das Tupel (φ0(v), ..., φn(v)) für hinreichend großes n linearabhängig sein. Es gibt also ein n ∈ N0 und Koeffizienten a0, a1, ..., an ∈ K, nicht alle gleich Null, mit

a0φ0(v) + a1φ

1(v) + ...+ anφn(v) = 0EndK(V ).

Setzen wir f =∑nk=0 akx

k, dann gilt f(φ)(v) = 0V und f 6= 0K wie gewünscht.

Sei V ein endlich-dimensionaler K-Vektorraum und 0 6= v ∈ 0V . Ähnlich wie in Def. 3.3 bezeichnen wir ein normier-tes Polynom f ∈ K[x] minimalen Grades mit f(φ)(v) = 0V als Minimalpolynom des Paares (φ, v).

Proposition 3.7 Sei V ein endlich-dimensionaler K-Vektorraum. Für jedes Paar (φ, v) bestehend auseinem Endomorphismus φ von V und einem Vektor v ∈ V ungleich Null gibt es genau ein Minimal-polynom, das wir mit mφ,v bezeichnen. Ist f ∈ K[x] ein beliebiges Polynom mit f(φ)(v) = 0V , dann istmφ,v ein Teiler von f . Insbesondere ist mφ,v ein Teiler von mφ.

Beweis: Die Argumentation verläuft wie im Beweis von Satz 3.4. Zunächst beweisen wir die Existenz.Nach Prop. 3.6 gibt es jedenfalls ein Polynom f 6= 0K mit f(φ)(v) = 0V . Gehen wir davon aus, dass f unterallen Polynomen mit dieser Eigenschaft minimalen Grad besitzt, und ist c ∈ K der Leitkoeffizient von f ,dann ist c−1f ein Minimalpolynom des Paares (φ, v).

—– 16 —–

Page 17: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Nun beweisen wir die Eindeutigkeit. Seien f, g ∈ K[x] zwei verschiedene Minimalpolynome von (φ, v).Dann gilt grad(f) = grad(g), und weil f, g beide normiert sind, hat das Polynom h = f − g 6= 0K einenkleineren Grad als f und g. Sei c ∈ K der Leitkoeffizient von h und h = c−1h. Dann ist h normiert, und esgilt

h(φ)(v) = c−1 (f(φ)(v)− g(φ)(v)) = c−1 (0V − 0V ) = 0V .

Aber dies widerspricht der Minimalitätseigenschaft von f und g. Also kann es keine zwei verschiedenenMinimalpolynome von (φ, v) geben.

Zum Beweis der Aussage über die Teilbarkeit sei f ∈ K[x] ein Polynom mit f(φ)(v) = 0V . Divisionmit Rest liefert Polynome q, r ∈ K[x] mit f = qmφ,v + r, wobei entweder r = 0K oder r 6= 0K undgrad(r) < grad(mφ,v) gilt. Nehmen wir an, dass der zweite Fall vorliegt, und dass c ∈ K der Leitkoeffizientvon r ist. Setzen wir r = c−1r = c−1(f − qmφ,v), dann folgt

r(φ)(v) = c−1(f − qmφ,v)(φ)(v) = c−1 (f(φ)(v)− (q(φ) ◦mφ,v(φ))(v)) =

c−1 (0V − q(φ)(0V )) = c−1 (0V − 0V ) = 0V .

Dies steht im Widerspruch zur Minimalitätseigenschaft von mφ,v , wodurch nur die Möglichkeit r = 0Kübrig bleibt. Es gilt also f = qmφ,v , damit ist mφ,v ein Teiler von f . Die letzte Behauptung schließlich folgtaus der soeben bewiesenen Aussage und mφ(φ)(v) = 0EndK(V )(v) = 0V .

Satz 3.8 (Satz von Cayley-Hamilton)

Sei V ein endlich-dimensionaler K-Vektorraum, φ ∈ EndK(V ) und χφ sein charakteristisches Polynom.Dann gilt χφ(φ) = 0EndK(V ).

Beweis: Sei v ∈ V ein beliebiger Vektor ungleich 0V . Wir setzen f = mφ,v und vk = φk−1(v) für 1 ≤ k ≤ n,wobei n = grad(f) ist. Zunächst überprüfen wir, dass das Tupel A = (v1, ..., vn) linear unabhängig ist.Wäre es linear abhängig, dann gäbe es Koeffizienten b0, ..., bn−1 ∈ K, nicht alle gleich Null, mit

n−1∑k=0

bkφk(v) =

n−1∑k=0

bkvk+1 = 0V .

Für das Polynom g =∑n−1k=0 bkx

k würde dann g(φ)(v) = 0V gelten, im Widerspruch zur Minimalitätsei-genschaft von g. Damit ist die lineare Unabhängigkeit bewiesen.

Wir ergänzen nun A durch Vektoren w1, ..., wr zu einer Basis B von V und bestimmen die Darstellungs-matrix MB(φ). Dazu schreiben wir das Polynom f in der Form f = xn +

∑n−1k=0 akx

k, außerdem seiU = 〈v1, ..., vn〉. Für 1 ≤ k < n gilt φ(vk) = φ(φk−1(v)) = φk(v) = vk+1 ∈ U , und aus

φ(vn) +

n−1∑k=0

akvk+1 = φn(v) +

n−1∑k=0

akφk(v) =

(φn +

n−1∑k=0

akφk

)(v) = f(φ)(v) = 0V

folgt φ(vn) = −∑n−1k=0 akvk+1 ∈ U . Die Rechnung zeigt, dass φ(U) ⊆ U gilt, und dass die Darstellungsma-

trix von φ|U bezüglich der Basis A genau mit der Matrix Af ∈ Mn,K aus Lemma 3.5 übereinstimmt. Diesbedeutet, dass die ersten n Spalten der Darstellungsmatrix von φ bezüglich B zusammen die Form(

Af0

)

—– 17 —–

Page 18: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

haben, wobei die Nullmatrix im unteren Teil in Mr×n,K liegt. Durch Hinzunahme geeigneter MatrizenB ∈Mn×r,K und C ∈Mr,K erhalten wir eine Darstellungsmatrix von φ bezüglich B in der Form

MB(φ) =

(Af B

0 C

).

Mit der Formel für die Determinante von Blockmatrizen und Lemma 3.5 erhalten wir χφ = χAfχC =

fχC = χCf . Nach Prop. 3.1 folgt

χφ(φ)(v) = (χC(φ) ◦ f(φ))(v) = χC(φ)(f(φ)(v)) = χC(φ)(0V ) = 0V .

Da v ∈ V \ {0V } beliebig vorgegeben war, erhalten wir χφ(φ) = 0EndK(V ) wie gewünscht.

Aus dem Satz von Cayley-Hamilton folgt mit Satz 3.4 unmittelbar, dass das Minimalpolynom mφ ein Teiler descharakteristischen Polynoms ist. Außerdem gilt

Proposition 3.9 Für jeden endlich-dimensionalen K-Vektorraum V und jedes φ ∈ EndK(V ) sind dieNullstellen von mφ genau die Eigenwerte von φ.

Beweis: Sei λ ein Eigenwert von φ und v ∈ V ein Eigenvektor zum Eigenwert λ. Dann gilt (φ−λidV )(v) =

0V . Also ist mφ,v ein Teiler von x− λ, und weil der Grad von x− λ bereits minimal ist, muss mφ,v = x− λgelten. Wegen mφ,v|mφ ist λ damit eine Nullstelle von mφ.

Sei umgekehrt λ eine Nullstelle von mφ. Dann gibt es ein f ∈ K[x] mit mφ = (x−λ)f . Es muss einen Vektorv mit f(φ)(v) 6= 0V geben, weil ansonsten f(φ) = 0EndK(V ) im Widerspruch zur Minimalität von mφ stehenwürde. Aber wegen

((φ− λidV ) ◦ f(φ))(v) = mφ(φ)(v) = 0EndK(V )(v) = 0V

liegt w = f(φ)(v) im Kern von φ− λidV . Also ist w ein Eigenvektor von φ zum Eigenwert λ.

Zwei Polynome f, g ∈ K[x] werden teilerfremd genannt, wenn es kein Polynom h ∈ K[x] vom Grad ≥ 1 gibt, dasssowohl f als auch g teilt.

Satz 3.10 (Zerlegungssatz)

Sei V ein endlich-dimensionaler K-Vektorraum und φ ∈ EndK(V ). Seien f, g ∈ K[x] teilerfremde Poly-nome mit mφ = fg. Dann gilt ker f(φ) = im g(φ), im f(φ) = ker g(φ) und

V = im f(φ)⊕ im g(φ) = ker f(φ)⊕ ker g(φ).

Beweis: Wir unterteilen den Beweis der Übersichtlichkeit halber in eine Reihe von Einzelschritten undzeigen nacheinander die Aussagen

—– 18 —–

Page 19: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

(i) ker f(φ) ∩ ker g(φ) = {0V }(ii) im f(φ) ⊆ ker g(φ) und im g(φ) ⊆ ker f(φ)

(iii) V = ker f(φ)⊕ im f(φ) = ker g(φ)⊕ im g(φ)

(iv) ker f(φ) = im g(φ) und ker g(φ) = im f(φ)

(v) V = im f(φ)⊕ im g(φ)

zu (i) Angenommen, es gibt einen Vektor v 6= 0V in ker f(φ) ∩ ker g(φ). Dann gilt f(φ)(v) = g(φ)(v) =

0V , und damit ist mφ,v nach Prop. 3.6 ein gemeinsamer Teiler von f und g. Aber dies widerspricht derTeilerfremdheit von f und g.

zu (ii) Sei w ∈ im f(φ). Dann gibt es ein v ∈ V mit f(φ)(v) = w. Es folgt

g(φ)(w) = g(φ)(f(φ)(v)) = (g(φ) ◦ f(φ))(v) = (gf)(φ)(v) =

mφ(φ)(v) = 0EndK(V )(v) = 0V ,

und damit liegt w im Kern von g(φ). Die Inklusion im g(φ) ⊆ ker f(φ) beweist man nach genau demselbenSchema, lediglich die Rollen von f und g sind hier vertauscht.

zu (iii) Aus ker f(φ)∩ker g(φ) = {0V } und im f(φ) ⊆ ker g(φ) folgt ker f(φ)∩ im f(φ) = {0V }. Die direkteSumme ker f(φ) ⊕ im f(φ) ist jedenfalls ein Untervektorraum von V . Nach dem Schnittdimensionssatzund dem Dimensionssatz für lineare Abbildungen aus der Linearen Algebra I gilt außerdem

dim ker f(φ)⊕ im f(φ) = dim ker f(φ) + dim im f(φ) = dimV.

Aus ker f(φ) ⊕ im f(φ) ⊆ V und der Gleichheit der Dimension folgt ker f(φ) ⊕ im f(φ) = V . Der Beweisder Gleichung ker g(φ)⊕ im g(φ) = V läuft wiederum genauso ab.

zu (iv) Nach (ii) gilt jedenfalls im f(φ) ⊆ ker g(φ), und daraus folgt dim im f(φ) ≤ dim ker g(φ). Wegen (i)bilden die Untervektorräume ker f(φ) und ker g(φ) eine direkte Summe, damit ist dim ker f(φ)+ker g(φ) ≤dimV . Insgesamt erhalten wir die Ungleichungskette

dimV = dim im f(φ) + dim ker f(φ) ≤ dim ker g(φ) + dim ker f(φ) ≤ dimV.

Weil Anfang und Ende der Kette übereinstimmen, muss dim im f(φ) = dim ker g(φ) gelten, und zusammenmit im f(φ) ⊆ ker g(φ) folgt daraus die Gleichheit im f(φ) = ker g(φ). Der Beweis der anderen Gleichungläuft genauso.

zu (v) Dies folgt unmittelbar aus (iii) und (iv).

Definition 3.11 Sei V ein endlich-dimensionaler K-Vektorraum, φ ∈ EndK(V ) und λ ∈ K. Dann wird

Hau(φ, λ) =

∞⋃r=0

ker((φ− λidV )r)

der Hauptraum zum Wert λ genannt.

—– 19 —–

Page 20: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Durch die folgende Proposition werden wir sehen, dass es sich bei den Haupträumen - wie bei den Eigenräumen -um Untervektorräume von V handelt. Bevor wir diese formulieren, schicken wir eine elementare Feststellung überPolynome voraus.

Lemma 3.12 Sei λ ∈ K und r ∈ N0. Dann ist jeder normierte Teiler von (x−λ)r von der Form (x−λ)m,wobei m ∈ N0 mit m ≤ r ist.

Beweis: Sei K ⊇ K ein algebraisch abgeschlossener Erweiterungskörper von K und g ∈ K[x] ein nor-mierter Teiler von f = (x − λ)r. Dann gibt es ein h ∈ K[x] mit f = gh. Weil K algebraisch abgeschlossenist, zerfällt g in K[x] in Linearfaktoren. Es gibt also Elemente λ1, ..., λm ∈ K mit g =

∏mk=1(x − λk). An-

genommen, es gilt λk 6= λ für ein k. Dann ist λk eine von λ verschiedene Nullstelle des Polynoms g, undwegen f(λ) = g(λ)h(λ) = 0Kh(λ) = 0K auch eine Nullstelle von f . Aber offensichtlich ist λ die einzigeNullstelle von f . Also gilt λk = λ für 1 ≤ k ≤ m und somit g = (x − λ)m. Aus grad(g) ≤ grad(f) folgtm ≤ r.

Proposition 3.13 Unter den Voraussetzungen von Def. 3.11 sei r = µ(mφ, λ).Dann gilt Hau(φ, λ) = ker((φ− λidV )r).

Beweis: Die Inklusion „⊇“ ist nach Definition des Hauptraums offensichtlich. Zum Beweis von „⊆“ seiv ∈ Hau(φ, λ) vorgegeben. Dann gibt es ein s ∈ N0 mit ker((φ − λidV )s), es gilt also f(φ)(v) = 0V für dasPolynom f = (x− λ)s. Nach Prop. 3.7 ist das Polynom mφ,v ein Teiler von f und nach dem Lemma damitgleich (x− λ)r1 für ein r1 ≤ s.

Andererseits ist das Polynom mφ,v nach Prop. 3.7 auch ein Teiler von mφ. Auf Grund dieser Teilerbe-ziehung gilt r1 = µ(mφ,v, λ) ≤ µ(mφ, λ) = r. Nach Definition des Polynoms mφ,v gilt darüber hinaus(φ− λidV )r1(v) = mφ,v(v) = 0V , damit erst recht (φ− λidV )r(v) = 0V und folglich v ∈ ker((φ− λidV )r).

Lemma 3.14 Sei V ein K-Vektorraum, φ ∈ EndK(V ) und f ∈ K[x].

(i) Ist g ∈ K[x] ein Teiler von f , dann gilt ker g(φ) ⊆ ker f(φ).(ii) Der Untervektorraum U = ker f(φ) ist φ-invariant, d.h. es gilt φ(U) ⊆ U .

Beweis: zu (i) Wegen g|f existiert ein h ∈ K[x] mit f = gh, und folglich gilt f(φ) = g(φ) ◦ h(φ) =

h(φ) ◦ g(φ). Sei nun v ∈ ker φ(g) vorgegeben. Dann gilt g(φ)(v) = 0V . Es folgt

f(φ)(v) = (h(φ) ◦ g(φ))(v) = h(φ)(g(φ)(v)) = h(φ)(0V ) = 0V

und somit v ∈ ker f(φ).

zu (ii) Sei v ∈ U vorgegeben; zu zeigen ist, dass auch φ(v) in U liegt. Definieren wir g = xf , dann giltg(φ) = φ ◦ f(φ) = f(φ) ◦ φ, und es folgt

f(φ)(φ(v)) = (f(φ) ◦ φ)(v) = (φ ◦ f(φ))(v) = φ(f(φ)(v)) = φ(0V ) = 0V .

Also ist auch φ(v) in U = ker f(φ) enthalten.

—– 20 —–

Page 21: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Satz 3.15 (Satz über die Hauptraumzerlegung)

Sei V ein endlich-dimensionaler K-Vektorraum und φ ∈ EndK(V ) ein Endomorphismus mit der Eigen-schaft, dass das charakteristische Polynom χφ ∈ K[x] oder das Minimalpolynom mφ in Linearfaktorenzerfällt. Dann gilt

V = Hau(φ, λ1)⊕ ...⊕Hau(φ, λr) ,

wobei λ1, ..., λr die verschiedenen Eigenwerte von φ bezeichnen.

Beweis: Wir führen den Beweis durch vollständige Induktion über die Dimension von V . Im Fall V =

{0V } ist nichts zu zeigen. Sei nun dimV > 0, und setzen wir die Aussage für alle Vektorräume kleinererDimension voraus. Mit χφ zerfällt als Teiler auch das Polynom mφ in Linearfaktoren, es gilt also

mφ =

r∏k=1

(x− λk)ek ,

wobei λ1, ..., λr ∈ K die verschiedenen Eigenwerte von φ sind. Wir betrachten nun die Zerlegung mφ = fg

mit f = (x−λ1)e1 und g =∏rk=2(x−λk)ek . Die Faktoren f und g sind teilerfremd, denn jeder gemeinsame

Teiler hat nach Lemma 3.12 die Form (x− λ1)e für ein e ≤ e1, und weil λ1 keine Nullstelle von g ist, musse = 0 gelten. Wir können also Satz 3.10 anwenden und erhalten eine direkte Summenzerlegung V = U⊕Wmit U = ker f(φ) = Hau(φ, λ1) und W = ker g(φ). Nach Lemma 3.14 sind U und W invariant unter φ.

Unser Ziel besteht darin, die Induktionsvoraussetzung auf den Endomorphismus ψ = φ|W ∈ EndK(W )

anzuwenden. Wegen

mφ(ψ) = mφ(φ)|W = 0EndK(V )|W = 0EndK(W )

ist mψ nach Satz 3.4 ein Teiler von mφ. Also zerfällt auch das Polynom mψ in Linearfaktoren. WegenEig(φ, λ1) 6= {0V } und Hau(φ, λ1) ⊇ Eig(φ, λ1) ist auch U 6= {0V } und somit dimW < dimV . Wendenwir die Induktionsvoraussetzung auf ψ = φ|W ∈ EndK(W ) an, so erhalten wir eine Zerlegung

W =

r⊕k=2

Hau(ψ, λk).

Wir zeigen, dass die Haupträume von ψ mit entsprechenden Haupträumen von φ übereinstimmen. Seidazu k ∈ {2, ..., r} vorgegeben. Aus (ψ − λkidW )ek = (φ− λkidV )ek |W folgt

Hau(ψ, λk) = ker((ψ − λkidW )ek) = ker((φ− λkidV )ek) ∩W = Hau(φ, λk) ∩W.

Weil fk = (x − λk)ek ein Teiler von g ist, ist Hau(φ, λk) = ker fk(φ) darüber hinaus in W = ker g(φ)

enthalten. Wir erhalten Hau(ψ, λk) = Hau(φ, λk) für 2 ≤ k ≤ r und damit insgesamt die gewünschteZerlegung.

—– 21 —–

Page 22: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

§ 4. Die Jordansche Normalform

Wichtige Begriffe und Sätze in diesem Abschnitt

– nilpotente Endomorphismen– Jordanketten und Jordanbasen– Beweis der Existenz von Jordanbasen bezüglich nilpotenter Endomorphismen– konkrete Berechnung von Jordanbasen– Berechnung der Jordanschen Normalform eines beliebigen Endomorphismus

Definition 4.1 Sei V ein K-Vektorraum. Einen Endomorphismus φ : V → V bezeichnet man alsnilpotent, wenn ein p ∈ N mit φp = 0EndK(V ) existiert. Ebenso bezeichnet man eine Matrix A ∈ Mn,K

als nilpotent, wenn es ein p ∈ Nmit Ap = 0Mn,Kgibt.

Definition 4.2 Sei V ein K-Vektorraum der endlichen Dimension n und φ ∈ EndK(V ) nilpotent.

(i) Eine geordnete Basis (v1, ..., vn) von V heißt Jordanbasis bezüglich φ, wenn für 1 ≤ k ≤ n jeweilsφ(vk) = vk−1 oder φ(vk) = 0V gilt, wobei wir v0 = 0V setzen.

(ii) Für jedes m ∈ Nwird ein Tupel (v1, ..., vm) von Vektoren eine Jordankette der Länge m bezüglichφ genannt, wenn φ(vk) = vk−1 für 1 ≤ k ≤ m erfüllt ist, wobei wieder v0 = 0V gesetzt wird.

Eine geordnete Basis ist also genau dann eine Jordanbasis, wenn sie aus mehreren Jordanketten zusam-mengesetzt ist.

Sei nun V ein endlich-dimensionaler K-Vektorraum, φ ∈ EndK(V ) nilpotent und p ∈ Nminimal mit φp = 0EndK(V ).

Lemma 4.3 Für 0 ≤ k ≤ p sei jeweils Vk = ker(φk).

(i) Es gilt {0V } = V0 ( V1 ( ... ( Vp−1 ( Vp = V .(ii) Für 1 ≤ k ≤ p gilt φ−1(Vk−1) = Vk.

(iii) Ist k ∈ {1, ..., p} und U ein Untervektorraum von V mit Vk ∩ U = {0V }, dann ist φ|U injektiv.

Beweis: zu (i) Wegen φ0 = idV gilt V0 = {0V }, und aus φp = 0EndK(V ) folgt φp(v) = 0V für alle v ∈ V ,also Vp = V . Sei nun k ∈ {1, ..., p}; zum Nachweis von Vk−1 ⊆ Vk sei v ∈ Vk−1 vorgegeben. Dann giltφk−1(v) = 0V , und es folgt

φk(v) = φ(φk−1(v)) = φ(0V ) = 0V ,

—– 22 —–

Page 23: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

also v ∈ Vk. Nehmen wir nun an, dass Vk−1 = Vk gilt. Wir zeigen, dass daraus Vp−1 = Vp folgen würde. DieInklusion Vp−1 ⊆ Vp haben wir bereits gezeigt. Ist umgekehrt v ∈ Vp, dann gilt φk(φp−k(v)) = φp(v) = 0V ,also φp−k(v) ∈ Vk = Vk−1. Daraus wiederum folgt φp−1(v) = φk−1(φp−k(v)) = 0V , also v ∈ Vp−1. Aber ausVp−1 = Vp = V folgt φp−1 = 0EndK(V ), was der Minimalität von p widerspricht. Also muss Vk−1 ( Vk für1 ≤ k ≤ p gelten.

zu (ii) Für jeden Vektor v ∈ V gilt die Äquivalenz

v ∈ φ−1(Vk−1) ⇔ φ(v) ∈ Vk−1 ⇔ φk(v) = φk−1(φ(v)) = 0V ⇔ v ∈ Vk.

zu (iii) Nach Definition gilt V1 = ker(φ) ⊆ Vk. Aus der Gleichung U ∩Vk = {0V } für ein k ≥ 1 folgt wegenV1 ⊆ Vk also insbesondere U ∩ ker(φ) = U ∩ V1 = {0V }.

Lemma 4.4 Es gibt Untervektorräume U1, ..., Up von V mit folgenden Eigenschaften.

(i) Für 1 ≤ k ≤ p gilt Vk = Vk−1 ⊕ Uk.(ii) Für 2 ≤ k ≤ p gilt φ(Uk) ⊆ Uk−1, und φ|Uk ist jeweils injektiv.

(iii) Es gilt V =⊕p

k=1 Uk.

Beweis: zu (i),(ii) Zunächst wählen wir Up beliebig mit der Eigenschaft, dass V = Vp = Vp−1⊕Up erfülltist. Sei nun k ∈ {2, ..., p}, und nehmen wir an, dass bereits Untervektorräume Uj für k ≤ j ≤ p konstruiertwurden, wobei jeweils Vj = Vj−1 ⊕ Uj für k ≤ j ≤ p und φ(Uj) ⊆ Uj−1 für k + 1 ≤ j ≤ p erfüllt ist. Wirbeweisen nun zunächst die Gleichung

Vk−2 ∩ φ(Uk) = {0V }.

Sei w ∈ Vk−2 ∩ φ(Uk) vorgegeben. Dann gibt es ein u ∈ Uk mit φ(u) = w. Nach Lemma 4.3 (ii) giltφ(Vk−1) = Vk−2, also gibt es ein v ∈ Vk−1 mit φ(v) = w. Aus φ(u − v) = φ(u) − φ(v) = w − w = 0V folgtu − v ∈ ker(φ) = V1 ⊆ Vk−1 und somit auch u = (u − v) + v ∈ Vk−1. Wegen Vk−1 ∩ Uk = {0V } ist nunu = 0V und w = φ(u) = φ(0V ) = 0V . Damit ist die Gleichung bewiesen.

Auf Grund der Gleichung und wegen φ(Uk) ⊆ φ(Vk) ⊆ Vk−1 und Vk−2 ⊆ Vk−1 existiert ein Unter-vektorraum W von V mit Vk−1 = Vk−2 ⊕ φ(Uk) ⊕ W . Definieren wir nun Uk−1 = φ(Uk) ⊕ W , dannsind Vk−1 = Uk−1 ⊕ Vk−2 und φ(Uk) ⊆ Uk−1 offenbar erfüllt. Für jedes k ∈ {2, ..., p} ist φ|Uk wegenVk−1 ∩ Uk = {0V } nach Lemma 4.3 (iii) auch injektiv.

zu (iii) Wir beweisen die Gleichung V` =⊕`

k=1 Uk für 0 ≤ ` ≤ p durch vollständige Induktion über `. Für` = 0 steht rechts die „leere“ Summe, hier ist die Gleichung also erfüllt. Sei nun ` ∈ {1, ..., p}, und setzenwir die Gleichung für `− 1 voraus. Aus (i) folgt dann

V` = V`−1 ⊕ U` =

(`−1⊕k=1

Uk

)⊕ U` =

⊕k=1

Uk.

—– 23 —–

Page 24: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Wegen φ(Uk+1) ⊆ Uk können wir für 1 ≤ k ≤ p−1 jeweils einen UntervektorraumWk von Uk mit Uk = φ(Uk+1)⊕Wk

wählen. Setzen wir außerdem Wp = Up, dann gilt

Up = Wp

Up−1 = φ(Wp) ⊕ Wp−1

Up−2 = φ2(Wp) ⊕ φ(Wp−1) ⊕ Wp−2

...

U2 = φp−2(Wp) ⊕ φp−3(Wp−1) ⊕ φp−4(Wp−2) · · · φ(W3) ⊕ W2

U1 = φp−1(Wp) ⊕ φp−2(Wp−1) ⊕ φp−3(Wp−2) · · · φ2(W3) ⊕ φ(W2) ⊕ W1

für 0 ≤ k ≤ p−1 also jeweils Up−k =⊕k

`=0 φk−`(Wp−`), wie man durch vollständige Induktion über k leicht beweist.

Wir definieren nun für 1 ≤ k ≤ p die Untervektorräume Zk =⊕k−1

`=0 φ`(Wk). Dies sind im Diagramm von oben die p

„vertikalen“ direkten Summen, von rechts nach links durchnummeriert. Durch Betrachtung der Indexmenge

A =

p−1⋃k=0

{(k, `) | 0 ≤ ` ≤ k} = {(k, `) | 0 ≤ ` ≤ k ≤ p− 1} =

p−1⋃`=0

{(k, `) | ` ≤ k ≤ p− 1}

erhalten wir

V =

p⊕k=1

Uk =

p−1⊕k=0

Up−k =

p−1⊕k=0

k⊕`=0

φk−`(Wp−`) =⊕

(k,`)∈A

φk−`(Wp−`)

=

p−1⊕`=0

p−1⊕k=`

φk−`(Wp−`) =

p−1⊕`=0

p−1−`⊕k=0

φk(Wp−`) =

p−1⊕k=0

p−1−k⊕`=0

φ`(Wp−k)

=

p⊕k=1

k−1⊕`=0

φ`(Wk) =

p−1⊕k=0

Zk.

Bei dieser Rechnung wurden im vierten und fünften Schritt die Gleichungen für die Menge A angewendet, im sech-sten in der inneren Summe k durch k + ` ersetzt, dann k und ` vertauscht und schließlich noch k durch p− k ersetzt.

Lemma 4.5 Für 1 ≤ k ≤ p sei jeweils rk = dimWk. Dann besitzt Zk eine Jordanbasis bestehend aus rkJordanketten der Länge k.

Beweis: Sei (v1, ..., vrk) eine Basis von Wk. Nach Definition gilt Wk ⊆ Uk, außerdem ist φ|Uk injektiv.Somit ist (φ(v1), ..., φ(vrk)) eine Basis von φ(Wk). Durch einen einfachen Induktionsbeweis zeigt man, dassallgemein

B` = (φ`(v1), ..., φ`(vrk)) für 0 ≤ ` ≤ k − 1

jeweils eine Basis von φ`(Wk) ist. Auf Grund der direkten Summenzerlegung Zk =⊕k−1

`=0 φ`(Wk) ist B =⋃k−1

`=0 B` eine Basis von Zk. Für 1 ≤ j ≤ rk ist nun

(φk−1(vj), φk−2(vj), ..., φ(vj), vj)

offenbar eine Jordankette der Länge k, wobei noch zu beachten ist, dass wegen Uk ⊆ Vk = ker(φk) jeweilsφk(vj) = 0V gilt.

Wenden wir Lemma 4.5 auf jeden der p Untervektorräume Wk von V an, so erhalten wir

—– 24 —–

Page 25: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Korollar 4.6 Zu jedem nilpotenten Endomorphismus existiert eine Jordanbasis.

Die bisherigen Resultate können auch für die Berechnung einer konkreten Jordanbasis verwendet werden. Dazu gehtman nach folgendem Schema vor.

(i) Zunächst berechnet man Basen für die Untervektorräume V1, ..., Vp.(ii) Nun bestimmt man eine Basis Bp des Vektorraums Wp = Up, indem man die Basis von Vp−1 zu einer Basis von

Vp ergänzt.(iii) Ebenso bestimmt man nacheinander für k = p− 1, p− 2, ..., 1 jeweils eine Basis Bk von Wk, indem man jeweils

eine Basis von Vk−1 ⊕ φ(Uk+1) zu einer Basis von Vk ergänzt.(iv) Jeder Vektor in Bk liefert eine Jordankette der Länge k (für 1 ≤ k ≤ p), und die Vereinigung all dieser Jordan-

ketten ergibt insgesamt eine Basis von V .

Als nächstes bemerken wir, dass die Anzahl und Längen der Jordanketten in einer Jordanbasis durch den Endomor-phismus φ eindeutig festgelegt ist.

Satz 4.7 Sei V ein endlich-dimensionaler K-Vektorraum, φ ∈ EndK(V ) und A eine Jordanbasis von Vbezüglich φ. Für jedes k ∈ N0 sei Vk = ker(φk) und dk = dimVk, und für jedes s ∈ N sei as die Anzahlder Jordanketten in A der Länge s. Dann gilt

as = 2ds − ds−1 − ds+1 für alle s ∈ N.

Beweis: Die Abbildung φ bildet sämtliche Vektoren in A, die am Anfang einer Jordankette stehen, aufNull ab. Daraus folgt d1 ≥

∑∞s=1 as. Die übrigen Vektoren werden jeweils auf ihren Vorgänger in der

jeweiligen Jordankette abgebildet; somit hat der Raum, der von den übrigen Vektoren aufgespannt wird,dieselbe Dimension wie der Bildraum. Dies zeigt, dass der Kern von φ die genaue Dimension

d1 =

∞∑s=1

as besitzt.

Dabei ist zu beachten, dass in der Summe rechts alle Summanden bis auf endlich viele gleich Null sind,da insgesamt nur endlich viele Jordanketten existieren. Die Abbildung φ2 bildet sämtliche Vektoren, die inden ersten beiden Positionen einer Jordankette stehen, auf Null ab, während sie auf dem Raum, der vonden übrigen Basisvektoren aufgespannt wird, injektiv ist. Daraus folgt

d2 = a1 +

∞∑s=2

2as.

Sei nun k ∈ N. Dasselbe Argument wie zuvor zeigt, dass der Kern von denjenigen Vektoren der Basis Aaufgespannt wird, die in den ersten k Komponenten einer Jordankette stehen, und wir erhalten

dk =

k−1∑`=1

`a` + k

∞∑`=k

a`.

—– 25 —–

Page 26: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Weiter gilt

ds − ds−1 =

(s−1∑`=1

`a` +

∞∑`=s

sa`

)−

(s−2∑`=1

`a` −∞∑

`=s−1

(s− 1)a`

)=

(s−1∑`=1

`a` −s−2∑`=1

`a`

)+

( ∞∑`=s

sa` −∞∑

`=s−1

(s− 1)a`

)= (s− 1)as−1 +

∞∑`=s

a` − (s− 1)as−1 =

∞∑`=s

a`.

und ebenso ds+1 − ds =∑∞`=s+1 a`. Insgesamt erhalten wir den Ausdruck

as =

∞∑`=s

a` −∞∑

`=s+1

a` = (ds − ds−1)− (ds+1 − ds) = 2ds − ds−1 − ds+1

für die Anzahl as der Jordanketten der Länge s.

Korollar 4.8 Sei V ein endlich-dimensionaler K-Vektorraum und φ ∈ EndK(V ) ein nilpotenter Endo-morphismus. Dann gibt es für jedes s ∈ N in jeder Jordanbasis von V bezüglich φ dieselbe Anzahl vonJordanketten der Länge s.

Beweis: Dies folgt unmittelbar aus Satz 4.7, denn die Anzahl as der Jordanketten der Länge s ist durchdie Dimensionen der Räume Vk = dim ker(φk) festgelegt, die ihrererseits nur vom Endomorphismus φ,nicht aber von der Wahl einer Basis abhängen.

Wir werden nun die soeben entwickelte Theorie für nilpotente Endomorphismen anwenden, um eine Darstellungfür beliebige Endomorphismen zu definieren.

Definition 4.9 Sei V ein endlich-dimensionaler K-Vektorraum, φ ∈ EndK(V ) und λ ∈ K. Wir be-zeichnen ein Tupel (v1, ..., vr) von Vektoren in V als Jordankette zum Eigenwert λ, wenn φ(v1) = 0Vund

φ(vk) = λvk + vk−1 für 2 ≤ k ≤ r erfüllt ist.

Eine geordnete Basis von V , die durch Aneinanderhängen von einer oder mehreren Jordanketten zu(möglicherweise verschiedenen) Eigenwerten zu Stande kommt, wird Jordanbasis von V bezüglich φ

genannt.

Sei λ ∈ K. Eine Matrix der Form λ 1

λ 1

λ 1. . . . . .

λ 1

bezeichnet man als Jordankästchen. Ist (v1, ..., vr) eine Jordankette wie in der obigen Definition und U = 〈v1, ..., vr〉,dann besitzt der Endomorphismus φ|U bezüglich der Jordankette als Basis eine Darstellungsmatrix in genau dieser

—– 26 —–

Page 27: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Form. Eine Matrix, die aus Jordankästchen entlang der Hauptdiagonalen zu Stande kommt, wird Jordanmatrix oderMatrix in Jordanscher Normalform genannt. Beispiele für solche Matrizen sind

2 1 0 0 0

0 2 0 0 0

0 0 3 1 0

0 0 0 3 1

0 0 0 0 3

oder

1 0 0 0 0 0 0

0 2 1 0 0 0 0

0 0 2 0 0 0 0

0 0 0 2 0 0 0

0 0 0 0 3 1 0

0 0 0 0 0 3 1

0 0 0 0 0 0 3

Hier besteht die erste Matrix aus zwei, die zweite aus vier Jordankästchen. Bei den Jordanmatrizen handelt es sichgenau um den Typ von Matrix, der als Darstellungsmatrix von Endomorphismen bezüglich einer Jordanbasis zuStande kommt. Wir formulieren nun das Hauptergebnis dieses Abschnitts.

Satz 4.10 Sei V ein endlich-dimensionaler K-Vektorraum und φ ∈ EndK(V ) ein Endomorphismusmit der Eigenschaft, dass sein Minimalpolynom mφ oder sein charakteristisches Polynom χφ in K[x] inLinearfaktoren zerfällt. Dann besitzt V eine Jordanbasis bezüglich φ. Für jedes s ∈ N und jedes λ ∈ Kenthält jede Jordanbasis dieselbe Anzahl von Jordanketten der Länge s zum Eigenwert λ.

Beweis: Zunächst beweisen wir die Existenzaussage. Seien λ1, ..., λr ∈ K die verschiedenen Eigenwertevon φ. Nach Satz 3.15 gibt es dann eine direkte Summenzerlegung

V =

r⊕k=1

Hau(φ, λk)

des Vektorraums V in die verschiedenen Haupträume, und für jedes k ist φk = φ|Hau(φ,λk) ein Endomor-phismus von Vk = Hau(φ, λk). Setzen wir ek = µ(mφ, λk), dann gilt jeweils Vk = ker((φ − λkidV )ek) nachProp. 3.13. Für den Endomorphismus ψk = φk − λkidVk folgt daraus ψekk = 0EndK(Vk), es handelt sich alsoum einen nilpotenten Endomorphismus des Vektorraums Vk.

Nach Kor. 4.6 besitzt Vk eine geordnete Basis Bk, die aus Jordanketten bezüglich ψk zusammengesetzt ist.Sei (v1, ..., vt) eine solche Jordankette. Dann gilt ψk(v1) = 0V und ψk(v`) = v`−1 für 2 ≤ ` ≤ t. Wegenφk = ψk + λkidVk folgt φk(v1) = λkv1 und φk(v`) = λkv` + v`−1 für 2 ≤ ` ≤ t. Also ist (v1, ..., vt) eineJordankette von φ zum Eigenwert λk. Jeder Untervektorraum Vk in unserer direkten Summenzerlegungbesitzt also eine Basis bestehend aus Jordanketten. Durch Vereinigung erhalten wir eine Basis von V , dieebenfalls aus Jordanketten zusammengesetzt ist.

Kommen wir nun zum Beweis der Eindeutigkeitsaussage. Sei k ∈ {1, ..., r}, (v1, ..., vs) eine Jordankettezum Eigenwert λk und U = 〈v1, ..., vr〉. Dann gilt offenbar (φ− λkidV )r(v`) = 0V für 1 ≤ ` ≤ s. Also ist Uim Hauptraum Hau(φ, λk) enthalten. Dies zeigt, dass die Anzahl der Jordanketten zum Eigenwert λk miteiner bestimmten Länge s mit der Anzahl der Jordanketten der Länge s des nilpotenten Endomorphismusψk aus dem letzten Absatz übereinstimmt. Nach Kor. 4.8 ist diese Anzahl nur vom Endomorphismus ψk,nicht aber von der Wahl einer Basis, abhängig.

—– 27 —–

Page 28: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Durch den Satz wird folgendes Verfahren zur Bestimmung einer Jordanbasis für einen Endomorphismus φ einesendlich-dimensionalen K-Vektorraums V mit zerfallendem charakteristischen Polynom nahegelegt.

(i) Bestimme die Eigenwerte λ1, ..., λr ∈ K von φ und für jedes k ∈ {1, ..., r} eine Basis Bk des HauptraumsHk = Hau(φ, λk).

(ii) Wende das Verfahren von Seite 25 an, um für jedes k eine Jordanbasis Jk von Hk bezüglich des nilpotentenEndomorphismus ψk = φ|Hk − λkidHk zu bestimmen.

(iii) Die Vereinigung J = J1 ∪ ... ∪ Jr ist dann eine Jordanbasis von V bezüglich φ.

Korollar 4.11 Sei V ein endlich-dimensionaler K-Vektorraum und φ ein Endomorphismus von V ,dessen charakteristisches Polynom in Linearfaktoren zerfällt. Dann gilt µa(φ, λ) = dim Hau(φ, λ) fürjeden Eigenwert λ von φ.

Beweis: Seien λ1, ..., λr ∈ K die Eigenwerte von φ, und für jedes k ∈ {1, ..., r} sei Jk jeweils eine Jordan-basis von φk = φ|Hau(φ,λk). Setzen wir J = J1 ∪ ... ∪ Jr, dann besteht die Darstellungsmatrix A =MJ (φ)

aus den BlockmatrizenAk = MJk(φk)

entlang der Hauptdiagonalen. Die MatrizenAk sind jeweils obere Dreiecksmatrizen mit dem Eigenwert λkauf der Hauptdiagonalen. Jedes λk kommt also genau dk-mal auf der Hauptdiagonalen von A vor, wobeidk = dim Hau(φ, λk) ist. Dies zeigt, dass die algebraische Vielfachheit µa(φ, λk) von λk jeweils mit derDimension dk übereinstimmt.

—– 28 —–

Page 29: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

§ 5. Das euklidische Standard-Skalarprodukt

Wichtige Begriffe und Sätze in diesem Abschnitt

– euklidische Länge eines Vektors v ∈ Rn

– Orthogonalitätsrelation– Winkel zwischen zwei Vektoren– Herleitung der Definitionen aus geometrisch motivierten Eigenschaften

Unser Ziel in diesem Abschnitt besteht darin, durch elementar-geometrische Überlegungen eine möglicht natürliche,also durch die Anschauung begründete Definition für die Länge eines Vektors v ∈ Rn und den Winkel zwischen zweiVektoren v, w ∈ Rn mit v, w 6= 0Rn anzugeben. Zunächst überlegen wir uns, welche Bedingungen eine Längenfunk-tion Rn → R+, v 7→ ‖v‖ erfüllen sollte.

(L1) Für die Einheitsvektoren e1, ..., en ∈ Rn gilt jeweils ‖ei‖ = 1 (1 ≤ i ≤ n).

(L2) Für alle v ∈ Rn gilt ‖v‖ = 0 genau dann, wenn v = 0 ist.

(L3) Skalieren wir einen Vektor v mit einer reellen Zahl λ, dann ändert sich die Länge um den Faktor |λ|. Es gilt also‖λv‖ = |λ|‖v‖ für alle λ ∈ R und v ∈ Rn.

(L4) Es gilt die sog. Dreiecksungleichung ‖v + w‖ ≤ ‖v‖+ ‖w‖ für alle v, w ∈ Rn.

Zugleich überlegen wir, welche Eigenschaften eine Relation⊥ aufRn besitzen sollte, die angibt, ob zwei vorgegebeneVektoren v, w ∈ Rn orthogonal (also senkrecht) aufeinander stehen. Hier scheinen die folgenden Eigenschaften durchdie Anschauung begründet zu sein.

(O1) Es gilt ei ⊥ ej für 1 ≤ i < j < n. Die Einheitsvektoren stehen also senkrecht aufeinander.

(O2) Die Relation ⊥ ist symmetrisch, d.h. für alle v, w ∈ Rn gilt die Äquivalenz v ⊥ w ⇔ w ⊥ v.

(O3) Sind u, v, w ∈ Rn mit u ⊥ v und u ⊥ w, dann folgt u ⊥ (v + w).

(O4) Sind v, w ∈ Rn mit v ⊥ w, dann gilt v ⊥ (λw) für alle λ ∈ R.

Aus (O4) folgt insbesondere, dass der Nullvektor 0Rn auf allen Vektoren desRn senkrecht steht. Zum Schluss formu-lieren wir noch eine Bedingung, die sowohl die Längenfunktion ‖·‖ als auch die Relation⊥ betrifft: Für alle v, w ∈ Rngelte die Äquivalenz

(Satz des Pythagoras) v ⊥ w ⇔ ‖v + w‖2 = ‖v‖2 + ‖w‖2

Wir werden nun sehen, dass alle diese Bedingungen nur für eine mögliche Längenfunktion und eine Relation⊥ gültigsind.

—– 29 —–

Page 30: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Lemma 5.1 Sei⊥ eine Relation aufRn, die (O1) bis (O4) erfüllt. Für 0 ≤ k < n sei jeweils der UnterraumUk von Rn jeweils gegeben durch

Uk = 〈e1, ..., ek〉R = Rk × {0}n−k.

Dann gilt für k < r ≤ n jeweils er ⊥ w für alle w ∈ Uk.

Beweis: Wir beweisen die Aussage durch vollständige Induktion über k. Im Fall k = 0 ist Uk = {0Rn}und er ⊥ 0Rn erfüllt. Sei nun die Aussage für k bewiesen, r > k + 1 und w ∈ Uk+1. Dann besitzt w eineDarstellung als Linearkombination der Form w = u + λk+1ek+1 mit u =

∑ki=1 λkek. Es gilt u ∈ Uk und

damit nach Induktionsvoraussetzung er ⊥ u. Außerdem ist nach Bedingung (O2) er ⊥ ek+1 erfüllt, damitauch er ⊥ λk+1ek+1 nach (O4) und schließlich er ⊥ (u+ λk+1ek+1)⇔ er ⊥ w nach (O3).

Satz 5.2 Für alle v ∈ Rn, v = (v1, ..., vn) gilt ‖v‖2 =

n∑k=1

v2k.

Beweis: Wir beweisen für 0 ≤ k ≤ n durch vollständige Induktion jeweils die Gleichung

‖v‖2 =

k∑i=1

λ2i für v =

k∑i=1

λiei.

Im Fall k = 0 ist v = 0Rn somit ‖v‖ = 0 nach (L2). Sei nun die Aussage für k bewiesen und v =∑k+1i=1 λiei.

Dann zerlegen wir v = u + w in die Vektoren u =∑ki=1 λiei und w = λk+1ek+1. Nach Induktionsvoraus-

setzung gilt ‖u‖2 =∑ki=1 λ

2i . Definieren wir Uk = 〈e1, ..., ek〉R, dann steht ek+1 nach Lemma 5.1 senkrecht

auf U , und nach (O4) folgt u ⊥ w. Außerdem gilt ‖w‖2 = ‖λk+1ek+1‖2 = λ2k+1 nach (L1) und (L3). Mit dem

Satz des Pythagoras erhalten wir

‖v‖2 = ‖u‖2 + ‖w‖2 =

k∑i=1

λ2i + λ2

k+1 =

k+1∑i=1

λ2i .

Ist nun v ∈ Rn, v = (v1, ..., vn), dann gilt v =∑ni=1 viei und damit ‖v‖2 =

∑ni=1 v

2i .

Gehen wir also davon aus, dass eine Längenfunktion ‖ · ‖ die Bedingungen (L1) bis (L4) und eine Orthogonalitätsre-lation ⊥ die Bedingungen (O1) bis (O4) erfüllen und außerdem der Satz des Pythagoras gelten muss, dann bleibt unsnichts anderes übrig, als die Länge ‖v‖ eines Vektors v = (v1, ..., vn) ∈ Rn durch

‖v‖ =

√√√√ n∑k=1

v2k zu definieren.

Der nächste Satz zeigt, dass es auch für die Definition der Orthogonalitäts-Relation ⊥ nur eine Möglichkeit gibt.

—– 30 —–

Page 31: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Satz 5.3 Seien v, w ∈ Rn mit v = (v1, ..., vn) und w = (w1, ..., wn). Unter den oben aufgezähltenVoraussetzungen an die Funktion ‖ · ‖ und die Relation ⊥ gilt dann

v ⊥ w ⇔n∑k=1

vkwk = 0.

Beweis: Nach dem Satz des Pythagoras gilt v ⊥ w genau dann, wenn ‖v + w‖2 = ‖v‖2 + ‖w‖2 erfüllt ist.Auf Grund der bereits gefundenen Formel für die Längenfunktion ist das wiederum äquivalent zu

n∑k=1

(vk + wk)2 =

n∑k=1

v2k +

n∑k=1

w2k ⇔

n∑k=1

(v2k + 2vkwk + w2

k) =

n∑k=1

v2k +

n∑k=1

w2k ⇔

n∑k=1

vkwk = 0.

Definition 5.4 Das euklidische Standard-Skalarprodukt zweier Vektoren v, w ∈ Rn, v = (v1, ..., vn)

und w = (w1, ..., wn) ist gegeben durch

〈v, w〉 =

n∑k=1

vkwk.

Wir sagen, die Vektoren v und w stehen senkrecht aufeinander und schreiben v ⊥ w, wenn 〈v, w〉 = 0

gilt. Die euklidische Länge des Vektors v ∈ Rn ist gegeben durch ‖v‖ =√〈v, v〉.

Trotz ähnlicher Schreibweise hat das euklische Skalarprodukt 〈v, w〉 nichts mit dem von {v, w} aufgespannten Unter-vektorraum zu tun. Um Verwechselungen auszuschließen, werden wir für den erzeugten Untervektorraum von nunan nur noch die Schreibweise

〈v, w〉R = {λv + µw | λ, µ ∈ R}

mit dem Symbol R im Index verwenden.

Proposition 5.5 Das euklidische Standard-Skalarprodukt erfüllt für alle v, v′, w, w′ und λ ∈ R diefolgenden Rechenregeln.

(i) 〈v + v′, w〉 = 〈v, w〉+ 〈v′, w〉 (iv) 〈v, w〉 = 〈w, v〉(ii) 〈v, w + w′〉 = 〈v, w〉+ 〈v, w′〉 (v) 〈v, v〉 > 0 falls v 6= 0Rn

(iii) 〈λv,w〉 = 〈v, λw〉 = λ〈v, w〉

Beweis: Sämtliche Gleichungen beweist man durch Einsetzen der Definition und einfaches Nachrechnen.Wir führen dies hier exemplarisch für die Gleichung (i) durch und überlassen die anderen Teile dem Leserals Übung. Seien also v, v′, w ∈ Rn vorgegeben, mit v = (v1, ..., vn), v′ = (v′1, ..., v

′n) und w = (w1, ..., wn).

Dann gilt v + v′ = (v1 + v′1, ..., vn + v′n) und somit

〈v + v′, w〉 =

n∑k=1

(vk + v′k)wk =

n∑k=1

vkwk +

n∑k=1

v′kwk = 〈v, w〉+ 〈v′, w〉.

—– 31 —–

Page 32: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Man überprüft unmittelbar, dass die zu Anfang aufgezählten Bedingungen (L1) bis (L3) für die euklidische Längeund die Bedingungen (O1) bis (O4) von der in Def. 5.4 angegebenen Relation ⊥ erfüllt werden. Auch der Beweis desSatzes von Pythagoras ist auf Grund der bereits bewiesenen Rechenrgeln für das euklidische Skalarprodukt reineRoutine: Sind v, w ∈ Rn vorgegeben, dann gilt

‖v + w‖2 = 〈v + w, v + w〉 = 〈v + w, v〉+ 〈v + w,w〉 =

〈v, v〉+ 〈w, v〉+ 〈v, w〉+ 〈w,w〉 = ‖v‖2 + 2〈v, w〉+ ‖w‖2.

Also ist ‖v + w‖2 = ‖v‖2 + ‖w‖2 genau dann erfüllt, wenn 〈v, w〉 = 0 ist, und dies ist nach Definition äquivalent zuv ⊥ w. Die einzige Aussage, die sich rechnerisch nicht so leicht überprüfen lässt, ist die Dreiecksungleichung (L4).Wir werden später in einem allgemeineren Kontext darauf zurückkommen.

Zunächst beschäftigen wir uns hier mit dem Problem, auf möglichst natürliche Weise den Winkel zwischen zweiVektoren v, w ∈ Rn, v, w 6= 0Rn zu definieren. Jedem solchen Paar von Vektoren soll eine Zahl ^(v, w) im Intervall[0, π] zugeordnet werden. Durch die aus der Elementargeometrie bekannten Gesetze scheint es naheliegend, folgendeEigenschaften von einer solchen Winkelfunktion ^ zu fordern.

(W1) ^(v, v) = 0, ^(v, w) = ^(w, v)

(W2) v ⊥ w ⇔ ^(v, w) = 12π

(W3) ^(v,−w) = π − ^(v, w)

(W4) ^(v, λw) = ^(v, w) für alle λ ∈ R+

(W5) Gilt v 6= w und v ⊥ (w − v), dann gilt

cos^(v, w) =‖v‖‖w‖

(Satz am rechtwinkligen Dreieck).

Wieder kommen wir zu dem Ergebnis, dass es für die Definition der Winkelfunktion unter diesen Bedingungen nureine Möglichkeit gibt.

Satz 5.6 Sind die vier angegebenen Bedingungen an die Abbildung ^ erfüllt, dann gilt für alle v, w ∈Rn mit v, w 6= 0 die Gleichung

cos^(v, w) =〈v, w〉‖v‖‖w‖

.

Beweis: Wir unterscheiden beim Beweis der Gleichung insgesamt drei Fälle.

(i) Es gilt w = λv für ein λ > 0.

(ii) Es gilt w = λv für ein λ < 0.

(iii) Die Vektoren v, w sind linear unabhängig.

—– 32 —–

Page 33: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

zu (i) Auf Grund der Bedingungen (W1) und (W4) gilt ^(v, w) = ^(v, λv) = ^(v, v) = 0. Außerdem gilt〈v, w〉 = 〈v, λv〉 = λ‖v‖2 und ‖v‖‖w‖ = |λ|‖v‖2 = λ‖v‖2, der Bruch auf der rechten Seite der Gleichung hatalso den Wert 1. Wegen cos(0) = 1 ist die Gleichung somit erfüllt.

zu (ii) Sei µ = −λ > 0. Mit den Bedingungen (W1), (W3) und (W4) erhalten wir

^(v, w) = ^(v, λv) = ^(v, µ(−v)) = ^(v,−v) = π − ^(v, v) = π.

Weiter gilt 〈v, w〉 = 〈v, λv〉 = λ〈v, v〉 und ‖v‖‖w‖ = |λ|‖v‖2 = −λ‖v‖2. Der Bruch auf der rechten Seite hatalso diesmal den Wert −1, und wegen cos(π) = −1 ist die Gleichung auch hier erfüllt.

zu (iii) Setzen wir λ = 〈v, w〉/‖v‖2, dann steht der Vektor v senkrecht auf w′ = w − λv, denn es gilt

〈v, w′〉 = 〈v, w − λv〉 = 〈v, w〉 − λ〈v, v〉 = 〈v, w〉 − 〈v, v〉〈v, w〉‖v‖2

〈v, v〉〈v, w〉‖v‖2

− 〈v, v〉〈v, w〉‖v‖2

= 0.

Damit steht auch λv senkrecht aufw′. Ist nun λ > 0, dann können wir den Satz vom rechtwinkligen Dreieckauf die Vekoren λv und w anwenden und erhalten

cos^(v, w) = cos^(λv,w) =‖λv‖‖w‖

=〈v, w〉‖v‖2

· ‖v‖‖w‖

=〈v, w〉‖v‖‖w‖

.

Im Fall λ = 0 ist die rechte Seite der Gleichung gleich Null, und dasselbe gilt wegen cos( 12π) = 0 auch für

die linke Seite. Setzen wir nun λ < 0 voraus. Dann ist µ = −λ > 0, und es gilt

^(v, w) = π − ^(−v, w) = π − ^(−µv,w) = π − ^(λv,w).

Mit Hilfe der Rechenregeln cosx = cos(−x) und cos(x+ π) = − cosx erhalten wir nun

cos^(v, w) = cos(π − ^(λv,w)) = − cos(−^(λv,w)) =

− cos^(λv,w) = −‖λv‖‖w‖

= −(−λ)‖v‖‖w‖

=〈v, w〉‖v‖2

· ‖v‖‖w‖

=〈v, w〉‖v‖‖w‖

.

Definition 5.7 Der Winkel zwischen zwei Vektoren v, w ∈ Rn, v, w 6= 0Rn ist die eindeutig bestimmteZahl ^(v, w) ∈ [0, π] mit

cos^(v, w) =〈v, w〉‖v‖‖w‖

,

wobei auf der rechten Seite 〈v, w〉 das euklidische Standard-Skalarprodukt und ‖v‖, ‖w‖ jeweils dieeuklidische Länge der Vektoren v, w bezeichnet.

Damit der Winkel ^(v, w) definiert ist, muss die Zahl auf der rechten Seite zwischen−1 und 1 liegen. Dies ist äquiva-lent dazu, dass die Cauchy-Schwarzsche Ungleichung |〈v, w〉| ≤ ‖v‖‖w‖ für v, w erfüllt ist. Dies werden wir im nächstenAbschnitt in allgemeinerer Form beweisen. Setzt man diese Ungleichung als bekannt voraus, dann ist die Überprü-fung der Eigenschaften (W1) bis (W5) für die so definierte Winkelfunktion kein Problem.

—– 33 —–

Page 34: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

§ 6. Allgemeine Skalarprodukte

Wichtige Begriffe und Sätze in diesem Abschnitt

– Bilinearform auf einem Vektorraum– Eigenschaften „symmetrisch“ und „positiv definit“– Skalarprodukt und euklidischer Vektorraum– Längen und Winkel bezüglich beliebiger Skalarprodukte– Darstellungsmatrizen

In diesem Abschnitt werden wir die Längen- und Winkelfunktion vom Rn auf beliebige R-Vektorräume übertragen.Der Ausgangspunkt dafür sind die Eigenschaften des Standard-Skalarprodukts, die wir in Proposition Prop. 5.5zusammengestellt haben.

Definition 6.1 SeiK ein Körper und V einK-Vektorraum. Eine Bilinearform auf V ist eine Abbildungb : V × V → K, so dass für v, v′, w, w′ ∈ V und λ ∈ K die folgende Bedingungen erfüllt sind.

(i) b(v + v′, w) = b(v, w) + b(v′, w) (iii) b(λv,w) = λb(v, w)

(ii) b(v, w + w′) = b(v, w) + b(v, w′) (iv) b(v, λw) = λb(v, w)

Gilt zusätzlich b(v, w) = b(w, v) für alle v, w ∈ V , dann spricht man von einer symmetrischen Bilinear-form.

Die Bedingungen (i) und (iii) lassen sich zusammenfassen in der Aussage, dass V → K, v 7→ b(v, w) für jedes w ∈ Veine lineare Abbildung ist. Entsprechend bedeuten (ii) und (iv), dass w 7→ b(v, w) für jedes v ∈ V linear ist. EineBilinearform ist also in gewisser Weise „zweifach“ linear, wodurch der Name Bilinearform gerechtfertigt ist. Aus derLinearität in beiden Komponenten folgt auch, dass b(0V , w) = 0K und b(v, 0V ) = 0K für alle v, w ∈ V gilt.

Im weiteren Verlauf beschränken wir uns nun auf den Grundkörper K = R.

Definition 6.2 Eine symmetrische Bilinearform auf einem R-Vektorraum V heißt

(i) positiv definit, wenn b(v, v) > 0,

(iii) positiv semidefinit, wenn b(v, v) ≥ 0,

(iii) negativ semidefinit, wenn b(v, v) ≤ 0,

(iii) negativ definit, wenn b(v, v) < 0

für alle v ∈ V mit v 6= 0V erfüllt ist. Gibt es in V einen Vektor v mit b(v, v) > 0 und einen weiteren Vektorw mit b(w,w) < 0, dann spricht man von einer indefiniten Bilinearform.

—– 34 —–

Page 35: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Eine positiv definite Bilinearform b auf einem R-Vektorraum V wird auch Skalarprodukt auf V genannt. Das Paar(V, b) bezeichnet man dann als euklidischen Vektorraum. Man überprüft unmittelbar, dass es sich beim euklidischenStandard-Skalarprodukt aus §5 um ein Skalarprodukt auf dem Rn handelt.

Ein Paar (v, w) von Vektoren aus V bezeichnet man als orthogonal bezüglich einer symmetrischen Bilinearform b

und schreibt v ⊥b w, wenn b(v, w) = 0 gilt.

Proposition 6.3 Die soeben definierte Relation ⊥b besitzt die folgenden Eigeschaften.

(O2) Sie ist symmetrisch, d.h. für alle v, w ∈ V gilt die Äquivalenz v ⊥b w ⇔ w ⊥b v.

(O3) Sind u, v, w ∈ V mit u ⊥b v und u ⊥b w, dann folgt u ⊥b (v + w).

(O4) Sind v, w ∈ V mit v ⊥b w, dann gilt v ⊥b (λw) für alle λ ∈ R.

Beweis: Seien u, v, w ∈ V vorgegeben. Die Aussage (O2) folgt direkt aus der Äquivalenz b(v, w) =

0 ⇔ b(w, v) = 0. Zum Beweis von (O3) setzen wir u ⊥b v und u ⊥b w voraus. Dann gilt b(u, v) = 0

und b(u,w) = 0, und es folgt b(u, v + w) = b(u, v) + b(u,w) = 0 + 0 = 0. Aus b(v, w) = 0 folgt auchb(v, λw) = λb(v, w) = λ0 = 0 für alle λ ∈ R. Damit ist (O4) nachgewiesen.

Wir werden nun zeigen, dass sich mit Hilfe eines Skalarprodukts auf einem R-Vektorraum V eine Längen- undWinkelfunktion auf V definieren lässt, mit den in §5 beschriebenen Eigenschaften. Wesentliches Hilfsmittel dabei istder

Satz 6.4 (Cauchy-Schwarzsche Ungleichung)

Sei (V, b) ein euklidischer Vektorraum und ‖ · ‖b durch ‖v‖b =√b(v, v) für alle v ∈ V definiert. Dann gilt

für alle v, w ∈ V die Ungleichung |b(v, w)| ≤ ‖v‖b‖w‖b mit Gleichheit genau dann, wenn v und w linearabhängig sind.

Beweis: Wir unterscheiden die Fälle w = 0V und w 6= 0V . Im Fall w = 0V gilt sowohl |b(v, w)| = 0 alsauch ‖v‖b‖w‖b = 0. Die Vektoren v und w sind in dieser Situation linear abhängig, also ist auch die „genaudann“-Aussage erfüllt.

Betrachten wir nun den Fall w 6= 0V . Hier besteht die wesentliche Idee darin, den Vektor v in einen zuw parallelen und einen zu w orthogonalen Anteil zu zerlegen. Um die gewünschte Zerlegung von v zuerhalten, betrachten wir für beliebiges λ ∈ R die Umformung

b(v − λw,w) = 0 ⇔ b(v, w)− λb(w,w) = 0 ⇔ λ =b(v, w)

b(w,w)=b(v, w)

‖w‖2b.

Setzen wir also λ = b(v, w)/‖w‖2b , dann ist λw parallel und v − λw orthogonal zu W . Mit diesem Wert λgilt nun auch

0 ≤ b(v − λw, v − λw) = b(v, v − λw)− λb(w, v − λw) = b(v, v)− 2λb(v, w) + λ2b(w,w)

= ‖v‖2b − 2b(v, w)

‖w‖2bb(v, w) +

b(v, w)2

‖w‖4b‖w‖2b = ‖v‖2b −

b(v, w)2

‖w‖2b.

—– 35 —–

Page 36: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Diese Ungleichung kann zu |b(v, w)|2 ≤ ‖v‖2b‖w‖2b umgeformt werden, und durch Wurzelziehen auf beidenSeiten erhält man |b(v, w)| ≤ ‖v‖b‖w‖b wie gewünscht.

Die Vektoren v, w sind genau dann linear abhängig, wenn ein µ ∈ R mit v = µw existiert. In diesem Fallist λ = b(v, w)/‖w‖2b = b(µw,w)/‖w‖2b = µ, und wegen v = λw wird die obige Ungleichungskette zu einerGleichung. Es folgt

‖v‖2b −b(v, w)2

‖w‖2b= 0 ⇔ |b(v, w)|2 = ‖v‖2b‖w‖2b ⇔ |b(v, w)| = ‖v‖b‖w‖b.

Ist umkehrt die Cauchy-Schwarzsche Ungleichung mit Gleichheit verfüllt, dann ist auch die Ungleichungs-kette von oben eine Gleichungskette. Es muss also b(v−λw, v−λw) = 0 gelten, und damit auch v−λw = 0V ,weil b positiv definit ist. Also sind v und w in diesem Fall linear abhängig.

Proposition 6.5 Die in Satz 6.4 definierte Funktion ‖ · ‖b besitzt die folgenden Eigenschaften.

(L2) Für alle v ∈ Rn gilt ‖v‖b = 0 genau dann, wenn v = 0V ist.

(L3) Skalieren wir einen Vektor v mit einer reellen Zahl λ, dann ändert sich die Länge um den Faktor|λ|. Es gilt also ‖λv‖b = |λ|‖v‖b für alle λ ∈ R und v ∈ V .

(L4) Es gilt die sog. Dreiecksungleichung ‖v + w‖b ≤ ‖v‖b + ‖w‖b für alle v, w ∈ V .

Außerdem gilt der Satz des Pythagoras, also v ⊥b w ⇔ ‖v + w‖2b = ‖v‖2b + ‖w‖2b für alle v, w ∈ V .

Beweis: Offenbar gilt ‖0V ‖b =√b(0V , 0V ) =

√0 = 0. Ist umgekehrt v ein Vektor mit ‖v‖b = 0, dann folgt

b(v, v) = 0 und damit v = 0V , weil b positiv definit ist. Für λ ∈ R und v ∈ V ist außerdem offenbar

‖λv‖b =√b(λv, λv) =

√λ2b(v, v) = |λ|

√b(v, v) = |λ|‖v‖b.

Für den Beweis der Dreiecks-Ungleichung verwenden wir nun die Cauchy-Schwarzsche Ungleichung. Füralle v, w ∈ V gilt

‖v + w‖2b = b(v + w, v + w) = b(v, v) + 2b(v, w) + b(w,w) ≤

‖v‖2b + 2|b(v, w)|+ ‖w‖2b ≤ ‖v‖2b + 2‖v‖b‖w‖b + ‖w‖2b = (‖v‖b + ‖w‖b)2.

Durch Wurzelziehen auf beiden Seiten erhält man das gewünschte Resultat. Den Satz des Pythagoras erhältman schließlich für alle v, w ∈ V durch die Äquivalenzumformung

‖v + w‖2b = ‖v‖2b + ‖w‖2b ⇔ b(v + w, v + w) = b(v, v) + b(w,w) ⇔

b(v, v + w) + b(w, v + w) = b(v, v) + b(w,w) ⇔

b(v, v) + b(v, w) + b(w, v) + b(w,w) = b(v, v) + b(w,w) ⇔ 2b(v, w) = 0 ⇔

b(v, w) = 0 ⇔ v ⊥b w.

Aus der Cauchy-Schwarzschen Ungleichung folgt auch, dass für alle 0V 6= v, w ∈ V jeweils die Abschätzung

−1 ≤ b(v, w)

‖v‖b‖w‖b≤ 1

—– 36 —–

Page 37: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

erfüllt ist. Bekanntlich ist die Kosinusfunktion auf dem Intervall [0, π] streng monoton fallend. Die eindeutig be-stimmte Zahl α in diesem Intervall mit

cosα =b(v, w)

‖v‖b‖w‖b

bezeichnen wir als den Winkel ^b(v, w) zwischen v und w bezüglich b.

Proposition 6.6 Die soeben definierte Winkelfunktion ^b hat für alle 0V 6= v, w ∈ V die Eigenschaften

(W1) ^b(v, v) = 0, ^b(v, w) = ^b(w, v)

(W2) v ⊥b w ⇔ ^b(v, w) = 12π

(W3) ^b(v,−w) = π − ^b(v, w)

(W4) ^b(v, λw) = ^b(v, w) für alle λ ∈ R+

(W5) Gilt v 6= w und v ⊥ (w − v), dann gilt

cos^b(v, w) =‖v‖b‖w‖b

(Satz am rechtwinkligen Dreieck).

Beweis: Die Gleichung ^b(v, w) = ^b(w, v) in (W1) folgt direkt aus der Symmetrie b(v, w) = b(w, v) desSkalarprodukts. Außerdem gilt

b(v, v)

‖v‖2b=

b(v, v)

b(v, v)= 1 = cos 0

und somit ^b(v, v) = 0. Die Aussage (W2) folgt aus

v ⊥b w ⇔ b(v, w) = 0 ⇔ b(v, w)

‖v‖b‖w‖b= 0

und cos 12π = 0. Für den Nachweis von (W3) verwendet man die Gleichung

b(v,−w)

‖v‖b‖(−w)‖b=

b(v, w)

‖v‖b‖w‖b

und die Eigenschaft cos(π − x) = − cosx der Kosinusfunktion. Für alle λ ∈ R+ gilt

cos^b(v, λw) =b(v, λw)

‖v‖b‖λw‖b=

λb(v, w)

λ‖v‖b‖w‖b=

b(v, w)

‖v‖b‖w‖b= cos^b(v, w) ,

damit ist (W4) bewiesen. Setzen wir nun w 6= v und v ⊥b (w − v) voraus. Dann gilt b(v, w − v) = 0 ⇔b(v, w)− b(v, v) = 0⇔ b(v, w) = b(v, v) und folglich

cos^b(v, w) =b(v, w)

‖v‖b‖w‖b=

b(v, v)

‖v‖b‖w‖b=

‖v‖2b‖v‖b‖w‖b

=‖v‖b‖w‖b

.

Somit ist auch (W5) erfüllt.

—– 37 —–

Page 38: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Genau wie lineare Abbildungen lassen sich auch Bilinearformen auf endlich-dimensionalen Vektorräumen durchMatrizen beschreiben. Sei V ein endlich-dimensionaler K-Vektorraum und b : V × V → K eine Bilinearform auf V .Zunächst bemerken wir, dass auf Grund der Bilinearität von b die Rechenregeln

b

(n∑k=1

vk, w

)=

n∑k=1

b(vk, w) und b

(v,

n∑k=1

wk

)=

n∑`=1

b(v, wk)

gelten, mit beliebigen Vektoren v1, ..., vn, w1, ..., wn, v, w ∈ V . Dies zeigt man durch einen einfachen Induktionsbe-weis.

Sei nun n = dimV und A = (v1, ..., vn) eine geordnete Basis von V . Sind v, w ∈ V beliebige Vektoren mit A-Koordinaten κA(v) = t(λ1, ..., λn) und κA(w) = t(µ1, ..., µn), dann gilt

b(v, w) = b

(n∑k=1

λkvk,

n∑`=1

µ`w`

)=

n∑k=1

b

(λkvk,

n∑`=1

µ`w`

)=

n∑k=1

λkb

(vk,

n∑`=1

µ`w`

)

=

n∑k=1

n∑`=1

λkb (vk, µ`w`) =n∑k=1

n∑`=1

λkµ`b(vk, w`)

Die Rechnung zeigt, dass die Bilinearform b durch die Werte b(vk, w`) bereits eindeutig festgelegt ist.

Definition 6.7 Sei V ein endlich-dimensionaler K-Vektorraum, A = (v1, ..., vn) eine Basis und b eineBilinearform auf V . Dann nennt man die Matrix A ∈Mn,K mit den Einträgen

aij = b(vi, vj) für 1 ≤ i, j ≤ n

die DarstellungsmatrixMA(b) von b bezüglich B.

Das Ergebnis der oben durchgeführten Rechnung kann mit Hilfe der DarstellungsmatrixA auch folgermaßen notiertwerden: Es gilt

b(v, w) =

n∑k=1

n∑`=1

λkµ`ak` =

(n∑`=1

λkak1 · · ·n∑`=1

λkakn

)µ1

...µn

= (λ1 · · · λn)A

µ1

...µn

= tκA(v)MA(b) κA(w).

Umgekehrt kann bei festgewählter Basis A jeder Matrix A ∈Mn,K eine Bilinearform zugeordnet werden.

Proposition 6.8 Sei V ein endlich-dimensionaler K-Vektorraum, A eine geordnete Basis von V undA ∈Mn,K . Dann gibt es eine eindeutig bestimmte Bilinearform b auf V mitMA(b) = A.

Beweis: Die Eindeutigkeit ist klar, denn wir haben ja bereits nachgerechnet, dass jede Bilinearform durchihre Darstellungsmatrix eindeutig festgelegt ist. Zum Nachweis der Existenz definieren wir eine Abbil-dung b : V × V → K durch

b(v, w) = tκA(v) A κA(w) für v, w ∈ V.

—– 38 —–

Page 39: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Dass b eine Bilinearform ist, ergibt sich aus der Linearität der Koordinatenabbildung κA sowie den Regeln-regeln für Matrixprodukte: Für alle v, v′, w, w′ ∈ V und λ ∈ K gilt

b(v + v′, w) = tκA(v + v′) A κA(w) =(

tκA(v) + tκA(v′))A κA(w)

= tκA(v) A κA(w) + tκA(v′) A κA(w) = b(v, w) + b(v′, w) ,

ebenso beweist man b(v, w + w′) = b(v, w) + b(v, w′). Weiter gilt

b(λv,w) = tκA(λv) A κA(w) = λtκA(v) A κA(w) = λb(v, w)

und nach dem gleichen Schema zeigt man b(v, λw) = λb(v, w). Setzen wir die Vektoren der Basis A =

(v1, ..., vn) in die Koordinatenabbildung κA ein, so erhalten wir die Einheitsvektoren e1, ..., en ∈ K. DieBilinearform b nimmt also auf den Basisvektoren die Werte

b(vk, v`) = tκA(vk) A κA(v`) = tek A e` = ak` an.

Dies zeigt, dass b tatsächlich eine Bilinearform auf V mit Darstellungsmatrix A ist.

Proposition 6.9 Sei V ein endlich-dimensionaler K-Vektorraum und A eine geordnete Basis von V .Weiter sei b eine Bilinearform auf V mit Darstellungsmatrix A.

(i) Die Bilinearform b ist genau dann symmetrisch, wenn A eine symmetrische Matrix ist, wenn alsotA = A erfüllt ist.

(ii) Sei nunK = R und b symmetrisch. Unter diesen Voraussetzungen ist b genau dann positiv definit,wenn tuAu > 0 für alle u ∈ Rn mit u 6= 0Rn gilt.

Beweis: zu (i) Sei A = (v1, ..., vn). Ist b symmetrisch, dann gilt für die Einträge von A jeweils aij =

b(vi, vj) = b(vj , vi) = aji und somit tA = A. Setzen wir nun umgekehrt voraus, dass A symmetrisch ist.Wie man unmittelbar überprüft, ist durch b(v, w) = b(w, v) für v, w ∈ V ebenfalls eine Bilinearform auf Vdefiniert. Wegen b(vk, v`) = b(v`, vk) = a`k = ak` besitzt b dieselbe Darstellungsmatrix wie b. Es folgt b = b

und somit b(v, w) = b(w, v) = b(w, v) für alle v, w ∈ V .

zu (ii) Setzen wir voraus, dass b positiv definit ist, und sei u ∈ Rn mit u 6= 0Rn vorgegeben. Danngibt es ein v ∈ V \ {0V } mit κA(v) = u, und es folgt tuAu = tκA(v)MA(b)κA(v) = b(v, v) > 0. Setzen wirumgekehrt voraus, dass die MatrixA die angegebene Eigenschaft besitzt, und sei v ∈ V \{0V } vorgegeben.Dann gilt κA(v) 6= 0Rn und b(v, v) = tκA(v) A κA(v) > 0.

Ohne Beweis bemerken wir noch, dass auf dieselbe Weise ein Kriterium für positiv semidefinite, negativ definite undsemidefinite bzw. indefinite Bilinearformen formulieren lässt.

Satz 6.10 (Transformationsformel für Bilinearformen)

Sei V ein n-dimensionaler R-Vektorraum und b eine Bilinearform auf V . Seien A und B zwei Basen vonV und T = T AB die Matrix des Basiswechsels von A nach B. Dann gilt

MA(b) = tTMB(b)T.

—– 39 —–

Page 40: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Beweis: Für beliebige v, w ∈ V gilt TκA(w) = κB(w), tκA(v)tT = tTκA(v) = tκB(v). Es folgt

tκA(v)tTMB(b)TκA(w) = tκB(v)MB(b)κB(v) = b(v, w)

Dies zeigt, dass tTMB(b)T die Darstellungsmatrix von b bezüglich der Basis A ist und deshalb auf Grundder Eindeutigkeit mitMA(b) übereinstimmt.

—– 40 —–

Page 41: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

§ 7. Orthogonalität

Wichtige Begriffe und Sätze in diesem Abschnitt

– Orthogonalräume und zueinander orthogonale Untervektorräume– Orthogonalprojektionen– ON-Systeme und ON-Basen– Gram-Schmidt-Orthonormalisierung– Hurwitz-Kriterium für positiv definite Bilinearformen

Definition 7.1 Für jede Teilmenge S ⊆ V bezeichnet man

S⊥ = {v ∈ V | u ⊥b v ∀ u ∈ S}

als Orthogonalraum zur Menge S.

Satz 7.2 Sei (V, b) ein euklidischer Vektorraum und S ⊆ V eine Teilmenge. Dann ist S⊥ ein Untervek-torraum von V .

Beweis: Wegen b(0V , u) = 0 gilt 0V ⊥b u für alle u ∈ S und somit 0V ∈ S⊥. Seien nun v, w ∈ S⊥ und λ ∈ Rvorgegeben. Dann gilt b(v, u) = b(w, u) = 0 für alle u ∈ S. Es folgt b(v+w, u) = b(v, u)+b(w, u) = 0+0 = 0

und b(λv, u) = λb(v, u) = λ · 0 = 0, also (v + w) ⊥b u und (λv) ⊥b u für alle u ∈ S. Dies zeigt, dass auchv + w und λv in S⊥ enthalten sind.

Definition 7.3 Sei (V, b) ein euklidischer Vektorraum. Man bezeichnet zwei Untervektorräume U undW von V als orthogonal zueinander und schreibt U ⊥b W , wenn

u ⊥b w für alle u ∈ U und w ∈W

erfüllt ist. (Diese Aussage ist offenbar äquivalent zu U ⊆W⊥, und ebenso zu W ⊆ U⊥.)

Proposition 7.4 Sei (V, b) ein euklidischer Vektorraum, und seien U,W zueinander orthogonale Un-tervektorräume von V . Dann gilt U ∩W = {0V }.

Beweis: Sei w ∈ U ∩W vorgegeben. Dann liegt w insbesondere in U . Da w aber andererseits auch in Wliegt und U,W orthogonal zueinander sind, gilt w ⊥b w, also b(w,w) = 0. Weil b positiv definit ist, folgtdaraus w = 0V .

—– 41 —–

Page 42: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Definition 7.5 Man bezeichnet einen euklidischen Vektorraum (V, b) als orthogonale Summe einerFamilie U1, ..., Ur von Untervektorräumen von V , wenn

V = U1 + ...+ Ur und Ui ⊥b Uj für 1 ≤ i, j ≤ r , i 6= j erfüllt ist.

Proposition 7.6 Jede orthogonale Summe von Untervektorräumen ist auch eine direkte Summe, mitden Bezeichnungen aus Def. 7.5 gilt also V = U1 ⊕ ...⊕ Ur.

Beweis: Die Gleichung V = U1 + ... + Ur ist jedenfalls nach Voraussetzung erfüllt. Sei nun i ∈ {1, ..., r}vorgegeben, u ∈ Ui und w ∈

∑j 6=i Uj , also w =

∑j 6=i wj mit wj ∈ Uj für alle j 6= i. Wegen Ui ⊥b Uj für

alle j 6= i liegt wj in U⊥i , auf Grund der Untervektorraum-Eigenschaft von U⊥i also auch der Vektor w.Damit ist

∑j 6=i Uj ⊆ U⊥i nachgewiesen, mit anderen Worten, die Untervektorräume Ui und

∑j 6=i Uj sind

orthogonal zueinander. Nach Prop. 7.4 folgt daraus

Ui ∩

∑j 6=i

Uj

= {0V }.

Dies zeigt, dass es sich beir∑i=1

Ui um eine direkte Summe handelt.

Definition 7.7 Sei (V, b) ein euklidischer Vektorraum und U ⊆ V ein Untervektorraum. Eine Abbil-dung πU : V → U wird Orthogonalprojektion auf U genannt, wenn

πU (u) = u und (v − πU (v)) ⊥b U

für alle u ∈ U und v ∈ V erfüllt ist.

Proposition 7.8 Für jeden Untervektorraum U eines euklidischen Vektorraums (V, b) gibt es höchstenseine Orthogonalprojektion auf U .

Beweis: Nehmen wir an, dass π und π′ beides Orthogonalprojektionen auf U sind, und sei v ∈ V beliebigvorgegeben. Dann gilt v = π(v) + (v − π(v)) mit π(v) ∈ U und v − π(v) ∈ U⊥, mit anderen Worten, v liegtin der direkten Summe U ⊕ U⊥. Ebenso gilt v = π′(v) + (v − π′(v)) mit π′(v) ∈ U und v − π′(v) ∈ U⊥.Weil die Zerlegung des Vektors v in der direkten Summe U ⊕ U⊥ eindeutig ist, folgt π(v) = π′(v) undv − π(v) = v − π′(v).

—– 42 —–

Page 43: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Definition 7.9 Sei (V, b) ein euklidischer Vektorraum. Ein Tupel (v1, ..., vr) von Vektoren aus V heißt

(i) Orthogonalsystem, wenn vi ⊥b vj für alle i, j mit 1 ≤ i, j ≤ r und i 6= j und außerdem vi 6= 0Vfür 1 ≤ i ≤ r,

(ii) Orthonormalsystem (kurz ON-System), wenn es ein Orthogonalsystem ist und zusätzlich‖vi‖b = 1 für 1 ≤ i ≤ r gilt.

Ist (v1, ..., vr) ein Orthogonalsystem und zugleich eine Basis von V , dann spricht man von einerOrthogonalbasis. Ein ON-System, dass zugleich eine Basis von V ist, wird ON-Basis genannt.

Lemma 7.10 Jedes Orthogonalsystem in einem euklidischen Vektorraum, erst recht jedes ON-System,ist linear unabhängig.

Beweis: Sei (V, b) ein euklidischer Vektorraum und (v1, ..., vr) ein Orthogonalsystem. Seien λ1, ..., λr ∈ Rmit

∑ri=1 λivi = 0V vorgeben. Dann gilt für 1 ≤ k ≤ r jeweils b(vi, vk) = 0 für i 6= k und damit

λkb(vk, vk) =

r∑i=1

λib(vi, vk) = b

(r∑i=1

λivi, vk

)= b(0V , vk) = 0.

Wegen vk 6= 0V ist b(vk, vk) 6= 0. Division durch b(vk, vk) liefert damit λk = 0.

Proposition 7.11 Sei (V, b) ein euklidischer Vektorraum und U ein endlich-dimensionaler Untervektor-raum. Sei (v1, ..., vr) eine ON-Basis von U . Dann existiert eine Orthogonalprojektion πU auf U , gegebendurch

πU (v) =

r∑i=1

b(v, vi)vi für alle v ∈ V.

Beweis: Zu überprüfen ist, dass die angegebene Abbildung πU die Bedingungen πU (u) = u für alle u ∈ Uund (v − πU (v)) ⊥b U für alle v ∈ V erfüllt. Zum Nachweis der ersten Eigenschaft sei u ∈ U vorgegeben.Wegen u ∈ U können wir u auf eindeutige Weise als Linearkombination von (v1, ..., vr) darstellen. Seienalso λ1, ..., λr ∈ R mit u =

∑ri=1 λivi. Weil (v1, ..., vr) ein ON-System ist, gilt b(vi, vj) = δij für 1 ≤ i, j ≤ r,

wobei δij das Kronecker-Delta bezeichnet. Für 1 ≤ k ≤ r erhalten wir

b(u, vk) = b

(r∑i=1

λivi, vk

)=

r∑i=1

λib(vi, vk) =

r∑i=1

λiδik = λk.

Daraus folgt

u =

r∑k=1

λkvk =

r∑k=1

b(u, vk)vk = πU (u).

—– 43 —–

Page 44: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Beweisen wir nun die zweite Eigenschaft. Für jedes v ∈ V und 1 ≤ k ≤ r gilt

b(v − πU (v), vk) = b(v, vk)− b(πU (v), vk) = b(v, vk)− b

(r∑i=1

b(v, vi)vi, vk

)=

b(v, vk)−r∑i=1

b(v, vi)b(vi, vk) = b(v, vk)−r∑i=1

b(v, vi)δik = b(v, vk)− b(v, vk) = 0V .

Es folgt (v − πU (v)) ⊥b vk, also vk ∈ {v − πU (v)}⊥ für 1 ≤ k ≤ r. Weil {v − πU (v)}⊥ ein Untervektorraumvon V ist und U von (v1, ..., vr) aufgespannt wird, erhalten wir U ⊆ {v − πU (v)}⊥, was gleichbedeutendist mit (v − πU (v)) ⊥b U .

Satz 7.12 (Gram-Schmidt-Orthonormalisierung)In einem endlich-dimensionalen euklidischen Vektorraum (V, b) kann jedes ON-System (v1, ..., vr) zueiner ON-Basis erweitert werden. Ist n = dimV , dann gibt es also Vektoren vr+1, ..., vn in V , so dass(v1, ..., vn) eine ON-Basis von V ist.

Beweis: Wir führen den Beweis durch vollständige Induktion über n− r. Im Fall n− r = 0 braucht nichtsgezeigt werden. Sei nun n > r, und setzen wir die Aussage für kleinere Differenzen als n− r voraus. Nachdem Basisergänzungssatz existieren Vektoren wr+1, ..., wn, so dass (v1, ..., vr, wr+1, ..., wn) eine Basis von Vist. Setzen wir

U = 〈v1, ..., vr, wr+1, ..., wn−1〉R ,

dann kann (v1, ..., vr) wegen dim U − r = n−1− r < n− r nach Induktionsvoraussetzung durch geeigneteVektoren vr+1, ..., vn−1 zu einer ON-Basis von U ergänzt werden. Weil U eine ON-Basis besitzt, existiertnach Prop. 7.11 eine Orthogonalprojektion πU : V → U . Wir definieren nun

w = wn − πU (wn) und vn =1

‖w‖bw.

Dabei ist zu beachten, dass w wegen wn /∈ U ungleich Null ist. Wir behaupten nun, dass (v1, ..., vn) eineON-Basis von V ist. Für 1 ≤ i, j ≤ n−1 mit i 6= j ist vi ⊥b vj jedenfalls erfüllt. Auf Grund der definierendenEigenschaften der Orthogonalprojektion πU gilt außerdem w ⊥b U , also w ⊥b wk und somit auch wn ⊥b wkfür 1 ≤ k ≤ n− 1. Außerdem gilt

b(vn, vn) =1

‖w‖2bb(w, w) =

‖w‖2b‖w‖2b

= 1 , also ‖vn‖b = 1.

Damit ist nachgewiesen, dass es sich bei (v1, ..., vn) um ein ON-System handelt. Wegen n = dimV , undweil ON-Systeme nach Lemma 7.10 linear unabhängig sind, ist (v1, ..., vn) außerdem eine Basis von V .

Korollar 7.13 Sei (V, b) ein euklidischer Vektorraum undU ⊆ V ein endlich-dimensionaler Unterraum.Dann existiert eine Orthogonalprojektion von V auf U .

Beweis: Dies folgt aus Prop. 7.11, weil U nach Satz 7.12 eine ON-Basis besitzt.

—– 44 —–

Page 45: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Korollar 7.14 Für jede Teilmenge S eines euklidischen Vektorraums (V, b) gilt S ⊆ (S⊥)⊥. Ist U einendlich-dimensionaler Untervektorraum von V , dann gilt (U⊥)⊥ = U .

Beweis: Sei S ⊆ V eine beliebige Teilmenge und v ∈ S. Zu zeigen ist v ∈ (S⊥)⊥, also v ⊥b w für allew ∈ S⊥. Ist w ∈ S⊥, dann gilt nach Definition u ⊥b w für alle u ∈ S, also insbesondere für den Vektor v.

Setzen wir nun voraus, dass U ein endlich-dimensionaler Untervektorraum von V ist. Nach Prop. 7.11existiert eine Orthogonalprojektion πU von V auf U . Für jeden Vektor v ∈ V gilt v = u + u′, wobei u =

πU (v) ∈ U und u′ = v − u ∈ U⊥ gilt. Durch Prop. 7.4 erhalten wir V = U ⊕ U⊥.

Damit können wir nun die Inklusion (U⊥)⊥ ⊆ U beweisen. Sei v ∈ (U⊥)⊥ vorgegeben und v = u + u′

die Zerlegung von v in die Komponenten u ∈ U und u′ ∈ U⊥. Für jedes w ∈ U⊥ gilt b(u′, w) = b(v, w) −b(u,w) = 0− 0 = 0. Also gilt u′ ∈ U⊥ ∩ (U⊥)⊥ = {0V } und damit v = u ∈ U .

Der Beweis von Satz 7.12 kann genutzt werden, um die dort angegebenen Vektoren vr+1, ..., vn konkret auszurechnen.Sei (V, b) ein euklidischer Vektorraum und (v1, ..., vr) ein ON-System in V . Zunächst ergänzt man das System durchVektoren wr+1, ..., wn zu einer (nicht notwendigerweise orthonormalen) Basis von V . Anschließend definiert man fürs = r + 1, ..., n nacheinander jeweils

ws = ws −s−1∑k=1

b(ws, vk)vk und vs =1

‖ws‖bws.

Die Summe∑s−1k=1〈ws, vk〉vk ist das Bild des Vektors ws unter der Orthogonalprojektion auf den Untervektorraum

〈v1, ..., vs−1〉R (siehe Proposition Prop. 7.11). Wie im Beweis zur Gram-Schmid-Orthonormalisierung gezeigt, erhältman auf diese Weise eine ON-Basis von V .

Mit Hilfe der Orthonormalisierung lässt sich nun auch ein Kriterium herleiten, mit dem sich eine Matrix auf dieEigenschaft „positiv definit“ testen lässt.

Satz 7.15 (Hurwitz-Kriterium)

Sei A ∈ Mn,R eine symmetrische Matrix und Ak jeweils die linke obere k × k-Teilmatrix, für 1 ≤ k ≤ n.Genau dann ist A positiv definit, wenn det(Ak) > 0 für 1 ≤ k ≤ n erfüllt ist.

Beweis: Sei b die Bilinearform mit der Darstellungsmatrix A bezüglich der Einheitsbasis E = (e1, ..., en)

von Rn. Dann gilt b(v, w) = tvAw, d.h. die Matrix A ist genau dann positiv definit, wenn b positiv definitist. Für 1 ≤ k ≤ n definieren wir außerdem Ek = (e1, ..., ek) und

Uk = 〈Ek〉R = Rk × {0}n−k.

Setzen wir bk = b|Uk×Uk für 1 ≤ k ≤ n, dann gilt jeweils Ak =MEk(bk).

„⇒“ IstA und somit b positiv definit, dann gibt es nach Satz 7.12 eine ON-BasisB1 = (v1) vonU1 bezüglichb, und für jedes k ∈ {1, ..., n − 1} kann die ON-Basis Bk = (v1, ..., vk) durch einen weiteren Vektor vk+1

zu einer ON-Basis von Uk+1 ergänzt werden. Insbesondere ist B = (v1, ..., vn) dann eine ON-Basis vonRn bezüglich b. Es gilt dann jeweils I(k) = MBk(bk), wobei I(k) die Einheitsmatrix inMk,R bezeichnet. Seinun Tk = T EkBk für 1 ≤ k ≤ n die Matrix des Basiswechsels von Ek nach Bk. Weil Tk invertierbar ist, giltdet(Tk) 6= 0. Auf Grund der Transformationsformel (Satz 6.10) gilt

Ak = MEk(bk) = tTkMBk(bk)Tk = tTkI(k)Tk = tTkTk

und somit det(Ak) = det(Tk)2 > 0 für 1 ≤ k ≤ n.

—– 45 —–

Page 46: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

„⇐“ Wir beweisen durch vollständige Induktion über k ∈ {1, ..., n}, dass unter der angegebenen Vor-aussetzung jede der Bilinearformen bk positiv definit ist. Für k = n erhalten wir dann das gewünschteResultat, dass b und somit A positiv definit sind. Zunächst betrachten wir den Fall k = 1. Es ist A1 = (a11)

für ein a11 ∈ R, und auf Grund der Voraussetzung gilt a11 = det(A1) > 0. Ist nun v ∈ U1 = 〈e1〉 einbeliebiger Vektor mit v 6= 0Rn , dann gilt v = λe1 für ein λ ∈ R×, und es folgt

b1(v, v) = b(λe1, λe1) = λ2b(e1, e1) = λ2a11 > 0.

Also ist die Bilinearform b1 auf U1 positiv definit.

Sei nun k ∈ {1, ..., n−1}, und setzen wir nun die Aussage für k als gültig voraus. Dann ist die Bilinearformbk auf Uk nach Induktionsvoraussetzung positiv definit. Sei (v1, ..., vk) eine ON-Basis von Uk bezüglich bk.Wie in Prop. 7.11 definieren wir eine Abbildung π : Uk+1 → Uk durch

π(v) =

k∑j=1

b(v, vj)vj .

Obwohl b nach unseren Voraussetzungen nicht unbedingt positiv definit ist, zeigt eine Rechnung identischmit der in Prop. 7.11, dass der Vektor w = ek+1 − π(ek+1) bezüglich b auf Uk senkrecht steht. Für 1 ≤ i ≤ kgilt nämlich

b(w, vi) = b(ek+1, vi)− b(π(ek+1), vi) = b(ek+1, vi)−k∑j=1

b(ek+1, vj)b(vj , vi)

= b(ek+1, vi)−k∑j=1

b(ek+1, vj)δij = b(ek+1, vi)− b(ek+1, vi) = 0.

Wegen π(ek+1) ∈ Uk und ek+1, w ∈ Uk+1 \ Uk spannt B = (v1, ..., vk, w) einen Untervektorraum U mitUk ( U ⊆ Uk+1 auf. Aus Dimensionsgründen folgt U = Uk+1, und B ist eine Basis von Uk+1. Sei nunB =MB(bk+1). Setzen wir a = b(w, w), dann ist

B =

(I(k) 0

0 a

),

mit det(B) = det(I(k))a = a. Sei nun T = T Ek+1

B die Matrix des Basiswechsels von Ek+1 nach B. Dann giltdet(T ) 6= 0, und die Transformationsformel liefert

Ak+1 = MEk+1(bk+1) = tT Ek+1

B MB(bk+1)T Ek+1

B = tTBT.

Es folgt det(Ak+1) = det(T )2 detB = det(T )2a. Auf Grund der Voraussetzung det(Ak+1) > 0 muss aucha > 0 gelten. Damit können wir nun überprüfen, dass bk+1 positiv definit ist. Sei w ∈ Uk+1 ein Vektor mitw 6= 0Rn und w =

∑ki=1 λivi + λk+1w eine Darstellung von w bezüglich der Basis B. Dann gilt λi 6= 0 für

mindestens ein i. Weil B die Darstellungsmatrix von bk+1 bezüglich dieser Basis ist, erhalten wir

b(w,w) = (λ1 ... λk+1) B t(λ1 ... λk+1) =

k∑i=1

λ2i + λ2

k+1a > 0 wie gewünscht.

—– 46 —–

Page 47: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Eine Matrix A ∈Mn,R wird als negativ definit bezeichnet, wenn für alle u ∈ Rn mit u 6= 0Rn jeweils tuAu < 0 gilt.

Korollar 7.16 (Kriterium für negativ definite Matrizen)

Sei A ∈Mn,R und Ak für 1 ≤ k ≤ n wie in Satz 7.15 definiert. Genau dann ist A negativ definit, wenn

(−1)k det(Ak) > 0 für 1 ≤ k ≤ n erfüllt ist.

Beweis: Offenbar ist A genau dann negativ definit, wenn −A positiv definit ist. Nach dem Hurwitz-Kriterium ist −A genau dann positiv definit, wenn det(−Ak) = (−1)k det(Ak) > 0 für 1 ≤ k ≤ n gilt.

Als geometrische Anwendung der bisher behandelten Theorie beschäftigen wir uns nun mit der Berechnung vonAbständen zwischen affinen Unterräumen. Sei (V, b) ein euklidischer Vektorraum und A ⊆ V ein affiner Unterraum,also eine Teilmenge der Form

A = v + U = {v + u | u ∈ U} ,

wobei U einen Untervektorraum von V bezeichnet. Der Untervektorraum U ist durch A eindeutig festgelegt undwird von uns mit L (A) bezeichnet. Außerdem nennen wir dimA = dim L (A) die Dimension des affinen Unter-raums. Ist dimA = dimV − 1, dann nennt man A auch eine affine Hyperebene in V .

Definition 7.17 Sei (V, b) ein euklidischer Vektorraum, und seien A,A′ ⊆ V zwei affine Unterräumemit A ∩ A′ = ∅. Ist L (A) ⊆ L (A′) oder L (A′) ⊆ L (A), dann bezeichnen wir A und A′ als parallel,ansonsten als windschief. Die Zahl

d(A,A′) = inf{ ‖v − v′‖b | v ∈ A, v′ ∈ A′}

wird der (euklidische) Abstand von A und A′ genannt.

Ist die Schnittmenge zwischen zwei affinen Unterräumen A,A′ nichtleer, dann setzen wir d(A,A′) = 0.

Proposition 7.18 Sei (V, b) ein euklidischer Vektorraum, und seien A,A′ ⊆ V zwei affine Unterräume.Seien v, v′ ∈ V zwei Vektoren mit der Eigenschaft, dass A = v + L (A), A′ = v′ + L (A′) und außerdem(v′ − v) ⊥b (L (A) + L (A′)) gilt. Dann ist d(A,A′) = ‖v′ − v‖b.

Beweis: Wir zeigen, dass ‖v′−v‖b = minS gilt, wobei die Menge S durch S = {‖w′−w‖b | w ∈ A,w′ ∈ A′}gegeben ist. Nach Definition ist ‖v′−v‖b jedenfalls in S enthalten. Um zu zeigen, dass diese Zahl auch eineuntere Schranke von S ist, seienw ∈ A undw′ ∈ A′ beliebig vorgegeben. Wegen (v′−v) ⊥b (L (A)+L (A′))

und w − v ∈ L (A), w′ − v′ ∈ L (A′) gilt

(v′ − v) ⊥b ((w′ − v′)− (w − v)).

Mit dem Satz des Pythagoras folgt

‖w′ − w‖2b = ‖(w′ − v′) + (v′ − v) + (v − w)‖2b = ‖(v′ − v) + ((w′ − v′)− (w − v))‖2b

= ‖(v′ − v)‖2b + ‖(w′ − v′)− (w − v)‖2b ,

also insbesondere ‖w′ − w‖b ≥ ‖v′ − v‖b.

—– 47 —–

Page 48: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Satz 7.19 (Abstand zweier affiner Unterräume)

Sei (V, b) ein endlich-dimensionaler euklidischer Vektorraum, A,A′ ⊆ V zwei affine Unterräume undv ∈ A, v′ ∈ A′ beliebige Elemente. Sei U = L (A) + L (A′) und w = πU (v′ − v). Dann gilt

d(A,A′) = ‖v′ − v − w‖b.

Beweis: Wegenw ∈ U = L (A)+L (A′) existiert eine Zerlegungw = u+u′mit u ∈ L (A) und u′ ∈ L (A′).Nach Definition der Orthogonalprojektion πU ist v′ − v − πU (v′ − v) = v′ − v − w außerdem orthognal zuU . Sei nun v0 = v + u und v′0 = v′ + (−u′). Dann gilt A = v0 + U , A′ = v′0 + U ′, außerdem

v′0 − v0 = v′ − u′ − v − u = v′ − v − (u+ u′) = v′ − v − w.

Wegen (v′ − v − w) ⊥b U folgt (v′0 − v0) ⊥b U und somit d(A,A′) = ‖v′0 − v0‖b nach Prop. 7.18.

Wir bemerken noch, dass die affinen Unterräume A und A′ im Fall v′− v ∈ U einen Schnittpunkt besitzen. In diesemFall gibt es nämlich Vektoren u ∈ L (A) und u′ ∈ L (A′) mit v′−v = u+u′, und damit liegt der Vektor v′−u′ = v+u

in A ∩A′. Der Abstand d(A,A′) ist in diesem Fall natürlich gleich Null.

—– 48 —–

Page 49: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

§ 8. Orthogonale und unitäre Abbildungen

Wichtige Begriffe und Sätze in diesem Abschnitt

– Begriff der orthogonalen Abbildung und der Bewegung– orthogonale Matrizen– unitäre Vektorräume und unitäre Endomorphismen– Drehungen und Spiegelungen– Komplexifizierung euklidischer Vektorräume– Zerlegung einer orthogonalen Abbildung

Definition 8.1 Sei (V, b) ein euklidischer Vektorraum. Ein Endomorphismus φ von V wird orthogonalbezüglich b genannt, wenn b(φ(v), φ(w)) = b(v, w) für alle v, w ∈ V gilt.

Definition 8.2 Sei (V, b) ein euklidischer Vektorraum. Eine Abbildung ψ : V → V bezeichnet man alsBewegung, wenn ‖ψ(v) − ψ(w)‖b = ‖v − w‖b für alle v, w ∈ V erfüllt ist. Eine Bewegung ist also eine„abstandserhaltende“ Abbildung.

Als erstes werden wir untersuchen, wie orthogonale Endomorphismen und Bewegungen in einem euklidischen Vek-torraum miteinander zusammenhängen.

Lemma 8.3 Sei (V, b) ein euklidischer Vektorraum und φ : V → V eine Abbildung mit der Eigenschaft,dass b(φ(v), φ(w)) = b(v, w) für alle v, w ∈ V erfüllt ist. Dann ist φ ein orthogonaler Endomorphismusvon V .

Beweis: Wir müssen zeigen, das φ eine lineare Abbildung ist. Seien dazu v, w ∈ V und λ ∈ R vorgegeben.Weil b symmetrisch ist, erhalten wir

b(φ(v + w)− φ(v)− φ(w), φ(v + w)− φ(v)− φ(w)) =

b(φ(v + w), φ(v + w)− φ(v)− φ(w))− b(φ(v), φ(v + w)− φ(v)− φ(w))− b(φ(w), φ(v + w)− φ(v)− φ(w)) =

b(φ(v + w), φ(v + w)) + b(φ(v), φ(v)) + b(φ(w), φ(w))− b(φ(v + w), φ(v))− b(φ(v), φ(v + w))

−b(φ(v + w), φ(w))− b(φ(w), φ(v + w)) + b(φ(v), φ(w)) + b(φ(w), φ(v)) =

b(φ(v + w), φ(v + w)) + b(φ(v), φ(v)) + b(φ(w), φ(w))

−2b(φ(v + w), φ(v))− 2b(φ(v + w), φ(w)) + 2b(φ(v), φ(w))(∗)=

—– 49 —–

Page 50: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

b(v + w, v + w) + b(v, v) + b(w,w)− 2b(v + w, v)− 2b(v + w,w) + 2b(v, w) =

b(v + w, v + w) + b(v, v) + b(w,w)− b(v + w, v)− b(v, v + w)− b(v + w,w)− b(v + w,w) + b(v, w) + b(v, w) =

b(v + w, (v + w)− v − w)− b(v, (v + w)− v − w)− b(w, (v + w)− v − w) =

b((v + w)− v − w, (v + w)− v − w) = b(0V , 0V ) = 0 ,

wobei an der Stelle (*) die Voraussetzung an die Abbildung φ verwendet wurde. Weil b positiv definit ist,folgt daraus φ(v + w)− φ(v)− φ(w) = 0V und somit φ(v + w) = φ(v) + φ(w). Genauso erhält man

b(φ(λv)− λφ(v), φ(λv)− λφ(v)) = b(φ(λv), φ(λv))− 2b(φ(λv), λφ(v)) + b(λφ(v), λφ(v)) =

b(φ(λv), φ(λv))− 2λb(φ(λv), φ(v)) + λ2b(φ(v), φ(v)) =

b(λv, λv)− 2λb(λv, v) + λ2b(v, v) = λ2b(v, v)− 2λ2b(v, v) + λ2b(v, v) = 0

und somit φ(λv) − λφ(v) = 0V ⇔ φ(λv) = λφ(v). Damit ist φ ein Endomorphismus von V , und dieOrthogonalität ist offensichtlich.

Lemma 8.4 Sei (V, b) ein euklidischer Vektorraum, und seien v, w ∈ V beliebige Elemente. Dann gilt

b(v, w) = 14

(‖v + w‖2b − ‖v − w‖2b

)= 1

2

(‖v‖2b + ‖w‖2b − ‖v − w‖2b

).

Beweis: Beide Gleichungen können direkt nachgerechnet werden. Für beliebige v, w ∈ V gilt

‖v + w‖2b − ‖v − w‖2b = b(v + w, v + w) + b(v − w, v − w) =

(b(v, v) + 2b(v, w) + b(w,w))− (b(v, v)− 2b(v, w) + b(w,w)) = 4b(v, w).

Ebenso erhält man

‖v‖2b + ‖w‖2b − ‖v − w‖2b = b(v, v) + b(w,w)− b(v − w, v − w) =

b(v, v) + b(w,w)− (b(v, v)− 2b(v, w) + b(w,w)) = 2b(v, w)

Proposition 8.5 Sei (V, b) ein euklidischer Vektorraum, und sei φ : V → V eine Abbildung mit denEigenschaften φ(0V ) = 0V und ‖φ(v)− φ(w)‖b = ‖v−w‖b für alle v, w ∈ V . Dann ist φ ein orthogonalerEndomorphismus.

Beweis: Aus φ(0V ) = 0V und ‖φ(v)− φ(w)‖b = ‖v − w‖b folgt ‖φ(v)‖b = ‖v‖b für alle v ∈ V .Mit Lemma 8.4 erhalten wir

b(φ(v), φ(w)) = 12

(‖φ(v)‖2b + ‖φ(w)‖2b − ‖φ(v)− φ(w)‖2b

)= 1

2

(‖v‖2b + ‖w‖2b − ‖v − w‖2b

)= b(v, w)

für alle v, w ∈ V . Nach Lemma 8.3 ist φ also ein orthogonaler Endomorphismus.

—– 50 —–

Page 51: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Satz 8.6 Sei (V, b) ein euklidischer Vektorraum. Eine Abbildung ψ : V → V ist genau dann eineBewegung, wenn ein Vektor v0 ∈ V und ein orthogonaler Endomorphismus φ ∈ EndR(V ) existieren, sodass ψ(v) = v0 + φ(v) für alle v ∈ V erfüllt ist.

Beweis: „⇒“ Setzen wir voraus, dass ψ eine Bewegung ist. Definieren wir v0 = ψ(0V ) und φ(v) =

ψ(v)−v0 für alle v ∈ V , dann ist offenbar ψ(v) = v0 +φ(v) für alle v ∈ V erfüllt. Außerdem gilt φ(0V ) = 0Vund

‖φ(v)− φ(w)‖b = ‖(ψ(v)− v0)− (ψ(w)− v0)‖b = ‖ψ(v)− ψ(w)‖b = ‖v − w‖b

für alle v, w ∈ V . Nach Prop. 8.5 ist φ also ein orthogonaler Endomorphismus.

„⇐“ Nach Voraussetzung existiert ein Vektor v0 ∈ V und ein orthogonaler Endomorphismus φ von V , sodass ψ(v) = v0 + φ(v) für alle v ∈ V erfüllt ist. Für alle v, w ∈ V folgt daraus

‖ψ(v)− ψ(w)‖2b = ‖φ(v)− φ(w)‖2b = b(φ(v)− φ(w), φ(v)− φ(w)) =

b(φ(v − w), φ(v − w)) = b(v − w, v − w) = ‖v − w‖2bund somit ‖ψ(v)− ψ(w)‖b = ‖v − w‖b. Dies zeigt, dass ψ eine Bewegung ist.

Definition 8.7 Eine Matrix A ∈ Mn,R bezeichnet man als orthogonal, wenn tAA = I(n) gilt, wobeiI(n) die Einheitsmatrix inMn,R bezeichnet.

Satz 8.8 Sei (V, b) ein endlich-dimensionaler euklidischer Vektorraum, φ ∈ EndR(V ), und sei A =

(v1, ..., vn) eine ON-Basis von V . Dann sind folgende Aussagen äquivalent:

(i) Der Endomorphismus φ ist orthogonal.(ii) Die Darstellungsmatrix A =MA(φ) ist orthogonal.

Beweis: Weil A eine ON-Basis von V ist, gilt MA(b) = I(n). Für alle v, w ∈ V gilt nach Definition derDarstellungsmatrizen von φ und b jeweils

b(v, w) = tκA(v)MA(b)κA(w) = tκA(v)κA(w)

und

b(φ(v), φ(w)) = tκA(φ(v))MA(b)κA(φ(w)) = t(AκA(v))MA(b)AκA(w) = tκA(v)tAAκA(w).

Ist nun φ orthogonal, dann gilt b(φ(v), φ(w)) = b(v, w) für alle v, w ∈ V . Setzen wirB = tAA, dann erhaltenwir für die Einträge dieser Matrix

bk` = tek B e` = tektA A e` = tκA(vk) tA A κA(v`) =

b(φ(vk), φ(v`)) = b(vk, v`) = tκA(vk) κA(v`) = tekte` = δk`

also tAA = B = I(n). Ist umgekehrt A orthogonal, also tAA = I(n), dann erhalten wir

b(φ(v), φ(w)) = tκA(v) tA A κA(w) = tκA(v) κA(w) = b(v, w).

—– 51 —–

Page 52: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Korollar 8.9 Sei (V, b) ein endlich-dimensionaler euklidischer Vektorraum und φ ∈ EndR(V ). Dannsind äquivalent:

(i) Der Endomorphismus φ ist orthogonal.(ii) Der Endomorphismus φ ist ein Automorphismus von V , und es gilt b(φ−1(v), w)) = b(v, φ(w))

für alle v, w ∈ V .

Beweis: „(i) ⇒ (ii)“ Sei n = dimV und A ∈ Mn,R die Darstellungsmatrix von φ bezüglich einer ON-Basis. Wegen tAA = In istA invertierbar, und folglich ist φ bijektiv, also ein Automorphismus von V . Seiennun v, w ∈ V vorgegeben. Dann gilt b(φ−1(v), w) = b(φ(φ−1(v)), φ(w)) = b(v, φ(w)).

„(ii)⇒ (i)“ Seien v, w ∈ V vorgegeben. Weil φ bijektiv ist, existiert die Umkehrabbildung φ−1 von φ, undwir erhalten b(φ(v), φ(w)) = b(φ−1(φ(v)), w) = b(v, w).

Korollar 8.10 Die orthogonalen Endomorphismen eines euklidischen Vektorraums (V, b) bilden ei-ne Gruppe, die sogenannte orthogonale Gruppe von (V, b). Ist speziell V = Rn und b das euklidischeStandard-Skalarprodukt auf Rn, dann bezeichnet man die orthogonale Gruppe mit O(n).

Definition 8.11 Sei V einC-Vektorraum. Eine Sesquilinearform auf V ist eine Abbildung b : V ×V → C

mit den Eigenschaften

(i) b(v + v′, w) = b(v, w) + b(v′, w) (ii) b(λv,w) = λb(v, w)

(iii) b(v, w + w′) = b(v, w) + b(v, w′) (iv) b(v, λw) = λb(v, w)

für alle v, v′, w, w′ ∈ V und λ ∈ C. Gilt außerdem b(w, v) = b(v, w) für alle v, w ∈ V , dann bezeichnetman die Sesquilinearform als hermitesch.

Ist b eine hermitesche Sequilinearform auf einem C-Vektorraum V , dann gilt insbesondere b(v, v) = b(v, v) und somitb(v, v) ∈ R für alle v ∈ V . Gilt darüber hinaus b(v, v) > 0 für alle v ∈ V mit v 6= 0V , dann spricht man von einerpositiv definiten Sesquilinearform oder einem hermiteschen Skalarprodukt. Das Paar (V, b) wird in diesem Fall einunitärer Vektorraum genannt.

Wie bei den Bilinearformen kann auch einer Sesquilinearform b auf einem endlich-dimensionalen C-Vektorraum V

eine Darstellungsmatrix zugeordnet werden. Ist A = (v1, ..., vn) eine geordnete Basis von V , dann ist MA(b) dieMatrix A = (ak`) mit den Einträgen ak` = b(vk, v`) für 1 ≤ k, ` ≤ n. Sind v, w ∈ V mit den KoordinatenvektorenκA(v) = (λ1, ..., λn) und κA(w) = (µ1, ..., µn), dann gilt

b(v, w) = b

(n∑k=1

λkvk,

n∑`=1

µ`v`

)=

n∑k=1

n∑`=1

λkµ`ak` =

(n∑k=1

λkak1 · · ·n∑k=1

λkakn

)µ1

...µn

= (λ1 · · · λn)A

µ1

...µn

= tκA(v)AκA(w).

—– 52 —–

Page 53: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Das Konzept der Orthogonalität und des Orthogonalraums einer Menge lassen sich unverändert auf euklidische Vek-torräume übertragen, ebenso die Begriffe des ON-Systems und der ON-Basis. Die Gram-Schmidt-Orthonormalisierunglässt sich genau wie in den euklidischen Vektorräumen durchführen. Folglich existiert auch zu jedem endlich-dimen-sionalen Untervektorraum U eines unitären Vektorraums (V, b) eine Orthogonalprojektion πU : V → U , und es giltV = U ⊕ U⊥. Der Beweis all dieser Aussagen erfolgt genau wie im Fall der euklidischen Vektorräume.

Definition 8.12 Sei (V, b) ein unitärer Vektorraum. Ein Endomorphismus φ ∈ EndC(V ) wird unitärgenannt, wenn

b(φ(v), φ(w)) = b(v, w) für alle v, w ∈ V gilt.

Wir bezeichnen eine Matrix A ∈Mn,C als unitär, wenn tAA = I(n) gilt. Als Analogon von Satz 8.8 erhalten wir

Satz 8.13 Sei (V, b) ein endlich-dimensionaler unitärer Vektorraum, φ ∈ EndC(V ), und sei A =

(v1, ..., vn) eine ON-Basis von V . Dann sind folgende Aussagen äquivalent:

(i) Der Endomorphismus φ ist unitär.(ii) Die Darstellungsmatrix A =MA(φ) ist unitär.

Beweis: Der Beweis läuft fast wortwörtlich wie in Satz 8.8. WeilA eine ON-Basis von V ist, giltMA(b) =

I(n). Für alle v, w ∈ V gilt nach Definition der Darstellungsmatrizen von φ und b jeweils

b(v, w) = tκA(v)MA(b)κA(w) = tκA(v)κA(w)

und

b(φ(v), φ(w)) = tκA(φ(v))MA(b)κA(φ(w)) = t(AκA(v))MA(b)AκA(w) = tκA(v) tAA κA(w).

Ist nun φ unitär, dann gilt b(φ(v), φ(w)) = b(v, w) für alle v, w ∈ V . Setzen wir B = tAA, dann erhalten wirfür die Einträge dieser Matrix

bk` = tek B e` = tektA A e` = tκA(vk) tA A κA(v`) =

b(φ(vk), φ(v`)) = b(vk, v`) = tκA(vk) κA(v`) = tek e` = δk`

also tAA = B = I(n). Ist umgekehrt A unitär, also tAA = I(n), dann erhalten wir

b(φ(v), φ(w)) = tκA(v) tA A κA(w) = tκA(v) κA(w) = b(v, w).

Wie im orthognalen Fall zeigt man, dass auch die unitären Endomorphismen eines endlich-dimensionalen unitärenVektorraums (V, b) bijektiv sind und eine Gruppe bilden, die sogenannte unitäre Gruppe von (V, b). Ist speziell V =

Cn und b : Cn × Cn → C das unitäre Standard-Skalarprodukt auf Cn definiert durch

b

λ1

...λn

,

µ1

...µn

=

n∑k=1

λkµk

—– 53 —–

Page 54: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

dann bezeichnet man die unitäre Gruppe mit U(n). Unser Hauptinteresse gilt nun den Eigenwerten der unitärenEndomorphismen.

Proposition 8.14 Sei (V, b) ein unitärer Vektorraum und φ ∈ EndC(V ) ein unitärer Endomorphismus.Dann gilt

(i) Für jeden Eigenwert α ∈ C von φ gilt |α| = 1.(ii) Sind α, β ∈ C zwei verschiedene Eigenwerte von φ, dann Eig(φ, α) ⊥b Eig(φ, β).

Beweis: zu (i) Sei v ∈ V ein Eigenvektor zum Eigenwert α. Dann gilt

b(v, v) = b(φ(v), φ(v)) = b(αv, αv) = ααb(v, v) = |α|2b(v, v).

Division durch b(v, v) liefert |α|2 = 1 und damit |α| = 1.

zu (ii) Wegen |α| = 1 gilt αα = |α|2 = 1 und somit α = α−1. Seien nun v ∈ Eig(φ, α) und w ∈ Eig(φ, β)

vorgegeben. Es gilt

b(v, w) = b(φ(v), φ(w)) = b(αv, βw) = αβb(v, w) = α−1βb(v, w).

Wäre b(v, w) 6= 0, dann würden wir α−1β = 1⇔ α = β erhalten, im Widerspruch zur Voraussetzung.Also ist b(v, w) = 0.

Wir kommen nun zum zentralen Satz über unitäre Endomorphismen.

Satz 8.15 Sei (V, b) ein endlich-dimensionaler unitärer Vektorraum und φ ∈ EndC(V ) ein unitärerEndomorphismus. Dann besitzt V eine ON-Basis bestehend aus Eigenvektoren von φ.

Beweis: Wir beweisen die Aussage durch vollständige Induktion über dimV . Im Fall dimV = 0 ist nichtszu zeigen. Sei nun n = dimV , und setzen wir die Aussage für Vektorräume kleinerer Dimension voraus.

Weil der Körper C algebraisch abgeschlossen ist, zerfällt das charakteristische Polynom χφ ∈ C[x] in Li-nearfaktoren. Insbesondere hat χφ eine Nullstelle und φ damit zumindest einen Eigenwert α ∈ C. Seiv1 ∈ V ein zugehöriger Eigenvektor. Nach Division durch

√b(v1, v1) können wir davon ausgehen, dass v1

normiert ist, also b(v1, v1) = 1 gilt. Setzen wir U = 〈v1〉⊥C , dann gilt V = 〈v1〉C⊕U und somit dimU = n−1.Wir zeigen, dass U unter φ invariant ist. Ist w ∈ U vorgegeben, dann gilt b(w, v1) = 0 und somit

b(φ(w), v1) = α−1b(φ(w), αv1) = α−1b(φ(w), φ(v1)) = α−1b(w, v1) = 0.

Daraus folgt φ(w) ∈ U , insgesamt also φ(U) ⊆ U . Nach Induktionsvoraussetzung besitzt U eine ON-Basis(v2, ..., vn) aus Eigenvektoren bezüglich φ|U . Also ist (v1, v2, ..., vn) eine Basis von V mit den gewünschtenEigenschaften.

—– 54 —–

Page 55: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Korollar 8.16 Jeder unitäre Endomorphismus eines endlich-dimensionalen unitären Vektorraums Vist diagonalisierbar. Es gilt

V = Eig(φ, α1)⊕ ...⊕ Eig(φ, αr) ,

wobei α1, ..., αr ∈ C die verschiedenen Eigenwerte von φ bezeichnen, und die Eigenräume in dieserdirekten Summenzerlegung sind orthogonal zueinander.

Leider lassen sich diese Ergebnisse nicht ohne weiteres auf orthogonale Endomorphismen übertragen. Hier zerfälltdas charakteristische Polynom im allgemeinen nicht in Linearfaktoren, so dass der Endomorphismus auch nichtdiagonalisierbar sein kann (siehe Satz 2.11). Der Grund dafür besteht darin, dass orthogonale Endomorphismen imallgemeinen Drehungen beinhalten. Diesen Abbildungstyp sehen wir uns nun genauer an. Für jedes θ ∈ R bezeichnenwir

Dθ =

(cos θ − sin θ

sin θ cos θ

)als die Drehmatrix zum Winkel θ.

Definition 8.17 Sei (V, b) ein euklidischer Vektorraum und φ ∈ EndR(V ). Seien außerdem U,W

zueinander orthogonale, φ-invariante Untervektorräume von V mit V = U ⊕W und φ|W = idW .

(i) Ist dimU = 2 und giltMA(φ|U ) = Dθ für ein θ ∈ R bezüglich einer geeigneten ON-BasisA, dannbezeichnet man φ als Drehung um den Winkel θ. Den Untervektorraum W bezeichnet man alsDrehachse von φ.

(ii) Ist dimU = 1 und gilt φ|U = (−1)idU , dann nennt man φ eine Spiegelung an der Hyperebene W .

Offenbar ist eine Drehung φ zu einem Winkel θ ∈ R \ πZ ein nicht-diagonalisierbarer Endomorphismus, denn dascharakteristische Polynom χφ enthält den Faktor

fθ = χDθ = x2 − 2(cos θ)x+ 1.

Die Diskriminante von fθ ist d(fθ) = 4(cos θ)2 − 4 < 0, also hat fθ zwei nicht-reelle, zueinander konjugiert-komplexeNullstellen und ist damit in R[x] irreduzibel.

Satz 8.18 (ohne Beweis)

Zu jedemR-Vektorraum (V,+, ·) existiert ein C-Vektorraum (VC,+C, ·C) mit folgenden Eigenschaften.

(i) Es gilt VC ⊇ V .(ii) Die Einschränkung der Vektoraddition +C auf die Teilmenge V × V ⊆ VC × VC stimmt mit der

Vektoraddition + von V überein.(iii) Ebenso erhält man durch Einschränkung der skalaren Multiplikation von C × VC auf R × V die

skalare Multiplikation · von V .(iv) Jeder Vektor v ∈ VC besitzt eine eindeutige Darstellung als Summe v = w + iu mit u,w ∈ V , mit

anderen Worten, es gilt VC = V ⊕ iV .

Man bezeichnet (VC,+C, ·C) als eine Komplexifizierung von (V,+, ·).

—– 55 —–

Page 56: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Ist beispielsweise V = Rn, dann ist Cn eine Komplexifizierung von V , mit der üblichen Vektoraddition und skala-ren Multiplikation. Zur Vereinfachung der Notation verwendet man an Stelle der Verknüpfungssymbole +C und ·Cweiterhin + und ·. Die in V ⊆ VC liegenden Vektoren werden reelle Vektoren genannt.

Die eindeutig bestimmte Abbildung VC → VC, die jedem Vektor v = w + iu mit w, u ∈ V den Vektor v = w − iuzuordnet, bezeichnet man als komplexe Konjugation auf VC. Diese Abbildung ist offenbar bijektiv und linear, wennman VC alsR-Vektorraum betrachtet. Sie ist aber kein Automorphismus des C-Vektorraums VC. Ein Vektor v ∈ VC istgenau dann reell, wenn er unter der komplexen Konjugation unverändert bleibt.

Lemma 8.19 Für alle v ∈ VC und α ∈ C gilt α · v = αv.

Beweis: Wir schreiben v = w+iumit w, u ∈ V und α = β+iγ mit β, γ ∈ R. Es gilt αv = (β+iγ)(w+iu) =

βw + iγw + iβu− γu = (βw − γu) + i(γw + βu) und somit

αv = (βw − γu)− i(γw + βu).

Andererseits gilt auch α · v = (β − iγ) · (w − iu) = βw − iγw − iβu− γu = (βw − γu)− i(γw + βu).

Proposition 8.20 Für jedes φ ∈ EndR(V ) gibt es ein eindeutig bestimmtes φC ∈ EndC(VC) mit derEigenschaft φC|V = φ. Man nennt φC die C-lineare Fortsetzung von φ.

Beweis: Ist ψ ∈ EndC(VC) beliebig mit ψ|V = φ, dann gilt ψ(w + iu) = ψ(w) + iψ(u) = φ(w) + iφ(u)

für alle w, u ∈ V . Dies beweist die Eindeutigkeit der C-linearen Fortsetzung. Zum Nachweis der Existenzdefinieren wir φC : VC → VC durch

φC(w + iu) = φ(w) + iφ(u) für w, u ∈ V.

Offenbar ist die Gleichung φC|V = φ erfüllt. Um zu zeigen, dass φC eine C-lineare Abbildung ist, seienv, v′ ∈ VC und α ∈ C vorgegeben. Wir schreiben v = w + iu und v′ = w′ + iu′ mit w,w′, u, u′ ∈ V undα = β + iγ mit β, γ ∈ R. Dann gilt

φC(v + v′) = φC((w + w′) + i(u+ u′)) = φ(w + w′) + iφ(u+ u′) =

φ(w) + iφ(u) + φ(w′) + iφ(u′) = φC(v) + φC(v′)

und

φC(αv) = φC((β + iγ)(w + iu)) = φC((βw − γu) + i(γw + βu)) =

βφ(w)− γφ(u) + iγφ(w) + iβφ(u) = (β + iγ)(φ(w) + iφ(u)) = αφC(v).

Wir bemerken noch, dass die C-lineare Fortsetzung φC die Gleichung φ(v) = φ(v) für alle v ∈ VC erfüllt.Ist nämlich v = w + iu mit w, u ∈ V , dann gilt

φ(v) = φ(w − iu) = φ(w)− iφ(u) = φ(w) + iφ(u) = φC(v + iu) = φ(v).

—– 56 —–

Page 57: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Lemma 8.21 Sei V ein endlich-dimensionaler R-Vektorraum und φ ∈ EndR(V ). Dann stimmen diecharakteristischen Polynome von φ und φC überein.

Beweis: Sei A = (v1, ..., vn) eine geordnete Basis von V . In den Übungen zeigen wir, dass A auch ei-ne geordnete Basis von VC als C-Vektorraum ist und damit insbesondere n = dimV = dimVC gilt. AufGrund der Eigenschaft φC|V = φ der C-linearen Fortsetzung stimmen die Darstellungsmatrizen MA(φ)

undMA(φC) überein. Damit sind auch die charakteristischen Polynome von φ und φC gleich.

Proposition 8.22 Sei V ein R-Vektorraum und b eine Bilinearform auf V .

(i) Es gibt eine eindeutig bestimmte Sesquilinearform bC auf VC mit der EigenschaftbC(u, u′) = b(u, u′) für alle u, u′ ∈ V .

(ii) Ist b symmetrisch, dann ist bC hermitesch. In jedem Fall gilt bC(v, v′) = bC(v, v′) für alle v ∈ VC.(iii) Ist b darüber hinaus positiv definit, dann ist auch bC positiv definit, also ein hermitesches Skalar-

produkt auf VC.

Beweis: zu (i) Hat bC die angegebenen Eigenschaften, dann gilt

bC(w + iu, w′ + iu′) = bC(w,w′ + iu′) + bC(iu, w′ + iu′) =

bC(w,w′) + bC(w, iu′) + bC(iu, w′) + bC(iu, iu′) = b(w,w′) + ib(w, u′) + (−i)b(u,w′) + b(u, u′).

Ähnlich wie im Beweis von Prop. 8.20 verwendet man diese Gleichung, um die Existenz und Eindeutigkeitvon bC zu beweisen.

zu (ii) Seien v, v′ ∈ VC vorgegeben, wobei v = w + iu und v′ = w′ + iu′ mit w,w′, u, u′ ∈ V gilt. Ist bsymmetrisch, dann erhalten wir

bC(v, v′) = bC(w + iu, w′ + iu′) = b(w,w′) + ib(w, u′) + (−i)b(u,w′) + b(u, u′).

Dagegen gilt

bC(v′, v) = bC(w′ + iu′, w + iu) = b(w′, w) + ib(w′, u) + (−i)b(u′, w) + b(u′, u)

= b(w,w′) + ib(u,w′) + (−i)b(w, u′) + b(u, u′) ,

und diese Zahl ist zu bC(v, v′) komplex konjugiert. Die zweite Gleichung erhält man durch die Rechnung

bC(v, v′) = bC(w − iu, w′ − iu′) = b(w,w′)− ib(w, u′) + ib(u,w′) + b(u, u′)

= bC(w + iu, w′ + iu′) = bC(v, v′).

zu (iii) Sei v ∈ VC, v = w + iu mit w, u ∈ V . Ist v 6= 0VC , dann gilt w 6= 0V oder u 6= 0V , außerdem

bC(v, v) = b(w,w) + ib(w, u) + (−i)b(u,w) + b(u, u)

= b(w,w) + ib(u,w) + (−i)b(u,w) + b(u, u) = b(w,w) + b(u, u).

Ist nun b positiv definit, dann folgt bC(v, v) = b(w,w) + b(u, u) > 0.

—– 57 —–

Page 58: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Jedem euklidischen Vektorraum (V, b) kann also auf natürliche Weise ein unitärer Vektorraum (VC, bC)

zugeordnet werden.

Lemma 8.23 Sei (V, b) ein euklidischer Vektorraum und φ ∈ EndR(V ) ein orthogonaler Endomorphis-mus. Dann ist φC ein unitärer Endomorphismus in (VC, bC).

Beweis: Seien v, v′ ∈ VC vorgegeben, v = w + iu und v′ = w′ + iu′. Dann gilt

bC(φC(v), φC(v′)) = bC(φ(w) + iφ(u), φ(w′) + iφ(u′)) =

bC(φ(w), φ(w′)) + bC(iφ(u), φ(w′)) + bC(φ(w), iφ(u′)) + bC(iφ(u), iφ(u′)) =

b(φ(w), φ(w′)) + (−i)b(φ(u), φ(w′)) + ib(φ(w), φ(u′)) + b(φ(u), φ(u′)) =

b(w,w′) + (−i)b(u,w′) + ib(w, u′) + b(u, u′) = bC(w,w′) + bC(iu, w′) + bC(w, iu′) + bC(iu, iu′)

= bC(w + iu, w′ + iu′) = bC(v, v′).

Proposition 8.24 Sei (V, b) ein euklidischer Vektorraum und φ ∈ EndR(V ) orthogonal. Sei α ∈ C \ Rein Eigenwert von φC, und sei v ∈ VC ein normierter Eigenvektor zum Eigenwert α. Dann gilt

(i) Der Vektor v liegt in Eig(φC, α). (Dies gilt auch für reelle Eigenwerte.)(ii) Das Paar B = (u,w) bestehend aus den Vektoren w = 1√

2(v + v) und u = 1√

2i(v − v) bildet ein

ON-System in (V, b).(iii) Der Untervektorraum U = 〈u,w〉R ist unter φ invariant. Ist α = eiθ die Polarkoordinaten-

Darstellung von α, dann gilt

MB(φ|U ) =

(cos θ − sin θ

sin θ cos θ

).

Beweis: zu (i) Aus φC(v) = αv folgt φC(v) = φC(v) = αv = α · v. Der Vektor v liegt also in Eig(φ, α).

zu (ii) Die Vektoren u und w bleiben unter der komplexen Konjugation unverändert und sind damitjedenfalls in V enthalten. Zunächst sehen wir uns an, wie die Vektoren v und v durch das Paar (w, u)

dargestellt werden können. Es gilt

w + iu =1√2

(v + v) +i√2i

(v − v) = 1√2(v + v + v − v) =

√2v

und

w − iu =1√2

(v + v)− i√2i

(v − v) = 1√2(v + v − v + v) =

√2v ,

also v = 1√2(w + iu) und v = 1√

2(w − iu). Mit Hilfe dieser Formeln erhalten wir

bC(v, v) = 12bC(w + iu, w + iu) = 1

2bC(w,w) + 12bC(iu, w) + 1

2bC(w, iu) + 12bC(iu, iu)

= 12b(w,w)− 1

2 ib(u,w) + 12 ib(u,w) + 1

2b(u, u) = 12b(w,w) + 1

2b(u, u) ,

—– 58 —–

Page 59: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

wegen bC(v, v) ∈ R auch bC(v, v) = bC(v, v) = bC(v, v) = 12b(w,w) + 1

2b(u, u), und

bC(v, v) = 12bC(w + iu, w − iu) = 1

2bC(w,w) + 12bC(iu, w)− 1

2bC(w, iu)− 12bC(iu, iu)

= 12b(w,w)− 1

2 ib(u,w)− 12 ib(u,w)− 1

2b(u, u) = 12b(w,w)− 1

2b(u, u)− ib(u,w).

Wegen α 6= α gilt Eig(φC, α) ⊥b Eig(φC, α), insbesondere stehen die Vektoren v und v senkrecht aufein-ander. Es gilt also bC(v, v) = 0 und damit auch b(u,w) = 0 und b(w,w) = b(u, u). Weil v normiert ist, giltbC(v, v) = 1 und damit 1

2b(w,w) + 12b(u, u) = 1. Es folgt b(u, u) = 1 und b(w,w) = 1.

zu (iii) Wir berechnen die Bilder von w und u unter φ. Es gilt

φ(u) = φC

(1√2i

(v − v)

)=

1√2i

(φC(v)− φC(v)) =1√2i

(αv − αv) =

1

2i

(eiθv − e−iθv

)=

1

2i((cos θ + i sin θ)(w + iu)− (cos θ − i sin θ)(w − iu)) =

1

2i((cos θ)w + i(sin θ)w + i(cos θ)u− (sin θ)u− (cos θ)w + i(sin θ)w + i(cos θ)u+ (sin θ)u)

=1

2i(2i(sin θ)w + 2i(cos θ)u) = (cos θ)u+ (sin θ)w.

Dies zeigt, dass die erste Spalte der Darstellungsmatrix die angegebene Form hat. Weiter gilt

φ(w) = φC

(1√2

(v + v)

)=

1√2

(φC(v) + φC(v)) =1√2

(αv + αv) = 12

(eiθv + e−iθv

)= 1

2 ((cos θ + i sin θ)(w + iu) + (cos θ − i sin θ)(w − iu)) =

12 ((cos θ)w + i(sin θ)w + i(cos θ)u− (sin θ)u+ (cos θ)w − i(sin θ)w − i(cos θ)u− (sin θ)w)

= 12 (2(cos θ)w − 2(sin θ)u) = (− sin θ)u+ (cos θ)w.

Somit hat auch die zweite Spalte die angegebene Gestalt.

Proposition 8.25 Sei 0 6= f ∈ R[x]. Ist α ∈ C eine Nullstelle von f , dann auch die konjugiert-komplexeZahl α. Daraus folgt, dass die Anzahl nicht-reeller Nullstellen von f stets gerade ist.

Beweis: Sei f =∑nk=0 akx

n. Wegen ak ∈ R gilt ak = ak, für 0 ≤ k ≤ n. Ist nun α ∈ C eine Nullstelle vonf , dann gilt

f(α) =

n∑k=0

akαk =

n∑k=0

akαk =

n∑k=0

akαk = f(α) = 0 = 0.

Ist α /∈ R, dann gilt α 6= α. Dies zeigt, dass die nicht-reellen Nullstellen von f immer paarweise auftreten.

—– 59 —–

Page 60: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Satz 8.26 Sei (V, b) ein euklidischer Vektorraum und φ ein orthogonaler Endomorphismus von V .Dann gibt es eine ON-Basis A von V und θ1, ..., θt ∈ ]0, 2π[ \ {π}, so dass die Darstellungsmatrix von φbezüglich A die Form

MA(φ) =

1. . .

1

−1. . .

−1

Dθ1

. . .Dθt

annimmt ,

eine Matrix ausschließlich mit den Zahlen ±1 und Drehmatrizen entlang der Hauptdiagonalen.

Beweis: Sei φC : VC → VC die C-lineare Fortsetzung von φ. Nach Lemma 8.23 ist φC ein unitärer Endo-morphismus von VC. Für jeden Eigenwert α ∈ C von φC gilt |α| = 1 nach Prop. 8.14 Durch Anwendungvon Kor. 8.16 erhalten wir eine orthogonale, direkte Summenzerlegung

VC = Eig(φC, 1)⊕ Eig(φC,−1)⊕ Eig(φC, α1)⊕ ...⊕ Eig(φC, αn)

von VC in Eigenräume bezüglich φC, wobei die Zahlen α1, ..., αn ∈ C die verschiedenen nicht-reellen Ei-genwerte von φC durchlaufen. Dabei ist Eig(φC, 1) = {0V }, Eig(φC,−1) = {0V } oder auch n = 0 möglich.Nach Prop. 8.25 gilt n = 2s für ein s ∈ N0, und nach eventueller Umnummerierung können wir davonausgehen, dass die Werte α2k−1, α2k für 1 ≤ k ≤ s jeweils konjugiert-komplexe Paare bilden.

Sei nun U = Eig(φC, 1). Sei v ∈ U und v = w + iu eine Zerlegung mit w, u ∈ V . Nach Prop. 8.24 (i) liegtauch v = w − iu in U , und es folgt w = 1

2 (v + v) ∈ U und u = 12i (v − v) ∈ U . Die Vektoren w und u sind

invariant unter der komplexen Konjugation und somit reell. Setzen wir UR = U ∩ V = Eig(φ, 1), dannist also v = w + iu mit w, u ∈ UR. Damit haben wir nachgewiesen, dass eine direkte SummenzerlegungU = UR ⊕ iUR existiert. Bezeichnet B1 eine ON-Basis von UR bezüglich φ|UR , so ist dies zugleich eine ON-Basis von U bezüglich φC|U . Die Darstellungsmatrix von φ|UR bezüglich B1 ist dann die Einheitsmatrix.

Genauso können wir auch eine ON-Basis B−1 von WR = Eig(φC,−1) ∩ V wählen, und erhalten damitzugleich eine ON-Basis von W = Eig(φC,−1). Die Darstellungsmatrix von φ|WR

bezüglich B−1 ist dasNegative der Einheitsmatrix.

Sei nun k ∈ {1, ..., s} und Uk = Eig(φC, α2k). Für jedes v ∈ Uk gilt v ∈ Eig(φC, α2k) nach Prop. 8.24 (i).Durch die komplexe Konjugation sind also zueinander inverse Isomorphismen zwischen Uk und

Uk = Eig(φC, α2k) = Eig(φC, α2k−1)

gegeben. Ist (v1, ..., vm) eine ON-Basis von Uk, dann gilt wegen Prop. 8.22 (ii) jeweils b(vj , vj) = b(vj , vj) =

1 = 1 und ebenso b(vj , v`) = b(vj , v`) = 0 = 0, für 1 ≤ j, ` ≤ m und j 6= m. Also ist durch (v1, ..., vm) eineON-Basis von Uk gegeben. Für 1 ≤ j ≤ m setzen wir nun

wj =1√2

(vj + vj) und uj =1√2i

(vj − vj).

—– 60 —–

Page 61: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Nach Prop. 8.24 (ii) ist (wj , uj) jeweils ein ON-System. Außerdem steht 〈wj , uj〉C = 〈vj , vj〉C für j 6= m

jeweils senkrecht auf 〈wm, um〉C = 〈vm, vm〉C. Insgesamt folgt daraus, dass

Ak = (w1, u1, ..., wm, um)

ein ON-System in (V, b) ist, dessen Elementezahl 2m mit dim(Uk ⊕ Uk) übereinstimmt. Sei αk = eiθk

die Polarkoordinaten-Darstellung von αk. Wegen αk /∈ R gilt θk /∈ {0, π}. Nach Prop. 8.24 (iii) ist derUntervektorraum 〈uj , wj〉R jeweils invariant unter φ, und es gilt

M(uj ,wj)(φ|〈uj ,wj〉R) = Dθk für 1 ≤ j ≤ m.

Fügen wir nun die ON-Basen B1, B−1 und die ON-Systeme A1, ..., As zu einem ON-System A zusammen.Die Gesamtzahl der Elemente in diesem ON-System beträgt dann

dim Eig(φC, 1) + dim Eig(φC,−1) +

s∑k=1

(dim Eig(φC, α2k−1) + dim Eig(φC, α2k)) = dimVC = dimV

wobei VC alsC-Vektorraum und V alsR-Vektorraum aufgefasst wird. Weil ON-Systeme linear unabhängigsind (siehe Lemma 7.10), ist A eine ON-Basis von V . Auf Grund unserer Vorüberlegungen zu den Darstel-lungsmatrizen der eingeschränkten Endomorphismen φ|UR , φ|WR

und φ|〈uj ,wj〉R hat die DarstellungsmatrixMA(φ) hat die angegebene Form.

—– 61 —–

Page 62: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

§ 9. Dualräume und selbstadjungierte Operatoren

Wichtige Begriffe und Sätze in diesem Abschnitt

– Dualraum und Bidualraum, adjungierte Abbildung– adjungierte Abbildungen in euklidischen und unitären Vektorräumen– selbstadjungierte Operatoren– Diagonalisierbarkeit selbstadjungierter Operatoren

Definition 9.1 Sei V ein K-Vektorraum. Eine lineare Abbildung V → K wird Linearform auf Vgenannt. Die Menge V ∗ = HomK(V,K) aller Linearformen auf V wird der Dualraum des VektorraumsV genannt.

Aus der Linearen Algebra I ist bekannt, dass für je zwei lineare Abbildungen φ, ψ : V → W zwischen K-Vektorräu-men V,W die Summe φ+ψ gegeben durch (φ+ψ)(v) = φ(v) +ψ(v) für alle v ∈ V wiederum eine lineare Abbildungzwischen V und W ist, ebenso für jedes λ ∈ R die Abbildung λφ gegeben durch (λφ)(v) = λφ(v) für alle v ∈ V .

Dort wurde auch gezeigt, dass die Menge HomK(V,W ) aller linearen Abbildungen V → W mit der Zuordnung(φ, ψ) 7→ φ+ψ als Vektoraddition und der Zuordnung (λ, φ) 7→ λφ als skalarer Multiplikation ein K-Vektorraum ist.Also existiert insbesondere auf dem Dualraum V ∗ die natürliche Struktur eines K-Vektorraums.

Proposition 9.2 Sei V = Kn, und seien e1, ..., en die Einheitsvektoren in V . Dann gibt es für jedesϕ ∈ V ∗ jeweils eindeutig bestimmte λ1, ..., λn ∈ K, so dass ϕ(x1, ..., xn) =

∑nk=1 λkxk für alle x =

(x1, ..., xn) ∈ V erfüllt ist.

Beweis: Sei ϕ ∈ V ∗ vorgegeben. Sind λ1, ..., λn ∈ K Elemente mit der angegebenen Eigenschaft, danngilt für 1 ≤ ` ≤ n jeweils

ϕ(e`) =

n∑k=1

λkδ`k = λ`.

Die Elemente λ` sind also durch ϕ festgelegt, damit ist die Eindeutigkeit nachgewiesen. Zum Nachweisder Existenz definieren wir λk = ϕ(ek) für 1 ≤ k ≤ n. Sei x = (x1, ..., xn) ∈ V . Weil ϕ eine lineare Abbildungist, erhalten wir

ϕ(x) = ϕ

(n∑k=1

xkek

)=

n∑k=1

xkϕ(ek) =

n∑k=1

λkxk.

Nach Definition aus der Linearen Algebra I ist ein homogenes lineares Gleichungssystem über dem Körper K bestehendaus m Gleichungen in n Unbekannten ein Gleichungsystem der Form

ai1x1 + ai2x2 + ...+ ainxn = 0 , 1 ≤ i ≤ m ,

—– 62 —–

Page 63: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

wobei A = (aij) ∈Mn,K die Koeffizientenmatrix dieses Systems genannt wurde. Jeder Gleichung kann durch

ϕi(x1, ..., xn) =

n∑j=1

aijxj

eine Linearform auf Kn zugeordnet werden. Die Lösungsmenge eines solchen LGS ist dann nichts anderes als diesimultane Nullstellenmenge eines Tupels (ϕ1, ..., ϕm) bestehend aus m Linearformen.

Proposition 9.3 Sei V ein endlich-dimensionaler K-Vektorraum, n = dimV und B = {v1, ..., vn} eineBasis von V .

(i) Für jedes k ∈ {1, ..., n} gibt es ein eindeutig bestimmtes Element v∗k ∈ V ∗ im Dualraum mitder Eigenschaft v∗k(v`) = δk` für 1 ≤ ` ≤ n.

(ii) Die Menge B∗ = {v∗1 , ..., v∗n} bildet eine Basis von V ∗ als K-Vektorraum.Man nennt sie die zu B duale Basis.

Beweis: zu (i) Aus der Linearen Algebra I ist folgendes bekannt: Ist V ein n-dimensionalerK-Vektorraum,{v1, ..., vn} eine Basis, W ein weiterer K-Vektorraum und (w1, ..., wn) ein beliebiges Tupel bestehend ausElementen von W , dann gibt es eine eindeutig bestimmte lineare Abbildung φ : V → W mit φ(vk) = wkfür 1 ≤ k ≤ n. Wir bezeichnen diese Aussage als Existenz- und Eindeutigkeitssatz für lineare Abbildungen.

Sei nun k ∈ {1, ..., n} vorgegeben. Wenden wir den soeben zitierten Satz auf V , die BasisB, den VektorraumW = K und das Tupel ek mit den Einträgen δk` an, so erhalten wir eine lineare Abbildung v∗k mit v∗k(v`) =

δk` für 1 ≤ ` ≤ n. Außerdem ist die lineare Abbildung v∗k durch diese Eigenschaft eindeutig bestimmt.

zu (ii) Zunächst zeigen wir, dass B∗ ein Erzeugendensystem von V ∗ bildet. Sei dazu ϕ ∈ V ∗ vorgegebenund λk = ϕ(vk) für 1 ≤ k ≤ n. Setzen wir ψ =

∑nk=1 λkv

∗k, dann erhalten wir für 1 ≤ ` ≤ n jeweils

ψ(v`) =

n∑k=1

λkv∗k(v`) =

n∑k=1

λkδk` = λ` = ϕ(v`).

Nach dem Existenz- und Eindeutigkeitssatz folgt daraus ϕ = ψ =∑nk=1 λkv

∗k. Nun beweisen wir noch die

lineare Unabhängigkeit. Seien λ1, ..., λn ∈ K Elemente mit∑nk=1 λkv

∗k = 0V ∗ . Der Nullvektor in V ∗ ist die

lineare Abbildung, die jedes Element in V auf 0K abbildet. Für 1 ≤ ` ≤ n gilt somit

λ` =

n∑k=1

λkδk` =

n∑k=1

λkv∗k(v`) =

(n∑k=1

λkv∗k

)(v`) = 0V ∗(v`) = 0K .

Damit ist die lineare Unabhängigkeit nachgewiesen.

Aus der Linearen Algebra I ist bekannt, dass zwei endlich-dimensionale Vektorräume gleicher Dimension zueinan-der isomorph sind. Genauer gilt: Sind V,W zwei K-Vektorräume mit n = dimV = dimW , ist {v1, ..., vn} eine Basisvon V und {w1, ..., wn} eine Basis von W , dann existiert ein Isomorphismus φ : V → W von K-Vektorräumen mitφ(vk) = wk für 1 ≤ k ≤ n.

Insbesondere existiert also ein Isomorphismus V → V ∗, der für 1 ≤ k ≤ n den Vektor vk jeweils auf v∗k abbildet.Zu beachten ist dabei aber, dass der Isomorphismus von der (willkürlichen) Wahl der Basis {v1, ..., vn} abhängt.

—– 63 —–

Page 64: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Im Gegensatz zum Kn gibt es also im allgemeinen keinen „natürlichen“ Isomorphismus V ∼= V ∗, sondern vielegleichberechtigte Möglichkeiten.

Korollar 9.4 Sei V ein endlich-dimensionaler K-Vektorraum. Dann gibt es für jedes v ∈ V mit v 6= 0Vein ϕ ∈ V ∗ mit ϕ(v) 6= 0K .

Beweis: Nach dem Basisergänzungssatz können wir v1 = v zu einer Basis B = {v1, ..., vn} von V ergän-zen. Sei B∗ = {v∗1 , ..., v∗n} die zu B duale Basis. Setzen wir ϕ = v∗1 , dann gilt ϕ(v1) = v∗1(v1) = δ11 = 1K .

Ist V unendlich-dimensional, dann wird die Aussage V ∼= V ∗ falsch. Als Beispiel betrachten wir den Q-VektorraumV der Folgen (an)n∈N in Q mit an = 0 für alle bis auf endlich viele n. Der Vektorraum V ist abzählbar unendlich,denn die Menge aller Folgen mit genau einem, genau zwei, genau drei... Folgengliedern ungleich Null ist abzähl-bar unendlich, und die Vereinigung von abzählbar unendlich vielen abzählbaren Mengen ist wiederum abzählbar.Andererseits kann jeder Folge (cn)n∈N in Q ein Element ϕ ∈ V ∗ zugeordnet werden durch

ϕ((an)n∈N) =

∞∑n=1

ancn für alle (an)n∈N ∈ V ,

wobei zu beachten ist, dass in der Summe rechts fast alle Summanden gleich Null sind. Diese Zuordnung ist injek-tiv. Da aber schon die Menge aller 0-1-Folgen überabzählbar ist, muss V ∗ überabzählbar sein. Es kann also keinenIsomorphismus V ∼= V ∗ geben. Mit einem ähnlichen Kardinalitätsargument kann man zeigen, dass V ∼= V ∗ niemalserfüllt ist, sobald die Dimension von V unendlich ist.

Definition 9.5 Für jeden K-Vektorraum V bezeichnet man V ∗∗ = (V ∗)∗ als den Bidualraum von V .

Satz 9.6 Sei V ein endlich-dimensionaler K-Vektorraum. Dann ist jedem v ∈ V durch ιv(ϕ) = ϕ(v)

ein Element in V ∗∗ zugeordnet. Die Abbildung V → V ∗∗, v 7→ ιv ist ein Isomorphismus von K-Vektorräumen.

Beweis: Zunächst weisen wir nach, dass ιv für jedes v ∈ V ein Element aus V ∗∗, also eine Linearform aufV ∗ ist. Seien dazu v ∈ V , ϕ,ψ ∈ V ∗ und λ ∈ K vorgegeben. Dann gilt

ιv(ϕ+ ψ) = (ϕ+ ψ)(v) = ϕ(v) + ψ(v) = ιv(ϕ) + ιv(ψ)

und ebenso ιv(λϕ) = (λϕ)(v) = λϕ(v) = λιv(ϕ). Also ist ιv : V ∗ → K tatsächlich eine lineare Abbildung.

Als nächstes zeigen wir, dass Φ : V → V ∗∗, v 7→ ιv eine lineare Abbildung ist. Seien v, w ∈ V und λ ∈ Kvorgegeben. Für jedes ϕ ∈ V ∗ gilt

Φ(v + w)(ϕ) = ιv+w(ϕ) = ϕ(v + w) = ϕ(v) + ϕ(w) = ιv(ϕ) + ιw(ϕ)

= Φ(v)(ϕ) + Φ(w)(ϕ) = (Φ(v) + Φ(w))(ϕ)

und somit Φ(v + w) = Φ(v) + Φ(w). Ebenso gilt

Φ(λv)(ϕ) = ιλv(ϕ) = ϕ(λv) = λϕ(v) = λιv(ϕ) = λΦ(v)(ϕ) = (λΦ(v))(ϕ)

—– 64 —–

Page 65: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

also Φ(λv) = λΦ(v). Nun zeigen wir, dass Φ injektiv ist. Sei dazu v ∈ V mit Φ(v) = 0V ∗∗ . Wäre v 6= 0V ,dann können wir nach Kor. 9.4 ein ϕ ∈ V ∗ mit ϕ(v) 6= 0K wählen. Dies würde wegen ϕ(v) = ιv(ϕ) =

Φ(v)(ϕ) = 0V ∗∗(ϕ) = 0K zum Widerspruch führen. Also muss v = 0V und somit ker(Φ) = {0V } gelten.

Weil V und V ∗ endlich-dimensional sind, gilt V ∼= V ∗ und V ∗ ∼= V ∗∗. Daraus folgt dimV = dimV ∗ =

dimV ∗∗. Als injektive lineare Abbildung zwischen Vektorräumen gleicher Dimension ist Φ auch bijektiv.

Mit dem Zornschen Lemma kann gezeigt werden, dass der Basisergänzungssatz auch für unendlich-dimensionaleVektorräume gültig ist, und damit lässt sich Kor. 9.4 auch für unendlich-dimensionales V beweisen. Daraus folgt,dass die in Satz 9.6 definierte lineare Abbildung in jedem Fall ein Monomorphismus von K-Vektorräumen ist. Sie istaber im allgemeinen nicht surjektiv.

Definition 9.7 Seien V,W zwei K-Vektorräume und φ : V → W eine lineare Abbildung. Ordnet manjedem ϕ ∈ W ∗ das Element φ∗(ϕ) = ϕ ◦ φ zu, so erhält man eine lineare Abbildung φ∗ : W ∗ −→ V ∗.Man bezeichnet sie als die zu φ adjungierte Abbildung.

Beweis: Für jedes ϕ ∈W ∗ ist φ∗(ϕ) = ϕ◦φ eine lineare Abbildung V → K, denn die Komposition zweierlinearer Abbildungen ist linear. Es gilt also φ∗(ϕ) ∈ V ∗ für alle ϕ ∈ W ∗. Zu zeigen bleibt, dass es sich beiφ∗ um eine lineare Abbildung zwischen W ∗ und V ∗ handelt. Seien ϕ,ψ ∈ W ∗ und λ ∈ K vorgegeben. Fürjedes v ∈ V gilt

φ∗(ϕ+ ψ)(v) = ((ϕ+ ψ) ◦ φ)(v) = (ϕ+ ψ)(φ(v)) = ϕ(φ(v)) + ψ(φ(v)) =

(ϕ ◦ φ)(v) + (ψ ◦ φ)(v) = (φ∗(ϕ) + φ∗(ψ))(v)

also φ∗(ϕ+ ψ) = φ∗(ϕ) + φ∗(ψ). Für alle λ ∈ K erhalten wir ebenso

φ∗(λϕ)(v) = ((λϕ) ◦ φ)(v) = (λϕ)(φ(v)) = λϕ(φ(v)) = (λ(ϕ ◦ φ))(v) = (λφ∗(ϕ))(v)

also φ∗(λϕ) = λφ∗(ϕ).

Wie bei den Vektorräumen definieren wir die Abbildung φ∗∗ : V ∗∗ → W ∗∗ durch φ∗∗ = (φ∗)∗ und nennen sie die zuφ biadjungierte Abbildung.

Satz 9.8 Seien V,W zwei endlich-dimensionale K-Vektorräume und φ : V → W eine lineare Abbil-dung. Dann ist

Vφ−→ W

ΦV ↓ ↓ΦWV ∗∗

φ∗∗−→ W ∗∗

ein kommutatives Diagramm, wobei ΦV und ΦW die Isomorphismen aus Satz 9.6 bezeichnen.

—– 65 —–

Page 66: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Beweis: Nachzurechnen ist die Gleichung φ∗∗ ◦ ΦV = ΦW ◦ φ. Nach Definition gilt φ∗∗(α) = α ◦ φ∗ füralle α ∈ V ∗∗. Wie in Satz 9.6 bezeichnen wir mit ιv das Element in V ∗∗ gegeben durch ιv(ϕ) = ϕ(v) für alleϕ ∈ V ∗. Zum Nachweis der Gleichung seien nun v ∈ V und ϕ ∈W ∗ vorgegeben. Es gilt dann einerseits

(φ∗∗ ◦ ΦV )(v)(ϕ) = φ∗∗(ΦV (v))(ϕ) = φ∗∗(ιv)(ϕ) = (ιv ◦ φ∗)(ϕ) =

ιv(φ∗(ϕ)) = ιv(ϕ ◦ φ) = (ϕ ◦ φ)(v)

andererseits aber auch

(ΦW ◦ φ)(v)(ϕ) = (ΦW (φ(v)))(ϕ) = ιφ(v)(ϕ) = ϕ(φ(v)) = (ϕ ◦ φ)(v).

Weil ϕ ∈W ∗ beliebig vorgegeben war, folgt daraus (φ∗∗ ◦ ΦV )(v) = (ΦW ◦ φ)(v). Weil auch v ∈ V beliebigwar, erhalten wir φ∗∗ ◦ ΦV = ΦW ◦ φ.

Satz 9.9 Seien V,W endlich-dimensionale K-Vektorräume mit Basen A,B und φ : V → B eine lineareAbbildung. Sei A ∈ Mm×n,K die Darstellungsmatrix MAB (φ), wobei n = dimV und m = dimW ist.Dann ist

MB∗

A∗(φ∗) = tA

die Darstellungsmatrix von φ∗ bezüglich der dualen Basen.

Beweis: Sei A = (aij), außerdemA = (v1, ..., vn) und B = (w1, ..., wm). Nach Definition der Darstellungs-matrix gilt φ(vj) =

∑mi=1 aijwi für 1 ≤ j ≤ n. Wir bestimmen nun die Darstellungsmatrix von φ∗ bezüglich

der Dualbasen. Für alle k, ` mit 1 ≤ k ≤ m und 1 ≤ ` ≤ n gilt

φ∗(w∗` )(vk) = (w∗` ◦ φ)(vk) = w∗` (φ(vk)) = w∗`

(m∑i=1

aikwi

)=

m∑i=1

aikw∗` (wi) =

m∑i=1

aikδ`i = a`k

Setzen wir ϕ =∑ni=1 a`iv

∗i , dann gilt ebenfalls

ϕ(vk) =

n∑i=1

a`iv∗i (vk) =

n∑i=1

a`iδik = a`k.

Weil jede Linearform auf V durch ihre Werte auf A eindeutig festgelegt ist, folgt daraus φ∗(w∗` ) = ϕ =∑nk=1 a`kv

∗k. Dies zeigt, dass tA die Darstellungsmatrix von φ∗ bezüglich B∗ und A∗ ist.

Wir bezeichnen eine Abbildung φ : V →W zwischen C-Vektorräumen als semilinear, wenn φ(v + w) = φ(v) + φ(w)

und φ(λv) = λφ(v) für alle v, w ∈ V und λ ∈ C gilt. Ebenso wie bei den linearen Abbildungen ist eine semilineareAbbildung φ : V → W genau dann injektiv, wenn ker(φ) = {0V } gilt. Ist sie bijektiv, dann ist auch die Umkehrabbil-dung ψ : W → V semilinear. Auch der Dimensionssatz für lineare Abbildungen bleibt für semilineare Abbildungengültig. Bei jeder einzelnen Ausage stimmt der Beweis mit dem aus der Linearen Algebra I überein. Für Abbildungenzwischen R-Vektorräumen verwenden wir die Begriffe „linear“ und „semilinear“ synonym.

—– 66 —–

Page 67: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Satz 9.10 (Rieszscher Darstellungssatz)Sei (V, b) ein euklidischer oder unitärer Vektorraum.

(i) Jedem Vektor v ∈ V kann durch ϕv(w) = b(v, w) ein Element des Dualraums V ∗ zugeordnetwerden.

(ii) Die Abbildung Φ : V → V ∗, v 7→ ϕv ist semilinear und injektiv.(iii) Ist V endlich-dimensional, dann ist Φ sogar bijektiv.

Beweis: Wir beschränken uns beim Beweis auf den unitären Fall.

zu (i) Dass ϕ für jedes v ∈ V eine Linearform ist, folgt direkt aus den Eigenschaften der Sesquilinearformb. Seien w,w′ ∈ V und λ ∈ C vorgegeben. Dann gilt ϕv(w + w′) = b(v, w + w′) = b(v, w) + b(v, w′) =

ϕv(w) + ϕv(w′) und ϕv(λw) = b(v, λw) = λb(v, w) = λϕv(w).

zu (ii) Zunächst überprüfen wir die Semilinearität. Seien v, v′ ∈ V und λ ∈ C vorgegeben. Für jedesw ∈ Vgilt

ϕv+v′(w) = b(v + v′, w) = b(v, w) + b(v′, w) = ϕv(w) + ϕv′(w) = (ϕv + ϕv′)(w) ,

also Φ(v + v′) = ϕv+v′ = ϕv + ϕv′ = Φ(v) + Φ(v′). Ebenso gilt für jedes w ∈W jeweils

ϕλv(w) = b(λv,w) = λb(v, w) = λϕv(w) = (λϕv)(w)

und somit Φ(λv) = ϕλv = λϕv = λΦ(v). Für den Nachweis der Injektivität zeigen wir ker(Φ) = {0V }. Seidazu v ∈ ker(Φ) vorgegeben. Dann ist ϕv die Nullabbildung, also gilt insbesondere b(v, v) = ϕv(v) = 0.Weil b positiv definit ist, folgt daraus v = 0V .

zu (iii) Nach dem Dimensionssatz ist eine injektive semilineare Abbildung zwischen zwei C-Vektorräu-men gleicher Dimension auch bijektiv.

Definition 9.11 Seien (V, bV ) und (W, bW ) euklidische oder unitäre Vektorräume. Man bezeichnet eineAbbildung ψ : W → V als adjungiert zu einer linearen Abbildung φ : V →W , wenn

bV (ψ(w), v) = bW (w, φ(v)) für alle v ∈ V und w ∈W gilt.

Offenbar ist ψ genau dann adjungiert zu φ, wenn bV (v, ψ(w)) = bW (φ(v), w) für alle v ∈ V und w ∈ W erfüllt ist.Setzen wir nämlich die Gleichung bV (ψ(w), v) = bW (w, φ(v)) für alle v ∈ V und w ∈W voraus, dann folgt

bV (v, ψ(w)) = bV (ψ(w), v) = bW (w, φ(v)) = bW (φ(v), w) ,

und ebenso rechnet man die umgekehrte Schlussrichtung nach.

Proposition 9.12 Seien (V, bV ) und (W, bW ) endlich-dimensionale euklidische oder unitäre Vektorräu-me. Dann gibt es zu jeder linearen Abbildung φ : V →W genau eine adjungierte Abbildung ψ : W → V ,und diese ist ebenfalls linear.

—– 67 —–

Page 68: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Beweis: Zunächst beweisen wir die Eindeutigkeit und nehmen dazu an, dass die Abbildungen ψ,ψ′ :

W → V beide zu φ adjungiert sind. Dann gilt

bV (ψ(w), v) = bW (w, φ(v)) = bV (ψ′(w), v)

für alle v ∈ V und w ∈W . Es folgt bV (ψ′(w)−ψ(w), v) = 0 für v ∈ V und w ∈W , somit gilt ψ′(w)−ψ(w) ∈V ⊥ für alle w ∈W . Weil bV positiv definit ist, gilt V ⊥ = {0V }, und wir erhalten ψ′(w)−ψ(w) = 0V für allew ∈W . Damit ist ψ = ψ′ nachgewiesen.

Kommen wir nun zum Beweis der Existenz. Nach Satz 9.10 gib es bijektive, semilineare AbbildungenΦ : V → V ∗ und Ψ : W →W ∗ mit Φ(v)(v′) = bV (v, v′) für alle v, v′ ∈ V und Ψ(w)(w′) = bW (w,w′) für allew,w′ ∈W . Wir zeigen nun, dass

ψ = Φ−1 ◦ φ∗ ◦Ψ

eine zu φ adjungierte Abbildung ist. Für alle v ∈ V und w ∈W gilt die Äquivalenz

v = ψ(w) ⇔ v = (Φ−1 ◦ φ∗ ◦Ψ)(w) ⇔ Φ(v) = φ∗(Ψ(w)) ⇔ Φ(v) = Ψ(w) ◦ φ

⇔ Φ(v)(v′) = Ψ(w)(φ(v′)) ∀ v′ ∈ V ⇔ bV (v, v′) = bW (w, φ(v′)) ∀ v′ ∈ V.

Für alle v′ ∈ V und w ∈W gilt also bV (ψ(w), v′) = bW (w, φ(v′)). Damit ist ψ zu φ adjungiert. Wir überprü-fen noch, dass ψ eine lineare Abbildung ist. Weil φ∗ linear und Φ,Ψ zumindest semilinear sind, gilt für allew,w′ ∈W zunächst

ψ(w + w′) = (Φ−1 ◦ φ∗ ◦Ψ)(w + w′) = Φ−1(φ∗(Ψ(w + w′))) = Φ−1(φ∗(Ψ(w) + Ψ(w′))) =

Φ−1(φ∗(Ψ(w)) + φ∗(Ψ(w′))) = Φ−1(φ∗(Ψ(w))) + Φ−1(φ∗(Ψ(w′))) =

(Φ−1 ◦ φ∗ ◦Ψ)(w) + (Φ−1 ◦ φ∗ ◦Ψ)(w′) = ψ(w) + ψ(w′).

Ebenso gilt für alle w ∈W und alle λ ∈ C jeweils

ψ(λw) = (Φ−1 ◦ φ∗ ◦Ψ)(λw) = Φ−1(φ∗(Ψ(λw))) = Φ−1(φ∗(λ(Ψ(w))))

= Φ−1(λ(φ∗(Ψ(w)))) = λΦ−1(φ∗(Ψ(w))) = λ(Φ−1 ◦ φ∗ ◦Ψ)(w) = λψ(w).

Auf Grund der Existenz und Eindeutigkeit können wir für die adjungierte einer linearen Abbildung φ : V → W

zwischen endlich-dimensionalen, euklidischen (oder unitären) Vektorräumen V,W die Bezeichnung

φad : W → V einführen.

Korollar 9.13 Seien U, V,W endlich-dimensionale euklidische oder unitäre Vektorräume, und seienφ : U → V , ψ : V →W lineare Abbildungen. Dann gilt

(ψ ◦ φ)ad = φad ◦ ψad und (φad)ad = φ.

Beweis: Wir bezeichnen mit bU , bV und bW die (hermiteschen) Skalarprodukte auf U , V und W . Seienu ∈ U und w ∈W vorgegeben. Dann gilt

bU ((φad ◦ ψad)(w), u) = bU (φad(ψad(w)), u) = bV (ψad(w), φ(u)) =

bW (w,ψ(φ(u))) = bW (w, (ψ ◦ φ)(u)).

—– 68 —–

Page 69: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Dies zeigt, dass die lineare Abbildung φad ◦ ψad zu ψ ◦ φ adjungiert ist. Auf Grund der Eindeutigkeit derAdjungierten folgt daraus φad ◦ ψad = (ψ ◦ φ)ad.

Zum Beweis der zweiten Gleichung sei ψ = φad. Nach Definition der Adjungierten gilt bU (ψ(v), u) =

bV (v, φ(u)) für alle u ∈ U und v ∈ V und somit auch

bV (φ(u), v) = bU (u, ψ(u))

für alle u ∈ U und v ∈ V . Dies zeigt, dass φ auch zu ψ adjungiert ist. Es gilt also φ = ψad = (φad)ad.

Lemma 9.14 Seien (V, bV ) und (W, bW ) endlich-dimensionale euklidische oder unitäre Vektorräume,A = (v1, ..., vn) eine Basis von V und B = (w1, ..., wm) eine Basis von W . Seien φ : V → W undψ : W → V lineare Abbildungen. Gilt für 1 ≤ j ≤ n und 1 ≤ i ≤ m jeweils

bV (ψ(wi), vj) = bW (wi, φ(vj)) ,

dann ist ψ zu φ adjungiert.

Beweis: Seien v ∈ V und w ∈ W vorgegeben. Zu zeigen ist bV (ψ(w), v) = bW (w, φ(v)). Stellen wir dieVektoren v und w durch die Basen A und B dar, also v =

∑nj=1 λjvj und w =

∑mi=1 µiwi, dann erhalten

wir auf Grund der Bilinearität von bV und bW

bV (ψ(w), v) = bV

m∑i=1

µiψ(wi) ,

n∑j=1

λjvj

=

m∑i=1

n∑j=1

µiλjbV (ψ(wi), vj) =

m∑i=1

n∑j=1

µiλjbW (wi, φ(vj)) = bW

m∑i=1

µiwi ,

n∑j=1

λjφ(vj)

= bW (w, φ(v)).

Satz 9.15 Seien (V, bV ) und (W, bW ) endlich-dimensionale euklidische oder unitäre Vektorräume, Aeine ON-Basis von V und B eine ON-Basis von W . Sei φ : V → W eine lineare Abbildung und A

die Darstellungsmatrix von φ bezüglich A und B. Dann ist die Darstellungsmatrix der adjungiertenAbbildung durch tA =MBA(φad) gegeben.

Beweis: Sei A = (v1, ..., vn) und B = (w1, ..., wm). Sei A = (aij), und seien bij für alle i, j die Einträge derMatrix tA. Nach Definition der Darstellungsmatrix gilt φ(vj) =

∑mi=1 aijwi für 1 ≤ j ≤ n. Wir definieren

die lineare Abbildung ψ : W → V durch

ψ(wi) =

n∑j=1

bjivj =

n∑j=1

aijvj für 1 ≤ i ≤ m.

Zu zeigen ist, dassψ zu φ adjungiert ist. Nach Lemma Lemma 9.14 genügt es, die Gleichung bV (ψ(wi), vj) =

bW (wi, φ(vj)) für 1 ≤ i ≤ m und 1 ≤ j ≤ n zu überprüfen. Tatsächlich gilt einerseits

bV (ψ(wi), vj) = bV

(n∑k=1

aikvk, vj

)=

n∑k=1

aikbV (vk, vj) =

n∑k=1

aikδkj = aij ,

—– 69 —–

Page 70: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

andererseits aber auch

bW (wi, φ(vj)) = bW

(wi,

m∑k=1

akjwk

)=

m∑k=1

akjb(wi, wk) =

m∑k=1

akjδik = aij .

Also ist ψ tatsächlich zu φ adjungiert, und damit istMBA(φad) = B = tA bewiesen.

Definition 9.16 Sei (V, b) ein endlich-dimensionaler euklidischer oder unitärer Vektorraum. Ein En-domorphismus φ von V wird selbstadjungiert (oder auch selbstadjungierter Operator) genannt, wennφad = φ erfüllt ist.

Sei A eine ON-Basis von V , φ ein Endomorphismus und A =MA(φ). Nach Satz Satz 9.15 ist φ genau dann selbstad-jungiert, wenn tA = A erfüllt ist, im reellen Fall also genau dann, wenn A symmetrisch ist.

Einen speziellen Typ von selbst-adjungierten Operatoren haben wir schon in §6 kennengelernt. Sei V ein beliebigerR-Vektorraum. Man bezeichnet einen Endomorphismus φ ∈ EndR(V ) als idempotent, wenn φ2 = φ gilt.

Satz 9.17 Sei (V, b) ein endlich-dimensionaler euklidischer Vektorraum und φ ∈ EndR(V ). Dann sinddie beiden folgenden Aussagen äquivalent.

(i) Es gilt φ = πU für einen Untervektorraum U von V , d.h. φ ist eine Orthogonalprojektion.(ii) Der Endomorphismus φ ist selbstadjungiert und idempotent.

Beweis: „(i) ⇒ (ii)“ Sei U ein Untervektorraum von V . Zunächst zeigen wir, dass πU idempotent ist.Nach Definition der Orthogonalprojektion gilt πU (v) ∈ U für alle v ∈ V und πU (u) = u für alle u ∈ U .Daraus folgt π2

U (v) = πU (πU (v)) = πU (v) für alle v ∈ V , also π2U = πU .

Um zu zeigen, dass πU auch selbstadjungiert ist, seien v, w ∈ V vorgegeben. Zu zeigen ist b(φ(v), w) =

b(v, φ(w)). Wegen V = U ⊕ U⊥ können wir v und w auf eindeutige Weise als Summen v = u + u′ undw = y+y′ schreiben, mit u, y ∈ U und u′, y′ ∈ U⊥. Nach Definition der Orthogonalprojektion gilt πU (v) = u

und πU (w) = y. Daraus folgt

b(φ(v), w) = b(u, y + y′) = b(u, y) + b(u, y′) = b(u, y) =

b(u, y) + b(u′, y) = b(u+ u′, y) = b(v, φ(w)).

„(ii)⇒ (i)“ Sei U = im(φ) = φ(V ). Um zu zeigen, dass φ = πU ist, müssen wir zeigen, dass φ(u) = u füralle u ∈ U und v − φ(v) ∈ U⊥ für alle v ∈ V gilt. Sei zunächst u ∈ U vorgegeben. Dann gibt es ein v ∈ Vmit φ(v) = u. Weil φ idempotent ist, erhalten wir φ(u) = φ(φ(v)) = φ2(v) = φ(v) = u.

Zum Nachweis der zweiten Eigenschaft seien v ∈ V und u ∈ U vorgegeben. Zu zeigen ist b(u, v−φ(v)) = 0.Sei w ∈ V ein Element mit φ(w) = u. Weil φ selbstadjungiert und idempotent ist, erhalten wir

b(u, v − φ(v)) = b(φ(w), v − φ(v)) = b(w, φ(v)− φ(φ(v))) =

b(w, φ(v)− φ2(v)) = b(w, φ(v)− φ(v)) = b(w, 0V ) = 0.

—– 70 —–

Page 71: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Wie die unitären lassen sich auch die selbstadjungierten Endomorphismen durch eine ON-Basis auf Diagonalgestaltbringen, hier allerdings auch über dem Grundkörper R. Der Beweis dieser Aussage ist das Hauptergebnis diesesAbschnitts. Zur Vorbereitung zeigen wir

Proposition 9.18 Jeder selbstadjungierte Operator auf einem endlich-dimensionalen unitären odereuklidischen Vektorraum (V, b) mit V 6= {0V } besitzt einen reellen Eigenwert.

Beweis: Zunächst beweisen wir die Aussage im unitären Fall. Sei λ ∈ C ein Eigenwert von φ und v ∈ Vein zugehöriger Eigenvektor. Dann gilt

λb(v, v) = b(λv, v) = b(φ(v), v) = b(v, φ(v)) = b(v, λv) = λb(v, v).

Wegen v 6= 0V ist auch b(v, v) 6= 0, weil b positiv definit ist. Division der obigen Gleichung durch b(v, v) 6= 0

liefert λ = λ und somit λ ∈ R.

Betrachten wir nun den Fall, dass (V, b) euklidisch ist. Aus §8 ist bekannt, dass die Komplexifizierung(VC, bC) von (V, b) ein unitärer Vektorraum ist. Wir weisen nach, dass mit φ auch die C-lineare FortsetzungφC von φ selbstadjungiert ist. Wählen wir eine Basis B = (v1, ..., vn) von V , so ist dies zugleich eine Basisdes C-Vektorraums VC, wie in den Übungen gezeigt wurde. Für alle j, k mit 1 ≤ j, k ≤ n gilt nun

bC(φC(vj), vk) = b(φ(vj), vk) = b(vj , φ(vk)) = bC(vj , φC(vk)).

Nach Lemma 9.14 folgt daraus, dass φC selbstadjungiert ist. Wie bereits gezeigt, besitzt φC einen Eigenvek-tor v ∈ VC zu einem reellen Eigenwert λ. Wegen

φC(v + v) = φC(v) + φC(v) = φC(v) + φC(v) = λv + λv =

λv + λv = λv + λv = λ(v + v)

liegt auch v + v in Eig(φC, λ), und dieser Vektor ist reell, also in V ⊆ VC enthalten. Ebenso gilt

φC( 1i (v − v)) = 1

iφC(v)− 1iφC(v) = 1

iφC(v)− 1iφC(v) = 1

i λv −1i λv =

1i λv −

1i λv = 1

i λv −1i λv = 1

i λ(v − v)

Also gilt 1i (v − v) ∈ Eig(φC, λ), und der Vektor ist invariant unter der komplexen Konjugation, also reell.

Wegen v 6= 0V muss auch einer der Vektoren v+ v oder 1i (v− v) ungleich Null sein. Dies zeigt, dass φ einen

(reellen) Eigenvektor zum Eigenwert λ besitzt.

Satz 9.19 (Spektralsatz)Sei (V, b) ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und φ : V → V ein selbstad-jungierter Operator. Dann besitzt V eine ON-Basis aus Eigenvektoren von φ.

Beweis: Wir beweisen die Aussage durch vollständige Induktion über n = dimV . Im Fall n = 0 ist nichtszu zeigen. Sei nun n ∈ N, und setzen wir die Aussage für Vektorräume kleinerer Dimension voraus. NachProp. 9.18 existiert ein Eigenvektor w ∈ V zu einem reellen Eigenwert λ, wobei wir voraussetzen können,

—– 71 —–

Page 72: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

dass w normiert ist, also ‖w‖b = 1 gilt. Wie in §8 bei den unitären Endomorphismen überprüfen wir, dassder Untervektorraum U = 〈w〉⊥ invariant unter φ ist. Für alle v ∈ U gilt b(v, w) = 0. Es folgt

b(φ(v), w) = b(v, φ(w)) = b(v, λw) = λb(v, w) = λ · 0 = 0

und somit φ(v) ∈ U wie behauptet. Nun ist mit φ auch der eingeschränkte Endomorphismus φ|U einselbstadjungierter Operator. Nach Induktionsvoraussetzung besitzt U eine ON-Basis (w2, ..., wn) aus Ei-genvektoren von φ|U . Damit ist (w,w2, ..., wn) eine Basis von V , die aus Eigenvektoren von φ besteht.

Aus Satz 9.19 folgt also, dass für jeden selbstadjungierten Operator φ auf einem endlich-dimensionalen euklidischenoder unitären Vektorraum (V, b) eine Orthogonalzerlegung

V = Eig(φ, λ1)⊕ ...⊕ Eig(φ, λn)

existiert, wobei λ1, ..., λn ∈ R die Eigenwert von φ bezeichnen. Anhand der Orthogonalzerlegung erkennt man auch,dass Eigenvektoren zu verschiedenen Eigenwerten stets senkrecht aufeinander stehen.

Die Eigenschaft, mit einer ON-Basis aus Eigenvektoren diagonalisierbar zu sein, wird also von den unitären und denselbstadjungierten Endomorphismen geteilt. Wir definieren nun neue eine Klasse von Endomorphismen, die diesebeiden in sich vereint.

Definition 9.20 Sei (V, b) ein endlich-dimensionaler unitärer Vektorraum. Wir bezeichnen einen En-domorphismus φ ∈ EndC(V ) als normal, wenn

φad ◦ φ = φ ◦ φad erfüllt ist.

Jeder selbstadjungierte Operator φ ist normal, da in diesem Fall φ = φad gilt, woraus φad ◦ φ = φ2 = φ ◦ φad

unmittelbar folgt. Auch jeder unitäre Endomorphismen φ ist normal, denn nach Kor. 8.9 gilt φad = φ−1, und darausfolgt φad ◦ φ = idV = φ ◦ φad.

Sei A ∈ Mn,C die Darstellungsmatrix eines Endomorphismus bezüglich einer ON-Basis. Nach Satz 9.15 ist tA dieDarstellungsmatrix von φad bezüglich derselben Basis. Daraus folgt, dass φ genau dann normal ist, wenn tAA = AtA

gilt.

Lemma 9.21 Jeder normale Endomorphismus φ auf einem endlich-dimensionalen unitären Vektor-raum (V, b) hat die Eigenschaften

(i) ker(φ) = ker(φad) (ii) Eig(φ, λ) = Eig(φad, λ) für alle λ ∈ C

Beweis: zu (i) Für jedes v ∈ V gilt

b(φ(v), φ(v)) = b(v, (φad ◦ φ)(v)) = b(v, (φ ◦ φad)(v)) = b(φad(v), φad(v)).

Weil b positiv definit ist, gilt also die Äquivalenz φ(v) = 0V ⇔ b(φ(v), φ(v)) = b(φad(v), φad(v)) = 0 ⇔φad(v) = 0V und somit ker(φ) = ker(φad).

—– 72 —–

Page 73: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

zu (ii) Wir überprüfen zunächst, dass mit φ auch der Endomorphismus ψ = λidV − φ normal ist. Die zuψ adjungierte Abbildung ist gegeben durch ψad = λidV − φad, denn für alle v, w ∈ V gilt

b(ψ(v), w) = b((λidV − φ)(v), w) = b(λv,w)− b(φ(v), w) =

λb(v, w)− b(v, φad(w)) = b(v, λw)− b(v, φad(w)) = b(v, (λidV − φad)(w)).

Daraus folgt

ψad ◦ ψ = (λ idV − φad) ◦ (λ idV − φ) = λλ idV − λφad − λφ+ φad ◦ φ =

λλ idV − λφ− λφad + φ ◦ φad = (λidV − φ) ◦ (λidV − φad) = ψ ◦ ψad

also ist der Endomorphismus ψ tatsächlich normal. Nun gilt Eig(φ, λ) = ker(ψ) und Eig(φad, λ) = ker(ψad).Aus Teil (i) folgt damit die gewünschte Gleichung.

Satz 9.22 Ein Endomorphismus φ auf einem endlich-dimensionalen unitären Vektorraum (V, b) istgenau dann normal, wenn V eine ON-Basis aus Eigenvektoren von φ besitzt.

Beweis: „⇒“ Wir beweisen die Aussage durch vollständige Induktion über n = dimV . Im Fall n = 0

braucht nichts gezeigt werden. Sei nun n ∈ N, und setzen wir die Aussage für Vektorräume kleinererDimension voraus. Weil das charakteristische Polynom χφ ∈ C[x] in Linearfaktoren zerfällt, besitzt φ einenEigenwert λ ∈ Cmit zugehörigem Eigenvektor w, wobei wir ‖w‖b = 1 annehmen können. Wir zeigen nun,dass der Untervektorraum U = 〈w〉⊥C unter φ invariant ist. Für jedes v ∈ U gilt b(v, w) = 0. Mit Hilfe vonLemma 9.21 erhalten wir

b(φ(v), w) = b(v, φad(w)) = b(v, λw) = λb(v, w) = λ · 0 = 0 ,

so dass auch φ(v) in U enthalten ist. Auch unter φad ist U invariant, für jedes v ∈ U erhalten wir genauso

b(φad(v), w) = b(v, φ(w)) = b(v, λw) = λb(v, w) = λ · 0 = 0.

Dies zeigt, dass mit φ auch der eingeschränkte Endomorphismus φ|U normal ist. Laut Induktionsvoraus-setzung gibt es eine ON-Basis (w2, ..., wn) von U bestehend aus Eigenvektoren von φ|U . Daraus folgt, dass(w,w2, ..., wn) eine ON-Basis von V aus Eigenvektoren von φ ist.

„⇐“ Sei B = (w1, w2, ..., wn) eine ON-Basis von V bestehend aus Eigenvektoren von φ, und seienλ1, ..., λn ∈ C die zugehörigen Eigenwerte. Dann ist die Darstellungsmatrix von φ bezüglich B die Dia-gonalmatrix mit den Einträgen λ1, ..., λn. Nach Satz 9.15 ist die Darstellungsmatrix von φad bezüglich der-selben Basis die Diagonalmatrix mit den Einträgen λ1, ..., λn auf der Hauptdiagonalen. Für 1 ≤ k ≤ n giltdamit

(φad ◦ φ)(vk) = φad(λkvk) = λkφad(vk) = λkλkvk = λkλkvk =

λkφ(vk) = φ(λkvk) = (φ ◦ φad)(vk).

Weil jeder Endomorphismus von V durch die Bilder der Vektoren in B eindeutig bestimmt ist, folgt darausφad ◦ φ = φ ◦ φad. Also ist φ normal.

Innerhalb der normalen Endomorphismen sind die unitären und die selbstadjungierten Endomorphismen alleindurch ihre Eigenwerte charakterisiert.

—– 73 —–

Page 74: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Satz 9.23 Sei (V, b) ein endlich-dimensionaler unitärer Vektorraum. Dann gilt jeweils

(i) Ein Endomorphismus φ ∈ EndC(V ) ist genau dann unitär, wenn er normal und jeder seinerEigenwerte vom komplexen Absolutbetrag 1 ist.

(ii) Ein Endomorphismus φ ∈ EndC(V ) ist genau dann selbstadjungiert, wenn er normal und all seineEigenwerte reell sind.

Beweis: Sei n = dimV . Wir haben bereits festgestellt, dass unitäre und selbstadjungierte Endomorphis-men auch normal sind. Also können wir beim Beweis der Äquivalenzen (i) und (ii) direkt von einem nor-malen φ ∈ EndC(V ) ausgehen. Nach Satz 9.22 existiert eine ON-Basis von V derart, dass die Darstellungs-matrix A ∈ Mn,C von φ bezüglich dieser Basis eine Diagonalmatrix ist, wobei die Einträge λ1, ..., λn ∈ Cauf der Hauptdiagonalen genau die Eigenwerte von φ sind.

zu (i) „⇒“ Ist φ unitär, dann gilt tA = A−1 nach Satz 8.13. Daraus folgt λk = λ−1k ⇔ |λk|2 = 1⇔ |λk| = 1

für 1 ≤ k ≤ n. Alle Eigenwerte von φ sind also vom komplexen Absolutbetrag 1. „⇐“ Setzen wirumgekehrt voraus, dass die Eigenwerte von φ alle vom Betrag 1 sind. Aus |λk| = 1 folgt jeweils λk = λ−1

k

für 1 ≤ k ≤ n. Damit gilt tA = A−1, also ist φ unitär.

zu (ii) Hier läuft das Argument weitgehend analog. Der Endomorphismus φ ist genau dann selbstadjun-giert, wenn tA = A gilt. Dies wiederum ist äquivalent zu λk = λk, also zu λk ∈ R für 1 ≤ k ≤ n.

—– 74 —–

Page 75: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

§ 10. Die Hauptachsentransformation

Wichtige Begriffe und Sätze in diesem Abschnitt

– Diagonalisierbarkeit der Bilinearformen– der Sylverstersche Trägheitssatz– der Satz über die Hauptachsentransformation– quadratische Hyperflächen im R2 und R3

– die Minkowski-Metrik

In §8 haben wir die Gruppen der orthogonalen und unitären n× n-Matrizen definiert durch

O(n) = {A ∈Mn,R | tAA = I(n)}

U(n) = {A ∈Mn,C | tAA = I(n)}

Offenbar ist eine Matrix A = (aij) ∈Mn,R genau dann orthogonal, wenn die Spaltenvektoren a•j der Matrix bezüg-lich des euklidischen Standard-Skalarprodukts eine ON-Basis des Rn bilden. Setzen wir nämlich B = tAA, dann istder Eintrag bij von B an der Stelle (i, j) gegeben durch

bij =

n∑k=1

akiakj = 〈a•i, a•j〉 für 1 ≤ i, j ≤ n.

Die Bedingung tAA = I(n) ist äquivalent zu bij = δij für 1 ≤ i, j ≤ n und somit zu 〈a•i, a•j〉 = δij für 1 ≤ i, j ≤ n.Die letzten Aussage wiederum ist gleichbedeutend damit, dass die Spalten von A eine ON-Basis bilden.

Genauso zeigt man auch, dass eine MatrixA ∈Mn,C genau dann unitär ist, wenn ihre Spaltenvektoren eine ON-Basisim Cn bezüglich des unitären Standard-Skalarprodukts 〈x, y〉 =

∑nk=1 xkyk bilden.

In Analogie zu den Sesquilinearformen bezeichnen wir eine Matrix A ∈Mn,C als hermitesch, wenn tA = A gilt. DerSpektralsatz (Satz 9.19) kann zu folgender Aussage über Matrizen umformuliert werden.

Korollar 10.1

(i) Für jede symmetrische Matrix A ∈ Mn,R gibt es eine orthogonale Matrix T ∈ O(n) mit derEigenschaft, dass D = tTAT eine Diagonalmatrix ist.

(ii) Für jede hermitesche Matrix A ∈ Mn,C gibt es eine unitäre Matrix T ∈ U(n) mit der Eigenschaft,dass D = tTAT eine Diagonalmatrix mit reellen Einträgen ist.

Beweis: Wir beschränken uns auf den Beweis von Teil (ii). Sei φ ∈ EndC(Cn) definiert durch φ : Cn → Cn,v 7→ Av. Bezeichnen wir die Einheitsbasis von Cn mit E , dann gilt A = ME(φ), und auf Grund unsererVoraussetzung an die Matrix A ist φ selbstadjungiert. Nach dem Spektralsatz gibt es eine ON-Basis A vonCn bestehend aus Eigenvektoren von φ mit reellen Eigenwerten. Also ist D =MA(φ) eine Diagonalmatrix

—– 75 —–

Page 76: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

mit reellen Einträgen. Tragen wir die Vektoren aus A als Spalten in eine Matrix T ∈ Mn,C ein, so giltT = T AE , und auf Grund unserer Vorbemerkung liegt T in U(n). Wir erhalten

D = MA(φ) = T EAME(φ)T AE = T−1AT = tTAT.

Wir wenden dieses Ergebnis nun auf Darstellungsmatrizen von Bilinearformen an mit dem Ziel, die symmetrischenBilinearformen auf endlich-dimensionalen R-Vektorräumen zu klassifizieren.

Satz 10.2 Sei V ein endlich-dimensionaler R- (bzw. C-)Vektorraum und b eine symmetrische Biline-arform (bzw. hermitesche Sesquilinearform) auf V . Dann gibt es in V eine Orthogonalbasis bezüglich b,genauer eine geordnete Basis B von V mit der Eigenschaft, dass die Darstellungsmatrix von b bezüglichB durch eine Diagonalmatrix der Form

MB(b) = diag(1, ..., 1,−1, ...,−1, 0, ..., 0) (10.1)

gegeben ist.

Beweis: Wieder beschränken wir uns beim Beweis auf den komplexen Fall. Sei n = dimV und A ∈Mn,C

die Darstellungsmatrix von b bezüglich einer beliebigen geordneten BasisA = (v1, ..., vn) von V . Dann giltaij = b(vi, vj) für alle 1 ≤ i, j ≤ n. Wegen b(vj , vi) = b(vi, vj) für alle i, j ist A hermitesch.

Nach Kor. 10.1 gibt es nun eine Matrix T ∈ U(n), so dass D = tTAT eine Diagonalmatrix ist. Sei B =

(w1, ..., wn) die eindeutig bestimmte geordnete Basis von V mit T BA = T . Dann ist D = MB(b). NachUmsortieren der Vektoren in B können wir davon ausgehen, dass r, s ∈ N0 existieren, so dass die Werteb(wk, wk) für 1 ≤ k ≤ r positiv, für r + 1 ≤ k ≤ r + s negativ und für r + s + 1 ≤ k ≤ n gleich Null ist.Die Diagonalgestalt von D wird dadurch nicht geändert. Definieren wir nun wk = |b(wk, wk)|−1/2wk für1 ≤ k ≤ r + s und wk = wk für r + s + 1 ≤ k ≤ n und setzen wir B = (w1, ..., wn), dann hatMB(b) diegewünschte Eigenschaft.

Definition 10.3 Sei V ein endlich-dimensionsionalerR- (bzw.C-)Vektorraum und b eine symmetrischeBilinearform (bzw. hermitesche Sesquilinearform) auf V . Dann bezeichnet man

V ⊥ = {v ∈ V | b(v, w) = 0 ∀ w ∈ V }

als den Ausartungsraum von (V, b). Die Zahl rg(V, b) = dimV − dimV ⊥ wird der Rang von (V, b) ge-nannt. Gilt rg(V, b) = dimV (was mit V ⊥ = {0V } gleichbedeutend ist), dann bezeichnet man die Biline-arform b als nicht ausgeartet.

Proposition 10.4 Seien die Bezeichnungen wie in der Definition gewählt, und sei A die Darstellungs-matrix von b bezüglich einer beliebigen Basis von V . Dann gilt rg(V, b) = rg A.

Beweis: Nach Satz 10.2 existiert eine Basis B von V mit der Eigenschaft, dass B = MB(b) eine Diago-nalmatrix der Form (10.1) ist. Dann ist die Anzahl d der Nulleinträge auf der Diagonalen offenbar gleich

—– 76 —–

Page 77: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

der Dimension des Ausartungsraums V ⊥. Sei n = dimV und T = T AB die Matrix des Basiswechsels vonAnach B. Dann gilt rg B = n− d und

A = MA(b) = t(T AB )MB(b)T AB = tTBT.

Weil T invertierbar ist, haben A und B denselben Rang, und es folgt rg(V, b) = dimV − dimV ⊥ = n− d =

rg(B) = rg(A).

Satz 10.5 (Trägheitssatz von Sylvester)

Sei V ein endlich-dimensionsionaler R- (bzw. C-)Vektorraum und b eine symmetrische Bilinearform(bzw. hermitesche Sesquilinearform) auf V . Seien ferner B und B′ zwei geordnete Basen mit der Eigen-schaft, dass die DarstellungsmatrizenMB(b) undMB′(b) jeweils die Form (10.1) annehmen. Bezeichnenwir mit r, s und d die Anzahl der Einträge 1, −1 und 0 auf der Hauptdiagonalen vonMB(b) und mit r′,s′ und d′ die entsprechenden Zahlen für die MatrixMB′(b), dann gilt

r = r′ , s = s′ und d = d′.

Beweis: Sei n = dimV , B = (v1, ..., vn) und B′ = (v′1, ..., v′n). Nach Prop. 10.4 gilt

n− d = rgMA(b) = rg(V, b) = rgMB(b) = n− d′

und somit d = d′. Wegen r + s + d = n = r′ + s′ + d genügt es, r = r′ nachzuweisen. Sei U+ derUntervektorraum, der von den ersten r Vektoren in B aufgespannt wird und U− der Untervektorraum,der von den nächsten s Vektoren erzeugt wird. Seien U ′+ und U ′− die entsprechenden Untervektorräumevon V zur Basis B′. Dann besitzt V die orthogonalen Summenzerlegungen

V = U+ ⊕ U− ⊕ V ⊥ = U ′+ ⊕ U ′− ⊕ V ⊥.

Für jeden Vektor v in U− ⊕ V ⊥ gilt b(v, v) ≤ 0, denn jeder Vektor in diesem Untervektorraum hat eineDarstellung der Form v =

∑nk=r+1 λkvk, und auf Grund der Orthogonalität der Basisvektoren folgt

b(v, v) =

n∑k=r+1

b(λkvk, λkvk) =

n∑k=r+1

λ2kb(vk, vk) =

s∑k=r+1

(−λ2k) ≤ 0.

Für jeden Vektor w ∈ U ′+ \ {0V } gilt dagegen b(v, v) > 0, denn ein solcher Vektor hat eine Darstellung derForm w =

∑rk=1 µkv

′k, wobei µk 6= 0 für mindestens ein k gilt. Wir erhalten

b(w,w) =

r∑k=1

b(µkv′k, µkv

′k) =

r∑k=1

µ2kb(v

′k, v′k) =

r∑k=1

µ2k > 0.

Daraus folgt U ′+ ∩ (U−⊕V ⊥) = {0V } und somit r′+ s+ d ≤ n = r+ s+ d, also r′ ≤ r. Ebenso beweist manr′ ≤ r, so dass insgesamt r = r′ gilt.

Die Zahl r in Satz 10.5 nennt man den Index, die Differenz r − s die Signatur von (V, b).

Definition 10.6 Eine Quadrik (oder quadratische Hyperfläche) im Rn ist die Nullstellenmenge einesPolynoms der Form

f(x1, ..., xn) =∑

1≤k≤`≤n

fk`xkx` +

n∑k=1

fkxk + f0

mit fk, fk` ∈ R für 1 ≤ k ≤ ` ≤ n, wobei fk` 6= 0 für mindestens ein Paar (k, `) gilt.

—– 77 —–

Page 78: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Durch Verwendung der Matrixschreibweise kann eine Quadrik in kompakter Form dargestellt werden. Definierenwir A = (aij) ∈Mn,R durch

akk = fkk für 1 ≤ k ≤ n , ak` = a`k = 12fk` für 1 ≤ k ≤ ` ≤ n, k 6= ` ,

und setzen wir bk = 12fk und c = f0, dann ist die Nullstellenmenge des Polynoms f von oben gegeben durch

Q = {x ∈ Rn | txAx+ 2〈b, x〉+ c = 0} (10.2)

Satz 10.7 (Hauptachsentransformation)

Sei Q ⊆ Rn eine Quadrik der Form (10.2), dann gibt es eine Bewegung φ : Rn → Rn, so dass φ(Q) dieNullstellenmenge eines Polynoms der folgenden Form ist.

(i) a1x21 + ...+ arx

2r = 0 (1 ≤ r ≤ n, ak 6= 0 für 1 ≤ k ≤ r)

(ii) a1x21 + ...+ arx

2r = 1 (1 ≤ r ≤ n, ak 6= 0 für 1 ≤ k ≤ r)

(iii) a1x21 + ...+ arx

2r = 2xr+1 (1 ≤ r < n, ak 6= 0 für 1 ≤ k ≤ r)

Beweis: Nach Kor. 10.1 gibt es eine Matrix T ∈ O(n), so dass D = tTAT eine Diagonalmatrix ist.Definieren wir die Bewegung φ1 durch φ1(x) = T−1x für alle x ∈ Rn, dann erhalten wir für die Punktevon Q1 = φ1(Q) die Gleichung

txDx+ 2〈b, Tx〉+ c = 0.

Bezeichnen wir die Einträge von D auf der Hauptdiagonalen mit a1, ..., an, dann hat Q1 also die Form

Q1 =

{x ∈ Rn

∣∣∣∣ n∑k=1

akx2k +

n∑k=1

2ukxk + c = 0

}für geeignete u1, ..., un ∈ R. Durch Umsortieren der Koordinaten können wir erreichen, dass ein r mit 1 ≤r ≤ n existiert, so dass ak 6= 0 für 1 ≤ k ≤ r und ak = 0 für k > r erfüllt ist. Das Umsortieren wird durcheine Permutationsmatrix Pσ mit σ ∈ Sn realisiert, und diese ist orthogonal (es gilt P−1

σ = Pσ−1 = tPσ). Esgibt also eine Bewegung φ2, so dass Q2 = φ2(Q1) gegeben ist durch

Q2 =

{x ∈ Rn

∣∣∣∣ r∑k=1

akx2k +

n∑k=1

2ukxk + c = 0

}mit entsprechend permutierten ak, uk ∈ R. Für 1 ≤ k ≤ r gilt

akx2k + 2ukxk = ak(x2

k + 2ukak xk) = ak(x2k + 2ukak xk + (ukak )2)− u2

k

ak= ak(xk + uk

ak)2 − u2

k

ak.

Mit einer geeignet veränderten Konstanten c gilt also

Q2 =

{x ∈ Rn

∣∣∣∣ r∑k=1

ak(xk + ukak

)2 +

n∑k=r+1

2ukxk + c = 0

}

Durch Anwendung einer Translation φ3 auf Q2 erhalten wir eine neue Quadrik

Q3 =

{x ∈ Rn

∣∣∣∣ r∑k=1

akx2k +

n∑k=r+1

2ukxk + c = 0

}

—– 78 —–

Page 79: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

mit erneut modifizierten Koeffizienten uk, c ∈ R. Wir unterscheiden nun zwei Fälle. Kommt in der Glei-chung für Q3 kein linearer Term mehr vor (gilt also r = n oder uk = 0 für alle k ≥ r + 1, dann haben wirim Fall c = 0 die Form (i) erreicht. Im Fall c 6= 0 dividieren wir die Gleichung durch c und erhalten damitdie Form (ii).

Existiert dagegen noch ein linearer Term, so können wir (nach ggf. einer weiteren Vertauschung der Koor-dinaten) davon ausgehen, dass ur+1 6= 0 gilt. Setzen wir v = (0, ..., br+1, ..., bn), dann gilt

Q3 =

{x ∈ Rn

∣∣∣∣ r∑k=1

akx2k + 2〈v, x〉+ c = 0

}.

Sei φ4 eine Drehung, die v auf λer+1 für ein geeignetes λ ∈ R mit λ 6= 0 abbildet und die ersten r Koordi-naten unverändert lässt. Dann ist Q4 = φ4(Q3) gegeben durch

Q4 =

{x ∈ Rn

∣∣∣∣ r∑k=1

akx2k + 2〈v, φ−1

4 (x)〉+ c = 0

}=

{x ∈ Rn

∣∣∣∣ r∑k=1

akx2k + 2〈φ4(v), x〉+ c = 0

}=

{x ∈ Rn

∣∣∣∣ r∑k=1

akx2k + 2λ〈er+1, x〉+ c = 0

}=

{x ∈ Rn

∣∣∣∣ r∑k=1

akx2k + 2λxr+1 + c = 0

}

Weiter gilt 2λxr+1 + c = 2λ(xr+1 + c2λ ). Wenden wir auf Q die Translation φ5 : Rn → Rn, x 7→ x− c

2λer+1

an, dann hat Q5 = φ5(Q4) die Form

Q5 =

{x ∈ Rn

∣∣∣∣ r∑k=1

akx2k + 2λxr+1 = 0

}.

Bringen wir nun noch den Term 2λxr+1 auf die andere Seite der Gleichung und dividieren durch−λ, dannhat die Quadrik Q5 die Form (iii).

Klassifikation der ebenen Quadriken

Eine Quadrik im R2 bezeichnet man auch als Kegelschnitt. Nach Satz Satz 10.7 kann eine solche Quadrik nachAnwendung einer Bewegung als Nullstellenmenge eines Polynoms der folgenden Typen dargestellt werden.

a1x2 + a2y

2 = 0 und a1x2 + a2y

2 = 1 im Fall r = 2 ,

a1x2 = 0 , a1x

2 = 1 und a1x2 = 2y im Fall r = 1.

Berücksichtigt man noch die verschiedenen Möglichkeiten für das Vorzeichen der Koeffizienten a1, a2, so kommtman insgesamt zu dem Ergebnis, dass die Quadrik durch eine der folgenden Gleichungen beschrieben wird. In derTabelle stehen a, b jeweils für zwei positive reelle Zahlen.

—– 79 —–

Page 80: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Nr. Gleichung Typ

(1)(xa

)2+(yb

)2= 0 einzelner Punkt

(2)(xa

)2 − (yb )2 = 0 zwei sich schneidende Geraden

(3)(xa

)2+(yb

)2= 1 Ellipse

(4)(xa

)2 − (yb )2 = 1 Hyperbel

(5)(xa

)2+(yb

)2= −1 leere Menge ∅

(6) x2 = 0 einzelne Gerade

(7)(xa

)2= 1 zwei parallele Geraden

(8)(xa

)2= −1 leere Menge ∅

(9)(xa

)2= 2y Parabel

Ergänzungen / Präzisierungen:

– Im Fall (1) gilt Q = {(0, 0)}.

– Im Fall (2) ist Q die Vereinigung der beiden Geraden bx+ ay = 0 und bx+ (−a)y = 0.

– Im Fall (6) ist Q die senkrechte Gerade x = 0.

– Im Fall (7) ist Q die Vereinigungsmenge der beiden Geraden x = a und x = −a.

Klassifikation der räumlichen Quadriken

Nach Satz Satz 10.7 kann eine Quadrik Q ⊆ R3 nach Anwendung einer Bewegung als Nullstellenmenge eines Poly-noms der folgenden Typen dargestellt werden.

a1x2 + a2y

2 + a3z2 = 0

a1x2 + a2y

2 + a3z2 = 1 (r = 3)

a1x2 + a2y

2 = 0

a1x2 + a2y

2 = 1

a1x2 + a2y

2 = 2z (r = 2)

a1x2 = 0

a1x2 = 1

a1x2 = 2y (r = 1)

Berücksichtigt man auch hier noch die verschiedenen Möglichkeiten für das Vorzeichen der Koeffizienten, so erhältman die folgende Klassifikation (mit a, b, c ∈ R+).

—– 80 —–

Page 81: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Nr. Gleichung Typ

(1)(xa

)2+(yb

)2+(zc

)2= 0 einzelner Punkt

(2)(xa

)2+(yb

)2 − ( zc )2 = 0 elliptischer Doppelkegel

(3)(xa

)2+(yb

)2+(zc

)2= 1 Ellipsoid

(4)(xa

)2+(yb

)2 − ( zc )2 = 1 einschaliges Hyperboloid

(5)(xa

)2 − (yb )2 − ( zc )2 = 1 zweischaliges Hyperboloid

(6)(xa

)2+(yb

)2+(zc

)2= −1 leere Menge ∅

(7)(xa

)2+(yb

)2= 0 z-Achse

(8)(xa

)2 − (yb )2 = 0 Vereinigung zweier sich schneidender Ebenen

(9)(xa

)2+(yb

)2= 1 elliptischer Zylinder

(10)(xa

)2 − (yb )2 = 1 hyperbolischer Zylinder

(11)(xa

)2 − (yb )2 = −1 leere Menge ∅

(12)(xa

)2+(yb

)2= 2z elliptisches Paraboloid

(13)(xa

)2 − (yb )2 = 2z Sattelfläche

(14) x2 = 0 Ebene x = 0

(15)(xa

)2= 1 Vereinigung zweier paralleler Ebenen

(16)(xa

)2= −1 leere Menge ∅

(17)(xa

)2= ±2y parabolischer Zylinder

Ergänzungen / Präzisierungen:

– Im Fall (1) gilt Q = {(0, 0, 0)}.

– Im Fall (8) ist Q die Vereinigung der Ebenen bx+ ay = 0 und bx− ay = 0.

– Im Fall (15) ist Q die Vereinigung der Ebenen x = a und x = −a.

—– 81 —–

Page 82: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Als weiteres Beispiel für eine Anwendung symmetrischer, indefiniter Bilinearformen werfen wir einen Blick auf dasmathematische Modell der Speziellen Relativitätstheorie (SRT).

Definition 10.8 Eine (flache) Raumzeit ist ein Tripel (V, b, v0) bestehend aus einem vierdimensiona-len R-Vektorraum V , einer nicht-ausgearteten, symmetrischen Bilinearform b auf V von Index 1 undSignatur −2 und einem Vektor v0 ∈ V mit b(v0, v0) = 1. Die Vektoren in V werden Ereignisse genannt.

Definition 10.9 Sei (V, b, v0) eine Raumzeit. Ein Vektor v ∈ V heißt

(i) zeitartig, wenn b(v, v) > 0

(ii) raumartig, wenn v = 0V oder b(v, v) < 0

(iii) lichtartig, wenn v 6= 0V und b(v, v) = 0 gilt.

Ist v ∈ V ein zeitartiger Vektor mit b(v, v0) > 0, dann bezeichnen wir v als zukunftsgerichtet, sonst alsvergangenheitsgerichtet. Wir definieren auf V eine Abbildung ‖ ‖b : V → R+ durch ‖v‖b =

√|b(v, v)|.

Seien v1, v2 ∈ V . Ist v2 − v1 zeitartig, dann interpretiert man ‖v2 − v1‖b als die „verstrichene Zeit“ zwischen denEreignissen v1 und v2. Ist v2 − v1 raumartig, dann ist ‖v2 − v1‖b der räumliche Abstand zwischen v1 und v2.

Definition 10.10 Ein Beobachter in einer Raumzeit (V, b, v0) ist eine stetige Abbildung γ : I → V aufeinem endlichen oder unendlichen offenen Intervall I ⊆ Rmit folgenden Eigenschaften.

(i) Die Funktion γ ist stückweise stetig differenzierbar.(ii) Sei t ∈ I ein Punkt, in dem γ stetig differenzierbar ist. Dann mit γ′(t) zeitartig und zukunftsge-

richtet. Außerdem gilt ‖γ′(t)‖b = 1.

Sind t1, t2 ∈ I mit t1 < t2, dann nennt man t2 − t1 die für den Beobachter γ zwischen den Ereignissenγ(t1) und γ(t2) verstrichene Eigenzeit. Den affinen Unterraum γ(t1) + γ′(t1)⊥ von V nennt man denGleichzeitigkeitsraum des Beobachters γ zum Zeitpunkt t1.

Sind v1, v2 zwei Elemente dieses Unterraums, dann nennen wir ‖v2−v1‖b den von γ wahrgenommenenräumlichen Abstand der Ereignisse v1 und v2.

Eine wesentliche Aussage der SRT besteht darin, dass sowohl zeitliche und räumliche Abstände von Ereignissen alsauch die Gleichzeitigkeit von Ereignissen vom Beobachter abhängig ist. Die Gleichzeitigkeitsräume eines Beobachtersγ bestehen jeweils aus den Ereignissen, die aus der Perspektive von γ gleichzeitig eintreten. Die Eigenzeit ist die vomBeobachter γ gemessene Zeit zwischen zwei Ereignissen. Treten v1 und v2 aus Sicht von γ gleichzeitig ein (liegensie also im selben Gleichzeitigkeitsraum von γ), dann ist ‖v2 − v1‖b der räumliche Abstand, den γ zwischen diesenbeiden Ereignissen wahrnimmt.

Wir sagen, ein Beobachter γ : I → V befindet sich in einer gleichförmigen Bewegung, wenn γ auf ganz I stetigdifferenzierbar und γ′(t) auf I konstant ist.

—– 82 —–

Page 83: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Proposition 10.11 Sei (V, b, v0) eine Raumzeit und γ : I → V ein gleichförmig bewegter Beobachter.Seien t1, t2 ∈ I mit t1 < t2. Dann gilt t2 − t1 = ‖γ(t2)− γ(t1)‖b.

Beweis: Sei v ∈ V der zeitartige Vektor gegeben durch v = γ′(t) für alle t ∈ I . Nach Definition einesBeobachters ist ‖v‖b = 1. Weil die Ableitung γ′ konstant ist, gilt γ(t) = γ(t1) + tv für alle t ∈ I . Es folgtγ(t2)− γ(t1) = (t2 − t1)v und somit

b(γ(t2)− γ(t1), γ(t2)− γ(t1)) = b((t2 − t1)v, (t2 − t1)v) = (t2 − t1)2b(v, v)

= (t2 − t1)2‖v‖2b = (t2 − t1)2.

Wegen t2 − t1 > 0 erhalten wir t2 − t1 = ‖γ(t2)− γ(t1)‖b.

Wir verwenden nun unser Modell, um einige aus der SRT bekannte physikalische Phänomene darzustellen. SeiV = R4 und b : V × V → V die Bilinearform mit der Darstellungsmatrix A = diag(1,−1,−1,−1) bezüglich derEinheitsbasis. Sind x, y ∈ R4, dann gilt also

b(x, y) = (x1, x2, x3, x4)

1 0 0 0

0 −1 0 0

0 0 −1 0

0 0 0 −1

y1

y2

y3

y4

= x1y1 − x2y2 − x3y3 − x4y4.

(i) Zeitdilatation

Seien die Beobachter γ1, γ2 : R→ V gegeben durch

γ1(t) = t(t, 0, 0, 0) und γ2(t) =1√

1− v2

t(t, vt, 0, 0) für allet ∈ R.

Dies lässt sich so interpretieren, dass der Beobachter γ1 bewegungslos und γ2 mit einer Geschwindigkeit vgleichförmig bewegt ist, wobei 0 ≤ v < 1 ist. (Dabei sind die Einheiten immer so gewählt, dass v = 1 der Licht-geschwindigkeit entspricht.) Wir betrachten nun die beiden Ereignisse v1 = t(1, 0, 0, 0) und v2 = t(2, 0, 0, 0),die man sich zum Beispiel als Lichtblitze am Standort der Beobachters γ1 vorstellen kann. Unsere Rechnungwird ergeben, dass γ2 zwischen den Ereignissen v1 und v2 einen längeren zeitlichen Abstand registriert als γ1.

Bestimmen wir zunächst den zeitlichen Abstand, der vom Beobachter γ1 wahrgenommen wird. Das Ereignisv1 wird von γ1 zum Zeitpunkt t registiert, wenn v1 im Gleichzeitigkeitsraum γ1(t) + γ′1(t)⊥ enthalten ist. Nungilt jedes t ∈ R gilt die Äquivalenz

v1 ∈ γ1(t) + γ′1(t)⊥ ⇔ (v1 − γ1(t)) ⊥ γ′1(t) ⇔ b(v1 − γ1(t), γ′1(t)) = 0 ⇔

b(t(1− t, 0, 0, 0), t(1, 0, 0, 0)) = 0 ⇔ 1− t = 0 ⇔ t = 1

und ebenso

v2 ∈ γ1(t) + γ′1(t)⊥ ⇔ (v2 − γ1(t)) ⊥ γ′1(t) ⇔ b(v2 − γ1(t), γ′1(t)) = 0 ⇔

b(t(2− t, 0, 0, 0), t(1, 0, 0, 0)) = 0 ⇔ 2− t = 0 ⇔ t = 2.

Die beiden Ereignisse v1, v2 werden von γ1 also zu den Zeitpunkten t1 = 1 und t2 = 2 registriert. Die für γ1

verstrichene Eigenzeit zwischen v1 und v2 beträgt also t2 − t1 = 1.

—– 83 —–

Page 84: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Nun bestimmen wir den zeitlichen Abstand zwischen v1 und v2, der vom Beobachter γ2 gemessen wird. Hiermüssen wir nachrechnen, für welche t ∈ R die Punkte v1 bzw. v2 im Gleichzeitigkeitsraum γ2(t) + γ′2(t)⊥ vonγ2 liegen. Für jedes t ∈ R gilt die Äquivalenz

v1 ∈ γ2(t) + γ′2(t)⊥ ⇔ (v1 − γ2(t)) ⊥ γ′2(t) ⇔ b(v1 − γ2(t), γ′2(t)) = 0 ⇔

b

(t(1, 0, 0, 0)− 1√

1− v2

t(t, vt, 0, 0),1√

1− v2

t(1, v, 0, 0)

)= 0 ⇔

b(

t(√

1− v2 − t,−vt, 0, 0), t(1, v, 0, 0))

= 0 ⇔

√1− v2 − t+ v2t = 0 ⇔

√1− v2 = (1− v2)t ⇔ t =

1√1− v2

und ebenso

v2 ∈ γ2(t) + γ′2(t)⊥ ⇔ (v2 − γ2(t)) ⊥ γ′2(t) ⇔ b(v2 − γ2(t), γ′2(t)) = 0 ⇔

b

(t(2, 0, 0, 0)− 1√

1− v2

t(t, vt, 0, 0),1√

1− v2

t(1, v, 0, 0)

)= 0 ⇔

b(

t(2√

1− v2 − t,−vt, 0, 0), t(1, v, 0, 0))

= 0 ⇔

2√

1− v2 − t+ v2t = 0 ⇔ 2√

1− v2 = (1− v2)t ⇔ t =2√

1− v2

Setzen wir βv = (1−v2)−1/2, dann werden die beiden Ereignisse v1, v2 werden von γ2 also zu den Zeitpunktent1 = βv und t2 = 2βv wahrgenommen. Die für γ2 zwischen v1 und v2 verstrichene Eigenzeit t2 − t1 ist also umden Faktor βv länger als bei γ1. Dieser „Dilatationsfaktor“ ist umso größer, je höher die Geschwindigkeit v vonγ2 ist (im Extremfall v = c wäre sie sogar „unendlich groß“).

(ii) Relativität der Gleichzeitigkeit

Seien die Beobachter γ1, γ2 definiert wie im letzten Beispiel. Diesmal betrachten wir die Ereignisse v1 =t(0,−1, 0, 0) und v2 = t(0, 1, 0, 0) und untersuchen, in welcher zeitlichen Reihenfolge diese von den beidenBeobachtern wahrgenommen werden. Für alle t ∈ R gilt die Äquivalenz

v1 ∈ γ1(t) + γ′1(t)⊥ ⇔ (v1 − γ1(t)) ⊥ γ′1(t) ⇔ b(v1 − γ1(t), γ′1(t)) = 0 ⇔

b(t(0,−1, 0, 0)− t(t, 0, 0, 0), t(1, 0, 0, 0)) = 0 ⇔

b(t(−t,−1, 0, 0), t(1, 0, 0, 0)) = 0 ⇔ −t = 0 ⇔ t = 0.

Also wird das Ereignis v1 von γ1 zum Zeitpunkt t1 = 0 wahrgenommen. Ebenso gilt

v2 ∈ γ1(t) + γ′1(t)⊥ ⇔ (v2 − γ1(t)) ⊥ γ′1(t) ⇔ b(v2 − γ1(t), γ′1(t)) = 0 ⇔

b(t(0, 1, 0, 0)− t(t, 0, 0, 0), t(1, 0, 0, 0)) = 0 ⇔

b(t(−t, 1, 0, 0), t(1, 0, 0, 0)) = 0 ⇔ −t = 0 ⇔ t = 0.

Das Ereignis v2 wird von γ1 zum Zeitpunkt t2 = 0 registriert. Es gilt t1 = t2, die beiden Ereignisse werden vonγ1 also gleichzeitig wahrgenommen.

—– 84 —–

Page 85: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Nun betrachten wir das Geschehen aus der Perspektive von γ2. Für alle t ∈ R gilt

v1 ∈ γ2(t) + γ′2(t)⊥ ⇔ (v1 − γ2(t)) ⊥ γ′2(t) ⇔ b(v1 − γ2(t), γ′2(t)) = 0 ⇔

b

(t(0,−1, 0, 0)− 1√

1− v2

t(t, vt, 0, 0),1√

1− v2

t(1, v, 0, 0)

)= 0 ⇔

b(√

1− v2 t(0,−1, 0, 0)− t(t, vt, 0, 0), t(1, v, 0, 0))

= 0 ⇔

b(t(−t,−√

1− v2 − vt, 0, 0), t(1, v, 0, 0)) = 0 ⇔ −t+ v√

1− v2 + v2t = 0 ⇔

t(1− v2) = v√

1− v2 ⇔ t =v√

1− v2.

Der Beobachter γ2 registriert v1 also zum Zeitpunkt t1 = v√1−v2 . Ebenso gilt

v2 ∈ γ2(t) + γ′2(t)⊥ ⇔ (v2 − γ2(t)) ⊥ γ′2(t) ⇔ b(v2 − γ2(t), γ′2(t)) = 0 ⇔

b

(t(0, 1, 0, 0)− 1√

1− v2

t(t, vt, 0, 0),1√

1− v2

t(1, v, 0, 0)

)= 0 ⇔

b(√

1− v2 t(0, 1, 0, 0)− t(t, vt, 0, 0), t(1, v, 0, 0))

= 0 ⇔

b(t(−t,√

1− v2 − vt, 0, 0), t(1, v, 0, 0)) = 0 ⇔ −t− v√

1− v2 + v2t = 0 ⇔

t(1− v2) = −v√

1− v2 ⇔ t =(−v)√1− v2

.

Das Ereignis v2 wird also zum Zeitpunkt t2 = (−v)√1−v2 registriert. Wegen t2 < t1 nimmt γ2 die beiden Ereignisse

nicht gleichzeitig wahr, sondern v2 tritt aus seiner Sicht früher als v1 ein.

(iii) Zwillingsparadoxon

Hier stellen wir die folgenden beiden Perspektiven gegenüber: Der erste Beobachter γ1 bleibt in unserem Ko-ordinatensystem ortsfest (auf der Erde), er wird also wie zuvor dargestellt durch die Abbildung γ1 : R→ R4,t 7→ (t, 0, 0, 0). Der zweite Beobachter tritt zum Zeitpunkt t = 0 eine Reise an (zum Beispiel zu einem unsererNachbarsterne), kehrt nach einer gewissen Zeit α um und trifft zum Zeitpunkt 2α wieder auf der Erde ein.Dies wird dargestellt durch die Funktion

γ2(t) =

1√1− v2

t(t, vt, 0, 0) für 0 ≤ t ≤ α1√

1− v2

t(t, v(2α− t), 0, 0) für α ≤ t ≤ 2α

t(t, 0, 0, 0) sonst

Für uns sind in diesem Szenario drei Ereignisse interessant: Die „Abreise“ von γ2 gegeben durch

v1 = γ1(0) = γ2(0) = t(0, 0, 0, 0) ,

die „Ankunft“ von γ2 auf Alpha Centauri gegeben durch

v2 = γ2(α) =1√

1− v2

t(α, vα, 0, 0)

—– 85 —–

Page 86: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

und die „Rückkehr“ von γ2 zur Erde gegeben durch

v3 = γ1

(2α√

1− v2

)= γ2(2α) = t

(2α√1−v2 , 0, 0, 0

)An den unterschiedlichen Zeitkoordinaten 2α√

1−v2 und 2α sieht man, dass für den Beobachter γ2 (den „reisen-den Zwilling“) die Zeit um den Faktor (1−v2)−1/2 langsamer vergangen ist als für γ1 (den „daheimgebliebenenZwilling“).

Nach Prop. 10.11 wird die aus Sicht von γ1 verstrichene Zeit durch die Länge des zeitartigen Vektors v3 − v1

angegeben, denn γ1 ist während des gesamten Vorgangs gleichförmig bewegt. Dagegen erhält man die ausSicht von γ2 verstrichene Zeit durch ‖v2 − v1‖b + ‖v3 − v2‖b, denn γ2 ist nur zwischen den Punkte v1 und v2

bzw. v2 und v3 jeweils gleichförmig bewegt. Es gilt

‖v3 − v1‖b = ‖(v2 − v1) + (v3 − v2)‖b =2α√

1− v2> 2α = ‖v2 − v1‖b + ‖v3 − v2‖b.

Allgemein gilt für zeitartige Vektoren in einer Raumzeit die „umgekehrte Dreiecksungleichung“:Der direkte Weg von v1 nach v3 ist länger als der Umweg über den Punkt v2!

—– 86 —–

Page 87: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

§ 11. Faktorräume und Tensorprodukte

Wichtige Begriffe und Sätze in diesem Abschnitt

– Äquivalenzrelationen– Definition der Faktorräume– Homomorphiesatz und Dimension der Faktorräume– Existenz und Eindeutigkeit des Tensorprodukts– Eigenschaften der Tensorprodukte

Definition 11.1 Eine Relation ∼ auf einer Menge X wird Äquivalenzrelation genannt, wenn siefolgende Eigenschaften besitzt.

(i) ∀x ∈ X : x ∼ x (Reflexivität)(ii) ∀x, y ∈ X : x ∼ y ⇒ y ∼ x (Symmetrie)

(iii) ∀x, y, z ∈ X : x ∼ y und y ∼ z ⇒ x ∼ z (Transitivität)

Die Bedeutung der Äquivalenzrelationen lässt sich intuitiv leichter erfassen, wenn man sich klarmacht, dass jedesolche Relation ∼ auf einer Menge X einfach einer Zerlegung von X in Teilmengen entspricht.

Definition 11.2 Sei X eine Menge und P(X) ihre Potenzmenge, also die Menge der Teilmengen vonX . Eine Teilmenge Z ⊆ P wird Zerlegung von X genannt, wenn folgende Bedingungen erfüllt sind.

(i) Alle Mengen in Z sind nichtleer, es gilt also ∅ /∈ Z .(ii) Für jedes x ∈ X gibt es ein A ∈ Z mit x ∈ A.

(iii) Für alle A,B ∈ Z mit A 6= B gilt A ∩B = ∅.

Die Bedingungen (ii) und (iii) lassen sich durch die Aussage zusammenfassen, dass für jedes x ∈ X

jeweils genau einA ∈ Z mit x ∈ A existiert. Zwei Mengen in einer Zerlegung sind also entweder disjunktoder gleich.

Satz 11.3 Sei X eine Menge.

(i) Sei Z eine Zerlegung vonX . Dann ist durch x ∼Z y ⇔ ∃A ∈ Z : x, y ∈ A eine Äquivalenzrelationauf X definiert.

(ii) Sei umgekehrt ∼ eine Äquivalenzrelation auf X . Dann bilden die Teilmengen der Form [x]∼ =

{z ∈ X | x ∼ z} eine Zerlegung Z∼ von X .(iii) Die Zuordnungen Z 7→∼Z und ∼7→ Z∼ zwischen den Zerlegungen von X einerseits und den

Äquivalenzrelationen auf X andererseits sind zueinander invers.

Die Teilmengen der Form [x]∼ von X werden Äquivalenzklassen der Äquivalenzklassen ∼ genannt. Füralle x, y ∈ X gilt [x]∼ = [y]∼ ⇔ x ∼ y.

Page 88: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Beweis: zu (i) Wir müssen die drei definierenden Eigenschaften einer Äquivalenzrelation für ∼Z über-prüfen. Ist x ∈ X vorgegeben, dann gibt es auf Grund der Eigenschaft (ii) einer Zerlegung ein A ∈ Z mitx ∈ A. Daraus folgt x ∼Z x. Also ist ∼Z reflexiv. Seien nun x, y ∈ X mit x ∼Z y vorgegeben. Dann gibtes ein A ∈ Z mit x, y ∈ A. Es folgt y, x ∈ A und damit y ∼Z x. Damit ist die Symmetrie von ∼Z nachge-wiesen. Seien schließlich x, y, z mit x ∼Z y und y ∼Z z vorgegeben. Dann gibt es Mengen A,B ∈ Z mitx, y ∈ A und y, z ∈ B. Aus y ∈ A ∩B folgt A = B auf Grund der Eigenschaft (iii) einer Zerlegung. Darausfolgt x, z ∈ A und x ∼Z z. Dies zeigt, dass die Relation ∼Z auch transitiv ist.

zu (ii) Wir überprüfen für Z∼ = {[x]∼ | x ∈ X} die drei Eigenschaften einer Zerlegung. Jede MengeA ∈ Z∼ hat die Form A = [x]∼ für ein x ∈ X , und wegen x ∼ x ist x in A enthalten. Dies zeigt, dassalle Mengen in Z∼ nichtleer sind. Für jedes x ∈ X gibt es ein A ∈ Z∼ mit x ∈ A, nämlich die MengeA = [x]∼. Also ist auch die Bedingung (ii) für eine Zerlegung erfüllt. Zum Nachweis der Eigenschaft (iii)seien A,B ∈ Z∼ mit A ∩ B 6= ∅ vorgegeben. Nach Definition von Z∼ gibt es x, z ∈ X mit A = [x]∼ undB = [z]∼. Sei y ein beliebiges Element im Durchschnitt [x]∼ = [z]∼. Wir zeigen, dass

[x]∼ = [y]∼ gilt.

„⊆“ Ist u ∈ [x]∼, dann gilt x ∼ u nach Definition von [x]∼, somit auch u ∼ x. Wegen y ∈ [x]∼ gilt x ∼ y.Aus u ∼ x und x ∼ y folgt u ∼ y und y ∼ u. Damit ist u in [y]∼ enthalten. „⊇“ Sei u ∈ [y]∼ vorgegeben.Dann gilt y ∼ u. Aus x ∼ y und y ∼ u folgt x ∼ u und damit u ∈ [x]∼.

Ebenso folgt aus y ∈ [z]∼ die Identität [y]∼ = [z]∼. Insgesamt ist damitA = [x]∼ = [z]∼ = B nachgewiesen.

zu (iii) Sei Z eine Zerlegung,∼=∼Z die zu Z gehörende Äquivalenzrelation undW die zu∼ gehörendeZerlegung. Zu zeigen ist Z = W . „⊆“ Sei A ∈ Z vorgegeben und x ∈ A. Wir zeigen, dass A = [x]∼ giltund A somit inW liegt. Ist y ∈ A, dann gilt x ∼ y nach Definition von ∼. Daraus wiederum folgt y ∈ [x]∼nach Definition von [x]∼. Ist umgekehrt y ∈ [x]∼, dann folgt x ∼ y. Es gibt also ein B ∈ Z mit x, y ∈ B.Wegen x ∈ A ∩B muss A = B gelten. Daraus folgt y ∈ A.

„⊇“ Sei A ∈ W . Zu zeigen ist, dass A in Z liegt. Nach Definition vonW gibt es ein x ∈ X mit A = [x]∼.Weil Z eine Zerlegung von X ist, existiert ein B ∈ Z mit x ∈ B. Wir zeigen, dass A = B gilt. Liegt y ∈ A,dann gilt x ∼ y, und folglich existiert eine Menge C ∈ Z mit x, y ∈ C. Aus x ∈ B ∩ C folgt B = C. Also istauch y in B enthalten. Sei nun umgekehrt y ∈ B vorgegeben. Dann folgt x ∼ y und somit x ∈ A. Damit istA = B nachgewiesen, und wir erhalten A ∈ Z wie gewünscht.

Sei nun∼ eine Äquivalenzrelation, Z = Z∼ die zugehörige Zerlegung und ∼= die zu Z gehörende Äquiva-lenzrelation. Zu zeigen ist

x ∼ y ⇔ x ∼= y für alle x, y ∈ X.

„⇒“ Seien x, y ∈ X mit x ∼ y vorgegeben. Dann gilt y ∈ [x]∼. aus y ∈ [x]∼ ∩ [y]∼ folgt [x]∼ = [y]∼,außerdem ist die Menge A = [x]∼ in Z enthalten, nach Definition von Z . Es gibt also ein A ∈ Z mitx, y ∈ A. Daraus folgt x ∼= y nach Definition der Relation ∼=. „⇐“ Seien x, y ∈ X mit x ∼= y vorgegeben.Dann gibt es ein A ∈ Z mit x, y ∈ A. Nach Definition von Z gibt es ein z ∈ X mit A = [z]∼. Aus x ∈ [z]∼folgt z ∼ x und x ∼ z, und aus y ∈ [z]∼ folgt z ∼ y. Aus x ∼ z und z ∼ y folgt wiederum x ∼ y.

In der Zusatzbemerkung des Satzes folgt „⇐“ aus y ∈ [y]∼ = [x]∼ und die Richtung „⇒“ aus x ∈ [x]∼∩[y]∼und der Tatsache, dass die Äquivalenzklassen eine Zerlegung von X bilden.

—– 88 —–

Page 89: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Wir werden das Konzept der Äquivalenzrelation nun verwenden, um einen neuen Typ von Vektorräumenzu definieren.

Proposition 11.4 Sei K ein Körper, V ein K-Vektorraum und U ein Untervektorraum. Dann ist durch

v ∼U w ⇔ v − w ∈ U

eine Äquivalenzrelation auf V definiert. Die Äquivalenzklassen von∼U sind genau die Teilmengen vonV der Form v + U = {v + u | u ∈ U}, wobei v die Elemente von V durchläuft.

Beweis: Wir überprüfen für ∼U die drei Eigenschaften einer Äquivalenzrelation. Für jedes v ∈ V giltv−v = 0V ∈ U und somit v ∼U v. Also ist die Relation∼U reflexiv. Seien v, w ∈ V mit v ∼U w vorgegeben.Dann gilt v−w ∈ U . Weil U ein Untervektorraum von V ist, folgt w−v = −(v−w) ∈ U und somit w ∼U v.Dies zeigt, dass∼U auch symmetrisch ist. Seien nun u, v, w ∈ V mit u ∼U v und v ∼U w vorgegeben. Danngilt u−v ∈ U und v−w ∈ U . Aus der Untervektorraum-Eigenschaft vonU folgt u−w = (u−v)+(v−w) ∈ Uund somit u ∼U w. Damit ist die Transitivität von ∼U nachgewiesen.

Um die Aussage über die Äquivalenzklassen zu zeigen, sei v ∈ V vorgegeben. Für jeden Vektor w ∈ Wgilt die Äquivalenz

w ∈ [v]∼U ⇔ v ∼U w ⇔ v − w ∈ U ⇔ ∃u ∈ U : w = v + u ⇔ w ∈ v + U.

Damit ist die Gleichung [v]∼U = v + U nachgewiesen.

Wir fassen die Äquivalenzklassen bezüglich der Relation ∼U zu einer Menge V/U zusammen. Es gilt also

V/U = {v + U | v ∈ V }.

Man beachte, dass aus v + U = w + U im allgemeinen nicht v = w folgt. Vielmehr gilt die Äquivalenz

v + U = w + U ⇔ [v]∼U = [w]∼U ⇔ v ∼U w ⇔ v − w ∈ U.

Unser nächstes Ziel besteht darin, auf der Menge V/U eine K-Vektorraum-Struktur zu definieren.

Proposition 11.5 Sei V ein K-Vektorraum und U ⊆ V ein Untervektorraum. Dann gibt es eindeutigbestimmte Abbildungen

+U : V/U × V/U → V/U und ·U : K × V/U → V/U

so dass

(v + U) +U (w + U) = (v + w) + U und λ ·U (v + U) = (λv) + U

für alle v, w ∈ V und alle λ ∈ K erfüllt ist.

—– 89 —–

Page 90: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Beweis: Die Eindeutigkeit der Abbildungen +U und ·U ist klar, da sie durch die angegebenen Bedin-gungen auf dem gesamten Definitionsbereich V/U × V/U bzw. K × V/U eindeutig festgelegt sind. ZumNachweis der Existenz wählen wir für jedes A ∈ V/U ein ausgezeichnetes Element vA und definieren dieAbbildungen +U und ·U durch

A+U B = (vA + vB) + U und λ ·U A = (λvA) + U

für alle A,B ∈ V/U und alle λ ∈ K. Zu zeigen ist nun, dass diese beiden Abbildungen die im Satzangegebenen Bedingungen erfüllen.

Seien v, w ∈ V vorgegeben. Setzen wir A = v+U und B = w+U , dann folgen aus vA ∈ A und vB ∈ B dieGleichungen v + U = vA + U und w + U = vB + U . Nach Definition der Abbildung +U gilt

(v + U) + (w + U) = (vA + U) + (vB + U) = (vA + vB) + U.

Aus v + U = vA + U und w + U = vB + U folgt v − vA ∈ U und w − vB ∈ U . Damit ist auch der Vektor

(v + w)− (vA + vB) = (v − vA) + (w − vB)

in U enthalten. Daraus folgt (v + U) + (w + U) = (vA + vB) + U = (v + w) + U wie gewünscht.

Sei nun v ∈ V und λ ∈ K. Zu zeigen ist λ ·U (v + U) = (λv) + U . Setzen wir wieder A = v + U , dann giltv + U = vA + U und somit v − vA ∈ U . Nach Definition der Abbildung ·U gilt

λ ·U (v + U) = (λvA) + U.

Nun ist mit v − vA auch der Vektor λv − λvA = λ(v − vA) in U enthalten. Daraus folgt λ ·U (v + U) =

(λvA) + U = (λv) + U .

Satz 11.6 Das Tripel (V/U,+U , ·U ) mit den Abbildungen +U und ·U aus Prop. 11.5 ist ein K-Vektorraum. Man nennt ihn den Faktorraum V/U (gesprochen „V modulo U“).

Beweis: Wir überprüfen die folgenden Einzelaussagen, wobei wir fortwährend von den in Prop. 11.5nachgewiesenen Eigenschaften der Abbildungen +U und ·U Gebrauch machen.

(i) Das Paar (V/U,+U ) ist eine abelsche Gruppe, wobei 0V + U das Neutralelement und für jedes v ∈ V dasElement (−v) + U jeweils das Inverse von v + U ist.

(ii) Es gilt (λ+ µ) ·U (v + U) = λ ·U (v + U) +U µ ·U (v + U) für alle λ, µ ∈ K und v ∈ V .(iii) Es gilt λ ·U ((v + U) +U (w + U)) = λ ·U (v + U) +U λ ·U (w + U) für alle λ ∈ K und v, w ∈ V .(iv) Es gilt λ ·U (µ ·U (v + U)) = (λµ) ·U (v + U) für alle λ, µ ∈ K und v ∈ V .(v) Für alle v ∈ V gilt 1K ·U (v + U) = v + U .

—– 90 —–

Page 91: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

zu (i) Seien da u, v, w ∈ V vorgegeben. Zunächst beweisen wir das Assoziativgesetz. Es gilt

((u+ U) +U (v + U)) +U (w + U) = ((u+ v) + U) +U (w + U) =

((u+ v) + w) + U = (u+ (v + w)) + U = (u+ U) +U ((v + w) + U) =

(u+ U) +U ((v + U) +U (w + U)).

Ebenso führt man das Kommutativitätsgesetz durch die Rechnung (v + U) +U (w + U) = (v + w) + U =

(w+v)+U = (w+U)+U (v+U) auf die Kommutativität von (V,+) zurück. Wegen (v+U)+U (0V +U) =

(v + 0V ) + U = v + U ist 0V + U das Neutralelement in (V/U,+U ). Die Rechnug (v + U) +U ((−v) + U) =

(v + (−v)) + U = 0V + U zeigt, dass (−v) + U das zu v + U inverse Element ist.

Zum Nachweis der übrigen vier Eigenschaften seien v, w ∈ V und λ, µ ∈ K vorgegeben.zu (ii) Diese Gleichung erhält man durch die Rechnung

(λ+ µ) ·U (v + U) = (λ+ µ)v + U = (λv + µv) + U =

(λv + U) +U (µv + U) = λ ·U (v + U) +U µ ·U (v + U).

zu (iii) Es gilt

λ ·U ((v + U) +U (w + U)) = λ ·U ((v + w) + U) = λ(v + w) + U =

(λv + λw) + U = (λv + U) +U (λw + U) = λ ·U (v + U) +U λ ·U (w + U).

zu (iv) Auch diese Gleichung beweist man durch Zurückführung auf die entsprechende Eigenschaft desVektorraums V . Es gilt

λ ·U (µ ·U (v + U)) = λ ·U (µv + U) = λ(µv) + U = (λµ)v + U = (λµ) ·U (v + U).

zu (v) Es gilt 1K ·U (v + U) = (1Kv) + U = v + U .

Proposition 11.7 Sei (V,+, ·) ein K-Vektorraum und U ein Untervektorraum von V . Dann ist dieAbbildung πU : V → V/U gegeben durch πU (v) = v + U für alle v ∈ V linear und surjektiv. Man nenntsie die den kanonischen Epimorphismus zum Untervektorraum U . Es gilt ker(πU ) = U .

Beweis: Zum Nachweis der Linearität seien v, w ∈ V und λ ∈ K vorgegeben. Es gilt

πU (v + w) = (v + w) + U = (v + U) +U (w + U) = πU (v) + πU (w)

und πU (λv) = λv + U = λ ·U (v + U). Die Surjektivität von πU ist offensichtlich, denn jedes Element inV/U kann in der Form v + U für ein v ∈ V dargestellt werden, und für dieses v gilt dann πU (v) = v + U .Schließlich gilt für jedes v ∈ V die Äquivalenz

v ∈ ker(πU ) ⇔ πU (v) = 0V/U ⇔ v + U = 0V + U ⇔ v ∈ U.

Damit ist die Gleichung ker(πU ) = U bewiesen.

Zur Vereinfachung der Notation verwenden wir für die Abbildungen +U und ·U des Vektorraums V/U von nun andie Bezeichnungen + und ·. Aus der Existenz des kanonischen Epimorphismus folgt unmittelbar

—– 91 —–

Page 92: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Korollar 11.8 Ist V ein endlich-dimensionaler K-Vektorraum und U ein Untervektorraum von V ,dann gilt dim(V/U) = dimV − dimU .

Beweis: Auf Grund des Dimensionssatzes für lineare Abbildungen gilt

dimV = dim ker(πU ) + dim im(πU ) = dimU + dim(V/U).

Satz 11.9 (Homomorphiesatz)

Seien V,W zwei K-Vektorräume und φ : V → W eine lineare Abbildung. Sei außerdem U ein Unter-vektorraum von V .

(i) Gilt U ⊆ ker(φ), dann gibt es eine eindeutig bestimmte lineare Abbildung φ : V/U → W mitφ(v + U) = φ(v) für alle v ∈ V . Man bezeichnet sie als die von φ induzierte Abbildung.

V

πU !!

φ // W

V/U

φ

==

(ii) Gilt sogar U = ker(φ), dann ist durch φ ein Isomorphismus zwischen V/U und im(φ) definiert.

Beweis: zu (i) Die Eindeutigkeit von φ ist klar, weil durch die geforderte Gleichung das Bild von φ für alleElemente v + U ∈ V/U eindeutig festgelegt ist. Zum Nachweis der Existenz wählen wir für jedes ElementA ∈ V/U einen Vektor vA ∈ A und definieren φ(A) = φ(vA). Zu zeigen ist, dass dann φ(v + U) = φ(v)

für alle v ∈ V erfüllt ist. Sei also v ∈ V vorgegeben und vA gewählte Element in A = v + U . WegenvA + U = v + U liegt vA − v in U ⊆ ker(φ), und somit gilt φ(vA − v) = 0W . Daraus folgt

φ(v + U) = φ(A) = φ(vA) = φ((vA − v) + v) =

φ(vA − v) + φ(v) = 0W + φ(v) = φ(v).

Wir müssen noch zeigen, dass φ eine lineare Abbildung ist. Seien dazu v, w ∈ V und λ ∈ K vorgegeben.Dann gilt

φ((v + U) + (w + U)) = φ((v + w) + U) = φ(v + w) =

φ(v) + φ(w) = φ(v + U) + φ(w + U)

und φ(λ(v + U)) = φ(λv + U) = φ(λv) = λφ(v) = λφ(v + U).

zu (ii) Zunächst beweisen wir die Surjektivität von φ. Sei w ∈ im(φ) vorgegeben. Dann gibt es ein v ∈ Vmit φ(v) = w, und daraus folgt φ(v + U) = φ(v) = w. Zum Nachweis der Injektivität sei v + U ∈ ker(φ)

vorgegeben, mit v ∈ V . Dann gilt φ(v) = φ(v+U) = 0W und somit v ∈ ker(φ). Aus v ∈ U folgt v+U = 0V/U .Damit ist ker(φ) = {0V/U} und die Injektivität von φ nachgewiesen.

—– 92 —–

Page 93: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Definition 11.10 Seien U, V,W drei K-Vektorräume. Eine bilineare Abbildung ist eine Abbildungβ : V ×W → U mit den Eigenschaften

(i) β(v + v′, w) = β(v, w) + β(v′, w) (ii) β(λv,w) = λβ(v, w)

(iii) β(v, w + w′) = β(v, w) + β(v, w′) (iv) β(v, λw) = λβ(v, w)

für alle v, v′ ∈ V , w,w′ ∈W und λ ∈ K.

Die in §6 definierten Bilinearformen auf einem K-Vektorraum V sind also bilineare Abbildungen V × V → K.

Definition 11.11 Seien V,W zwei K-Vektorräume. Ein Tensorprodukt von V und W ist ein Paar(V ⊗K W,β) bestehend aus einem K-Vektorraum V ⊗K W und einer bilinearen Abbildung

β : V ×W −→ V ⊗K W ,

so dass die folgende universelle Eigenschaft erfüllt ist:

V ×W

β &&

γ // U

V ⊗K W

ψ

::

Ist (U, γ) ein weiteres Paar bestehend aus einem K-Vektorraum U und einer bilinearen Abbildungγ : V ×W → U , dann gibt es eine eindeutig bestimmte lineare Abbildung ψ : V ⊗K W → U mit derEigenschaft ψ ◦ β = γ.

Satz 11.12 (Eindeutigkeit des Tensorprodukts)

Seien V,W zwei K-Vektorräume und (V ⊗K W,β), (V ⊗KW, β) Tensorprodukte von V und W . Danngibt es einen eindeutig bestimmten Isomorphismus

φ : V ⊗K W −→ V ⊗KW

mit der Eigenschaft φ ◦ β = β.

Beweis: Aus der universellen Eigenschaft des Tensorprodukts folgt zunächst die Existenz einer eindeutigbestimmten linearen Abbildung φ : V ⊗KW → V ⊗KW mit der Eigenschaft φ◦β = β. Zu zeigen ist, dass essich dabei um einen Isomorphismus handelt. Auf Grund der universellen Eigenschaft von (V ⊗KW, β) gibtes eine lineare Abbildung ψ : V ⊗KW → V ⊗KW mit ψ ◦ β = β. Insgesamt gilt dann β = (ψ ◦φ)◦β. Wegender universellen Eigenschaft von (V ⊗K W,φ) gibt es nur eine lineare Abbildung ρ : V ⊗K W → V ⊗K W

mit ρ ◦ β = β, nämlich die identische Abbildung idV⊗KW . Daraus folgt ψ ◦ φ = idV⊗KW .

—– 93 —–

Page 94: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Aus φ◦β = β und ψ ◦ β = β folgt auch (φ◦ψ)◦ β = β. Wegen der universellen Eigenschaft von (V ⊗KW, β)

gibt es nur eine lineare Abbildung τ : V ⊗KW → V ⊗KW mit τ ◦ β = β, nämlich τ = idV ⊗KW . Somit giltφ ◦ψ = idV ⊗KW . Zusammen mit ψ ◦φ = idV⊗KW folgt daraus, dass durch φ ein Isomorphismus zwischenV ⊗K W und V ⊗KW gegeben ist.

Um die Existenz des Tensorprodukts zweier Vektorräume zu beweisen, benötigen wir noch ein weiteres technischesHilfsmittel.

Proposition 11.13 Sei K ein Körper, X eine Menge und FX die Menge aller Abbildung α : X → K

mit der Eigenschaft, dass α(x) 6= 0K für höchstens endlich viele x ∈ X erfüllt ist. Dann bildet die MengeFX zusammen mit den Abbildungen +FX : FX ×FX → FX und ·FX : K ×FX → FX gegeben durch

(α+FX β)(x) = α(x) + β(x) und (λ ·FX α)(x) = λα(x)

einen K-Vektorraum. Man nennt ihn den freien K-Vektorraum über der Menge X .

Beweis: Man überprüft unmittelbar, dass mit α, β ∈ FX und λ ∈ K auch die Elemente α +FX β undλ ·FX α in FX enthalten sind. Auch die Überprüfung der Vektorraum-Axiome ist reine Routine.

Zur Vereinfachung der Notation verwenden wir die Symbole + und · an Stelle +FX und ·FX für die Vektoradditionbzw. die skalare Multiplikation des K-Vektorraums FX . Für jedes x ∈ X existiert ein ausgezeichnetes Element εx ∈FX gegeben durch

εx(y) =

{1K falls y = x

0K sonst

Wir bezeichnen die Vektoren dieser Form als Einheitsvektoren in FX . Das folgende Lemma zeigt, dass die Einheits-vektoren ein Erzeugendensystem von FX bilden.

Lemma 11.14 Sei α ∈ FX und Y ⊆ X eine endliche Teilmenge mit der Eigenschaft, dass α(x) = 0Kfür alle x ∈ X \ Y erfüllt ist. Sei λy = α(y) für alle y ∈ Y . Dann gilt α =

∑y∈Y λyεy .

Beweis: Diese Gleichung kann direkt nachgerechnet werden. Sei β die Funktion auf der rechten Seite.Ist x ∈ X \ Y , dann gilt α(x) = 0K =

∑y∈Y λyεy(x) = β(x). Ist dagegen x ∈ Y , dann erhalten wir

α(x) = λx · 1K = λxεx(x) =∑y∈Y λyεy(x) = β(x).

Satz 11.15 Sei X eine Menge und FX der freie K-Vektorraum über X .

X

x 7→εx !!

φ // V

FXφ

>>

Dann gibt es für jeden K-Vektorraum V und jede Abbildung φ : X → V eine eindeutig bestimmtelineare Abbildung φ : FX → V mit φ(x) = φ(εx) für alle x ∈ X .

—– 94 —–

Page 95: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Beweis: Zunächst beweisen wir die Eindeutigkeit. Nehmen wir dazu an, dass φ und φ1 zwei lineareAbbildungen FX → V mit der angegebenen Eigenschaft sind. Sei α ∈ FX ein beliebiges Element undY ⊆ X eine endliche Teilmenge, so dass α(x) = 0K für alle x ∈ X \Y gilt. Sei λy = α(y) für alle y ∈ Y . AufGrund des Lemmas gilt

φ(α) = φ

∑y∈Y

λyεy

=∑y∈Y

λyφ(εy) =∑y∈Y

λyφ(y) =

∑y∈Y

λyφ1(εy) = φ1

∑y∈Y

λyεy

= φ1(α).

Kommen wir nun zum Beweis der Existenz. Für jedes α ∈ FX wählen wir eine endliche Teilmenge Yα ⊆ Xmit α(x) = 0K für alle x ∈ X \ Yα und definieren

φ(α) =∑y∈Yα

α(y)φ(y).

Offenbar gilt dann φ(α) =∑y∈Y α(y)φ(y) für jede endliche Teilmenge Y ⊆ X , bei der α(x) = 0K für alle

x ∈ X \ Y erfüllt ist. Insbesondere gilt

φ(εx) =∑y∈{x}

εx(y)φ(y) = 1K · φ(x) = φ(x) für alle x ∈ X.

Es bleibt zu zeigen, dass es sich bei φ : FX → V um eine lineare Abbildung handelt. Seien dazu λ ∈ K undα, β ∈ FX vorgegeben. Dann gibt es eine endliche Teilmenge Y ⊆ X , so dass α(x) = 0K für alle x ∈ X \ Yerfüllt ist. Wir erhalten

φ(α+ β) =∑y∈Y

(α+ β)(y)φ(y) =∑y∈Y

α(y)φ(y) +∑y∈Y

β(y)φ(y) = φ(α) + φ(β)

und φ(λα) =∑y∈Y (λα)(y)φ(y) = λ

∑y∈Y α(y)φ(y) = λφ(α). Damit ist die Linearität von φ nachgewiesen.

Damit sind alle Vorbereitungen zur Konstruktion des Tensorprodukts abgeschlossen. Seien nun V,W zwei K-Vek-torräume und FV×W der freie K-Vektorraum über der Menge V ×W . Sei S = S1 ∪ S2 ∪ S3 ∪ S4 die Teilmenge vonFV×W gegeben durch

S1 ={ε(v+v′,w) − ε(v,w) − ε(v′, w) | v, v′ ∈ V,w ∈W

}S2 =

{ε(λv,w) − λε(v,w) | λ ∈ K, v ∈ V,w ∈W

}S3 =

{ε(v,w+w′) − ε(v,w) − ε(v,w′) | v ∈ V,w,w′ ∈W

}S4 =

{ε(v,λw) − λε(v,w) | λ ∈ K, v ∈ V,w ∈W

}Wir definieren V ⊗K W = FV×W /〈S〉K und verwenden für jedes α ∈ FV×W die Notation [α] jeweils als abkürzendeSchreibweise für das Element α + 〈S〉K des Faktorraums V ⊗K W . Schließlich sei β : V ×W → V ⊗K W die nachSatz 11.15 eindeutig bestimmte lineare Abbildung mit β(v, w) = [ε(v,w)] für alle v ∈ V und w ∈W .

—– 95 —–

Page 96: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Satz 11.16 (Existenz des Tensorprodukts)

Das Paar (V ⊗K W,β) ist ein Tensorprodukt der K-Vektorräume V und W .

Beweis: Zunächst zeigen wir, dass β eine bilineare Abbildung ist. Seien v, v′ ∈ V , w ∈ W und λ ∈ K

vorgegeben. Wegen ε(v+v′,w) − ε(v,w) − ε(v′, w) ∈ 〈S〉K gilt

β(v + v′, w) = [ε(v+v′,w)] = [ε(v,w)] + [ε(v′,w)] = β(v, w) + β(v′, w).

Aus ε(λv,w) − λε(v,w) ∈ 〈S〉K folgt ebenso

β(λv,w) = [ε(λv,w)] = λ[ε(v,w)] = λβ(v, w).

Nach dem gleichen Schema zeigt man auch β(v, w + w′) = β(v, w) + β(v, w′) und β(v, λw) = λβ(v, w) füralle λ ∈ K, v ∈ V und w,w′ ∈W .

Sei nun (U, γ) ein Paar bestehend aus einem K-Vektorraum U und einer linearen Abbildung γ : V ×W →U . Zu zeigen ist, dass eine lineare Abbildung ψ : V ⊗K W → U mit ψ ◦ β = γ existiert. Dazu sei γ die nachLemma Satz 11.15 eindeutig bestimmte lineare Abbildung FV×W → U mit der Eigenschaft

γ(ε(v,w)) = γ(v, w) für alle v ∈ V,w ∈W.

Die oben definierte Menge S1 ist in ker(γ) enthalten, denn für alle v, v′ ∈ V und w ∈W gilt

γ(ε(v+v′,w) − ε(v,w) − ε(v′, w)) = γ(ε(v+v′,w))− γ(ε(v,w))− γ(ε(v′,w)) =

γ(v + v′, w)− γ(v, w)− γ(v′, w) = γ(v + v′, w)− γ(v + v′, w) = 0U .

Durch eine ähnliche Rechnung zeigt man, dass auch Sk ⊆ ker(γ) für k = 2, 3, 4 erfüllt ist. Insgesamt giltS ⊆ ker(γ) und damit auch 〈S〉K ⊆ ker(γ). Wir können nun Satz 11.9 auf den Faktorraum V ⊗K W =

FV×W /〈S〉K anwenden und erhalten eine lineare Abbildung ψ : V ⊗K W → U mit ψ([α]) = γ(α) für alleα ∈ FV×W . Insbesondere gilt dann

γ(v, w) = γ(ε(v,w)) = ψ([ε(v,w)]) = ψ(β(v, w)) = (ψ ◦ β)(v, w)

für alle v ∈ V und w ∈W . Zum Schluss beweisen wir noch die Eindeutigkeit von ψ. Nehmen wir an, dassψ1 : V ⊗KW → U eine weitere lineare Abbildung mit der Eigenschaft ψ1◦β = γ ist. Dann gilt insbesondere

ψ1([ε(v,w)]) = ψ1(β(v, w)) = (ψ1 ◦ β)(v, w) = γ(v, w) = (ψ ◦ β)(v, w) = ψ([ε(v,w)])

für alle v ∈ V und w ∈ W . Definieren wir die Abbildungen ψ, ψ1 : FV×W → U durch ψ(α) = ψ([α]) undψ1(α) = ψ1([α]), dann gilt

ψ(ε(v,w)) = ψ([ε(v,w)]) = γ(v, w) = ψ1([ε(v,w)]) = ψ1(ε(v,w))

für alle v ∈ V und w ∈ W . Auf Grund der Eindeutigkeitsaussage in Satz 11.15 folgt ψ = ψ1 und damitauch ψ = ψ1.

Von nun an bezeichnen wir für vorgegebene K-Vektorräume V,W mit V ⊗K W stets ein beliebig gewähltes Ten-sorprodukt von V und W . Die Elemente in V ⊗K W nennt man Tensoren. Für die universelle bilineare AbbildungV ×W → V ⊗K W aus Def. 11.11 verwenden wir die Bezeichung βVW . Für v ∈ V und w ∈W setzen wir außerdem

v ⊗ w = βVW (v, w).

—– 96 —–

Page 97: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Die Elemente in V ⊗K W , die in dieser Form darstellbar sind, werden reine Tensoren genannt. Weil die AbbildungβVW bilinear ist, gelten die Rechenregeln

(v + v′)⊗ w = (v ⊗ w) + (v′ ⊗ w) , (λv)⊗ w = λ(v ⊗ w) , v ⊗ (w + w′) = (v ⊗ w) + (v ⊗ w′)

und v ⊗ (λw) = λ(v ⊗ w)

für v, v′ ∈ V , w,w′ ∈ W und λ ∈ K. Wir zeigen nun, dass jeder Tensor als Linearkombination reiner Tensorendarstellbar ist.

Proposition 11.17 Seien V und W zwei K-Vektorräume, und sei R ⊆ V ⊗K W die Teilmenge derreinen Tensoren, also R = {v ⊗ w | v ∈ V,w ∈W}. Dann gilt V ⊗K W = 〈R〉K .

Beweis: Sei U der Faktorraum (V ⊗K W )/〈R〉K . Für jedes Element α ∈ V ⊗K W bezeichnen wir mit[α] das entsprechende Element α + 〈R〉K in U . Außerdem definieren wir die Abbildung γ : V ×W → U

gegeben durch γ(v, w) = [v⊗w] für alle v ∈ V und w ∈W . Diese Abbildung ist bilinear, denn für beliebigev, v′ ∈ V und λ ∈ K gilt

γ(v + v′, w) = [(v + v′)⊗ w] = [(v ⊗ w) + (v′ ⊗ w)] = [v ⊗ w] + [v′ ⊗ w] = γ(v, w) + γ(v′, w)

und

γ(λv,w) = [(λv)⊗ w] = [λ(v ⊗ w)] = λ[v ⊗ w] = λγ(v, w).

Ebenso beweist man γ(v, w+w′) = γ(v, w)+γ(v, w′) und γ(v, λw) = λγ(v, w) für alle v ∈ V undw ∈W . Seiπ〈R〉 : V ⊗K W → U der kanonische Epimorphismus und 0V⊗W,U : V ⊗K W → U die lineare Abbildung,die alle Elemente von V ⊗K W auf den Nullvektor 0U ∈ U abbildet. Wir zeigen nun, dass

0V⊗W,U ◦ bVW = γ und π〈R〉 ◦ bVW = γ

erfüllt ist. Für alle v ∈ V und w ∈W gilt einerseits

(0V⊗W,U ◦ bVW )(v, w) = 0V⊗W,U (v ⊗ w) = 0U = [v ⊗ w] = γ(v, w).

Dabei gilt das vorletzte „=“, weil 〈R〉K alle reinen Tensoren enthält und [v ⊗ w] deshalb im Faktorraum U

gleich Null ist. Andererseits gilt auch

(π〈R〉 ◦ bV,W )(v, w) = π〈R〉(v ⊗ w) = [v ⊗ w] = γ(v, w).

Damit sind die beiden Gleichungen bewiesen. Auf Grund der universellen Eigenschaft des Tensorproduktsgibt es aber nur eine lineare Abbildung φ : V ⊗K W → U mit φ ◦ bV,W = γ. Aus den beiden Gleichungenfolgt somit π〈R〉 = 0V⊗W,U . Also ist π〈R〉 zugleich eine surjektive Abbildung auf U = (V ⊗KW )/〈R〉K unddie Nullabbildung. Dies kann nur bedeuten, dass U = {0U} ist. Damit erhalten wir V ⊗K W = 〈R〉K wiegewünscht.

Der letzte Satz zeigt, dass die Elemente eines Tensorprodukts V ⊗K W konkret durch{n∑k=1

λk(vk ⊗ wk)

∣∣∣∣ n ∈ N, λk ∈ K, vk ∈ V und wk ∈W für 1 ≤ k ≤ n

}

gegeben sind. Im endlich-dimensionalen Fall kann sogar eine Basis von V ⊗K W angegeben werden.

—– 97 —–

Page 98: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Satz 11.18 Seien V,W zwei endlich-dimensionale K-Vektorräume, m = dimV und n = dimW mitm,n ∈ N. Ist {v1, ..., vm} eine Basis von V und {w1, ..., wn} eine Basis von W , dann ist durch die MengeB = {vk ⊗ w` | 1 ≤ k ≤ m, 1 ≤ ` ≤ n} eine Basis von V ⊗K W gegeben. Inbesondere gilt also

V ⊗K W =

{m∑k=1

n∑`=1

λk`(vk ⊗ w`)∣∣∣∣ λk` ∈ K für 1 ≤ k ≤ m, 1 ≤ ` ≤ n

}

und dim(V ⊗K W ) = (dimV )(dimW ).

Beweis: Zunächst zeigen wir, dass B ein Erzeugendensystem von V ⊗K W ist. Nach Prop. 11.17 genügtes zu überprüfen, dass 〈B〉K alle reinen Tensoren enthält. Sei also v⊗w mit v ∈ V und w ∈W vorgegeben.Dann gibt es λ1, ..., λm ∈ K und µ1, ..., µn ∈ K mit v =

∑mk=1 λkvk und w =

∑n`=1 µ`w`. Wir erhalten

v ⊗ w =

(m∑k=1

λkvk

)⊗

(n∑`=1

µ`w`

)=

m∑k=1

(λkvk)⊗

(n∑`=1

µ`w`

)=

m∑k=1

n∑`=1

(λkvk)⊗ (µ`w`)

=

m∑k=1

n∑`=1

λkµ`(vk ⊗ w`) ∈ 〈B〉K .

Zum Nachweis der linearen Unabhängigkeit seien λij ∈ K mitm∑i=1

n∑j=1

λij(vi ⊗ wj) = 0V⊗W (11.1)

vorgegeben. Wir definieren für jedes Paar (k, `) mit 1 ≤ k ≤ m und 1 ≤ ` ≤ n eine Abbildung γk` :

V ×W → K durch

γk`

m∑i=1

λivi,

n∑j=1

µjwj

= λkµ` für λ1, ..., λm, µ1, ..., µn ∈ K.

Insbesondere gilt γk`(vi, wj) = δkiδ`j für i, k ∈ {1, ...,m} und j, ` ∈ {1, ..., n}. Auf Grund der universellenEigenschaft des Tensorprodukts mit es jeweils eine lineare Abbildung ψk` : V ⊗K W → K mit γk` =

ψk` ◦ βVW . Für i, k ∈ {1, ...,m} und j, ` ∈ {1, ..., n} gilt dann ψk`(vi ⊗ wj) = γk`(vi, wj) = δkiδ`j . Wendenwir nun ψk` auf beide Seiten von (11.1) an, so erhalten wir

ψk`

m∑i=1

n∑j=1

λij(vi ⊗ wj)

= ψk`(0V⊗W ) ⇔m∑i=1

n∑j=1

λijψk`(vi ⊗ wj) = 0K ⇔

m∑i=1

n∑j=1

λijδkiδ`j = 0K ⇔ λk` = 0K .

Damit ist die lineare Unabhängigkeit nachgewiesen.

Satz 11.19 Seien V und W endlich-dimensionale K-Vektorräume. Dann gibt es einen natürlichenIsomorphismus φ : V ∗ ⊗K W → HomK(V,W ), der jedem reinen Tensor ϕ ⊗ w mit ϕ ∈ V ∗ und w ∈ Wdie lineare Abbildung gegeben durch

φ(ϕ⊗ w)(v) = ϕ(v)w für alle v ∈ V zuordnet.

—– 98 —–

Page 99: Lineare Algebra II - mathematik.uni-muenchen.degerkmann/skripten/linalg2.… · Ralf Gerkmann Mathematisches Institut der Ludwig-Maximilians-Universität München Lineare Algebra

Beweis: Sei γ : V ∗ × W → HomK(V,W ) die Abbildung gegeben durch γ(ϕ,w)(v) = ϕ(v)w für alleϕ ∈ V ∗, v ∈ V und w ∈ W . Diese Abbildung ist bilinear, denn für beliebige ϕ,ϕ′ ∈ V ∗, w ∈ W und λ ∈ Kgilt

γ(ϕ+ ϕ′, w)(v) = (ϕ+ ϕ′)(v)w = ϕ(v)w + ϕ′(v)w =

γ(ϕ,w)(v) + γ(ϕ′, w)(v) = (γ(ϕ,w) + γ(ϕ′, w))(v)

und ebenso

γ(λϕ,w)(v) = (λϕ)(v)w = λϕ(v)w = λ(γ(ϕ,w)(v)) = (λγ(ϕ,w))(v)

also γ(ϕ+ϕ′, w) = γ(ϕ,w)+γ(ϕ′, w) und γ(λϕ,w) = λγ(ϕ,w). Durch eine analoge Rechnung beweist manauch γ(ϕ,w + w′) = γ(ϕ,w) + γ(ϕ,w′) und γ(ϕ, λw) = λγ(ϕ,w) für alle ϕ ∈ V ∗, w,w′ ∈W und λ ∈ K.

Auf Grund der universellen Eigenschaft des Tensorprodukts gibt es eine (eindeutig bestimmte) lineareAbbildung φ : V ∗ ⊗K W → HomK(V,W ) mit φ ◦ βVW = γ. Es gilt dann

φ(ϕ⊗ w)(v) = (φ ◦ βVW )(ϕ,w)(v) = γ(ϕ,w)(v) = ϕ(v)w

für alle ϕ ∈ V ∗, v ∈ V und w ∈W . Zum Nachweis der Surjektivität von φ sei (w1, ..., wn) eine Basis von Wund α ∈ HomK(V,W ) vorgegeben. Für 1 ≤ k ≤ n sei ψk ∈W ∗ die Linearform gegeben durch

ψk

(n∑i=1

λiwi

)= λk.

Wir zeigen, dass das Element∑nk=1 α

∗(ψk) ⊗ wk ∈ V ∗ ⊗K W von φ auf α abgebildet wird. Sei v ∈ V undα(v) =

∑nk=1 λkwk die Basisdarstellung von α(v). Dann gilt ψk(α(v)) = λk für 1 ≤ k ≤ n und somit

φ

(n∑k=1

α∗(ψk)⊗ wk

)(v) =

n∑k=1

φ(α∗(ψk)⊗ wk)(v) =

n∑k=1

α∗(ψk)(v)wk =

n∑k=1

ψk(α(v))wk =

n∑k=1

λkwk = α(v) ,

also tatsächlich φ(∑nk=1 α

∗(ψk) ⊗ wk) = α wie gewünscht. Die Vektorräume V ∗ ⊗K W und HomK(V,W )

haben beide die Dimension (dimV )(dimW ). Aus der Surjektivität von φ folgt somit die Bijektivitiät.

Die Isomorphismus-Eigenschaft von φ bleibt erhalten, wenn nur der Vektorraum W endlich-dimensional ist. Stattmit der Dimension muss in diesem Fall ein weiteres Mal mit der universellen Eigenschaft des Tensorprodukts argu-mentiert werden.

—– 99 —–