50
1 Die linearen Strukturen Die Begriffsbildungen und Methoden der linearen Algebra gehören zum grundlegenden Instrumentarium der Analysis. Ausgangspunkt ist der line- are Vektorraum, eine Menge von Objekten, genannt Vektoren, versehen mit einer algebraischen Struktur. Diese Struktur, die "Linearität", tritt in der physikalischen Welt im "Superpositionsprinzip" zutage. Die Wir- kung mehrerer in einem Punkt angreifender Kräfte manifestiert sich in einer Resultierenden, der "Summe" dieser Kräfte, eine Einzelkraft, in ihrer Wirkung abgeschwächt oder verstärkt, macht sich in einem entsprechenden "Vielfachen" dieser Einzelkraft bemerkbar. Die Linearität ist nicht nur eine mathematische Abstraktion des phy- sikalischen Prinzips der Superposition. Im folgenden ersten Kapitel sollen die Grundzüge der linearen Algebra entwickelt werden, soweit sie für das Weitere erforderlich sind. Die Darstellung ist dabei bewußt eher abstrakt gehalten, einerseits um die Objekte mit den zugrundeliegenden Struktu- ren und nicht Größen wie Koordinaten, die sie zahlenmäßig repräsentieren, in den Vordergrund treten zu lassen, andererseits mit Hinblick auf eine Form der Abstraktion, die für das Spätere nicht bloß dienlich, sondern auch notwendig ist. Gewisse algebraische Grundbegriffe, die für den Auf- bau benötigt werden, sind für den in diesen Dingen unkundigen Leser in einem Anhang zusammengestellt. 1.1 Der lineare Vektorraum Unter einem linearen Vektorraum V über einem Zahlenkörper IK 1 ) versteht man eine Menge von Objekten - die man Vektoren nennt -, für welche zwei Rechenoperationen erklärt sind, eine Addition c = a + b zweier Vek- toren a und b und eine Multiplikation d = ,x. a eines Vektors a mit einer Zahl ,X aus dem Körper IKj der Vektor c heißt die Summe der Vektoren a und b, der Vektor d das 'x-fache des Vektors a. Die Addition ist eine binäre Operation +: V X V ----) V, die Multiplikation mit einer Zahl eine Abbildung . : IK X V ----) V. Für diese beiden Operationen gelten die folgenden Gesetze: 1) Für das Folgende sei stillschweigend vorausgesetzt, daß der Zahlenkörper IK die Charakteristik Null habe; damit wird verlangt, daß die mit einem beliebigen von 0 verschiedenen Körperelement :z: gebildete n-fache Summe n:z: = :z: + ... + :z: stets ungleich 0 ist (siehe Anhang). H. J. Dirschmid, Tensoren und Felder © Springer-Verlag/Wien 1996

Tensoren und Felder || Die linearen Strukturen

Embed Size (px)

Citation preview

Page 1: Tensoren und Felder || Die linearen Strukturen

1 Die linearen Strukturen

Die Begriffsbildungen und Methoden der linearen Algebra gehören zum grundlegenden Instrumentarium der Analysis. Ausgangspunkt ist der line­are Vektorraum, eine Menge von Objekten, genannt Vektoren, versehen mit einer algebraischen Struktur. Diese Struktur, die "Linearität", tritt in der physikalischen Welt im "Superpositionsprinzip" zutage. Die Wir­kung mehrerer in einem Punkt angreifender Kräfte manifestiert sich in einer Resultierenden, der "Summe" dieser Kräfte, eine Einzelkraft, in ihrer Wirkung abgeschwächt oder verstärkt, macht sich in einem entsprechenden "Vielfachen" dieser Einzelkraft bemerkbar.

Die Linearität ist nicht nur eine mathematische Abstraktion des phy­sikalischen Prinzips der Superposition. Im folgenden ersten Kapitel sollen die Grundzüge der linearen Algebra entwickelt werden, soweit sie für das Weitere erforderlich sind. Die Darstellung ist dabei bewußt eher abstrakt gehalten, einerseits um die Objekte mit den zugrundeliegenden Struktu­ren und nicht Größen wie Koordinaten, die sie zahlenmäßig repräsentieren, in den Vordergrund treten zu lassen, andererseits mit Hinblick auf eine Form der Abstraktion, die für das Spätere nicht bloß dienlich, sondern auch notwendig ist. Gewisse algebraische Grundbegriffe, die für den Auf­bau benötigt werden, sind für den in diesen Dingen unkundigen Leser in einem Anhang zusammengestellt.

1.1 Der lineare Vektorraum

Unter einem linearen Vektorraum V über einem Zahlenkörper IK1 ) versteht man eine Menge von Objekten - die man Vektoren nennt -, für welche zwei Rechenoperationen erklärt sind, eine Addition c = a + b zweier Vek­toren a und b und eine Multiplikation d = ,x. a eines Vektors a mit einer Zahl ,X aus dem Körper IKj der Vektor c heißt die Summe der Vektoren a

und b, der Vektor d das 'x-fache des Vektors a. Die Addition ist eine binäre Operation + : V X V ----) V, die Multiplikation mit einer Zahl eine Abbildung . : IK X V ----) V. Für diese beiden Operationen gelten die folgenden Gesetze:

1) Für das Folgende sei stillschweigend vorausgesetzt, daß der Zahlenkörper IK die Charakteristik Null habe; damit wird verlangt, daß die mit einem beliebigen von 0 verschiedenen Körperelement :z: gebildete n-fache Summe n:z: = :z: + ... + :z: stets ungleich 0 ist (siehe Anhang).

H. J. Dirschmid, Tensoren und Felder© Springer-Verlag/Wien 1996

Page 2: Tensoren und Felder || Die linearen Strukturen

2 1 Die linearen Strukturen

Die Addition ist

(i) kommutativ: a, b E V :::} a + b = b + a,

(ii) assoziativ: a,b,cEV :::} a+(b+c)=(a+b)+c

(iii) und umkehrbar, d.h. es besteht die Möglichkeit der Subtraktion: Sind a, bE V beliebige Vektoren, so gibt es genau einen Vektor x E V mit a + x = b. Diesen Vektor nennt man die Differenz von bund a und schreibt x = b ~ a.

Aus der dritten Forderung ergibt sich für b = a, daß es genau einen Vektor o E V gibt, für den a + 0 = a für jeden Vektor a gilt, und weiter für b = 0, daß es zu jedem Vektor a E V genau einen Vektor a( -1) gibt, der die Gleichung a + a( -1) = 0 erfüllt. Der Vektor 0 heißt der Nullvektor in V (er ist das neutrale Element bezüglich der Addition), der Vektor a(-l)

heißt das inverse Element von a und wird mit ~a bezeichnet. Man sagt, die Menge V ist bezüglich der so erklärten Addition eine kommutative oder abelsche Gruppe.

Die Multiplikation erfüllt (der "Malpunkt" . wird im folgenden unterdrückt)

(iv) das assoziative Gesetz: A, {L E IK, a E V :::} A({La) = (A{L )a,

(v) das 1. distributive Gesetz: A,{LEIK, aEV:::} (A+{L)a=Aa+{La,

(vi) das 2. distributive Gesetz: A E IK, a, b E V :::} A( a + b) = Aa + Ab,

(vii) a E V :::} 1a = a.

In dieser letzten Forderung ist die Zahl 1 E IK das neutrale Element bezüglich der Multiplikation in IK. Aus (v) ergibt sich durch die Setzung {L = 0 die Gleichung Aa = (A + O)a = Aa + Oa, aus der Oa = 0 für je­den Vektor a E V folgt. Für A = 1, {L = ~ 1 liefert die Forderung (v) o = Oa = [1 + (~1)la = a + (~1)a, woraus hervorgeht, daß das inverse Element ~a als Produkt (~1)a angeschrieben werden kann, die Differenz a ~ b erscheint als Summe a + [( ~1)bl. Setzt man schließlich in (vi) für b = ~a, so erhält man unter Berücksichtigung des eben gewonnenen Er­gebnisses AO = A(a ~ a) = Aa ~ Aa = 0, d.h. es ist AO = 0 für jede Zahl A E IK.

Ist IK = IR der Körper der reellen Zahlen, so spricht man von ei­nem reellen Vektorraum, ist IK = C der Körper der komplexen Zahlen, so nennt man V einen komplexen Vektorraum. Wenn im folgenden nicht ei­gens anderes vermerkt ist, sollen griechische Buchstaben A, {L, ... Zahlen des Grundkörpers IK bezeichnen, während lateinische Buchstaben x, y, ... für Vektoren aus V stehen.

Sind Xl, X2, ••• , X n beliebige Vektoren in V und Al, A2, ... , An Zahlen des Grundkörpers IK, so wird die Summe

A1 X 1 + A2:1::2 + ... + AnXn

Page 3: Tensoren und Felder || Die linearen Strukturen

1.1 Der lineare Vektorraum 3

eine Linearkombination der Vektoren Xi E V genannt; die Zahlen >'i E IK heißen die Koeffizienten. Für >'1 = >'2 = ... = >'n = 0 ist

>'lX1 + >'2X2 + ... + >'nxn = OX1 + OX2 + ... + OXn

=0+0+···+0=0.

Eine Linearkombination, deren Koeffizienten sämtlich gleich Null sind, wird trivial genannt; ist wenigstens ein Koeffizient von Null verschieden, so spricht man von einer nicht-trivialen Linearkombination.

Ein endliches Vektorsystem S = {Xl, X2, ••• ,Xn } ~ V heißt linear abhängig, wenn der Nullvektor 0 durch eine nicht-triviale Linearkombina­tion von Vektoren aus S dargestellt werden kann, d.h. wenn es Zahlen >'i E IK gibt, von denen wenigstens eine von Null verschieden ist, sodaß gilt

(1.1 )

Ist ein endliches Vektorsystem S nicht linear abhängig, so heißt es linear unabhängig. Aus einer Gleichung (1.1), in der die Vektoren Xl, X2, ••• , Xn

linear unabhängig sind, folgt demnach zwingend >'1 = >'2 = ... = >'n = o. Ist S ~ V eine unendliche Menge von Vektoren, so heißt S linear

abhängig, wenn in S endlich viele linear abhängige Vektoren enthalten sind. Wenn eine unendliche Menge S von Vektoren nicht linear abhängig ist, so wird sie linear unabhängig genannt; da es kein endliches linear abhängiges Teilsystem gibt, besteht für endlich viele Vektoren Xl, X2, .•• , X n aus S eine Gleichung (1.1) nur für >'1 = >'2 = ... = >'n = O.

Sind SI ~ S2 ~ V zwei Teilmengen von V, so ist S2 linear abhängig, wenn SI linear abhängig ist, es ist SI linear unabhängig, wenn S2 linear unabhängig ist. Wegen 10 = 0 kann die Gleichung >'0 = 0 stets in nicht­trivialer Weise erfüllt werden, weshalb die allein aus dem Nullvektor be­stehende Teilmenge {o} ~ V linear abhängig ist. Gilt demnach für ein beliebiges Vektorsystem S ~ V die Inklusion {o} ~ S, also 0 ES, so ist die Menge S jedenfalls linear abhängig: jede Menge von Vektoren, die den Nullvektor enthält, ist linear abhängig.

Eine Teilmenge E ~ V heißt ein Erzeugendensystem für V, wenn jeder Vektor X E V als Linearkombination von Vektoren aus E dargestellt werden kann,

(1.2)

Ist EI ein Erzeugendensystem für V und EI ~ E2 ~ V, so ist klarerweise auch E2 ein Erzeugendensystem für V; insbesondere ist V selbst ein (triviales) Erzeugendensystem.

Eine Darstellung (1.2) ist in keiner Weise eindeutig, ein und derselbe Vektor X E V kann unter Umständen auch mit Hilfe anderer Vektoren aus E dargestellt werden. Ist jedoch ein Erzeugendensystem E linear unabhängig, so kann ein beliebiger Vektor aus V auf genau eine Weise als Linearkom­bination von Vektoren aus E dargestellt werden. Würde nämlich für n

Page 4: Tensoren und Felder || Die linearen Strukturen

4 1 Die linearen Strukturen

Vektoren :l:i E E und für m Vektoren Yj E E die Gleichung

:I: = A1:1:1 + A2:1:2 + ... + An:l:n = /L1Y1 + /L2Y2 + ... + /LmYm

auch nur für einen einzigen Vektor :I: E V, :I: i- 0, bestehen, so wäre das System S = {:l:1' ••. ,:l:n } U {Y1 ... ,Ym} ~ E linear abhängig und nach dem oben Gesagten folglich auch E. Also ist nur mehr die Situation

:I: = AI:l:1 + A2:1:2 + ... + An:l:n = /LI:l:I + /L2:1:2 + ... + /Ln:l:n

denkbar. Durch Subtraktion ergibt sich zunächst

(Al - /Ld:l:1 + (A2 - /L2)X2 + ... + (An - /Ln):l: n = 0,

und daraus schließlich Ai = /Li für i = 1, 2, ... , n, da angenommen wurde, daß das Erzeugendensystem E linear unabhängig ist. Ein System B von Vektoren aus V, welches einerseits linear unabhängig, andererseits ein Er­zeugendensystem für V ist, heißt eine Basis für V. Existiert ein endliches Erzeugendensystem für V, d.h. ein Erzeugendensystem bestehend aus end­lich vielen Vektoren, so heißt der Vektorraum V endlichdimensional. In diesem Fall hat jede Basis endlich viele Elemente; es läßt sich weiter zei­gen, daß jede Basis aus der selben Anzahl von Vektoren besteht. Diese Zahl heißt die Dimension von V, symbolisch dirn V.

Ist V = {o} der "triviale" Vektorraum, der nur aus dem Nullvektor besteht, so vereinbart man dirn V = o. Gibt es kein endliches Erzeugenden­system für V, so heißt der Vektorraum V unendlichdimensional. Solche Vektorräume führen aus der linearen Algebra hinaus. Da sie später auch nicht benötigt werden, soll im folgenden das Augenmerk auf die endlich­dimensionalen Vektorräume gerichtet werden, obwohl viele der im weiteren zu besprechenden Begriffsbildungen und Konstruktionen auch für unend­lichdimensionale Vektorräume grundlegend sind.

Ist B = {el,e2' •.. ,eN} eine Basis des N-dimensionalen Vektorraumes V, so läßt sich jeder Vektor :I: E V eindeutig in der Form

:I: = X1e1 + X2e2 + ... + XNeN

darstellen. Die Zahlen Xl, X 2 , .•• , X N heißen die Koordinaten 2) des Vektors :I: (in Bezug auf die zugrundeliegende Basis B), der Vektor Xiei wird Komponente von :I: in der Richtung ei genannt.

Ist E ein endliches Erzeugendensystem für einen nicht-trivialen Vek­torraum V und S ~ E ein System linear unabhängiger Vektoren, so läßt sich das Vektorsystem S durch Hinzunahme geeigneter Vektoren aus E zu einer Basis B für V ergänzen. Da V nicht-trivial ist, muß jedes Er­zeugendensystem E wenigstens einen linear unabhängigen Vektor enthal­ten, denn andernfalls wäre E = {o} und somit V ein trivialer Vektorraum. Sei also E ein aus m Vektoren bestehendes Erzeugendensystem für V und

2) Im folgenden werden die Koordinaten eines Vektors in Bezug auf eine gewisse Basis mit hochgestelltem Index geschrieben; als "Grundsymbol" für die Koordi­naten eines Vektors wird stets der dem Vektor-Symbol entsprechende Großbuch­stabe verwendet.

Page 5: Tensoren und Felder || Die linearen Strukturen

1.1 Der lineare Vektorraum 5

S = {Xl, ••• , X n } ~ & ein System linear unabhängiger Vektoren aus &. Betrachtet man jetzt die Gesamtheit aller Teilmengen von &, welche einer­seits linear unabhängige Vektorsysteme sind, anderseits aber die Vektoren Xl, X2, ••• , X n enthalten, so befindet sich unter diesen, da sie ja alle höch­stens m Elemente haben können, ein System &0 = {X1, ... ,XN}:2 S mit maximaler Elementezahl N; offenbar ist dabei n :-=; N :-=; m. Ein solches Vektorsystem mit maximaler Elementezahl ist aber eine das System S ent­haltende Basis für V. Hiefür ist nur mehr der Nachweis zu erbringen, daß &0 ein Erzeugendensystem ist. Wäre dies - in indirekter Schlußweise - nicht der Fall, so müßte es in & einen Vektor X o geben, der nicht als Linearkom­bination der Vektoren in &0 dargestellt werden kann, da sonst jeder Vektor aus & - und damit auch jeder Vektor in V - eine Linearkombination der Vektoren aus &0 ist; klarerweise ist X o rt &0. Dies führt aber auf einen Wi­derspruch zur Maximaleigenschaft von &0' denn das System &0 U {x o } wäre linear unabhängig, es enthält das Vektorsystem S, die Anzahl der Vektoren ist aber um 1 größer als jene von &0.

Berücksichtigt man jetzt, daß jeder Vektorraum ein Erzeugendensy­stem für sich selbst ist, so erhält man den sogenannten Ergänzungssatz:

Jedes endliche System S linear unabhängiger Vektoren, das kein Erzeu­gendensystem und somit keine Basis für V ist, läßt sich durch Hinzunahme weiterer Vektoren zu einer Basis B von V ergänzen.

In einem Vektorraum ist keine Basis gegenüber einer anderen ausge­zeichnet. Es ist daher von Interesse, wie sich die Koordinaten eines Vektors bei einem Wechsel der Basis verhalten.

Sind B = {e1, e2,· .. , eN} und ß = {e1, e2, ... , eN} zwei beliebige Ba­sen von V, so läßt sich jeder Vektor der einen Basis als Linearkombination der Vektoren der jeweils anderen Basis ausdrücken,

N

ei = La{ ej, i = 1,2, ... ,N. (1.3) j=l

Ist X E V ein beliebiger Vektor, der in Bezug auf die Basis B die Koordinaten Xi, in Bezug auf die Basis ß die Koordinaten Xi hat, so erhält man aus der Gleichung

N N

X = LXjej = LXiei, j=l i=l

wenn man darin aus (1.3) einsetzt, N N N N N

X = LXjej = LLXia{ej = L(La{Xi)ej; j=l i=l j=l j=l i=l

infolgedessen ist N N

L (L a{Xi - Xj)ej = 0

j=l i=l

Page 6: Tensoren und Felder || Die linearen Strukturen

6 1 Die linearen Strukturen

und somit, da Basisvektoren linear unabhängig sind, N

Xi = La{Xi, j = 1,2, ... ,N. i=l

(1.4)

Dies sind die Transformationsformeln für die Koordinaten eines Vektors bei einem Basiswechsel (1.3). Die Matrix {a{} heißt die Tranajormationa­matriz. 3 ) Natürlich lassen sich auch die Vektoren der Basis ß durch die Vektoren der Basis ß ausdrücken,

N

ei = L a{ei' i = 1,2, ... ,N. i=l

Aus diesen Gleichungen erhält man durch eine analoge Rechnung die Trans­formationsformeln

j = 1,2, ... ,N. (1.5) i=l

Die N -reihigen Transformationsmatrizen {a{} und {a{} sind regulär und zueinander invers.

1.2 Teilräume und Faktorräume

Eine nichtleere Teilmenge U ~ V eines linearen Vektorraumes V über dem Körper IK heißt ein Unterraum oder Teilraum, wenn die beiden "Grundrech­nungsarten" in Vektorräumen, die Vektoraddition und die Multiplikation mit einer Zahl aus IK, nicht aus U "hinausführen", d.h. wenn die Summe zweier beliebiger Vektoren aus U stets ein Vektor in U ist,

Ul, U2 EU=? Ul + U2 EU,

und wenn jedes Vielfache eines beliebigen Vektors in U ebenfalls in U liegt,

u E U, A E IK =? Au EU.

Gleichwertig damit ist offenbar die Forderung, daß jede Linearkombination von Vektoren aus U ein Vektor in U ist; also kann man die beiden obigen Bedingungen in einer einzigen zusammenfassen, nämlich in

Ul,U2 E U, Al,A2 E IK =? AlUl + A2U2 EU.

Der Nullvektor 0 E V ist offenbar in jedem Teilraum enthalten, da mit einem Vektor x auch der Vektor Ox = 0 dem Teilraum angehören muß. Die allein aus dem Nullvektor bestehende Teilmenge {o} von V ist klarerweise ein Teilraum, desgleichen der ganze Vektorraum V selbst. Diese beiden Teilräume werden die trivialen Teilräume genannt.

3) Der hochgestellte Index steht für die Zeilennummer , der tiefgestellte Index für die Spaltennummer.

Page 7: Tensoren und Felder || Die linearen Strukturen

1.2 Teilräume und Faktorräume 7

In einem Teilraum U ~ V können nicht mehr linear unabhängige Vek­toren enthalten sein als in V selbst. Hat also der Vektorraum V endliche Dimension, so gibt es in V eine Maximalzahllinear unabhängiger Vektoren und damit erst recht in einem Teilraum U; die Maximalzahl linear un­abhängiger Vektoren in U wird die Dimen.'lion des Teilraumes U genannt, symbolisch dirn U. Ein maximales System linear unabhängiger Vektoren aus U heißt eine B a.'li.'l für U. Ist U ein nicht-trivialer Teilraum von V, so gilt 0 < dirn U < dirn V. Sinngemäß vereinbart man dirn { o} = 0 für den trivialen Teilraum {o}, da dieser keinen linear unabhängigen Vektor enthält.

Ist S = {Xl, X2, ••• ,Xn } ~ V eine endliche Menge von Vektoren, so bildet die Menge aller Linearkombinationen Li AiXi der Vektoren Xi E S einen Unterraum, der die lineare Hülle von S genannt wird, symbolisch (S) = (Xl, X2, ••• ,xn ). Die Ausdehnung dieses Begriffs auf unendliche Vek­torsysteme liegt auf der Hand.

Sind UI und U2 zwei Teilräume von V, so ist der Durchschnitt UI n U2

ein Teilraum von V. Sind nämlich Xl und X2 zwei Vektoren aus UI n U2 ,

so sind beide Vektoren sowohl in UI als auch in U2 enthalten; deshalb ist eine Linearkombination AIXI + A2X2 ein Vektor in UI wie auch in U2 und folglich im Durchschnitt UI n U2 enthalten.

Hingegen ist die Vereinigung UI U U2 zweier Teilräume von V i.a. kein Teilraum von V. Durch die Vereinigung zweier Teilräume wird jedoch ein Unterraum ausgezeichnet, nämlich die lineare Hülle der Vereinigung, die der "kleinste" die Teilmenge UI U U2 enthaltende Teilraum von V ist und die Summe der Teilräume UI und U2 genannt wird, symbolisch

UI + U2 := (UI U U2 ) •

Ist speziell UI n U2 = {o}, so nennt man die Summe direkt und verwendet zur Kennzeichnung dieses Sachverhalts an Stelle des Summenzeichens + das Symbol EB,

Ist X E U1 + U2 , so ist X eine Linearkombination von Vektoren aus UI

und U2 . Folglich gibt es einen Vektor Xl E UI und einen Vektor X2 E U2 ,

sodaß X = Xl + X2 gilt. Diese Darstellung ist aber i.a. nicht eindeutig, nur wenn die Summe direkt ist, gibt es genau ein Paar solcher Vektoren. Wäre nämlich X = Xl + X2 = YI + Y2, so hieße dies Xl - YI = Y2 - X2; die linke Seite dieser Gleichung ist ein Vektor in UI , die rechte ein Vektor in U2 , also sind beide Seiten im Durchschnitt UI n U2 enthalten. Wenn dieser aber nur aus dem Nullvektor besteht, ist Xl = YI und X2 = Y2'

Allgemein gilt für zwei beliebige Teilräume UI und U2 eines endlich­dimensionalen Vektorraumes

dim( U1 + U2 ) + dim( UI n U2 ) = dirn UI + dirn U2 • (1.6)

Um diese Beziehung zwischen den Dimensionen zweier Teilräume und den Dimensionen ihres Durchschnitts bzw. ihrer Summe zu beweisen, geht man

Page 8: Tensoren und Felder || Die linearen Strukturen

8 1 Die linearen Strukturen

am besten von einer Basis Xl, ••• , Xr des Durchschnitts U1 n U2 aus, im Fall, daß U1 + U2 =1= {o} ist. Diese läßt sich durch Vektoren Y1, ••• , Yp zu einer Basis von U1 und durch Vektoren Zl, ••• , Zq zu einer Basis von U2

ergänzen, d.h. es ist dirn U1 = r + p, dirn U2 = r + q. Die Gültigkeit von (1.6) ist dann erwiesen, wenn feststeht, daß die r + p + q Vektoren

Xl, X2, ••• ,Xr , Y1, Y2, ••• ,Yp, Zl, Z2, ••• ,Zq

linear unabhängig sind - sie bilden dann eine Basis der Summe U1 + U2 •

Wäre nun

>'l X 1 + ... + >'rxr + J.L1Y1 + ... + J.LPYp + V1 Z1 + ... + VqZq = 0

eine nicht-triviale Linearkombination dieser Vektoren, so muß wenigstens ein Koeffizient Vk =1= 0 sein, da andernfalls alle Koeffizienten >'i und alle Ko­effizienten J.Li gleich Null sein müßten - die Vektoren Xl, ••• , X r , Y1, ••• , YP

sind ja als Basisvektoren linear unabhängig -, was einen Widerspruch zur Annahme ergibt, daß die obige Linearkombination eine nicht-triviale ist. Aus dem gleichen Grund muß einer der Koeffizienten J.Li =1= 0 sein. Es folgt daraus, daß der Vektor

>'l X 1 + ... + >'rxr + J.L1Y1 + ... + J.LPYp = -V1 Z1 - ••• - VqZq

einerseits vom Nullvektor verschieden ist, andererseits sowohl im Teilraum U1 als auch im Teilraum U2 enthalten ist, also dem Durchschitt U1 n U2

angehört und somit durch die Basisvektoren Xi dargestellt werden kann,

-V1Z1 - ••• - VqZq = 1I:1X1 + ... + II:rX r j

diese Gleichung kann aber, da die Basisvektoren Xl, ••. , X r , Zl, .•• , zp des Teilraumes U2 linear unabhängig sind, nur bestehen, wenn alle Koeffizien­ten Vi und alle Koeffizienten lI:i gleich Null sind, was neuerlich ein Wider­spruch zur Annahme ist. Analog ist der Fall U1 n U2 = {o} zu behandeln.

Sind U1 und U2 zwei Teilräume von V mit der Eigenschaft

U1 ffi U2 = V,

so heißt der Teilraum U1 komplementär zum Teilraum U2 und umgekehrt der Teilraum U2 komplementär zum Teilraum U1 • Zu jedem Teilraum in V gibt es stets einen komplementären Teilraum. Für einen trivialen Teilraum ist diese Aussage selbstverständlich, denn für U = {o} ist W = V, für U = V ist W = {o} ein komplementärer Teilraum. Sei also U ein nicht­trivialer Teilraum des N -dimensionalen Vektorraumes V und {Xl, • •• ,xr }

eine Basis von U. Diese Basis läßt sich durch Hinzunahme von N - r weiteren Vektoren Xr+1, ... , XN zu einer Basis von V ergänzen. Sei jetzt W die lineare Hülle der hinzugekommenen Basisvektoren,

W = (X r+1, Xr+2, ... , XN).

Die beiden Teilräume U und W haben nur den Nullvektor gemeinsam, denn gäbe es einen vom Nullvektor verschiedenen Vektor X, der sowohl in U als auch in W enthalten ist, so wäre X einerseits die nicht-triviale Linearkombination

Page 9: Tensoren und Felder || Die linearen Strukturen

1.2 Teilräume und Faktorräume

andererseits aber auch die gleichfalls nicht-triviale Linearkombination

x = Ar+1Xr+1 + Ar+2Xr+2 + ... + ANXN.

Dies hätte weiter die Gleichung

9

A1X1 + A2X2 + ... + ArXr - Ar+1Xr+1 - Ar+2Xr+2 - •.. - ANXN = 0

zur Folge, die aber in nicht-trivialer Weise nicht erfüllt werden kann, da die Vektoren Xl, .•. , XN als Basisvektoren linear unabhängig sind. Also ist U n W = {o}. Ist jetzt x E V ein beliebiger Vektor,

x = 1L1 X 1 + 1L2 X 2 + ... + ILr X r + ILr+1 Xr+1 + ILr+2 X r+2 + ... + ILNXN,

so ist der Vektor

der Vektor

x" = ILr+1Xr+1 + ILr+2Xr+2 + ... + ILNXN E W,

also x = x' + x" mit x' E U, x" E W. Damit ist jeder Vektor x E V auch in U $ W enthalten und folglich U $ W = V. -

Unter dem Faktorraum eines Vektorraumes V bezüglich eines Teilrau­mes U ~ V versteht man einen Vektorraum, der aus disjunkten Teilmengen von V gebildet wird, welche folgendermaßen konstruiert werden.

Zwei Vektoren x E V, Y E V heißen äquivalent modulo des Teilraumes U, in Zeichen

x == y (mod U),

wenn x - y E U ist. Man faßt äquivalente Vektoren zu einer sogenannten ÄquivalenzklaJJe zusammenj ist x in einer gewissen Äquivalenzklasse ent­halten, so nennt man x einen Vertreter derselben und schreibt [x] für diese Äquivalenzklasse. Die Äquivalenzklassen sind disjunkt, jeder Vektor von V liegt in genau einer Äquivalenzklasse. Die Addition von Äquivalenzklassen und die Multiplikation mit Zahlen aus dem Grundkörper lK von V werden nun folgendermaßen erklärt. Die Summe zweier Äquivalenzklassen [x] und [y] ist jene Klasse, in der die Summe x + y enthalten ist,

[x] + [y] := [x + y],

das A-fache einer Äquivalenzklasse [x] ist jene Klasse, in welcher das A-fache des Vektors x liegt,

A[X] := [AX].

Diese Definitionen sind unabhängig von der Auswahl der jeweiligen Ver­treter. Der Teilraum U = [0] ist das Nullelement bezüglich der Addition, die Äquivalenzklasse [-x] ist das inverse Element von [x]. Da die Addi­tion offensichtlich kommutativ und assoziativ ist, erhält auf diese Weise die Gesamtheit der Äquivalenzklassen modulo eines Teilraumes U eine Vektor­raumstrukturj man nennt diesen Vektorraum den Faktorraum von V nach U, symbolisch V / U.

Page 10: Tensoren und Felder || Die linearen Strukturen

10 1 Die linearen Strukturen

Sind [Xl], [X2], ... , [xn] beliebige Äquivalenzklassen, so ist eine Linear­kombination jene Äquivalenzklasse, in der die entsprechende Linearkombi­nation ihrer Vertreter enthalten ist,

.\1 [Xl] + .\2 [X2] + ... + .\n[Xn] = [.\l X1 + '\2 X2 + ... + .\nxn].

Daraus geht hervor, daß Äquivalenzklassen [Xi] genau dann linear abhängig sind, wenn es eine nicht-triviale Linearkombination der Vektoren Xi gibt, die im Teilraum U enthalten ist,

'\lX1 + '\2X2 + ... + .\nxn EU. Nur im Falle U = {o} sind Äquivalenzklassen [Xi] E VjU genau dann linear abhängig, wenn die Vektoren Xi linear abhängig sind.

Ist V ein endlichdimensionaler Vektorraum, so gilt die Dimensionsbe­ziehung

dirn U + dirn V jU = dirn V . (1. 7)

Ist U = {o} der eine triviale Teilraum von V, so enthält jede Äquivalenz­klasse [x] genau ein Element, nämlich den Vektor x. Wäre x' ein zweiter Vertreter, also X == x' modulo U, so ist X - x' E U und somit X = x'. Sind die N Vektoren ei eine Basis von V, so sind die N Äquivalenzklassen [ei] eine Basis von V jU, denn aus X = Li .\iei folgt [x] = [Li .\iei] = Li .\de;]. Also gilt dirn V j U = N = dirn V und (1. 7) ist wegen dim{ o} = 0 erfüllt. Ist U = V der andere triviale Teilraum, so ist V jU = {[o]}, der Faktorraum besteht in diesem Fall nur aus einer Äquivalenzklasse, nämlich [0] = V, er ist somit ein trivialer Vektorraum, dem die Dimension 0 zugeordnet wird. Sei schließlich U C V ein nicht-trivialer Teilraum. Ist n = dirn U und Bu = {U1,U2'" ,un} eine Basis von U, so kann diese durch Hinzu­nahme von m = N - n weiteren Vektoren V1 , ... , Vm zu einer Basis von V ergänzt werden; die Basisvektoren Ui von U liegen dabei alle in der Äqui­valenzklasse [0] = U, die Vektoren Vj liegen in separaten Äquivalenzklassen [Vj], j = 1, 2, ... , m. Diese m Äquivalenzklassen sind klarerweise linear unabhängig, denn wäre .\1 [V1] + ... + .\m[Vm] = [0], so würde der Vektor '\lV1 + .. ·+.\mvm in U liegen, was aber nicht der Fall sein kann, da sonst die Vektoren U1, ... , Un, V1, ... , Vm keine Basis von V sein könnten. Ist dann [x] eine beliebige Äquivalenzklasse in V jU, so kann der Vertreter x in der Form x = Li .\iUi + Lj fLjVj dargestellt werden; dies wiederum bedeutet

[x] = Li .\i[Ui] + Lj fLj[Vj], also ist wegen Li .\iUi E U

t .\i[Ui] = [t .\iUi] = [0], i=l i=l

somit m

[x] = LfLj[Vj] , j=l

d.h. die m= N - n Äquivalenzklassen [V1], ... , [vm] bilden eine Basis des Faktorraumes V j U. Daher ist dirn V j U = N - n = dirn V - dirn U.

Page 11: Tensoren und Felder || Die linearen Strukturen

1.3 Lineare Abbildungen 11

1.3 Lineare Abbildungen

Sind A und ß zwei Mengen, so heißt eine Funktion (Abbildung) f: A ~ ß injektiv, wenn die Gleichung f(x ' ) = f(x") nur für x' = x" möglich ist; offenbar hat nur dann die Gleichung Y = f( x) für beliebiges Y E ß höchstens eine Lösung x E A. Die Funktion f heißt dagegen surjektiv, wenn jedes Element in ß wenigstens ein Urbild in A hat, d.h. die Gleichung Y = f(x) hat für jedes y E ß mindestens eine Lösung x E A. Die Funktion f heißt schließlich bijektiv, wenn sie sowohl injektiv als auch surjektiv ist.

Um eine Funktion f : A ~ ß umkehren zu können, muß durch die Vorschrift f jedem Element von ß genau ein Element von A entsprechen, oder anders ausgedrückt, die Gleichung y = f( x) muß für jedes y E ß genau eine Lösung x E A haben. Damit diese Gleichung für jedes y E ß überhaupt eine Lösung in A besitzt, muß die Funktion f surjektiv sein, damit sie nicht mehr als eine Lösung in A hat, muß f injektiv sein - also ist eine Funktion f : A ~ ß genau dann umkehrbar, wenn sie bijektiv ist. Die Umkehrung f- 1 : ß ~ A ist dann ebenfalls eine bijektive Funktion.

Eine Abbildung f : A ~ ß heißt linear, wenn A und ß lineare Vektor­räume über einem gemeinsamen Körper IK sind und f die Eigenschaft der Additivität

f(x + y) = f(x) + f(y) , x, Y E A, (1.8)

sowie der Homogenität

f(>"x) = >"f(x) , >"EIK,xEA, (1.9)

besitzt. Mit anderen Worten, eine Abbildung ist linear, wenn die Funk­tionsvorschrift mit den beiden "Grundrechnungsarten" in linearen Vektor­räumen - Addition und Multiplikation mit einer Zahl - vertauschbar ist.

Die Forderung, daß Definitions- und Bildbereich lineare Vektorräume sind, ist wesentlicher Bestandteil des Begriffs der linearen Abbildung. Nur wenn der Definitionsbereich ein linearer Vektorraum ist, hat die jeweils linke Seite von (1.8) und (1.9) einen Sinn, und damit dies auch für die rechte Seite zutrifft, muß auch der Bildbereich ein linearer Vektorraum sein.

Eine lineare Abbildung T : A ~ A eines Vektorraumes in sich heißt auch eine lineare Transformation. Eine lineare Abbildung T : A ~ IK, deren Bildraum der Grundkörper IK des Vektorraumes A ist, nennt man ein lineares Funktional oder eine Linearform auf A.

Ersetzt man in (1.8) den Vektor x durch das Vielfache >..x, desgleichen y durch J-LY, so erhält man unter Heranziehung von (1.9) die Gleichung

f(>"x + J-LY) = >"f(x) + J-Lf(Y) , >",J-L E IK, x,y E A, (1.10)

die mit den beiden Forderungen (1.8) und (1.9) äquivalent ist; sie wird in der Regel zum Nachweis der Linearitätseigenschaft einer Abbildung heran­gezogen. Wegen Ox = 0 ist f(o) = f(Ox) = Of(x) = o.

Page 12: Tensoren und Felder || Die linearen Strukturen

12 1 Die linearen Strukturen

Im folgenden stehen die Symbole U, V, ... für lineare Vektorräume, griechische Buchstaben T, u, ... für lineare Abbildungen. Das Bild eines Vektors x unter einer linearen Abbildung T schreibt man üblicherweise in der Form TX an Stelle von T(X).

Sind u, T : U ---+ V lineare Abbildungen zweier Vektorräume mit ge­meinsamem Grundkörper , so ist die Summe

(u + T)X := ux + TX

eine lineare Abbildung von U in V, ebenso das Vielfache

(AT)X := ATX.

Mit dieser Addition und Multiplikation hat die Gesamtheit aller linearen Abbildungen von U in V die Struktur eines Vektorraumes.

Sind U : U ---+ V und T : V ---+ W zwei lineare Abbildungen, so ist auch die Zusammensetzung TU: U ---+ Weine lineare Abbildung,

TU( AX + fLY) = T( AUX + fLUY) = ATUX + fLTUY .

Ist T : U ---+ V eine bijektive lineare Abbildung, so ist Zu = T- 1T die identi­sche Abbildung auf U und Zv = TT- 1 die identische Abbildung auf V. Die Umkehrung T- 1 : V ---+ U einer bijektiven linearen Abbildung T: U ---+ V ist wieder eine lineare Abbildung. Sind x, Y E U zwei beliebige Vekto­ren, so gibt es zwei eindeutig bestimmte Vektoren u, v E V, für welche TU = X, TV = Y gilt j infolgedessen ist

T-1(AX + fLY) = T- 1T(AU + /Lv) = AU + /LV = AT-lX + /LT- 1y.

Sind U : U ---+ V und T : V ---+ W zwei bijektive lineare Abbildungen, so ist auch das Produkt TU bijektiv. Die Inverse eines Produktes ist das Produkt der Inversen der Faktoren in umgekehrter Reihenfolge,

(TU)-l = U- 1T-1 .

Von Bedeutung ist der Einfluß, den die Linearitätseigenschaft (1.10) einer Abbildung T : U ---+ V auf die Überprüfung der Injektivität nimmt, weil eine Gleichung TX1 = TX2 für lineare Abbildungen auch in der Form T( Xl - X2) = 0 geschrieben werden kann. Deshalb ist die Forderung, daß aus einer Gleichung TX1 = TX2 zwingend Xl = X2 folgt, indem man x = Xl - X2 setzt, gleichbedeutend damit, daß die Gleichung

TX = T(X1 - X2) = TX1 - TX2 = 0

nur durch x = 0 erfüllt werden kann. Da hievon auch die Umkehrung gilt, ist erwiesen: Eine lineare Abbildung T ist genau dann injektiv, wenn aus der Gleichung TX = 0 notwendig x = 0 folgt.

Eine injektive lineare Abbildung T : U ---+ V bildet ein System S ~ U linear unabhängiger Vektoren aus U auf ein System S' ~ V linear unab­hängiger Vektoren aus V ab. Sind nämlich die Vektoren Xl, X2, ... , Xn linear unabhängig, so ist infolge der Injektivität von T genau dann

A1TX1 + A2TX2 + ... + AnTXn = T(A1X1 + A2X2 + ... + AnXn ) = 0,

Page 13: Tensoren und Felder || Die linearen Strukturen

1.3 Lineare Abbildungen 13

wenn A1X1 +A2Z2+" '+AnZn = 0 istj also zieht die lineare Unabhängigkeit der Vektoren Zl, Z2, ... , X n die lineare Unabhängigkeit der Bildvektoren TZ1, TZ2, •.• , TZ n nach sich. Im Bildraum existieren daher mindestens genausoviele linear unabhängige Vektoren wie im Urbildraum. Auf Grund dessen ist dirn U ~ dirn V, sofern zwei Vektorräume U und V endliche Dimension haben und eine injektive lineare Abbildung von U in V existiert.

Eine surjektive lineare Abbildung T : U --t V bildet ein Erzeugenden­system [ ~ U auf ein Erzeugendensystem [' ~ V ab. Auf Grund der Surjektivität von T hat jedes Element Y E V ein Urbild Z E Uj da [ ein Erzeugendensystem für U ist, kann der Vektor x durch eine Linearkombi­nation Z = L:i AiZi von Vektoren Zi E [ ausgedrückt werdenj infolgedessen ist Y = TZ = L:i AiTZi, d.h. der Vektor y E V ist als Linearkombination von Vektoren TZi des Bildes [' von [ unter T dargestellt - also ist [' ein Erzeugendensystem für V. Somit gilt dirn U ~ dirn V, wenn U und V end­lichdimensionale Vektorräume sind und eine surjektive lineare Abbildung von U auf V existiert.

Eine bijektive lineare Abbildung T: U --t V heißt ein Isomorphismus. 4)

Ein Isomorphismus T: U --t V, also eine injektive und surjektive lineare Abbildung, führt eine Basis B in U in eine Basis B' in V über. Als Basis ist nämlich Bein Erzeugendensystem für U, sodaß durch die Surjektivität von T sichergestellt wird, daß B' ein Erzeugendensystem für V ist. Die Injektivität von T zieht nach sich, daß die Vektoren in B' linear unabhängig sind, weil es die Urbildvektoren in B sind. Man sagt, die Vektorräume U und V sind isomorph. Sind zwei endlichdimensionale Vektorräume U und V isomorph, so haben sie dieselbe Dimension: dirn U = dirn V.

Zwei Vektorräume U und V heißen (algebraisch) äquivalent, U ~ V, wenn es einen Isomorphismus u: U --t V gibt. Die identische Abbildung 'tu : U --t U ist ein Isomorphismus, und dies bedeutet U ~ U. Da die Inverse eines Isomorphismus wieder ein Isomorphismus ist, folgt V ~ U aus U ~ V. Sind schließlich u:U --t V und T:V --t W zwei Isomorphismen, so ist TU: U --t Wein Isomorphismus, sodaß U ~ V und V ~ W die Äquivalenz U ~ W nach sich zieht. Daher stellt der Begriff des Isomorphismus eine Äquivalenzrelation unter den linearen Vektorräumen dar.

Sei T : U --t V eine beliebige lineare Abbildung zweier endlichdimen­sionaler Vektorräume U und V. Die Gesamtheit aller Vektoren aus U, die durch T auf den Nullvektor in V abgebildet werden, stellt einen Teilraum von U dar. Ist nämlich TX = TY = 0, so gilt mit beliebigen Zahlen A und I"

T (AZ + fLY) = ATZ + fLTY = AO + 1"0 = 0, d.h. mit Z und Y wird auch die Linearkombination AZ + fLY auf den Null­vektor in V abgebildet. Diesen Teilraum, der symbolisch5 ) in der Form

T-1{0}:={zlzEU, TZ=O}

4) Griech. 10"0e; (isos), gleich, ähnlich; floPtjl~ (morphe), Form, Gestalt. 5) Ist I: A --> B eine beliebige Funktion, so bezeichnet 1-1 (B'), B' ~ B, jene

Teilmenge von A, deren Elemente durch die Funktion 1 auf B' abgebildet werden.

Page 14: Tensoren und Felder || Die linearen Strukturen

14 1 Die linearen Strukturen

geschrieben wird, nennt man den Kern der Abbildung T, die Dimension dieses Teilraumes heißt der Defekt von T, symbolisch def T := dim T-1{ o}. Eine lineare Abbildung T: U - V ist genau dann injektiv, wenn ihr Kern der triviale Teilraum {o} ist.

Die Gesamtheit aller Bildvektoren TZ mit Z E U bildet einen Teilraum in V, der das Bild von U unter T genannt wird, symbolisch6 )

TU := {y I y E V, Y = TZ, Z EU} .

Die Dimension dieses Teilraumes wird der Rang der Abbildung T genannt, in Zeichen rgT:= dimTU. Da nämlich jeder Vektor in TU wenigstens ein Urbild in U besitzt, gibt es für zwei beliebige Vektoren z, y E TU stets zwei Vektoren u, v E U mit TU = Z, TV = Yj sind dann A und p. zwei beliebige Zahlen aus dem Grundkörper , so ist

AZ + p.y = ATU + P.TV = T(AU + p.v),

d.h. sind Z und y zwei Bilder unter der linearen Abbildung T, so ist auch jede Linearkombination dieser Vektoren ein Bild unter T. Daher ist das Bild TU ein Teilraum von V. Eine lineare Abbildung T : U - V ist genau dann surjektiv, wenn TU = V ist.

Sind U und V zwei endlichdimensionale Vektorräume und ist T: U - V eine lineare Abbildung, so gilt

dim TU + dimT-1{0} = dimU (1.11)

beziehungsweise rgT + defT = dimU.

Zum Nachweis dieser Dimensionsbeziehung betrachtet man den Faktorraum UjT-1{0} und konstruiert die Abbildung U:UjT-1{ o} _ TU, durch welche eine Äquivalenzklasse [zJ mit dem Vertreter Z auf den Vektor u[zJ := TZ abgebildet wird. Diese Definition der Abbildung u ist unabhängig von der Auswahl des Vertreters der Äquivalenzklasse. Ist z' E [zJ ein beliebiger anderer Vertreter, so ist z' == z, also z' -z E T-1{0} und somit T(Z' -z) = 0

bzw. TZ' = TZ. Die Abbildung u ist linear, denn für zwei Äquivalenzklassen [zJ und [yJ gilt auf Grund der Linearitätseigenschaft der Abbildung T

U[AZ + p.yJ = T(AZ + p.Y) = ATZ + P.TY = AU[ZJ + p.u[yJ .

Die lineare Abbildung u ist surjektiv. Ist y E TU ein beliebiger Vektor, so gibt es einen Vektor z E U mit TZ = y, d.h. es ist u[zJ = y und die Klasse [zJ ist das Urbild von y unter u. Schließlich ist u injektiv. Aus u[zJ = 0 folgt nämlich TZ = u[zJ = 0, also z E T-1{0} = [oJ bzw. [zJ = [oJ. Die lineare Abbildung u: UjT-1{0} _ TU ist also ein Isomorphismus, die beiden Vektorräume UjT-1{0} und TU sind isomorph und haben folglich dieselbe Dimensionj dann ergibt sich aber mit Hilfe von (1.7)

dimTU = dimUjT-1{0} = dimU - dimT-1{0}.

6) Ist!: A -+ 8 eine beliebige Funktion, so bezeichnet man mit !(A'), wenn A' ~ A ist, jene Teilmenge von B, deren Urbilder in A' liegen.

Page 15: Tensoren und Felder || Die linearen Strukturen

1.4 Duale Vektorräume 15

Sind U und V endlichdimensionale Vektorräume gleicher Dimension und ist T: U -t V eine surjektive bzw. injektive lineare Abbildung, so ist, wie die Gleichung (1.11) für TU = V bzw. T-1{O} = {o} lehrt, die Abbildung T automatisch injektiv bzw. surjektiv, also bijektiv und daher ein Isomor­phismus der Vektorräume U und V.

Ist T: U -t V eine lineare Abbildung zweier endlichdimensionaler Vek­torräume, ßu = {el,e2, ... ,eN} eine Basis für U, ßv = {h,/2, ... ,fM} eine Basis für V, so können die Bilder Tei der Basisvektoren ei in U durch Linearkombinationen der Basisvektoren Ii in V ausgedrückt werden,

M

Tei = 'Lt{li, i = 1,2, ... ,N. (1.12) i=l

Die Koeffizienten t{ dieser Linearkombinationen lassen sich in einer Matrix

{t1} zusammenfassenj sie heißt die Matriz der Abbildung T bezüglich der Basen ßu und ßv. Ist x = Li Xiei ein beliebiger Vektor in U, so erhält man für das Bild von x unter T

N N M M N

TX = 'LXiTei = 'LXi 'Lt{1i = 'L('Lt{Xi)li, i=l i=l i=l i=l i=l

also, wenn y = TX = Li yi fi gesetzt wird,

N

Y i = '" t1,."Xi , . 12M L...J J=" ... ,. i=l

1.4 Duale Vektorräume

(1.13)

Es seien U und V zwei endlichdimensionale Vektorräume über einem ge­meinsamen Zahlenkörper lK. Eine Funktion cp : U X V -t lK heißt eine bilineare Funktion oder Bilinearform, wenn cp in jedem der beiden Argu­mente die Linearitätseigenschaft (1.10) hat, d.h. wenn

cp(>.x + J.LY, z) = >.cp(x, z) + J.Lcp(y, z)

für alle Vektoren z E V beziehungsweise

cp(x,>'y+J.Lz) = >.cp(x,y) +J.Lcp(x,z)

für alle Vektoren x E U gilt. Klarerweise ist cp(o,y) = 0 für alle y E Vj gibt es in U weitere Vektoren x und y, sodaß cp(x,z) = cp(y,z) = 0 für alle z E V gilt, so trifft dies auf Grund der Linearitätseigenschaft auch auf jede Linearkombination dieser Vektoren zu. Jeder Bilinearform ist daher ein Teilraum

Uo={xlxEU, VyEV =? cp(x,y)=O}

Page 16: Tensoren und Felder || Die linearen Strukturen

16 1 Die linearen Strukturen

in U und analog ein Teilraum

Va={ylyEV, VxEU =} cp(x,y)=O}

in V zugeordnet. Ist Ua = U oder Va = V, so ist die Bilinearform cp konstant gleich Null, ein Fall, der natürlich ausgeschlossen sein soll. Sind Ua C U und Va C V echte Teilräume und enthält entweder Ua oder Va einen vom jeweiligen Nullvektor verschiedenen Vektor, ist also {o} C Ua C U oder {o} C Va C V, so heißt die Bilinearform cp ausgeartet. Die letzte Möglichkeit ist Ua = {o} und Va = {o}; in diesem Fall spricht man von einer nicht­ausgearteten Bilinearform und nennt cp ein Skalarprodukt der Vektorräume U und V. Es ist üblich, ein Skalarprodukt zweier Vektorräume U und V mit dem Symbol (0,0) : U x V - IK zu belegen,

(x,y) := cp(x,y).

Die Vektorräume U und V werden zueinander dual (bezüglich des Skalar­produktes (0,0)) genannt.

Der Dualraum schlechthin eines Vektorraumes V, der symbolisch mit V* bezeichnet wird, ist der Vektorraum der linearen Abbildungen o::V - IK. Die linearen Funktionale oder Linearformen, wie solche Abbildungen auch genannt werden, bilden mit den üblichen Verknüpfungen von zahlenwerti­gen Funktionen, der Addition und der Multiplikation mit einer Zahl, einen Vektorraum, denn sind 0: und ß zwei Linearformen auf V, so ist die Summe

(0: + ß)(x) := o:(x) + ß(x), x E V,

eine Linearform auf V, denn es ist

(0: + ß)(.\x + ,."y) = o:(.\x + ,."y) + ß(.\x + ,."y)

= .\o:( x) + ,."o:(y) + .\ß( x) + ,."ß(y)

= .\[(o:(x) + ß(x)] + ,.,,[(o:(y) + ß(y)]

= .\(0: + ß)(x) + ,.,,(0: + ß)(y).

Ebenso zeigt man, daß das Produkt einer Linearform mit einer Zahl aus dem Grundkörper IK,

(.\o:)(x) := .\o:(x) , x E V,

wiederum eine Linearform ist. Deshalb ist cp : V* x V - IK,

cp(o:,x) := o:(x) , 0: E V*, x E V, (1.14)

eine Bilinearform. Der Teilraum Va besteht aus allen Vektoren x E V, für die

o:(x) = 0

gilt für alle 0: E V; - eine Gleichung, die nur der Nullvektor in V* erfüllt. Analog hat nur die identisch verschwindende Linearform 0 die Eigenschaft

o(x) = 0

Page 17: Tensoren und Felder || Die linearen Strukturen

1.4 Duale Vektorräume 17

für alle x E V. Die Bilinearform (1.14) ist demnach nicht-ausgeartet und somit ein Skalarprodukt (0,0) der dualen Vektorräume V* und V. Ist V end­lichdimensional, so ist auch V* endlichdimensional, die beiden Vektorräume haben dieselbe Dimension,

dirn V* = dirn V . (1.15)

Zum Beweis dieser Dimensionsbeziehung sei zunächst der Vektorraum V auf eine feste Basis B = {eI, e2, ... , e N} bezogen. Sodann betrachtet man für i = 1, 2, ... , N die Abbildungen ci : V ~ lK,

(1.16)

Die Abbildung ci ordnet jedem Vektor x E V seine i-te Koordinate Xi bezüglich der Basis B zu. Da AXi + ILyi die i-te Koordinate des Vektors AX + ILY ist, sind diese Abbildungen linear,

ci(AX + ILY) = AXi + ILyi = Aci(X) + ILci(y) ,

und damit Vektoren in V*. Wendet man die Linearform ci auf den Basis­vektor ej an, dessen Koordinaten alle Null sind bis auf die i-te Koordinate, welche gleich 1 ist, so erhält man

i() (i ) ci {O für i f= i, c ej = c, ej = 0j = 1 f" . _ . ur ~ - J. (1.17)

Aus der Definition (1.16) geht übrigens auch hervor, daß die Linearformen ci durch die Basis B in V eindeutig bestimmt sind. Sie sind ferner linear unabhängig, denn wäre nämlich

Al cl + A2c2 + ... + ANcN = 0

und darin z.B. Ai f= 0, so erhielte man den Widerspruch

0= o(e;} = (AlCl + A2c2 + ... + ANcN)(ei)

= Alcl(ei) + A2c2(e;) + ... + ANcN(ei) = Ai.

Also ist dirn V* 2: N. Bildet man nun mit einer beliebigen Linearform 0: E V* die Linearform ß = 0: - Li 0:( ei) ci, so erhält man

N N

ß(x) = o:(x) - "Lo:(ei)ci(x) = o:(x) - "LXio:(ei) i=l i=l

N N

= o:(x) - 0:(:E Xiei) = 0:( x - :E Xiei) = 0 i=l i=l

für alle x E V, d.h. die N + 1 Linearformen cl, c2, ... , cN, 0: sind linear abhängig. Somit ist dirn V* ~ N, da 0: E V* beliebig war. Die Linearformen ci sind folglich eine - durch die Basis B in V eindeutig bestimmte - Basis in V*j sie heißt die zu B duale Basis B* in V*.-

Mit Hilfe der Gleichung (1.15) läßt sich leicht der Nachweis erbringen, daß duale Vektorräume stets dieselbe Dimension haben. Sind U und V dual

Page 18: Tensoren und Felder || Die linearen Strukturen

18 1 Die linearen Strukturen

bezüglich des Skalarproduktes (0,0), so ist die Abbildung L: U ---+ V*, die dem Vektor x E. U die Linearform

LX(Y) := (x, y) , Y E V, (1.18)

aus V* zuordnet, ein Isomorphismus. Infolge der Bilinearität des Skalar­produktes ist diese Abbildung linear,

L(>'X + J.LY)(z) = (>'x + J.LY,z) = >.(x,z) + J.L(y,z) = >'LX(Z) + J.LLY(Z), Sie ist ferner injektiv, denn aus LX = 0 folgt

(x,y) = LX(Y) = o(y) = 0

für alle y E V, was aber für x i- 0 nicht möglich ist, da ein Skalar­produkt nicht ausgeartet ist. Die Injektivität der Abbildung L hat nun dirn U ~ dirn V* und damit wegen (1.15) die Ungleichung dirn U ~ dirn V zur Folge. Dieselbe Schlußweise mit vertauschten Rollen von U und V führt zur Ungleichung dirn V ~ dirn U, womit die Gleichheit der Dimen­sionen dualer Vektorräume nachgewiesen ist. Da eine injektive Abbildung von Vektorräumen gleicher (endlicher) Dimension wegen (1.11) automa­tisch auch surjektiv ist, ist L ein Isomorphismus. Es gilt also: Sind U und V ein Paar dualer Vektorräume, so besteht Dimensionsgleichheit,

dimU=dimV.

Sind U und V zueinander duale Vektorräume bezüglich eines Skalar­produktes (0,0), so nennt man zwei Vektoren x E U, Y E V orthogonal, wenn

(X,y) = O.

Ist Bu {el,e2, ... ,eN} eine Basis von U, Bv = {!I,!2, ... ,!N} eme Basis von V mit der Eigenschaft

{ 0 für i i- j, (ei,/j)=oij= 1 f'" . (1.19) ur z =],

so nennt man die Basen Bu und Bv dual. Ist eine Basis in U gegeben, so ist ihre duale Basis in V eindeutig bestimmt und umgekehrt.

Ist U und V ein Paar dualer Vektorräume und W ~ U ein Teilraum von U, so versteht man unter dem orthogonalen Komplement dieses Teilraumes den Teilraum W-L ~ V, der aus denjenigen Vektoren aus V besteht, die zu allen Vektoren aus W orthogonal sind,

W-L := {y I y E V, Vx E W :::} (x,y) = O}. (1.20)

Der Nachweis, daß W-L ein Teilraum ist, darf jetzt dem Leser überlassen werden. Es gilt

dirn W + dirn W-L = dirn U = dirn V . (1.21 )

Zum Beweis dieser Dimensionsbeziehung faßt man das orthogonale Kom­plement W-L des Teilraums Wals eigenständigen Vektorraum auf und kon­struiert die Abbildung «P : U!W X W-L ---+ IK,

«p([x],Y) := (x,y).

Page 19: Tensoren und Felder || Die linearen Strukturen

1.4 Duale Vektorräume 19

Diese Definition ist eindeutig. Mit einem anderen Vertreter x' == x der Äquivalenzklasse [x] erhält man nämlich

q,([xl,y) - q,([x'l,y) = (x',y) - (x,y) = (x' - x,y) = 0,

denn die Vektoren x' -x E Wund y E W~ sind orthogonal. Die Abbildung q, ist ferner bilinear, es ist einerseits

q, (A[X] + Jl[Y] , z) = q, (lAX + JlY], z) = (AX + JlY, z) = A(X, z) + Jl(Y, z)

= Aq,([X],z) + Jlq,([y],z)

und andererseits

q, ([x], AY + Jlz) = (x, AY + Jlz) = A(X, y) + Jl(x, z)

= Aq,([X],y) + Jlq,([x],z).

Die Bilinearform q, ist schließlich nicht ausgeartet, weil das Skalarprodukt (0,0) der Vektorräume U und V nicht-ausgeartet ist. Aus q,([x],y) = 0 für alle Y E W~ folgt ja (x, y) = 0 für alle Y E W~, also x E Wund damit [x] = [0]; wenn anders q,([x],y) = 0 für alle [x] E UjW gilt, so muß (x, y) = 0 für alle x E U gelten, was wiederum nur für y = 0 möglich ist. Damit ist q, eine nicht-ausgeartete bilineare Funktion und somit ein Skalarprodukt der Vektorräume U jW und W~, die Vektorräume U jW und W~ sind zueinander dual und haben folglich die gleiche Dimension; mit Rücksicht auf (1.7) erhält man dann

dimUjW = dimU - dimW = dimW~.

Wie jeden Vektorraum V der Dualraum V* der Linearformen auf V begleitet, gehört zu einer linearen Transformation r : V - V eine lineare Transformation r*: V* - V*. Ist a E V* eine beliebige Linearform, so stellt

ß(x) := a(rx) , x E V, (1.22)

eine wohlbestimmte Linearform aus dem Dualraum V* dar, denn es ist

ß(Ax + JlY) = a(r(Ax + JlY)) = a(Arx + Jlry)

= Aa(rx) + Jla(ry) = Aß(X) + Jlß(y)·

Diese Zuordnung a - ß = r* a ist eine lineare Transformation r*: V* - V*, es gilt nämlich für zwei beliebige Linearformen a und ß

r*(Aa + Jlß)(x) = (Aa + Jlß)(rx) = Aa(rx) + Jlß(rx)

= h*a(x) + Jlr*ß(x)

für alle x E V. Die durch die lineare Transformation r im Dualraum in­duzierte lineare Transformation r* wird die duale oder adjungierte Trans­formation genannt. In der Notation des Skalarproduktes schreibt sich die Gleichung (1.22) in der Form

(r*a,x) = (a,rx), a E V*, x E V. (1.23)

Page 20: Tensoren und Felder || Die linearen Strukturen

20 1 Die linearen Strukturen

Da das Skalarprodukt nicht-ausgeartet ist, gibt es nur eine lineare Trans­formation r* im Dualraum, die diese Gleichung erfüllt.

Ist {t{} die (quadratische) Matrix der Transformation r bezüglich einer Basis B in V (vgl. (1.12) mit!; = ej), so erhält man für die rechte Seite von (1.23), wenn man für a = c;i einen Vektor der dualen Basis B* von V* und für :c = ej einen Vektor der Basis B von V einsetzt,

N N N

i /i""k) ""k i ""ki i (c; ,Tej) = \c; 'L..Jtjek = L..Jtj(c; ,ek) = L..JtjSk =tj . k=l k=l k=l

Ist {(t*)1} die Matrix der dualen Transformation r* bzüglich der zu B dualen Basis B* in V*,

N

r*c;i = L{t*)1c;k , k=l

so findet man für die linke Seite N N

(r*c;i,ej) = L{t*)1(c;k,ej) = L{t*)iS; = (t*)~, k=l k=l

d.h. es ist (t*)1 = t1.

Geht man von einer Basis Beines N-dimensionalen Vektorraumes V zu einer Basis B über, gleichzeitig im Dualraum V* von der zu B dualen Basis B* zur dualen Basis B* von B*, so wird der Zusammenhang zwischen den alten und den neuen Basisvektoren durch Gleichungen

N N

e-· - "" aje· '-L..J i l' j=l

(1.24)

beschrieben, worin {ai} und {ai} reguläre Matrizen sind. Aus den Dar­stellungen

N

ergibt sich dabei, wenn man für SI aus (1.17) einsetzt,

N N N N

a1 = L a7(c;i,ek) = (c;i'La7ek) ' a1 = La{(c;k,ei) = (La{c;k,ei) k=l k=l k=l k=l

und weiter unter Berücksichtigung von (1.24)

a{ = (c;j, ei) , a{ = (t j , ei) . (1.25)

Die beiden Matrizen {ai} und {ai} sind zueinander invers, denn es gilt

N N N

L a7a{ = La7(ti,ek) = (ti'La7ek) = (ti,ei) = SI· k=l k=l k=l

Page 21: Tensoren und Felder || Die linearen Strukturen

1.5 Determinantenfunktionen 21

Vertauscht man in (1.25) die Rollen der Basisvektoren von Bund 8 bzw. B* und 8*, so erhält man die Umkehrformeln zu (1.24),

N

ci = La{ti . (1.26) i=1

Da jeder Vektorraum V von seinem Dualraum V* begleitet wird, ist auch dem Dualraum V* ein Dualraum (V*)* = V** zugeordnet. Die Vekto­ren von V** sind die Linearformen auf V*. Betrachtet man für einen festen Vektor x E V die Gesamtheit der Zahlen (a,x), wenn a in V* variiert, so ist eine - offensichtlich lineare - Zuordnung gegeben, die jeder Linearform a E V* die Zahl (a, x) aus dem Grundkörper IK zuweist, d.h. der feste Vek­tor x E V bestimmt eine Linearform f auf V*, also einen Vektor aus V**. Diese lineare Zuordnung x ---t f ist injektiv, da das Skalarprodukt der Vek­torräume V und V* nicht-ausgeartet ist; wegen dirn V = dirn V* = dirn V** ist sie daher ein Isomorphismus. Dieser Isomorphismus der beiden Vek­torräume V und V** ist keine willkürliche Konstruktion, er ist gewisser­maßen auf "natürliche" Weise durch das Skalarprodukt der Vektorräume V und V* gegeben, was Anlaß dafür ist, die beiden Vektorräume V und V** zu identifizieren: jeder Vektor aus V repräsentiert eine Linearform auf V*. Die durch einen Vektor x E V bestimmte Linearform auf V* schreibt man in der Form

x(a) = (x,a)* = (a,x), (1.27)

worin (0,0)* : V** x V* ---t IK das Skalarprodukt der Vektorräume V* und V** ist.

Wenn im folgenden vom Dualraum eines Vektorraumes V gesprochen wird, so ist damit stets der Vektorraum V* der Linearformen auf V gemeint. Das Symbol (0,0) ist dabei dem Skalarprodukt der Vektorräume V und V* vorbehalten, wobei das erste Argument eine Linearform aus V*, das zweite ein Vektor aus V ist.

1.5 Determinantenfunktionen

Es seien VI, V2, ... , Vn und U endlichdimensionale Vektorräume über einem gemeinsamen Grundkörper IK. Eine Abbildung a: VI x ... X Vn ---t U, die jedem geordneten Vektor-n-tupel (Xl,X2, ... ,xn) mit Xi E Vi einen Vektor a(xl,x2""'Xn) E U zuordnet, heißt multilinear, wenn sie in Bezug auf jedes Argument die Linearitätseigenschaft (1.10) hat, d.h. wenn

a( .. . ,..\x + J-LY, ... ) = ..\a( . .. , x, ... ) + J-La( .. . , Y, ... )

für jede Stelle der Argumentliste von a gilt. Im Falle n = 2 spricht man von einer bilinearen Abbildung. Ist U = IK, so heißt a auch eine multilineare Funktion; für n = 1 ist a eine Linearform, für n = 2 eine Bilinearform.

Page 22: Tensoren und Felder || Die linearen Strukturen

22 1 Die linearen Strukturen

Von besonderem Interesse sind jene multilinearen Abbildungen, für die VI = ... = Vn = V ist. Ist dabei U = 1K, so spricht man auch von einer n-linearen Funktion auf V. Unter diesen nimmt eine gewisse Klasse eine Sonderstellung ein, nämlich die Klasse der alternierenden oder schiefsymmetrischen Funktionen.

Ist h : vn -t 1K eine multilineare Funktion mit der Eigenschaft, daß die Vertauschung zweier Argumente sich nur in einem Vorzeichenwechsel auswirkt,

h( ... ,x, ... ,y, ... ) = -h( ... ,y, ... ,x, ... ), (1.28)

so heißt h alternierend oder schiefsymmetrisch. Einer Linearform, für die ja die Forderung (1.28) hinfällig ist, wird die Eigenschaft der schiefen Symme­trie per definition em zugesprochen. Die identisch verschwindende Funktion h = 0 heißt die triviale alternierende Funktion.

Setzt man in (1.28) für y = x, so folgt

h( ... ,x, ... ,x, ... )=O. (1.29)

Sind demnach zwei Argumente einer alternierenden Funktion identisch, so hat sie den Wert Null. Dieser Sachverhalt ist jedoch nur ein Spezialfall eines allgemeineren Zusammenhangs: Eine alternierende Funktion hat den Wert Null, wenn ihre Argumentvektoren linear abhängig sind. Da sich dann einer der Argumentvektoren, z.B. der Vektor xn , als Linearkombination X n = ).lX1 + ... + ).n-1Xn-1 der übrigen darstellen läßt, wird

n-1 n-1

6(XI, ... , xn) = 6( Xl,···, Xn-I, LAiXi) = LAi6(X1"'" Xn-I, xd = O. i=l i=I

Da in einem N-dimensionalen Vektorraum V mehr als N Vektoren stets linear abhängig sind, ist für n > N jede alternierende Funktion 0: : vn -t 1K identisch Null.

Bezeichnet 7r eine beliebige Permutation 7) der natürlichen Zahlen von 1 bis n und ist sign(7r) ihr Vorzeichen,8) so erhält man aus (1.28)

h(X1f(1),X 1f(2), ..• ,x1f(n») = sign(7r)h(x1,X2, ... ,Xn ). (1.30)

Stellt man nämlich die Reihenfolge 7r(1 )7r(2) ... 7r( n) durch k Vertauschun­gen aus der Reihenfolge 12 ... n her, so bedingt dies k-mal einen Vorzeichen­wechsel, also eine Änderung des Vorzeichens entsprechend sign( 7r) = ( _l)k.

7) Eine Permutation von n (unterscheidbaren!) Elementen ist eine bijektive Abbildung von {I, 2, ... , n} in die Menge dieser Elemente (siehe Anhang),

8) Das Vorzeichen einer Permutation ist +1, wenn die Permutation durch eine gerade Anzahl von Vertauschungen aus der "natürlichen" Reihenfolge 12 ... n hervorgeht, und -1, wenn sie durch eine ungerade Anzahl von Vertauschungen entsteht. Diese Vorzeichendefinition ist sinnvoll, weil eine Permutation entweder nur durch eine gerade oder nur durch eine ungerade Anzahl von Vertauschun­gen aus einer gegebenen Permutation, z.B. der natürlichen Reihenfolge, erzeugt werden kann.

Page 23: Tensoren und Felder || Die linearen Strukturen

1.5 Determinantenfunktionen 23

Eine alternierende Funktion b. : VN ~ IK auf dem N -dimensionalen Vektorraum V heißt eine Determinantenfunktion. Ist ß = {eI, ... ,eN} eine Basis in V, so erhält man für N Vektoren Xi = Lj Xl ej auf Grund der Multilinearität zunächst

N N N

b.(XI,X2, ... ,XN)= L L ... L xf 1 x4 2 ••• Xj.;b.(ejl,ej2,···,ejN)· jl=1 h=l jN=l

Wegen (1.29) liefert die N-fache Summe rechts nur dann einen Beitrag, wenn keine zwei der N voneinander unabhängig von 1 bis N laufenden In­dizes il, ... , iN übereinstimmen, sodaß ein Summand rechts nur dann von Null verschieden sein kann, wenn die Indizes il, ... , iN eine Permutation der natürlichen Zahlen 12 ... N sind. Infolgedessen ist die N-fache Summe rechts in Wirklichkeit eine Summe über alle Permutationen der natürlichen Zahlen 12 ... N; berücksichtigt man noch (1.30), so gelangt man zu

A( ) A( )". () X 7r(1)X 7r(2) X 7r(N) UXl,X2,···,XN = Uel,e2,···,eN L...,.slgn7r 1 2 •.. N .

(1.31 )

Aus dieser Darstellung läßt sich der folgende wichtige Schluß ziehen: Eine nicht-triviale Determinantenfunktion hat genau dann den Wert Null, wenn ihre Argumentvektoren linear abhängig sind. Daß diese Bedingung hinreichend ist, wurde weiter oben schon nachgewiesen; daß sie auch not­wendig ist, zeigt folgende Überlegung. Angenommen, es würde N linear unabhängige Vektoren geben, für die b. den Wert Null hat. Diese Vektoren können, da sie voraussetzungsgemäß linear unabhängig sind, als Basisvek­toren ei in (1.31) fungieren; unter diesen Umständen wäre aber die rechte Seite von (1.31) gleich Null und folglich b.(XI, ... ,XN) = 0 für jedes Vek­torsystem - dann muß aber ~ die triviale Determinantenfunktion sein.

Die Gleichung (1.31) zeigt noch einen weiteren bedeutsamen Sachver­halt auf: Zwei nicht-triviale Determinantenfunktionen ~l und ~2 sind pro­portional, d.h. es gibt eine Konstante A, sodaß

~l = A~2

gilt. Diese Konstante, die durch den Quotienten

A= ~1(el,e2, ... ,eN) b.2(el,e2, ... ,eN)

gegeben ist, hängt nur scheinbar von den Basisvektoren des Vektorraumes ab, denn eine Determinantenfunktion ist eindeutig bestimmt, wenn man ihren Wert auf einer Basis vorgibt. Aus diesem Grund ist auch der Quotient

b.(XI,X2, ... ,XN) _". ()X7r(1)X7r(2) X 7r(N) - L...,. slgn 7r 1 2 . . . N

b.( el, e2, ... , eN) 7r

nur von den Argumentvektoren Xi abhängig; üblicherweise wird er mit dem

Page 24: Tensoren und Felder || Die linearen Strukturen

24 1 Die linearen Strukturen

Determinantensymbol

Xl Xl 1 2

X 2 X 2 1 2

xi" xf belegt.

._ ". () X 7r(l)X 7r(2) X 7r(N) .- L.J slgn 7r 1 2 . . . N

7r

Eine Rechnung, die der Ableitung von (1.31) völlig analog ist, ergibt für eine alternierende Funktion 0 : vn _ IK mit n < dirn V

Xil 1

Xil 2 Xil n

Xh Xh Xh O(Xl,X2' ... 'Xn ) = L

1 2 n o( eil, eh, ... , ein) ,

il <···<in xin

1 xin

2 Xin n

(1.32) worin die Summe über alle Kombinationen 1 :S jl < < jn :S N der Summations-Indizes jl, ... , jn zu erstrecken ist. Die Anzahl der Summan­den in (1.32) ist deshalb der Binomialkoeffizient (~). -

Sei ß eine nicht-triviale Determinantenfunktion in V und T : V - V eine lineare Transformation. Dann ist mit ß auch die Summe

N

ßT(Xl, ... ,XN):= Lß(Xl, ... ,TXi, ... ,XN) i=l

eine Determinantenfunktion auf V. Da zwei Determinantenfunktionen pro­portional sind, gibt es eine Zahl A mit der Eigenschaft ßT = Aß; dieser Proportionalitätsfaktor ist nur von der linearen Transformation Tabhängig und wird die Spur von T genannt, symbolisch SpurT. Somit ist

N

L ß(Xl' ... ' TXi,···, XN) = SpurT ß(Xl,X2, ... ,XN). (1.33) i=l

Man sagt, die Spur einer linearen Transformation ist eine Invariante, und bringt damit zum Ausdruck, daß die Spur allein von der linearen Trans­formation abhängt und nicht etwa von einer Basis, die dem Vektorraum zugrundegelegt ist.

Sind U und T zwei beliebige lineare Transformationen, so gilt

spur(Au+JLT) = ASpurU+JLSpurT, (1.34)

wie aus (1.33) unter Berücksichtigung der Multilinearität emer Determi­nantenfunktion abgeleitet werden kann.

Eine lineare Transformation T : V _ V definiert eine zweite Determi­nantenfunktion,

ß T(Xl,X2, ... , XN) := ß(TXl, TX2, ... , TXN).

Page 25: Tensoren und Felder || Die linearen Strukturen

1.5 Determinantenfunktionen 25

Auch die beiden Determinantenfunktionen ß und ß r sind proportional, der Proportionalitätsfaktor ist wieder nur von der linearen Transformation T abhängig und wird die Determinante von T genannt, symbolisch det T. Es gilt also

ß r (Zl' Z2, ... ,ZN) = det T ß(Zl' Z2, ... ,ZN) beziehungsweise

ß(TZ1, TZ2, ... , TZN) = detT ß(Zl' Z2, ... ,ZN). (1.35)

Wie die Spur ist auch die Determinante einer linearen Transformation eine Invariante. Sind U und T zwei beliebige lineare Transformationen von V, so ergibt sich aus

ß(UTZ1, UTZ2, ... , UTZN) = det U ß(TZ1,TZ2, ... ,TZN)

= det U det T ß( Zl, Z2, ... ,Z N )

= det(UT)ß(Zl,Z2' ... ' ZN)

der Multiplikationssatz für Determinanten,

det( UT) = det U det T . (1.36)

Ist {t{} die Matrix der linearen Transformation T bezüglich einer Basis ß = {e1' ... ' eN}, so erhält man, wenn in (1.33) die Vektoren dieser Basis als Argumente eingesetzt werden,

N N N

Lß(e1, ... ,Tei, ... eN) = LL t{ß(e1, ... ,ej, ... ,eN) i=l i=l j=l

N

= Lt~ß(e1,e2, ... ,eN)' i=l

da die Doppelsumme wegen (1.29) nur für i = j einen Beitrag liefert. In­folgedessen ist

N

spurT = LtL (1.37) i=l

d.h. die Spur einer linearen Transformation ist die Summe der Hauptdiago­nalelemente der Matrix der linearen Transformation T bezüglich einer belie­bigen Basis - bei einem Wechsel der Basis ändert sich wohl die Matrix der linearen Transformation T, nicht aber die Summe der Hauptdiagonalele­mente. Darin kommt wieder zum Ausdruck, daß die Spur einer linearen Transformation eine Invariante ist.

Ähnlich verhält es sich mit der Determinante einer linearen Transfor­mation. Eine den obigen Betrachtungen analoge Rechnung führt zu

tt t~ tkr t~ t~ t~

detT = det{t{} = (1.38)

tf tf

Page 26: Tensoren und Felder || Die linearen Strukturen

26 1 Die linearen Strukturen

Somit ist die Determinante einer linearen Transformation gleich der Deter­minante ihrer Matrix bezüglich irgendeiner Basis, im Einklang damit, daß diese ihren Wert bei einem Basiswechsel nicht ändert.

Die Gleichung (1.35) lehrt, daß eine lineare Transformation genau dann bijektiv ist, wenn det T -=f:. 0 gilt. Da die Elemente der Matrix der identi­schen Transformation'/, = T- 1T auf V - und zwar bezüglich jeder Ba-sis - die Zahlen of in (1.17) sind, ist dett = det{ of} = 1 und deshalb 1 = det T det T- 1 auf Grund des Multiplikationssatzes (1.36), also

1 1 detT- = -d-'

etT

1.6 Orientierte Vektorräume

Eine dem Leser aus der ebenen und räumlichen analytischen Geometrie her vertraute Begriffsbildung ist das "positiv orientierte" kartesische Koordi­natensystem. Einem zweidimensionalen Raum liegt ein positiv orientiertes kartesisches Koordinatensystem zugrunde, wenn der erste Maßvektor durch eine Drehung entgegen dem Uhrzeigersinn in den zweiten übergeführt wer­den kann. Den Drehsinn entgegen der Uhrzeigerdrehung bezeichnet man dabei als "positiv". Im dreidimensionalen Raum spricht man von einem positiv orientierten kartesischen Koordinatensystem, wenn die drei Maß­vektoren in der Reihenfolge, in der sie numeriert sind, ein sogenanntes "Rechtssystem" bilden. Damit ist gemeint, daß eine Drehung des ersten Maßvektors in den zweiten, und zwar um den kleineren Winkel, den die bei­den Vektoren miteinander einschließen, zusammen mit einer Fortbewegung in Richtung des dritten Maßvektors eine Rechtsschraubung ergibt. Ebenso wie der Drehsinn in der Ebene ist diese Forderung willkürlich aus den beiden bestehenden Möglichkeiten - Rechtsschraubung und Linksschraubung -herausgegriffen. Um orientierte Koordinatensysteme in affinen und allge­meineren Räumen einführen zu können, muß der Begriff der "Orientierung" eines Vektorraumes sowie der daraus abgeleitete Begriff der "orientierten Basis" zur Verfügung stehen. Allerdings kommen für eine Orientierung nur solche Vektorräume in Betracht, deren Grundkörper IK "angeordnet", d.h. mit einer Ordnungsstruktur ::; versehen ist. Da der Körper IR der reel­len Zahlen eine solche besitzt, sollen der Einfachheit halber die folgenden Betrachtungen auf reelle Vektorräume beschränkt bleiben.

Auf Grund des Umstandes, daß sich zwei nicht-triviale Determinan­tenfunktionen auf einem reellen Vektorraum V um einen von Null verschie­denen Faktor unterscheiden, können die Determinantenfunktionen auf V in zwei Klassen eingeteilt werden. Nennt man zwei Determinantenfunktionen ß 1 und ß2 äquivalent, wenn ihr Proportionalitätsfaktor positiv ist,

ß 1 == ß 2 {::=> ß 1 = ..\ß2 , ..\ > 0,

Page 27: Tensoren und Felder || Die linearen Strukturen

1.6 Orientierte Vektorräume 27

so ist eine Äquivalenzrelation gegeben, welche die nicht-trivialen Determi­nantenfunktionen auf V in zwei Äquivalenzklassen [ß]o und [ßh einteilt. Man sagt, jede dieser beiden Äquivalenzklassen repräsentiert eine Orien­tierung des Vektorraumes V. Indem man eine Orientierung von V durch Auswahl einer dieser beiden Äquivalenzklassen festlegt, greift man in ent­sprechenden Zusammenhängen stets auf Determinantenfunktionen der die Orientierung repräsentierenden Klasse zurück.

Ist eine Orientierung von V gewählt, so lassen sich jetzt auch die Basen von V in zwei Klassen einteilen. Zwei beliebige Basen B' und B", deren Vektoren durch Gleichungen

N

" "jl ei = L..J a i ej

j=l

miteinander verknüpft sind, bestimmen eine bijektive lineare Transforma­tion T: V ----+ V, durch welchen die Basisvektoren e~ von B' in die Vektoren e~' = Te~ der Basis B" übergeführt werden; die Matrix der Transformation T ist die Transformationsmatrix {ai}. Daher ist nach (1.35) und (1.38)

ß( e~, ... , e~) = det{ a{} ß( e~, ... , e~) für jede Determinantenfunktion ß. Man nennt jetzt zwei Basen B' und B" äquivalent, wenn die Determinante ihrer Transformationsmatrix {ai} positiv ist,

B' == B" {=::} det{ a{} > o. Durch diese Äquivalenzrelation wird die Gesamtheit aller Basen von V in zwei Klassen [B1+ und [B1- eingeteilt, wobei - für eine feste Determi­nantenfunktion ß - das Vorzeichen von ß( e1, ... , eN) für alle Basen aus jeweils einer der beiden Klassen stets dasselbe ist. Ist ß eine orientierungs­gerechte Determinantenfunktion, so sei ß( e1, ... , eN) > 0 für die Basen in [B1+ und ß(e1"" ,eN) < 0 für die Basen in [B1- vereinbart. Die Auswahl einer der beiden Äquivalenzklassen stellt eine Orientierung der Basen in V dar; man nennt die Basen in [B1+ positiv orientiert, die Basen in [B1-negativ orientiert.

Eine Orientierung des Vektorraumes V und seiner Basen ist insofern unvollständig, als der mit V innig zusammenhängende Dualraum V* davon nicht betroffen wird. Es liegt deshalb nahe, mit V auch den Dualraum V* zu orientieren, wofür der Begriff der dualen Determinantenfunktion benötigt wird.

Die Abbildung C : V*N X VN ----+ IR,

(a1,x1) (a 2 ,x1)

c(a1, ... ,aN,x1, ... ,XN) =

Page 28: Tensoren und Felder || Die linearen Strukturen

28 1 Die linearen Strukturen

ist auf Grund der wohlbekannten Determinanteneigenschaften multilinear, schiefsymmetrisch in den ersten N Argumenten o:i und ebenso in den zwei­ten N Argumenten Xi. Daher ist C für jedes System von Linearformen o:i eine Determinantenfunktion auf V. Wenn dann .1. eine beliebige Deter­minantenfunktion auf V ist, so gibt es eine nur von den Linearformen o:i abhängige Zahl JL, sodaß 6 = JLß ist. Da aber 6 für jedes Vektorsystem Xi

auch eine Determinantenfunktion auf V* ist, muß JL als Funktion der Li­nearformen o:i selbst eine Determinantenfunktion auf V* sein. Ist demnach .1.* eine beliebige Determinantenfunktion auf V*, so ist JL = .\.1.* mit einer gewissen Zahl .\ und somit

6(0:1, ... , o:N, Xl, ... , XN) = .\.1.*(0:1, ... , o:N)ß(X1' ... ' XN).

Man nennt zwei Determinantenfunktionen .1.* und .1. dual, wenn ihr Pro­dukt der Gleichung

.1.*( 0:1, ... ,o:N)ß(X1' ... ,XN) = det{ (o:i, xi)} (1.40)

genügt, worin die rechte Seite die Determinante in (1.39) ist. Die zu einer Determinantenfunktion .1. auf V duale Determinantenfunktion .1.* auf V* ist daher durch .1. eindeutig bestimmt; sind nämlich Xl, ... , XN beliebige linear unabhängige Vektoren in V, so ist für

ß*(o:l, ... ,o:N) = .1.( 1 ) det{(o:i, xi)} xl,··· ,XN

zu setzen. Teilt man jetzt die Determinatenfunktionen auf V in zwei Äqui­valenzklassen [.1.]0 und [ßh ein, ebenso die Determinantenfunktionen auf V* in zwei Klassen [.1.*]0 und [ß*h, so bewirkt die Orientierung von V au­tomatisch die Auswahl einer der beiden Äquivalenzklassen für V*, wenn man Begriff der dualen Determinantenfunktion heranzieht. Sind nämlich .1.1 und .1.2 zwei äquivalente Determinantenfunktionen auf V, so liegen auch die eindeutig bestimmten dualen Determinantenfunktionen .1.; und .1.; in ein und derselben Äquivalenzklasse, einerseits wegen .1.2 = .\.1.1, worin .\ > 0 ist, andererseits wegen

det{(o:i, ei)} = ß~(o:l, ... , o:N)ß1(X1' ... ' XN)

= .1.;(0:1, ... , o:n)ß2(X1' ... ' XN)

= .\.1.;(0:1, ... ,o:N)ß1(X1' ... ' XN),

denn aus der letzten dieser Gleichungen folgt in Verbindung mit der ersten

.1.; = .\.1.;.

Dies bedeutet, daß eine Orientierung von V automatisch eine Orientierung von V* induziert.

Ist eine Orientierung für V und damit auch für V* gewählt, so legt eine Orientierung der Basen in V auch eine Orientierung der jeweils dualen Basen in V* fest. Ist z.B. 8 E [8]+ eine Basis für V, so liegt die eindeutig bestimmte duale Basis 8* auch in der Äquivalenzklasse [8*]+, denn wegen

ß*(c;.1, ... ,c;N)ß(e1, ... ,eN) = det{(c;i,ei)} = det{6}} = 1

Page 29: Tensoren und Felder || Die linearen Strukturen

1.7 Euklidische Vektorräume

(vgl. (1.17)) ist mit ß{el, ... ,eN) > 0 auch

ß*{c:.1, ... ,eN ) > 0

und somit B* E [B*J+.

29

Eine Orientierung des Vektorraumes V induziert also eine Orientierung des Dualraumes V*, eine Orientierung der Basen in V legt eine Orientierung der jeweiligen dualen Basen in V* fest. Wenn eine Orientierung für einen Vektorraum benötigt wird und im Zusammenhang damit von einer Deter­minantenfunktion die Rede ist, so ist stillschweigend immer eine orientie­rungsgerechte gemeint; was die Basen anlangt, so wird stets auf gleichartig orientierte zurückgegriffen. Solche sind daran zu erkennen, daß die Deter­minante ihrer Transformationsmatrix positiv ist. Eine die Orientierung des Vektorraumes repräsentierende Determinantenfunktion ist für die Vektoren einer positiv bzw. negativ orientierten Basis nur positiver bzw. negativer Werte fähig.

1. 7 Euklidische Vektorräume

Ein Fundament der analytischen Geometrie ist die Längen- und Winkel­messung. Beiden Maßen, jenem für die Länge eines Vektors und jenem für den Winkel, den zwei Vektoren miteinander einschließen, liegt das innere Produkt zugrunde. Um Längen und Winkel in Punkträumen messen zu können, müssen - in gewissem Sinn "begleitende" - Vektorräume mit der Struktur eines inneren Produktes ausgestattet sein. Da dies zur Vor­aussetzung hat, daß der Grundkörper mit einer Ordnungsrelation versehen ist, sollen im folgenden nur reelle Vektorräume in Betracht gezogen werden.

Sei also V ein endlichdimensionaler reeller Vektorraum. Eine bilineare Funktion cp : V X V --t lR heißt symmetrisch, wenn

cp{z,y) = cp{y,z)

für alle z, y E V gilt; man spricht auch von einer symmetrischen Bilinear­form auf V. Jeder symmetrischen Bilinearform cp ist der Teilraum

A:={zlzEV, VyEV => cp{z,y)=O}

zugeordnet. Als Teilmenge von V ist A -I 0, denn A enthält den Null­vektor o. Sind z, y E A, z E V beliebige Vektoren, so gilt cp{z, z) = 0, cp(y,z) = 0 und folglich cp(.\z + /Ly,z) = .\cp(z,z) + /LCP(Y,z) = 0 für jeden Vektor z E V; also ist auch .\z + /LY E A und daher A ein Teilraum ,"on V. Der Teilraum A heißt AusartungsTaum der Bilinearform cp. Im Falle A = V ist die Bilinearform cp auf V identisch Null - schließt man diesen trivia­len Fall aus, so ist A ein echter Teilraum von V. Enthält A einen linear unabhängigen Vektor, d.h. ist dimA > 0, so heißt die Bilinearform cp aus­geartet, für A = {o} nennt man die Bilinearform cp nicht-ausgeartet. Eine

Page 30: Tensoren und Felder || Die linearen Strukturen

30 1 Die linearen Strukturen

nicht-ausgeartete symmetrische Bilinearform r.p wird ein inneres Produkt in V genannt, symbolisch

(x,y) := r.p(x,y).

Es kann die Gleichung (x, y) = 0 für alle y EV nur bestehen, wenn x = 0 ist.

Durch ein inneres Produkt wird in V eine quadratische Funktion

1/J(x) := (x,x)

definiert. Die Funktion 1/J heißt definit, wenn sie für x -=f. 0 von Null ver­schieden ist und stets dasselbe Vorzeichen hat; ist dieses gleich +1, so nennt man 1/J positiv definit, ist es -1, so heißt 1/J negativ definit. In A b­schwächung der Definitheit nennt man 1/J positiv (bzw. negativ) semidefinit, wenn 1/J ( x) ~ 0 (bzw. 1/J (x) ::; 0) ist. Nimmt die Funktion 1/J beide Vorzei­chen an, so nennt man 1/J indefinit. Sinngemäß ist diese Klassifizierung bei einer Einschränkung von 1/J bzw. r.p auf einen Teilraum U ~ V vorzunehmen.

Ein Vektorraum mit positiv definitem inneren Produkt wird ein eukli­discher Vektorraum genannt ,9) ein Vektorraum mit indefinitem inneren Produkt heißt ein pseudo-euklidischer Vektorraum. Mit dem Symbol E soll künftig darauf hingewiesen werden, daß der in Betracht stehende Vektor­raum euklidisch oder pseudo-euklidisch ist. Sofern nicht die Besonderhei­ten pseudo-euklidischer Vektorräume Gegenstand der Untersuchungen sind, sondern der Vektorraum mit der Struktur des inneren Produktes im Vor­dergrund steht, soll kurz von einem euklidischen Vektorraum die Rede sein.

Ist die quadratische Form 1/J auf einem Teilraum U des euklidischen Vektorraumes E semidefinit, so gilt auf U die sogenannte SchwarzlJche Un­gleichung

x,y EU. (1.41 )

Ist z.B. 1/J auf U ~ t: positiv semidefinit, so gilt für jedes Paar von Vektoren x, y EU

1/J(x + ,Xy) = r.p(x + 'xy,x + ,Xy) = 1/J(x) + 2'x(x,y) + ,X21/J(y) ~ 0

für alle Zahlen ,X E lR. Die Diskriminante des rechterhand stehenden qua­dratischen Polynoms in ,X kann folglich nicht positiv sein. Der Unterschied zwischen definitem und semidefinitem Fall besteht allein darin, daß im de­finiten Fall das Gleichheitszeichen in (1.41) genau dann eintritt, wenn die Vektoren x und y linear abhängig sind, was im semidefiniten Fall nicht zuzutreffen braucht.

Ist die quadratische Form 1/J indefinit, so gilt die Schwarzsehe Unglei­chung (1.41) offensichtlich nicht mehr. -

9) Ist r.p(:1:, y) eine nicht-ausgeartete symmetrische bilineare Funktion und die quadratische Funktion ,p(:1:) = r.p(:1:,:1:) negativ definit, so ist -r.p eine gleichfalls symmetrische und nicht-aus geartete Bilinearform, deren zugeordnete quadrati­sche Funktion jetzt positiv definit ist. Ein inneres Produkt, für das ,p negativ definit ist, kann daher durch bloße Vorzeichenänderung in ein solches mit positiv definiter quadratischer Funktion ,p verwandelt werden.

Page 31: Tensoren und Felder || Die linearen Strukturen

1.7 Euklidische Vektorräume 31

Ein euklidischer Vektorraum E ist auf "natürliche" Weise zu seinem Dualraum E* isomorph. Ist a E E ein fester Vektor, so ist auf Grund der Bilinearität des inneren Produktes die Funktion

o(x):= (a,x) (1.42)

eine Linearform auf E und damit ein Vektor aus E*. Damit ist eine Abbil­dung L: E - E* definiert, die dem Vektor a E E die Linearform 0 = La E E* zuordnet. Diese Abildung ist offensichtlich linear, denn sind a, b E E, so gilt für beliebige Zahlen )., J.L E IR

L().a + J.Lb)( x) = ().a + J.Lb, x) = ).( a, x) + J.L( b, x) = ). La( x) + J.L Lb( x ) . Die Abbildung L ist ferner injektiv, denn wäre La = 0, aber a i- 0, so würde dies wegen

(a, x) = La( x) = o( x) = 0

einen Widerspruch zur Voraussetzung ergeben, daß ein inneres Produkt nicht-ausgeartet ist. Da die Vektorräume E und E* gleiche Dimension ha­ben, ist L auf Grund der Dimensionsbeziehung (1.11) auch surjektiv und damit als bijektive lineare Abbildung ein Isomorphismus. Den Zusammen­hang des inneren Produktes in E mit dem Skalarprodukt der Vektorräume E und E* stellt die Gleichung

(La,x) = (a,x) (1.43)

her. Dieser natürliche Isomorphismus L der Vektorräume E und E* wird noch eine wichtige Rolle spielen.

Das innere Produkt (0,0) in E induziert ein inneres Produkt (0,0)* im Dualraum E* ,

(1.44)

Die zugeordnete quadratische Funktion 'IjJ* hat deshalb dieselben Merkmale wie die quadratische Funktion 'IjJ. Daher sind die Vektorräume E und E* entweder beide euklidisch oder heide pseudo-euklidisch.

Eine lineare Transformation Teines Vektorraumes wird stets von der dualen Transformation T* des Dualraumes begleitet. Handelt es sich dabei um einen euklidischen Vektorraum E, so ergibt die linke Seite von (1.23) für 0 = LY wegen (1.43)

(T*LY,X) = (L-1T*LY,X) ,

die rechte Seite ist das innere Produkt der Vektoren Y und TX. Folglich kann in euklidischen Vektorräumen die Gleichung (1.23) mit Hilfe des natürlichen Isomorphismus L der dualen Vektorräume E und E* in der Form

(L-1T*LY,X) = (y,n)

geschrieben werden. Das Zustandekommen der linearen Transformation L-1T*L veranschaulicht das nachfolgende Diagramm.

V ~ V

·1 1.- 1

V*

Page 32: Tensoren und Felder || Die linearen Strukturen

32 1 Die linearen Strukturen

Eine lineare Transformation T:E --t E heißt zu Jich JelbJt dual oder Jelbstad­jungiert, wenn

gilt und folglich die Gleichung

(TY,X) = (y,TX) (1.45)

für alle Vektoren x, y E E gültig ist. Man nennt dann das obige Diagramm kommutativ. -

Zwei Vektoren x, y E E werden orthogonal genannt, wenn ihr inneres Produkt verschwindet,

(x,y)=o.

Ist U ~ E ein Teilraum von E, so s.tellt Ul.. ~ E jenen Teilraum von E dar, dessen Vektoren allesamt orthogonal zu allen Vektoren aus U sind,

Ul..:={xIXEE, VyEU:::} (x,y)=O}.

Der Teilraum Ul.. heißt orthogonales Komplement von U in E. Es gilt i.a. nur

U+Ul.. ~ E, (1.46)

und zwar ist die Summe U + Ul.. gen au dann ein echter Teilraum von E, wenn der Teilraum U n Ul.. keinen linear unabhängigen Vektor enthält und somit der triviale Teilraum {o} ist. Es ist nämlich einerseits nach (1.6)

dim( U + Ul..) + dirn U n Ul.. = dirn U + dirn Ul.. ,

andererseits nach (1. 7)

dimUl.. = dimE - dimU,

denn die Abbildung q, : EIU X Ul.. --t IR,

q,([x],y) := (x,y),

ist ein Skalarprodukt der Vektorräume EIU und Ul... Der Beweis für diese Behauptung darf dem Leser überlassen werden - er ist analog der Be­weisführung für die Gleichung (1.21) in §4 zu erbringen. Also ist

dim(U + Ul..) + dirn U n Ul.. = dimE

und somit

Ist x E U n Ul.., so ist x als Vektor des Teilraumes Ul.. orthogonal zu allen Vektoren in U, und deshalb, da x ja auch in U enthalten ist, ortho­gonal zu sich selbst, d.h. es ist 1/;(x) = O. Ist E ein euklidischer Vektorraum im eigentlichen Sinn, so kommt aber als Lösung der Gleichung 1/;( x) = 0 wegen der Definitheit von1/; nur x = 0 in Frage. Ist daher U ein beliebiger Teilraum eines im eigentlichen Sinn euklidischen Vektorraumes E, so ist stets

(1.47)

Page 33: Tensoren und Felder || Die linearen Strukturen

1.7 Euklidische Vektorräume 33

Der Teilraum U ist, da auch die Einschränkung von1/; auf U definit ist, selbst wieder ein euklidischer Vektorraum. Für einen pseudo-euklidischen Vektorraum gilt dies uneingeschränkt nicht mehr. Ein Unterraum eines pseudo-euklidischen Vektorraumes ist genau dann euklidisch oder pseudo­euklidisch, wenn die Einschränkung der Bilinearform ,(), die in E ein inneres Produkt ist, auf dem Teilraum U nicht ausgeartet ist. Sinngemäß versteht man unter dem Ausartungsraum der Einschränkung von '() auf den Teilraum U den Unterraum

Au={xlxEU, 'VyEU => '{)(x,y)=O}.

Ist also x E Au, so liegt x einerseits in U, andererseits im orthogonalen Komplement u-L, und deshalb ist Au ~ U n Ul... Umgekehrt ist ein Vektor in U n Ul.. zu allen Vektoren in U orthogonal und folglich, da er auch in U enthalten ist, ein Vektor des Ausartungsraumes, sodaß U n Ul.. ~ Au gelten muß. Da dies aber nur dann möglich ist, wenn

Au = Un Ul..

gilt, ist bewiesen: ein Teilraum U ~ E eines pseudo-euklidischen Vektor­raumes ist genau dann pseudo-euklidisch, wenn U n Ul.. = {o} bzw. (1.47) gilt. Der Unterraum U kann dann durchaus ein euklidischer Teilraum im eigentlichen Sinn sein.

In einem euklidischen Vektorraum ist nur der Nullvektor zu sich selbst orthogonal. In einem pseudo-euklidischen Vektorraum gibt es wenigstens einen Vektor x+ mit 1/;(x+) > 0, wenigstens einen Vektor;c- mit 1/;(x-) < 0 und wenigstens einen Vektor X o -=I 0 mit 1/;(xo ) = O. Aus der Anwendung pseudo-euklidischer Vektorräume in der speziellen und allgemeinen Relati­vitätstheorie stammen folgende Bezeichnungen: ein Vektor x E E, x -=I 0,

heißt

- zeitartig, wenn 1/;(;c) > 0,

- lichtartig, wenn 1/;(;c) = 0 und

- raum artig, wenn 1/;(;c) < 0 ist.

Die besondere Struktur pseudo-euklidischer Vektorräume zeigt sich nun in folgendem

Satz. Ein pseudo-euklidischer Vektorraum E kann in zwei Teilräume E+ und E_, deren direkte Summe E ist, zerlegt werden,

(1.48)

Darin ist stets 1/;(;c) > 0 für x E E+ und 1/;( x) < 0 für x E E_ und x -=I o. Die Darstellung (1.48) ist nicht eindeutig; ist durch zwei Teilräume E~ und E~ eine zweite Zerlegung dieser Art gegeben, so gilt aber

dirn E+ = dirn E~ dirn E_ = dirn E~ .

Da die Dimensionen der Vektorräume E+ und E_ bei jeder derartigen Zerlegung gleich sind, hängt dirn E+ und dirn E_ nur vom inneren Produkt

Page 34: Tensoren und Felder || Die linearen Strukturen

34 1 Die linearen Strukturen

in E ab. Die natürliche Zahl r = dirn E+ heißt der Indez des inneren Produktes bzw. kurz des pseudo-euklidischen Vektorraumes E, die Differenz II = dirn E+ - dirn E_ wird die Signatur genannt.

Da die quadratische Form 'IjJ indefinit ist, gibt es einen Vektor x+ E E mit 'IjJ( x+) > 0; die lineare Hülle des Vektors x+ bildet somit einen ein­dimensionalen Unterraum von E derart, daß 'IjJ auf (x+) positiv definit ist. Es gibt folglich einen (x+) enthaltenden Teilraum E+ in E mit maximaler Dimension, sodaß 'IjJ positiv definit ist auf E+. Sei dann E_ = E~ das orthogonale Komplement von E+ in E. Dann ist zunächst E+ n E_ = {o}. Enthielte nämlich E+ n E_ einen vom Nullvektor verschiedenen Vektor xo ,

so gilt wegen X o E E+ einerseits 'IjJ(x o ) > 0, andererseits (xo,y) = 0 für alle y E E_, also auch für y = X o ; daher müßte 'IjJ(xo ) = 0 sein, ein Widerspruch, der nur durch X o = 0 aufgelöst werden kann. Also ist nach (1.47) die Summe in (1.48) direkt.

Es bleibt zu zeigen, daß 'IjJ( x) < 0 für x E E_ und x#-o ist. Um den Nachweis hiefür zu erbringen, sei in indirekter Beweisführung zunächst an­genommen, daß ein Vektor X o E E_ existiert, für den 'IjJ(x o ) > 0 ist. Dieser Vektor kann dann nicht in E+ enthalten sein, da, wie eben gezeigt wurde, diese beiden Teilräume nur den Nullvektor gemeinsam haben. Folglich wäre (xo ) $ E+ ein Teilraum von E, auf welchem die quadratische Form'IjJ positiv definit ist. Man sieht dies durch folgende Überlegung. Ist y E (xo ) $ E+ ein beliebiger Vektor, so läßt sich dieser eindeutig in der Form y = JLX o + Z mit einem gewissen Vektor Z E E+ zerlegen; dabei ist (xo,z) = 0 wegen X o E L. Infolgedessen muß gelten

1jJ(y) = (JLX o + z, JLX o + z) = JL21jJ( x o ) + 2JL( X O , z) + 1jJ( z) = JL21jJ( x o ) + 1jJ( z) > o. Dann kann aber E+ kein Teilraum mit maximaler Dimension sein, auf dem die quadratische Funktion 1jJ positiv definit ist, es muß 1jJ(x) ::; 0 für xE E_ gelten. Wäre nun für einen gewissen Vektor X o E L, X O #- 0 die Gleichung 'IjJ(x o ) = 0 erfüllt, so hätte dies zur Folge, indem man die Schwarzsehe Ungleichung (1.41), die ja wegen 1jJ(x) ::; 0 für x E E_ auf dem Teilraum E_ angewendet werden kann, daß die Ungleichung

(x o ,y)2 ::; 1/J(xo )1/J(Y) = 0

für alle y E E_ gültig ist. Da von vornherein (xo , y) = 0 für alle y E E+ gilt, müßte dann (xo , y) = 0 für alle y E E gelten, was im Widerspruch dazu steht, daß das innere Produkt in E nicht ausgeartet ist. Also ist die quadratische Form 1/J negativ definit auf L und die Existenz der Zerlegung (1.48) bewiesen.

Um den zweiten Teil der Behauptung zu beweisen, sei E = eine beliebige andere Zerlegung dieser Art. Klarerweise ist

E~ n E_ = {o}, E+ n E~ = {o}.

E' $E' + -

Die direkten Summen E: $ E_ und E+ $ E~ sind Teilräume von E; es gilt daher einerseits

dirn E: + dirn E_ ::; dirn E , dirn E+ + dirn E~ ::; dirn E ,

Page 35: Tensoren und Felder || Die linearen Strukturen

1.7 Euklidische Vektorräume 35

andererseits aber auch

dirn t:+ + dirn t:_ = dirn t: = dirn t:: + dirn t:~ ;

diese Gleichungen sind mit den beiden obigen Ungleichungen aber nur dann verträglich, wenn die Beziehungen

dirn t:: = dirn t:+ , dirn t:~ = dirn t:_

bestehen. -

Ist t: ein N-dirnensionaler euklidischer Vektorraum, so heißt Beine orthogonale Basis, wenn die Vektoren Xi dieser Basis paarweise orthogonal sind,

Ist t: ein euklidischer Vektorraum im eigentlichen Sinn, so kann man von einer orthogonalen Basis durch die Setzungen

Xi E' - -----:== ,- J?j;(xd'

i = 1,2, ... ,N,

zu einer orthonormalen Basis übergehen; eine orthonormale Basis liegt vor, wenn die Vektoren Ei dieser Basis die Gleichungen

{ I füri=j (Ei,Ej) = Oij = 0 für i f=. j

erfüllen. Ist {Y1, . .. ,YN} ein System linear unabhängiger Vektoren und so­mit auch eine Basis, so kann durch ein Orthogonalisierungsverfahren aus diesen Vektoren eine orthogonale Basis B = {Xl, . •• ,X N} hergestellt wer­den. Hiefür setzt man Xl = Yl und unterwirft, nachdem man die paarweise orthogonalen Vektoren Xl, ••. , Xi-l bereits bestimmt hat, den Vektor

Xi = lXi1Xl + lXi2X2 + ... + lXii-1Xi-1 + Yi (1.49)

den Orthogonalitätsbedingungen (Xi, Xj) = 0 für j = 1, 2, ... , i-I; auf diese Weise erhält man die Koeffizienten

(Xi,Xj) lXij = - für j = 1,2, ... ,i - 1 .

(Xj,Xj)

In pseudo-euklidischen Vektorräumen ist mit Rücksicht auf die Inde­finitheit der quadratischen Funktion ?j; etwas anders vorzugehen. N ach­dem man eine Zerlegung von t: entsprechend (1.48) vorgenommen hat, wählt man Basisvektoren Y1, Y2, ... , Yr - darin ist r der Index des pseudo-euklidischen Vektorraumes - für den Teilraum t:+ und Basisvekto­ren Yr+l, ... , YN für den Teilraum L. Da das Orthogonalisierungsverfah­ren (1.49), angewendet auf die Vektoren Yl, Y2, ... , Yr, aus dem Teilraum t:+ nicht hinausführt, kann von diesen Vektoren zu einer orthogonalen Basis {Xl, ••. ,Xr } von t:+ übergegangen werden; ebenso kann aus den Basisvekto­ren Yr+ 1, ... , YN des Teilraumes t:_ eine orthogonale Basis {X r+ 1, ... , X N }

Page 36: Tensoren und Felder || Die linearen Strukturen

36 1 Die linearen Strukturen

für E_ erzeugt werden. Auf Grund der Konstruktion von E_ als orthogona­les Komplement des Teilraums E+ bilden jetzt die Vektoren Xl, X2, ••. , XN

eine orthogonale Basis von E. Geht man nun in E+ zu den Vektoren Xi

e· - ---:== t - J'IjJ(xd'

i=1,2, ... ,r,

und wegen 'IjJ( xd < 0 in E_ zu den Vektoren

i=r+1, ... ,N,

über, so erhält man eine Basis von E, für welche

( ei, ei) = T/i oii ,

gilt, wenn darin für

. _ { 1 für i = 1,2, ... , r 17. - 1 f'" 1 N - urz=r+ , ... ,

(1.50)

gesetzt wird. Eine solche Basis wird eine orthonormale Basis des pseudo­euklidischen Vektorraumes E genannt. Nachdem es auf die Numerierung der Basisvektoren nicht ankommt, heißt jede Basis eine orthonormale Basis von E, wenn ihre Vektoren ei Gleichungen der Art (1.50) genügen, worin die Zahlen 17i = ±1 sind. Ist r der Index von E, so sind stets r dieser Zahlen gleich +1, die übrigen N - r sind gleich -1. In diesbezüglichen Zusam­menhängen ist der Spezialfall des eigentlichen euklidischen Vektorraumes für r = N enthalten. -

Seien jetzt B = {eI, e2, ... ,eN} und B* = {cl, c2 , ... , cN } duale Basen in E und E*,

(vgl (1.17)). Der natürliche Isomorphismus t: E _ E* bestimmt zwei sym­metrische Matrizen {9ii} und {gii} mit den Elementen,

(1.51 )

(vgl. (1.43)) und

gii = ci(t-1ci) = (ci,t-1ci) = (t-1ci,t-1ci) = (ci,ci )*. (1.52)

Darin wird für beide Matrizen dasselbe Buchstabensymbol - 9 - ver­wendet, unterschieden werden diese Matrizen durch die obere bzw. untere Stellung der Spalten- und Zeilenindizes. Aus den Orthogonalitätsbeding­ungen (1.17) folgt

N N N

(tei,ei) = L:(tei,el)(cl,ei) = \L:(tei,el)cl,ei) = \L:giICI,ei)

und daraus

1=1 1=1 1=1

N

Lei = L: 9iici . i=l

(1.53)

Page 37: Tensoren und Felder || Die linearen Strukturen

1.7 Euklidische Vektorräume 37

Eine analoge Rechnung

N N N

(c i , L -1 ci) = L (c k , L -1 ci ) ( ci , e k) = ( ci, L (c k , L -1 ci ) e k ) = ( ci , L gi k e k )

k=l k=l k=l

zeigt den Zusammenhang

N 1· " .. L- C· = L..Jg·'ei (1.54)

i=l

auf. Mit Hilfe der Orthogonalitätsbedingungen (1.17) findet man weiter

.i (i ) (-1 i ) (i ) Vi = c, ei = L c, ei = c, Lei * N N N

" ik "i k " ik =L..Jg (ek,ei)=L..Jgik(c,c t=L..Jgik9 , k=l k=l k=l

woraus folgt, daß die Matrizen {9ii} und {gii} zueinander invers sind,

N

" ik i L..J gikg = hi . (1.55) k=l

Ist nun x = l:i Xi ei E C ein beliebiger Vektor, so erhält man aus den Gleichungen (1.53) unter Berücksichtigung der Symmetrien

N N N N N

LX = LXiLei = LXi Lgiici = L(LgiiXi)ci . i=l i=l i=l i=l i=l

Setzt man für N

Xi = LgiiXi , i=l

so ist das Bild des Vektors x unter dem Isomorphismus L der Vektor

N

LX = LXici. i=l

(1.56)

(1.57)

Man nennt die Größen Xi mit hochgestelltem Index die kontravarianten Koordinaten, die Größen Xi mit tiefgestelltem Index die kovarianten Ko­ordinaten des Vektors x E c. Multipliziert man die Gleichungen (1.56) mit gi k und summiert über den Index j auf, so erhält man unter Berücksichti­gung von (1.55) und den Symmetrieeigenschaften der Matrizen {9ii} und {gii}

N N N N N N

"Ok "" °k . "(" Ok)· "k . L..J g' Xi = L..J L..J g' giiX~ = L..J L..J giig' X· = L..J hi X· °

i=l i=l i=l i=l i=l k=l

Page 38: Tensoren und Felder || Die linearen Strukturen

38 1 Die linearen Strukturen

Also beschreiben die Gleichungen

N

Xi = L9iiXi i=l

(1.58)

den Übergang von den kovarianten zu den kontravarianten Koordinaten. Aus den Beziehungen

N N

(ei'x) = (tej,x) = \Lej,LXkek) = LXk(tei,ek) k=l k=l

und N N

(gi,x) = \gi, LXkek) = L Xk(gi, ek) k=l k=l

ergeben sich mit (1.17), (1.51) und (1.56) schließlich die Zusammenhänge

x· - (e· x) J - J' (1.59)

und Xi = (gi, x) . (1.60)

In Abb. 1.1 sind die kontravarianten und kovarianten Koordinaten eines Vektors veranschaulicht. Zwischen ihnen ist begrifflich streng zu unterschei­

den. Genau genommen sind die kontravarianten Koordinaten eines Vektors x seine Koordinaten - im Sinne von Koeffizienten einer Linearkombi­nation der Basisvektoren - bezüglich einer Basis B, die kovarianten Koordinaten hingegen sind die Koordinaten des Vektors LX in Bezug auf die zu B duale Basis B*, wie die Gleichung (1.57) zeigt. Indem man von den kontravarianten Koordina­ten Xi und den kovarianten Koordinaten Xi ei­nes Vektors spricht, identifiziert man die beiden Vektoren x E E und LX E E* im Sinne einer Fa-

Abb. 1.1 milie zweier durch den Isomorphismus L "assozi-ierter Vektoren". Innerhalb dieser zweigliedrigen

Familie unterscheidet man aber, indem man vom kontravarianten Vektor x und vom kovarianten Vektor LX spricht.

Die kontravarianten Koordinaten Xi eines beliebigen Vektors x E E stimmen mit den kovarianten Koordinaten Xi genau dann überein, wenn

9ii = (ei, ei) = bii

gilt, was voraussetzt, daß E ein euklidischer auf eine orthonormale Ba­sis bezogener Vektorraum ist. In einem euklidischen Vektorraum kann also die Unterscheidung zwischen kontravarianten und kovarianten Koordinaten entfallen, wenn man sich auf orthonormale Basen beschränkt. Für einen pseudo-euklidischen Vektorraum gilt dies aber nicht mehr, selbst wenn eine

Page 39: Tensoren und Felder || Die linearen Strukturen

1.7 Euklidische Vektorräume 39

orthonormale Basis zugrundegelegt wird. Die Matrix {gij} hat dann zwar Diagonalgestalt - wie stets, wenn die Basis orthogonal ist -, die Ele­mente in der Hauptdiagonale aber sind +1 und -1, wobei die Anzahl der Elemente, welche gleich +1 sind, durch den Index des inneren Produktes vorgegeben und für jede orthonormale Basis dieselbe ist.

Ist ß eine orthogonale Basis in [, so ist die duale Basis ß* eine ortho­gonale Basis in [*. Die Orthogonalität der Basis ß bedingt, daß die Matrix {gij} Diagonalgestalt hat, weshalb auch ihre Inverse {gi j } Diagonalgestalt hat. Dies wiederum bedeutet

(c: i , c: j )* = gi j = 0 für i =I- j .

Die Beziehungen zwischen den kontravarianten und kovarianten Koordina­ten eines Vektors vereinfachen sich dann zu

und X i iiX = 9 i, (1.61 )

denn aus den Gleichungen (1.55) folgt giigii = 1, da beide Matrizen Dia­gonalgestalt haben. Für eine orthonormale Basis ß gilt 19ii I = 1, weshalb dann auch die duale Basis ß* eine orthonormale Basis in [* ist.

Die Forderung, daß ein inneres Produkt nicht-ausgeartet ist, bedingt die Regularität der Matrizen {gij} und {gi j }, daß sie symmetrisch sind, ist eine Konsequenz aus der Symmetrie des inneren Produktes. Beide Matrizen haben wegen ihrer Regularität und ihrer Symmetrie nur von Null verschie­dene reelle Eigenwerte. Diese sind, was ihre Zahlenwerte anlangt, von der Wahl der Basis abhängig, aber die Anzahl der positiven und negativen Ei­genwerte wird vom Indez des inneren Produktes bestimmt und ist daher in jeder Basis dieselbe. Als symmetrische Matrix hat {gij} insbesondere or­thogonale Eigenvektoren xt, X~, ... , Xiv zu den reellen Eigenwerten }.1,

'\2, ... , .\N,

Setzt man

N

L 9ijxt = }.kX~ , j=l

N

N

L xtxl = { TJk > ~ , j=l '

ek = LXtej, k=1,2, ... ,N, j=l

so ist die Basis f3 = {eI, e2 , ... , e N} orthogonal,

N N N

k = l, k=l-1.

(ek,e!) = L X~Xl(ei,ej) = L X~Xlgij =}./ Lx~xf = 0, k =1-1. i,j=l i,j=l i=l

Wegen

und TJk > 0 müssen daher genau r Eigenwerte der Matrix {gij} positiv sein, wenn r der Index des inneren Produktes ist.

Page 40: Tensoren und Felder || Die linearen Strukturen

40 1 Die linearen Strukturen

Im Zusammenhang mit orthonormalen Basen sei für alles Folgende die Symbolik

. .. .. 1 1 "'i = (ei,ed = gii, ",' = (c',c')* = g" = - = - ="'i (1.62) gii "'i

vereinbart. Numeriert man die Vektoren einer Basis immer so, daß die inneren Produkte der ersten r Vektoren positiv sind, so gilt iji = "'i bei einem Basiswechsel ß ---t ß.

Bildet man das innere Produkt zweier Vektoren x und y mit den (kon­travarianten) Koordinaten Xi und yi bezüglich einer Basis ß in [, so erhält man mit (1.51)

N N N N

(x,y) = (LXiei'Lyjej) L Xiyj(ei,ej) = L 9ijXiyj. i=l j=l i,j=l i,j=l

(1.63) Indem man die Summe über den Index i mit Hilfe von (1.56) auswertet, wird daraus

N

(x,y) = LXjyj. (1.64) j=l

Andere Formen der Darstellung des inneren Produktes, die man alle mit Hilfe der Umrechnungsformeln (1.56) und (1.58) erhält, sind

N N N N

(x,y) = LXiYi = LYiLgijXj = L /jXjYi. (1.65) i=l i=l j=l i,j=l

Bei einem Basiswechsel (1.24) in [ und [* ändern sich die kontravari­anten und die kovarianten Koordinaten eines Vektors. Aus den Gleichungen

N N N N

x = LXiei = L a{Xiej = LXiei = L a{Xiej i=l i,j=l i=l i,j=l

(vgl. (1.24) und (1.26)) lassen sich die Transformationsformeln für die kon­travarianten Koordinaten leicht ablesen,

N

xj = La1Xi. (1.66) i=l i=l

Um das Transformationsgesetz für die kovarianten Koordinaten herzustel­len, ist von den Darstellungen

N N N N

LX = L xjcj = L a{Xj[i = L Xi[i = L Xia}c j j=l i,j=l i=l i,j=l

auszugehen, N N

X j = La}Xi' Xj = La}Xi. (1.67) i=l i=l

Page 41: Tensoren und Felder || Die linearen Strukturen

1.7 Euklidische Vektorräume 41

Bei einem Basiswechsel in E und E* ändern sich auch die Elemente der Matrizen {gij} und {gi j }. Setzt man aus (1.24) und (1.26) in (1.51) ein, so erhält man

N N

Yij = (ei,ej) = L a:a~(ek,el) = L a:a~gkl j (1.68) k,l=l k,l=l

in der Matrizensymbolik10) schreiben sich diese Gleichungen in der Form

{Yij} = {a{} t . {gij} . {a{} , (1.69)

worin mit dem hochgestellten Zeichen t das Transponieren von Matrizen angedeutet wird. Analog transformiert sich die Matrix {gi j },

N N

-ij (-i -j) '" vi V j ( k ') '" vi vj kl 9 = e ,e * = L...J aka, e ,e * = L...J aka,g , (1.70) k,l=l k,l=l

beziehungsweise (1.71)

Aus diesen Transformationsformeln ergibt sich das wichtige Transforma­tionsgesetz für die Determinante der Matrix {gij}. Da die Determinanten­bildung mit dem Transponieren einer Matrix vertauschbar ist, liefert der Multiplikationssatz für Determinanten aus der Gleichung (1.69)

det{Yij} = (det{ a{})2 det{gij} . (1. 72)

Die Determinante der Matrix {gij} hat in jeder Basis dasselbe Vorzeichen, entsprechend dem Umstand, daß die Determinante einer Matrix das Pro­dukt ihrer Eigenwerte ist, von denen im gegenständlichen Fall stets r positiv und die übrigen N - r negativ sind. In einem pseudo-euklidischen Vektor­raum [ ist deshalb in alleiniger Abhängigkeit vom Index r des inneren Produktes stets

sign(det{gij}) = (_l)N-r.

Liegt speziell eine orthonormale Basis zugrunde, so ist

det{gij} = TllTl2 ... TIN = (_l)N-r .

(1.73)

Eine besondere Rolle spielen pseudo-euklidische Vektorräume [ mit dem Index r = 1. Ist speziell dim [ = 4, so wird [ ein Lorentz-Raum genannt und symbolisch mit C} bezeichnet. Die Vektoren eines Lorentz-Raumes werden auch Vierer- Vektoren genannt. Es ist üblich, die Koordinaten mit 0,1,2,3 zu indizieren und dementsprechend auch die Basisvektoren zu numerieren.

Ist eo, e1 , e2, ea eine orthonormale Basis des C4 ,

gij = (ei, ej) = 1/j Dij , 1/0 = 1, 1/1 = 1/2 = 1/a = -1 , (1.74)

10) Der obere Index im Matrix-Symbol {a{} kennzeichnet die Zeilennummer , der untere die Spaltennummer . Sind beide Indizes tiefgestellt wie in {aij} oder beide hochgestellt, so steht der erste Index für die Zeilen nummer , der zweite für die Spaltennummer .

Page 42: Tensoren und Felder || Die linearen Strukturen

42 1 Die linearen Strukturen

so ist gij = gi j , die beiden Matrizen mit den Elementen gij und gi j haben Dia­gonalgestalt ,

(1 0 0

ij 0 -1 0 {gij} = {g } = 0 0-1

000 ~) .

-1

(1.75)

Sind Xo, Xl , X 2 , X 3 die kontravarianten Koordinaten des Vektors z E r.4 , so sind

Xo = Xo, Xi = _Xi, i = 1,2,3,

die kovarianten Koordinaten des Vektors z (vgl. (1.61)). Das innere Produkt zweier Vektoren z, y E r.4 ist nach (1.63) bzw. (1.64) bzw. (1.65)

(z,y) = Xoyo + Xlyl + X2y2 + X3Y3

= X°Yo + Xll'i. + X 2 }2 + X 3 }3

= XOyo _ Xlyl _ X 2 y 2 _ X 3 y 3

= Xoyo - Xll'i. - X 2Y2 - X3Y3.

Ist t: ein euklidischer Vektorraum, so nennt man eine lineare Transfor­mation r : t: ---t t: mit der Eigenschaft

(TX,ry) = (x,y) (1.76) ein orthogonale Transformation; ist t: pseudo-euklidisch, so spricht man von einer p/Jeudo-euklidi/Jchen Drehung.

Eine orthogonale Transformation in t: ist bijektiv. Wäre nämlich rxo = 0 für Xo =I- 0, so müßte 0 = (TXo,ry) = (xo,y) für alle y E t: gelten, was aber nicht möglich ist, da das innere Produkt in t: nicht-ausgeartet ist. Daher ist eine orthogonale Transformation injektiv und wegen (1.11) auch surjektiv. Das Bild einer Basis unter einer orthogonalen Transformation ist daher wieder eine Basis; insbesondere werden die Vektoren ei einer or­thogonalen bzw. orthonormalen Basis auf orthogonale bzw. orthonormale Basisvektoren ei = rei abgebildet.

Sind (1', r : t: ---t t: zwei orthogonale Transformationen, so ist auch die Zusammensetzung (1'r eine orthogonale Transformation,

( (1'TX, (1'ry) = (TX, ry) = (x, y) . Da die Zusammensetzung von Funktionen assoziativ ist, bilden die orthogo­nalen Transformationen bzw. die pseudo-euklidischen Drehungen bezüglich der Hintereinanderausführung eine Gruppe; das neutrale Element dieser Gruppe ist die identische Transformation, welche trivialerweise orthogonal ist.

Eine orthogonale Transformation r: [4 ---t [4 des Lorentz-Raumes [4

heißt auch eine Lorentz- Tran/Jformation.

Ist {t{} die Matrix einer orthogonalen Transformation, so folgt aus (1.76) für x = ei, Y = ej mit der üblichen Bedeutung für das 6-Symbol

N N

6ij = (ei,ej) = (rei,rej) = L: t;t;(ek,e!) = L:t;tj. (1.77) k,l=l k=l

Page 43: Tensoren und Felder || Die linearen Strukturen

1.7 Euklidische Vektorräume 43

In der Matrizensymbolik schreibt sich diese Gleichung in der Form

{t{} . {t{}t = {ot} bzw. {t{}t = {t{} -1,

d.h. die Inverse der Matrix {t{} ist gleich ihrer Transponierten, was sich mit Hilfe der Matrixelemente durch

vj i t· = t· . ] (1.78)

ausdrücken läßt, wenn die Zahlen l{ die Elemente der Inversen sind. Eine solche Matrix heißt orthogonal. Eine pseudo-euklidische Drehung T führt die Vektoren ei einer orthonormalen Basis in die Vektoren ei = Tei einer gleichfalls orthonormalen Basis über. Wegen

ijiOij = (ei,ej) = (ei,ej) = T/iOij

gilt dabei iji = 'f/i, an die Stelle der Gleichung (1.77) tritt jetzt

N

'f/iOij = L t;tj'f/k , k=l

d.h. die Größen (1.79)

sind die Elemente der Inversen {l{} der Transformationsmatrix {t1}.

Ist ein pseudo-euklidischer Vektorraum E entsprechend (1.48) in zwei Teilräume E+ und E_ zerlegt, so führt eine pseudo-euklidische Drehung T : E ~ E zu einer zweiten Zerlegung dieser Art,

(1.80)

Ist nämlich x E Te+, so ist x = TY mit Y E e+ und folglich 1/I{x) = 1/I{TY) = 1/I(Y) > Oj ebenso ist 1/I(x) < 0 für xE TE_. Daher ist TE+ n TL = {o}. Ist x E Te+, y E TL, so folgt mit x = TU, U E E+ und y = TV, V E E_ wegen (x,y) = (u,v) die Orthogonalität der Vektoren x und y, wenn e+ = e-:-und L = e:;: istj dann ist auch Te+ = (TE_)~ und TE_ = (Te+)~. Ist schließlich x E E, so gibt es genau einen Vektor y E e mit x = TYj für diesen besteht die eindeutige Darstellung y = y+ + y_ mit y+ E e+ und y E E_. Folglich ist x = TY+ + TY_, d.h. der Vektorraum E ist die Summe der Teilräume TE+ und TE_. Damit ist (1.80) bewiesen.

Sind E' und Eil zwei euklidische Räume, so heißt eine lineare Abbildung T: E' ~ Eil eine Isometrie oder isometrische Abbildung, wenn für x, y E E' stets

(TX, TY) = (x, y) (1.81 )

gilt. Darin steht auf der linken Seite das innere Produkt in Eil, auf der rechten Seite das innere Produkt in E'.

Jede Isometrie ist ein Isomorphismus.

Page 44: Tensoren und Felder || Die linearen Strukturen

44 1 Die linearen Strukturen

Im dreidimensionalen euklidischen Vektorraum erhält man beim Übergang von einer orthonormalen Basis e1, e2, e3 auf eine ebenfalls orthonormale Basis e1 , e2 ,e3 die Transformationsformeln

Xl = Xl cos a - X 2 sin a,

X 2 = Xl sin a + X 2 cos a ,

X 3 = X3 ,

wenn e3 = e3 ist, d.h. wenn eine Drehung um die 3-Achse angenommen wird; dabei ist ader Drehwinkel. Im pseudo-euklidischen Lorentz-Raum C4 erhält man beim Übergang von einer orthonormalen Basis eo, e1, e2 ,e3 auf die orthonormale Basis eo, e1, e2, e3, bei welchem die Koordinaten bezüglich der 2- und 3-Achse unverändert bleiben,

XO = XO cosh'T + Xl sinh'T,

Xl = XO sinh 'T + Xl cosh'T,

X 2 = X 2 ,

X 3 = X 3 •

(1.82)

Dabei wurde - im Einklang mit (1.80) - davon ausgegangen, daß die Vektoren der Basis Beine Zerlegung des C4 entsprechend (1.48) bestimmen, wobei der Ba­sisvektor eo den Teilraum c~ bestimmt, während die übrigen drei Basisvektoren den Teilraum C:. aufspannen. Da das innere Produkt von einem Basiswechsel nicht berührt wird, gilt

XOyo _ X 1y 1 _ X 2 y2 _ X 3y3 = XOyo _ X 1y1 _ X 2y 2 _ X 3y 3 ,

also XOyo _ X 1y1 = XOyo _ X 1y1 .

Zieht man jetzt die Gleichungen (1.66) heran, durch welche die kontravarianten Koordinaten eines Vektors in zwei beliebigen Basen in Zusammenhang gebracht werden, und macht man für die Transformationsmatrix {a1} den Ansatz

so erhält man zunächst

o o 1 o

(z,y) = XOyo _ X 1y 1 _ X 2 y 2 _ X 3y 3 0-0 0-1 0-0 0-1 1-0 1-1 1-0 1-1

= (aoX + a1 X )(aoY + a1 y ) - (aoX + a1X )(aoY + a1 y ) _ X 2 y2 _ X 3y3

[(ag)2 _ (a~)2lXOyO _ [(a~)2 _ (a~)2lX1y1 0011-0-10011-1-0 -2-2 -3-3 + (aOal - aoadX y + (alaO - a1aO)X y - X Y - X Y

= XOyO _ X 1y1 _ X 2y2 _ X 3y3

und daraus durch Vergleich

(ag)2 _ (a~)2 = 1, (a~/ - (an2 = 1, aga~ - a~a~ = O.

Diese drei Gleichungen werden durch die Setzungen

ag = cosh'T , a~ = sinh'T = a~, a~ = cosh'T ,

erfüllt, in denen 'T ein beliebiger reeller Parameter ist.

Page 45: Tensoren und Felder || Die linearen Strukturen

1.8 Übungs beispiele 45

1.8 Übungsbeispiele

1. Man zeige, daß die Menge lR N aller geordneten N -Tupel mit der Addition

(Xl, ... ,XN) + (Yl,···,YN):= (Xl +Yl, ... ,XN +YN)

und der Multiplikation

A(Xl, ... ,XN):= (AX1, ... ,AXN)

ein reeller N -dimensionaler Vektorraum ist.

2. Die Menge aller (reellen bzw. komplexen) Matrizen mit m Zeilen und n Spalten bildet bezüglich Addition von Matrizen und der Multiplikation von Matrizen mit Zahlen (aus lR bzw. C) einen (reellen bzw. komplexen) Vektorraum M~.

3. Die Gesamtheit aller auf einem Intervall I der Zahlengeraden stetigen re­ellen Funktionen bildet mit den üblichen Operationen mit Funktionen (Ad­dition und Multiplikation mit reellen Zahlen) einen reellen Vektorraum, der gewöhnlich mit C(I) bezeichnet wird. Worauf stützt sich diese Aussage?

4. Die Gesamtheit aller auf einem Intervall I n-mal differenzierbaren reellen Funktionen mit auf I stetiger n-ter Ableitung bildet einen reellen Vektor­raum, der mit cn(I) bezeichnet wird. Worauf stützt sich diese Behaup­tung?

5. Welche der folgenden Vektorsysteme des lR3 sind linear abhängig, welche linear unabhängig?

(i) S = {(1,2,3),(4,5,6),(7,8,9)}

(ii) S = {(1,0,-1),(1,-1,0),(0,-1,1),(1,1,1)}

(iii) S = {(1,1,1),(0,1,1),(0,0,1)}

(iv) S = {(I, 1, 0), (1, 2, 3)}

6. Handelt es sich bei den folgenden Vektorsystemen

(i) S = {(1,1,2),(1,-1,1),(1,0,1),(2,1,2)}

(ü) S = {(1,2,3),(4,5,6),(7,8,9),(5,7,9),(2,2,2)}

um Erzeugendensysteme für den Vektorraum lR3 ?

7. Man zeige, daß die Menge aller Polynome mit reellen Koeffizienten und maximalem Grad N - 1 ein reeller N-dimensionaler Vektorraum ist, wenn die Addition und die Multiplikation mit Zahlen auf die übliche Weise für re­ellwertige Funktionen erklärt ist. Man gebe eine Basis dieses Vektorraumes an!

8. Sei M~ der Vektorraum der Matrizen von Bsp. 2. Was ist die Dimension dieses Vektorraumes? Man gebe eine Basis an!

Page 46: Tensoren und Felder || Die linearen Strukturen

46 1 Die linearen Strukturen

9. Sei M~ der Vektorraum der quadratischen n-reihigen Matrizen mit reel­len Elementen. Man bilde alle symmetrischen Matrizen A, deren Elemente Null sind bis auf das in der i-ten Zeile/Spalte und j-ten Spalte/Zeile,

A ij = Aji = 1 , für 1 ~ i ~ j ~ n ,

und alle schiefsymmetrischen Matrizen B, deren Elemente Null sind bis auf das in der i-ten Zeile/Spalte und j-ten Spalte/Zeile,

B ij = -Bji = 1, für 1 ~ i < j ~ n.

Schließlich zeige man, daß diese insgesamt n(n2+1) symmetrischen Matri­

zen und die insgesamt n(~-l) schiefsymmetrischen Matrizen eine Basis des Vektorraumes M~ bilden.

Im Falle n = 3 sind dies die 6 symmetrischen

(6 ~ ~),(~ ~ ~),(~ ~ ~),(~ 6 ~),(~ 0000000010001

und die drei schiefsymmetrischen Matrizen

( 0 1 0) (0 0 1) (0 0 -1 0 0 , 0 0 0 , 0 0 o 0 0 -1 0 0 0 -1

Man stelle eine beliebige dreireihige Matrix in dieser Basis dar!

10. Bildet die Gesamtheit aller Vektoren des IRn mit Xl = a einen Teilraum des IRn ?

11. Man berechne Summe und Durchschnitt der beiden Teilräume

U = ((1,0,1,0), (1, 1, 1, 1)), V = ((0,1,0,1), (1, -1, 1, 1))

des IR4 durch Angabe einer Basis für diese Teilräume.

12. Seien U und V Teilräume des IR3 • Man überprüfe, ob U + V = IR4

gültig ist, gegebenenfalls, ob die Summe direkt ist. Trifft dies nicht zu, so bestimme man - durch Angabe einer Basis - den Durchschnitt U n V.

(i) U = ((1,0,1,2),(-1,2,0,1)), V = ((0,1,1,0),(-1,1,2,-1))

(ii) U = ((1,1,0,1),(1,-1,1,0)), V = ((2,0,1,1),(1,0,1,0))

(iii) U = (\0, 1, 1, 1), (1,0, 1, 1)), V = ((1, 1,0, 1), (1, 1, 1,0), (1,0,1,0) )

13. Man zeige, daß die Menge der Vektoren des IR\ deren Koordinaten den Bedingungen

Xl + 2X2 - X3 + X4 = 0, 2Xl - X2 + X3 = 0

genügen, einen Unterraum U des IR4 bildet. Man bestimme die Dimension dieses Unterraumes und gebe eine Basis an! Man bestimme ferner den Fak­torraum IR4 /U durch Angabe einer Basis (Hinweis: Man ergänze eine Basis von U zu einer Basis des IR4 ). Welche Beziehungen bestehen zwischen ver­schiedenen Basisvektoren des Faktorraumes IR4 /U infolge unterschiedlicher Wahl der Ergänzung der Basis von U zu einer Basis des IR4 ?

Page 47: Tensoren und Felder || Die linearen Strukturen

1.8 Übungs beispiele 47

14. Man zeige, daß die Menge aller Polynome (mit der Addition und der Multiplikation von Funktionen mit einer Zahl) ein unendlichdimensionaler Vektorraum ist. Bilden die Potenzen 1, x, x 2 , • •• , x n , . .. eine Basis?

15. Welche der folgenden Abbildungen cp : IRn -t IRm ist linear?'

(i) !(x) = (X1-X2,X2-X3,X3-XI), (n = m = 3)

(ii) !(x) = (x1x2,x1+2x2,2x1-x2), (n = 2,m = 3)

(iii) !(x) = (X1,X2,X1 +X2,X1X2), (n = 2,m = 4)

(iv) !(x) = (Xl +x-2, X2+X3, X3+X4, X4+Xt), (n = m = 4)

16. Welche der folgenden Abbildungen T: IRn -t IRm ist injektiv, surjektiv und bijektiv?

(i) TX = (Xl +2X2-X3+X4,Xl-3x3-2x4,3x1 +4X2-5x3+6x4)

(ii) TX = (Xl +2X2+X3+3x4+X5, Xl +X2+X4+X5, X2+X3+2X4)

(iii) TX = (Xl +2X2+X3, 3X1 +2X2 -2X3, 4X1 -3X2 -X3, 2X1 +4X2 +2X3)

(iv) TX = (Xl +2X2-X3+3X4, Xl +2X4, Xl +X2+3X4, X2-X3, Xl -X3+X4)

(v) TX = (Xl +X2, -Xl +2X2+X3, -X2+3X3+X4, -x3+4x4)

Hinweis: Soll die Abbildung T injektiv sein, so darf das lineare Gleichungs­system TX = 0 nur die Lösung x = 0 haben, soll T surjektiv sein, so muß das lineare Gleichungssystem TX = Y für jeden Vektor y E IRm lösbar sein!

17. Sei T : IRn -t IRm eine lineare Abbildung. Man bestimme den Rang und den Defekt von T für

(i) TX = (X2+X3, Xl +X3, Xl +X2), n = m = 3

(ii) TX = (X2+X3, Xl +X3, Xl +X2, Xl +X2+X3), n = 3, m = 4

(iii) TX = (Xl +2X2-X3, 2X1-X2+2x3-X4, xl-3x2+3x3-X4), n = 4,m = 3

18. Sei T:U -t V eine lineare Abbildung endlich dimensionaler Vektorräume. Ist T = {t1} die Matrix von T bezüglich zweier Basen in U bzw. V, so ist der Rang von T gleich dem Rang der Matrix T.

19. Seien U und V lineare Vektorräume endlicher Dimension und T: U -t V eine lineare Abbildung. Man zeige:

(i) ist T injektiv, so gibt es eine surjektive Abbildung U : V -t U mit UT = tu (die Abbildung U ist eine "Linksinverse" der Abbildung T);

(ii) ist T surjektiv, so gibt es eine injektive Abbildung p: V -t U mit Tp = t v (die Abbildung p ist eine "Rechtsinverse" der Abbildung T).

Hinweis: Für (i) gehe man von einer Basis Xi für U aus, ergänze die Vekto­ren Yi = TXi durch Hinzunahme von Vektoren Zj zu einer Basis {Yi, Zj} von V und lege durch UYi := Xi, UZj := 0 die Abbildung U fest; für (ii) wähle man eine Basis Xi für V, zeige die lineare Unabhängigkeit der Vektoren Yi

in TYi = Xi, ergänze sie durch Vektoren Zj zu einer Basis von U und setze PXi := Yi·

Page 48: Tensoren und Felder || Die linearen Strukturen

48 1 Die linearen Strukturen

20. Seien 7:U - V, O":V - U zwei lineare Abbildungen mit der Eigenschaft

'TO" = lv .

Dann ist 0" injektiv und 7 surjektiv (eine Linksinverse ist surjektiv, eine Rechtsinverse ist injektiv).

21. Ist eine Linksinverse bzw. eine Rechtsinverse einer linearen Abbildung 7: U - V eindeutig? Unter welchen Umständen kann dies nur zutreffen?

22. Seien 0" und 7 zwei lineare Transformationen und 0"7 = o. Man zeige:

(i) ist 0" injektiv => 7 = 0;

(ii) ist 7 surjektiv => 0" = o.

23. Sei 7 : U - V eine lineare Abbildung. Man zeige, daß es nur eine Abbildung 0" : V - U geben kann, für welche 70" = lv und 0"7 = lu gilt (Eindeutigkeit der Inversen einer linearen Abbildung).

24. Seien U und V zwei Vektorräume, dirn U = dirn V = N. Dann gibt es eine bijektive lineare Abbildung 7: U _ V (zwei endlichdimensionale Vektorrräume gleicher Dimension sind isomorph).

Hinweis: Man wähle eine Basis {eI, ... ,eN} in U, eine Basis {f1, ... ,IN} in V und setze 7ei = fi für i = 1, ... , N. Schließlich erweitere man 7 zu einer linearen Abbildung der beiden Vektorräume.

25. Sei M~ der Vektorraum der l-zeiligen Matrizen mit n Spalten, M~ der Vektorraum der I-spaltigen Matrizen mit n Zeilen (vgl. Bsp. 2) und

cp( a, b) := a . b , a E M~, b E M~ ,

worin der Malpunkt die Matrizenmultiplikation symbolisiert. Man zeige, daß cp ein skalares Produkt ist, mithin die beiden Vektorräume Mf und M~ dual sind ("Vektoren" sind Spalten, "Linearformen" sind Zeilen). Man bestimme die duale Basis von

" ~ (i) , " ~ (I) , ... , 'n ~ m . 26. Seien M~ und M~ die dualen Vektorräume von Bsp. 25 für n 3. Man berechne das orthogonale Komplement des Teilraumes

von M~.

27. Man beweise allgemein: Faßt man die n Spalten einer Basis des M~ zu einer Matrix X ("Zeile von Spalten") zusammen, so ist X regulär, die Zeilen der Inversen X-I sind die Vektoren der dualen Basis für M~ (X-I als "Spalte von Zeilen").

Page 49: Tensoren und Felder || Die linearen Strukturen

1.8 Übungsbeispiele 49

28. Sei M:, der Vektorraum der reellen Matrizen mit m Zeilen und n Spalten. Man zeige, daß ip : M: x M:, ~ ffi.,

«I>(A, B) := spur A . B, A E M:', B E M:" bilinear, nicht-ausgeartet und somit ein Skalarprodukt der beiden Vek­torräume M: und M:, ist, die solcherart dual sind.

29. Man bestimme die duale Basis zu den drei linear unabhängigen Vekto­ren

el = e2 + e3, e2 = el + e3 , e3 = el + e2

unter der Annahme, daß cl, c2 ,c3 die zu den drei linear unabhängigen Vek­toren el, e2, e3 duale Basis ist.

30. Sei M~, Mi' das Paar dualer Vektorräume von Bsp. 25 und Ta := T· a eine lineare Transformation des M~, wobei Teine n-reihige Matrix ist. Man bestimme die duale Transformation T*b für b E Mi'.

31. Seien Bund B* duale Basen in einem N-dimensionalen Vektorraum V und seinem Dualraum V*. Für i = 1,2, ... , n ist

71'iX:= (ci,x)ei' x E V,

gesetzt. Man zeige, daß 71'i : V ~ V eine lineare Transformation mit der Eigenschaft SpUr7l'i = 1 ist und beweise ferner

N

(ii) 71'i7l'j =0, i=/:j, (iii) L 71'i = Zy •

i=l

Die Transformationen 71'i werden "Projektoren" genannt. Man berechne die dualen Transformationen 71'; : V* ~ V*.

32. Seien (T und T zwei lineare Transformationen auf dem endlichdimensio-nalen Vektorraum V. Man zeige

( )* * * (TT = T (T •

33. Sei T: V ~ V eine bijektive lineare Transformation. Man zeige

(T*fl = (T- l)* .

34. Seien Ul , U2 Teilräume eines endlichdimensionalen Vektorraumes V. Gilt U1 ~ U2 und dirn U1 = dirn U2 , so ist U1 = U2 •

35. Sei U, V ein Paar dualer (endlichdimensionaler) Vektorräume und W ein Teilraum von U (oder V). Man zeige

W-L-L = (W-L)-L = W.

36. Sei V ein endlich dimensionaler Vektorraum und T: V ~ V eine lineare Transformation. Man zeige

(i) (TV)-L = T*-l{o}, (T*V*)-L = T-l{O}

(ii) (T-1{0})-L = T*V*, (T*-l{O})-L = TV.

Page 50: Tensoren und Felder || Die linearen Strukturen

50 1 Die linearen Strukturen

37. Sei V ein linearer Vektorrraum endlicher Dimension und T: V - V eine lineare Transformation. Man beweise, daß die Bedingung

VaEV*, T*a=o => (a,b) =0

notwendig und hinreichend für die Lösbarkeit der linearen Gleichung Ta; = b ist.

38. Man zeige: Eine lineare Transformation T : V - V, dim V = N, ist gen au dann bijektiv, wenn det T -I- 0 ist.

39. Sei B eine positiv definite n-reihige Matrix. Man zeige, daß durch die nach den Regeln der Matrizenrechnung auszuführenden Operationen (das hochgesetzte Zeichen t kennzeichnet das Transponieren von Matrizen, also die Vertauschung der Rolle von Zeilen und Spalten) über

If'(x,y) := xt . B· y

ein inneres Produkt auf dem Vektorraum ]Rn eingeführt ist. Man zeige, daß der ]Rn mit diesem inneren Produkt ein euklidischer Vektorraum im eigentlichen Sinn ist.

40. Sei B eine reguläre und symmetrische n-reihige Matrix. Dann ist auch

If'(x,y) := xt . B· y

ein inneres Produkt auf dem Vektorraum ]Rn. Unter welchen Vorausset­zungen über die Matrix B handelt es sich um einen euklidischen, unter welchen Voraussetzungen um einen pseudo-euklidischen Vektorraum? Man berechne Index und Signatur des inneren Produktes im Falle n = 3 und

B = (~ ~ =~). -4 -2 3

41. Sei B die dreireihige Matrix in Bsp. 40 und If'(x,y) das von ihr indu­zierte innere Produkt im ]R3. Man gebe eine orthonormale Basis an!

42. Sei Mn = M~ der Vektorraum der n-reihigen Matrizen. Man zeige, daß

If'(A,B) := spur At . B

ein definites inneres Produkt ist.

43. Sei Mn = M~ der Vektorraum der quadratischen n-reihigen Matrizen. Man zeige, daß

If'(A, B) := spur A . B

ein indefinites inneres Produkt ist. Man beweise, daß r = n(~+l) der Index dieses inneren Produktes ist.

44. Sei (a, b, c) das Koordinatentripel eines Vektors v in einem dreidi­mensionalen euklidischen Vektorraum E bezüglich einer Basis {eI, e2, e3}, (a, ß, I) das Koordinatentripel des assoziierten kovarianten Vektors If' = LV

bezüglich der dualen Basis {t: l , t: 2 , t:3 }. Man bestimme die Koordinatentri­pel beider Vektoren bei einem Basiswechsel

el = e2 + e3, e2 = el + e3, e3 = el + e2 .