35
Kapitel 7 Tensoren und Differentialformen 7.1 Einführung In der Physik umgibt die Tensoren ein Hauch von Mystik. Sie werden oft ver- wendet, aber viele wissen nicht wirklich was sich dahinter verbirgt. Meist wird nicht mehr als die Definition angegeben. Wir wollen versuchen, die Tensoren anschaulich zu vermitteln und wählten dazu eine moderne Vorgehensweise, welche stark von klassischen Darstellungen abweicht. Unsere Betrachtungen haben wir mit den Vektoren begonnen. Vektoren sind mathematische Objekte, die in einem Raum existieren. Dies kann der kar- tesische oder ein gekrümmter Raum, wie zum Beispiel die eine durch Massen gekrümmte Raum-Zeit, sein. Mit Hilfe von Vektoren können Punkte und Rich- tungen in diesem Raum beschrieben werden. Stellen wir uns im kartesischen Raum den Ortsvektor ~x vor, der vom Ursprung eines Koordinatensystems zum Punkt P zeigt. Es ist nun möglich, den Vektor ~x in einem Kugelkoordinaten- system zu finden, der auch auf den selben Punkt P zeigt. Es handelt sich je- weils um denselben Vektor, doch die Komponenten der Vektoren sehen je nach verwendetem Koordinatensystem anders aus. Man sagt daher, dass Vektoren Koordinaten unabhängig sind, jedoch bestimmte Transformationsgesetzen von einem Koordinatensystem in ein anderes gehorchen müssen. Dass Koordinaten transformiert werden können und wie dies geschieht, haben wir in Abschnitt 6.4.3 gesehen. Dazu wurden lineare Abbildungen ein- geführt, die in Form von Matrizen leicht beschrieben werden konnten. Eine Matrix kann also eine Verknüpfung bzw. Abbildung zwischen verschiedensten Koordinatensystemen herstellen. In der Physik gilt das Postulat dass die ganzen physikalischen Gesetze überall gelten müssen. Das heißt, es sollte eigentlich auch egal sein, welches Koordinatensystem gewählt wird, um die Gesetze zu beschreiben. Die Geset- ze, und somit die Vektoren bzw. Tensoren, die sie beschreiben, sollen invariant vom Bezugssystem sein. So kann das Gravitations-Potential sowohl in karte- 231

Tensoren und Differentialformen - Persönliche Webseitenhomepage.univie.ac.at/ingo.philipp/Downloads/7_TensorenDifferentialformen.pdf · vektor oder einen kovarianten Vektor. Oder

  • Upload
    vanminh

  • View
    220

  • Download
    0

Embed Size (px)

Citation preview

Kapitel 7

Tensoren undDifferentialformen

7.1 Einführung

In der Physik umgibt die Tensoren ein Hauch von Mystik. Sie werden oft ver-wendet, aber viele wissen nicht wirklich was sich dahinter verbirgt. Meist wirdnicht mehr als die Definition angegeben. Wir wollen versuchen, die Tensorenanschaulich zu vermitteln und wählten dazu eine moderne Vorgehensweise,welche stark von klassischen Darstellungen abweicht.

Unsere Betrachtungen haben wir mit den Vektoren begonnen. Vektorensind mathematische Objekte, die in einem Raum existieren. Dies kann der kar-tesische oder ein gekrümmter Raum, wie zum Beispiel die eine durch Massengekrümmte Raum-Zeit, sein. Mit Hilfe von Vektoren können Punkte und Rich-tungen in diesem Raum beschrieben werden. Stellen wir uns im kartesischenRaum den Ortsvektor ~x vor, der vom Ursprung eines Koordinatensystems zumPunkt P zeigt. Es ist nun möglich, den Vektor ~x in einem Kugelkoordinaten-system zu finden, der auch auf den selben Punkt P zeigt. Es handelt sich je-weils um denselben Vektor, doch die Komponenten der Vektoren sehen je nachverwendetem Koordinatensystem anders aus. Man sagt daher, dass VektorenKoordinaten unabhängig sind, jedoch bestimmte Transformationsgesetzen voneinem Koordinatensystem in ein anderes gehorchen müssen.

Dass Koordinaten transformiert werden können und wie dies geschieht,haben wir in Abschnitt 6.4.3 gesehen. Dazu wurden lineare Abbildungen ein-geführt, die in Form von Matrizen leicht beschrieben werden konnten. EineMatrix kann also eine Verknüpfung bzw. Abbildung zwischen verschiedenstenKoordinatensystemen herstellen.

In der Physik gilt das Postulat dass die ganzen physikalischen Gesetzeüberall gelten müssen. Das heißt, es sollte eigentlich auch egal sein, welchesKoordinatensystem gewählt wird, um die Gesetze zu beschreiben. Die Geset-ze, und somit die Vektoren bzw. Tensoren, die sie beschreiben, sollen invariantvom Bezugssystem sein. So kann das Gravitations-Potential sowohl in karte-

231

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 232

sischen Koordinaten mit

φ(x, y, z) = − GM√x2 + y2 + z2

als auch in sphärischen Koordinaten mit

φ(r) = −GMr

beschrieben werden. Doch schauen die Gleichungen sofort anders aus. Teil-weise werden sie in anderen Koordinatensystemen extrem ”hässlich”.

Ein Problem ergibt sich zum Beispiel in der Relativitätstheorie, wo sich dieKoordinatensysteme die ganze Zeit ändern. Da ist die Raum-Zeit abhängigvon Massen (bzw. allgemeiner Energien) und dem Inertialsystem. Es wärealso schön, wenn es eine Möglichkeit gäbe, Beziehungen zwischen physikali-schen Größen unabhängig von ihren Koordinatensystemen darzustellen. Ge-nau dazu werden Tensoren verwendet, und deswegen sind sie in der Physikauch so beliebt. Sie vermitteln multilineare Abbildungen von Größen, zwischenverschiedenen Bezugssystemen, wobei die Metrik, die eine fundamentale Ei-genschaft des Raumes ist, lokal verschieden sein kann.

Wir werden den Abstraktionsprozess im Detail betrachten und hoffen, da-mit die Tensoren verständlich erklären zu können. Bevor wir mit einer kleinenMotivation beginnen können, müssen wir noch die schon öfters erwähnte Ein-steinsche Summenkonvention einführen.

7.1.1 Einsteinsche Summenkonvention

In der Physik und Mathematik stößt man immer wieder auf Ausdrücke der Art

yi = ai1x1 + ai2x2 + ai3x3 + . . . =n∑j=1

aijxj

Um nicht jedes Mal die Summe ausschreiben oder das Summationszeichenhinschreiben zu müssen, wird die Einsteinsche Summenkonvention eingeführt.

Definition 7.1.1. Einsteinsche Summenkonvention. Anstelle von

yi =n∑j=1

aijxj

wird abkürzendyi = aijxj

geschrieben, wobei immer über gleich auftretende Indizes summiertwird.

In allen Betrachtungen zu Tensoren kommen sowohl Indizes im Subskript,als auch im Superskript vor. Dabei müssen wir unsere Definition erweitern undwann immer zwischen Indizes im Sub- und Superskript unterschieden wird gilt:

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 233

Definition 7.1.2. Die Summation findet nur über gleich auftretendeIndizes statt, die sich nicht auf gleicher Indexstufe befinden. Es istdann also

y =n∑j=1

Aαωα = Aαωα

In dieser Konvention ist also AαBα nicht zu summieren.Die Summenkonvention mag anfänglich ungewohnt und mühsam erschei-

nen, doch sollte man sich nicht davor fürchten. Durchhaltevermögen ist dabeigefragt, denn sie erleichtert das Leben ungemein. Nochmals, in allen Betrach-tungen zu Tensoren, verwenden wir die zweite Form der Einsteinschen Sum-menkonvention.

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 234

7.2 Definition von Tensoren

7.2.1 Motivation anhand des Metrischen Tensors

Wir wollen unsere Betrachtung mit einem kleinen Vorausgriff starten. Sei einKoordinatensystem O mit einer dazugehörigen Basis {eα} gegeben. Die Stel-lung der Indizes mag im Moment egal sein. Dann gilt

~A = Aαeα , ~B = Bβ eβ

Wir betrachten nun das Skalarprodukt zwischen den beiden Vektoren und wer-den dies genauer analysieren.

~A · ~B = Aαeα ·Bβ eβ = AαBβ eα · eβ = AαBβηαβ (7.2.1)

Der Ausdruck AαBβ ist die Multiplikation zwischen den einzelnen Komponen-ten des Vektors, somit sind dies nur Zahlen. Das Skalarprodukt ist eine Invari-ante, also unabhängig vom Bezugssystem. 7.2.1 im R3 hingeschrieben ergibt

~A · ~B = A1B1 +A2B2 +A3B3

Die Zahlen ηαβ sind die Komponenten des sogenannten metrischen Ten-sors. Der metrische Tensor ist jene Schlüsselgrösse, welche die Geometriedes Raumes festlegt und somit den Zahlen Aα und Bβ eine Bedeutung zu-weist. Wäre es nun nicht schön, wenn wir einen Weg finden würden, wo wirnur mit den Zahlen Aα und Bβ rechnen müssen und nicht immer den Balastder Geometrie mitberücksichtigen müssen? Dieser Frage wollen wir nun nach-gehen.

In diesem kleinen Beispiel sind nun alle Bestandteile vorgekommen, mitwelchen wir uns in den nächsten Kapiteln beschäftigen werden. Auf der einenSeite haben wir gesehen, dass die Komponenten Aα und Bβ der Vektoren ~Aund ~B nur Zahlen sind. Sie enthalten keinerlei Information über die verwende-te Geometrie. Diese Information steckt in den Einheitsvektoren eα und eβ oderabstrakter im metrischen Tensor ηαβ, der als das äußere Produkt der Einheits-vektoren aufgefasst werden kann.

Betrachten wir den metrischen Tensor auf dem niedrigsten Level, so kannman ηαβ als eine Größe auffassen, die auf zwei Vektoren angewendet einenSkalar generiert. Diese Zahl ergibt sich aus der Summation über folgendenAusdruck:

AαBβηαβ

Dies ist nicht mit dem Skalarprodukt zu verwechseln, welches aus zwei Vekto-ren einen Skalar macht, d.h. eine Abbildung R3 × R3 → R bewirkt

7.2.2 Definition eines Tensors vom Typ(

0N

)Stürzen wir uns gleich ins kalte Wasser und fangen mit der Definition einesTensors an:

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 235

Definition 7.2.1. Ein Tensor vom Typ(

0N

)ist eine Funktion von N

Vektoren, die eine Abbildung in die reellen Zahlen erzeugt und linearin allen N Argumenten ist.

Dass Tensoren linear sind ist essentiell. Linearität in N Argumenten bedeutetfür den Fall N = 2 (s.u):

i(α ~A)· ~B = α

(~A · ~B

)Linearität auf dem 1. Argument

ii(~A+ ~B

)· ~C = ~A · ~C + ~B · ~C Linearität auf dem 1. Argument

iii ~A ·(β ~B)

= β(~A · ~B

)Linearität auf dem 2. Argument

iv ~A ·(~B + ~C

)= ~A · ~B + ~A · ~C Linearität auf dem 2. Argument...

...

Ein Wort noch zur Notation. Bei Vektoren schreiben wir von nun an dieIndizes oben! Die Komponenten eines Vektors ~A sind dann also in der In-dexnotation Aα. Wir werden später noch sehen, warum wir dieser Konventionfolgen.

Tensoren verfolgen im Grunde ein einfaches Konzept. Möge g ein metri-

scher Tensor vom Typ(

02

)sein. Dann gilt

g(~A, ~B

)= ~A · ~B (7.2.2)

Der Tensor g ( , ) ist nun nichts anderes als eine ”Maschine” mit zwei ”Schlit-zen”, in die man jeweils einen Vektor stecken kann und die dann als Ergebniseine reelle Zahl liefert. Im obigen Fall berechnet die Maschine das Skalarpro-dukt. g ( , ) kann also zwei Argumente aufnehmen und ist in jedem linear, sodass für das erste Argument gilt:

g(α ~A+ β ~B, ~C

)= αg

(~A, ~C

)+ βg

(~B, ~C

)Das analoge gilt auch für das zweite Argument.

Wir können also die Definition eines Tensors nun auch etwas plakativerformulieren:

Definition 7.2.2. Ein Tensor vom Typ(

0N

)ist eine Regel (Maschi-

ne), die auf Vektoren angewendet dieselbe reelle Zahl unabhängigvom Bezugssystem ergibt, in dem die Komponenten der Vektoren be-rechnet werden.

Wir haben dies bereits für das Skalarprodukt, d.h. für ηαβ gezeigt. Nochmals,Tensoren sind Funktionen von Vektoren selbst und nicht von deren Kompo-nenten, sprich sie ”fressen” Vektoren!

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 236

Anzumerken sei dabei, dass eine gewöhnliche Skalarfunktion φ (t, x, y, z)eine reellwertige Funktion ist, die als Argument keine Vektoren hat. Sie wird

daher als Tensor vom Typ(

00

)klassifiziert.

Einschub: Der Begriff Funktion In der reellen Analysis kennt man y = f (x)wobei x, y ∈ R Zahlen sind. Die Funktion ist nun nicht f (x), da f (x) eine Zahlist, sondern f ( ), die eine reelle Zahl x in eine andere reelle Zahl y abbildet. xnennt man das Argument von f .

Normalerweise machen wir diese Unterscheidung nicht und nennen f (x)eine Funktion, weil wir für x alle Zahlen im Definitionsbereich durchlaufen las-sen. Doch um das Konzept des Tensors besser verstehen zu können, müssenwir diese Unterscheidung durchführen.

In der Tensor-Analysis wollen wir daher explizit und exakt sein: g ( , ) ist

ein(

02

)-Tensor und g

(~A, ~B

)ist eine reelle Zahl.

7.2.3 Komponenten eines Tensors

Analog zu einem Vektor (den wir übrigens als(

10

)-Tensor bezeichnen) hat

auch ein Tensor Komponenten. Sie sind wie folgt definiert:

Definition 7.2.3. Die Komponenten eines(

0N

)-Tensors in einem

Bezugssystem O sind die Werte der Funktion, wenn die zugehörigenArgumente die Basisvektoren {eα} im System O sind.

Daraus folgt, dass die Komponenten also Zahlen sind, die vom Bezugssystemabhängen, da wir hier explizit die Basisvektoren {eα} von O benötigen. Wirwollen dies wieder anhand des metrischen Tensors erläutern.

Die Komponenten des metrischen Tensors bekommen wir also, wenn wirdie Basisvektoren eines Systems O in die ”Maschine” stecken.

g (eα, eβ) = eα · eβ = ηαβ (7.2.3)

Die Matrix (ηαβ) kann als eine Anordnung der Zahlen ηαβ verstanden wer-den, die die Komponenten von g ( , ) im Bezugssystem O mit der Basis {eα}darstellen. Betrachten wir die Einheitsvektoren des kartesischen Koordinaten-systems ex = (1, 0, 0), ey = (0, 1, 0) und ez = (0, 0, 1) und bilden nach derVorschrift 7.2.3 die Matrix (ηαβ), so erhalten wir:

(ηαβ) =

1 0 00 1 00 0 1

(7.2.4)

An dieser Stelle machen wir auf eine kleine Inkonsistenz bei der Index-schreibweise aufmerksam. Während z.B. Aα die verschiedenen Komponentendes Vektors ~A bezeichnen, sind unter eα die verschiedenen Einheitsvektoren

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 237

e1, e2, e3, ... zu verstehen, die ihrerseit wieder Komponenten besitzen. DieseNotation hat keinen tieferen Gund, sondern ist einfach praktisch.

7.3 Die (0, 1)-Tensoren: 1-Formen

Wir wollen nun das ganze systematisch angehen und betrachten die einfach-

ste Art der Tensoren, die(

01

)-Tensoren oder auch als 1-Formen bekannt.

Wie immer, zuerst mal eine Definition:

Definition 7.3.1. Einen Tensor des Typs(

01

)nennt man einen Ko-

vektor oder einen kovarianten Vektor. Oder mit Bezug auf differen-zierbare Mannigfaltigkeiten und Differentialformen eine 1-Form.

Wir wollen 1-Formen mit einer ”Tilde” kennzeichnen, d.h. p. Im Gegensatzdazu ist ~p ein normaler (kontravarianter) Vektor.

1-Formen sind genauso wie Vektoren linear. So ist die Summer zweier 1-Formen wieder eine 1-Form (α, β ∈ R)

s = p+ q (7.3.1)

desgleichen gilt auchr = α (p+ q) = αp+ αq (7.3.2)

beziehungsweise(α+ β) p = αp+ βp (7.3.3)

Durch die Gültigkeit dieser Regeln befolgt die Menge aller 1-Formen auch au-tomatisch alle Axiome eines linearen Vektorraumes. Dadurch sind auch dieentsprechenden Synonyme wie z.B. kovariante Vektoren gerechtfertigt. Diesenspeziellen Vektorraum der 1-Formen nennt man auch den Dualraum. Späterdazu mehr.

7.3.1 Komponenten der 1-Formen

Die Komponenten einer 1-Form p bezeichnen wir mit pα. Diese bekommen wir,indem wir der 1-Form einen Einheitsvektor zum Fraße vorwerfen, also eineKontraktion zwischen einer 1-Form und einem Einheitsvektor durchführen.

pα = p (eα) (7.3.4)

Es muss beachtet werden, dass der Index unten steht. Dies bezeichnet eine1-Form. Steht der Index hingegen oben, so meinen wir die kontravarianteKomponente eines üblichen Vektors. Diese sind in der Regel verschiedenund nur im euklidischen Raum gleich, weshalb meist zwischen 1-Formen undVektoren unterschieden wird.

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 238

7.3.2 Kontraktion

Wir haben gesagt,(

0N

)-Tensoren sind Funktionen, die auf N Vektoren an-

gewendet immer eine reelle Zahl erzeugen. Dieses ”einen Vektor in die Ma-schine namens Tensor stecken” nennt man Kontraktion (oder in der deut-schen Literatur auch oft Verjüngung) und wird mit p ( ) angeschrieben. Es er-gibt p ( ) mit einem Vektor ~A als Argument also eine reelle Zahl, d.h. p

(~A)∈ R.

”Frisst” eine 1-Form also einen Vektor, so kommt eine Zahl raus. Eine Kontrak-tion kann immer nur zwischen einer 1-Form und einem Vektor, bzw. zwischeneinem Ko- und Kontravarianten Index eines Tensors, stattfinden. Die Umkeh-rung gilt ebenfalls. Frisst ein Vektor eine 1-Form, so ergibt sich ebenfalls einereelle Zahl.

Auch die Kontraktion ist wieder linear, also gilt

s(~A)

= (p+ q)(~A)

= p(~A)

+ q(~A)

r(~A)

= α (p+ q)(~A)

= αp( ~A) + αq( ~A) (7.3.5)

Weiters giltp(α ~A)

= αp(~A)

(7.3.6)

Was bedeutet denn nun dieses p(~A)

genau? Wir schreiben (unter Verwen-dung von 7.3.6 und 7.3.4)

p(~A)

= p (Aαeα) = Aαp (eα) = Aαpα ∈ R (7.3.7)

Wenn wir die Einsteinsche Summenkonvention ausschreiben, sehen wir dieBedeutung von 7.3.7 besser.

p(~A)

= Aαpα = A1p1 +A2p2 +A3p3 + . . . (7.3.8)

Im Gegensatz zum Skalarprodukt haben hier alle Terme ein ”+” Zeichen. BeimSkalarprodukt ist dies nicht immer der Fall, je nach gewählter Metrik könnendie Vorzeichen wechseln. Dies ist z.B. in der Relativitätstheorie bei den Vie-rervektoren der Fall. Dort ist das Skalarprodukt zweier Vierervektoren ~A · ~B =−A0B0 +A1B1 +A2B2 +A3B3.

Der Vergleich mit dem Skalarprodukt hat gezeigt, dass die Kontraktion ei-ne fundamentalere Operation ist, als das Skalarprodukt, weil sie zwischen je-dem Vektor und jeder 1-Form stattfinden kann. Das Skalarprodukt produziertnur mittels einer Metrik, also einem metrischen Tensor, eine reelle Zahl. DieKontraktion hingegen funktioniert ohne Bezugnahme auf eine Metrik, ist alsodeswegen viel allgemeiner.

Dies zeigt uns auch, dass zwei kontravariante Vektoren keinen Skalar er-

zeugen können. Dazu benötigt man die Hilfe eines(

02

)-Tensors. Im obigen

Beispiel mit dem Skalarprodukt der beiden Vierervektoren waren wir nicht ex-akt genug. Denn wie gesagt, wir hätten dazu explizit einen metrischen Tensorverwenden müssen.

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 239

7.3.3 Transformationsverhalten der Komponenten von 1-Formen

Wir wollen jetzt untersuchen, wie sich die Komponenten der 1-Formen unterTransfomationen verhalten. Wie in 7.3.1 erwähnt, hilft uns die Kontraktion beimAuffinden ihrer Komponenten. Bei den Komponenten eines Vektors ist uns dasTransformationsverhalten ja schon grob bekannt (siehe 6.4).

Die Komponenten der 1-Form p in einer (transformierten) Basis{eβ

}sind

durch

pβ = p(eβ

)= p

(Λβ

αeα

)⇔ pβ = Λβ

αp (eα) = Λβαpα (7.3.9)

gegeben, wobei Λβα eine beliebige Transformation darstellen mag. Vergleiche

dazu die uns schon bekannte Form der Basis-Transformation

eβ = Λβαeα (7.3.10)

Wir konnten also motivieren, dass folgende fundamentale Regel gilt:Die Komponenten von 1-Formen transformieren sich exakt wie die Basis-

Vektoren und entgegengesetzt zu den Komponenten von Vektoren.Dieses ”entgegengesetzt” garantiert die Invarianz bezüglich des Bezugssy-

stems des Ausdruckes pαAα für jeden beliebigen Vektor ~A und jede beliebige1-Form p. Die Verjüngung ist also unabhängig vom Koordinatensystem (manbenötigt keine Metrik)!

Dies wollen wir nun explizit beweisen:

Aαpα =(

Λβ αAβ)

(Λα µpµ)

= Λβ αΛα µAβpµ = Λα µΛβ α︸ ︷︷ ︸δβ µ

Aβpµ

= δβµAβpµ

= Aβpβ (7.3.11)

Dabei haben wir von der Orthogonalitäts-Bedingung analog zu 6.4.5 Gebrauchgemacht. Der Ausdruck in 7.3.11 ist invariant, d.h. unabhängig vom Bezugs-system. In Kapitel 7.3 haben wir gesagt, dass die 1-Formen einen Dualraumbilden. Genau diese inversen Transformationen geben dem Ausdruck ”dual”seinen Namen. Und genau weil sich eine 1-Form p wie die Basisvektoren {eα}transformieren, werden sie kovariante Vektoren oder Ko-Vektoren genannt.Da sich die Komponenten (und nur die Komponenten) eines Vektors entgegen-gesetzt zu den Basisvektoren transformieren, nennt man sie kontravariant.

Wer nun komplett verwirrt ist sollte beachten, dass die Bezeichnungsweise”Transformation” unglücklich gewählt ist, da sie zwei unterschiedliche Konzep-te miteinander vermischt:

• die Transformation einer Basis drückt neue Vektoren durch alte Vektorenaus

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 240

• die Transformation von Komponenten drückt dasselbe Objekt in einerneuen Basis aus

Über diese Unterscheidung muss man etwas länger und in Ruhe nachdenken.Sollte der Unterschied aber mal klar sein, dann ist das obige relativ trivial.

7.3.4 Basis-1-Formen (duale Basis)

Da die 1-Formen im Prinzip sowas wie Vektoren sind (aber eben gerade auchwieder nicht wegen ihres ”entgegengesetzten” Transformationsverhalten), istes möglich, auch eine Basis aus 1-Formen zu basteln. Wir haben dies schonim vorherigen Kapitel angekratzt. Nur wollen wir das expliziter fassen und sa-gen, die Menge aller 1-Formen stellt einen Vektorraum dar, mit denen aus n 1-Formen n-dimensionale Räume erzeugt werden können. Sei dies der Rn oderder Robertson-Walker-Raum in der Kosmologie, man kann sie mit 1-Formenalle haben. Diese Basis nennt man die duale Basis.

Analog zu Vektoren sind 1-Formen linear unabhängig, wenn es keine tri-viale Linearkombination gibt. Das heisst, dass die Linearkombination dann undnur dann Null ist, wenn alle Zahlen λ = µ = . . . = ν = 0 sind, damit

λp+ µq + . . .+ νr = 0 (7.3.12)

wird.Wir bezeichnen die dual Basis mit {ωα}, α = 0, 1, 2, 3, . . . analog zur ”nor-

malen” Basis {eα}. Dabei beachte man wie schon so oft die Stellung der Indi-zes. Eine 1-Form lässt sich also in der dualen Basis wie folgt anschreiben

p = pαωα (7.3.13)

wobei hier die ωα nicht die Komponenten einer einzelnen Basis-1-Form dar-stellen, sondern die jeweils ganzen 1-Formen der Basis, die zusammen dasErzeugendensystem bilden.

Nun stellen wir uns die Frage, was passiert, wenn wir einen kontravari-anten Vektor ~A mit einem Basisvektor der dualen Basis kontrahieren. DieseFrage in umgekehrter Richtung haben wir uns schon im vorhergehenden Ka-pitel gestellt. Diese spezielle Kontraktion liefert uns wie schon in 7.3.4 gesagtdie Komponenten einer 1-Form. Somit setzen wir das Problem wie folgt an

~A (ωα) = Aα

Nachdem auch für die Kontraktion das Kommutativgesetz und 7.3.6 gilt, schrei-ben wir

ωα(~A)

= ωα(Aβ eβ

)= Aβωα (eβ) = Aβδβ

α = Aα (7.3.14)

Wir haben das Resultat sicher schon erahnt, die Lösung sind die Komponentendes Vektors. Ganz unverfroren haben wir in 7.3.14 die Relation

ωα (eβ) = δβα (7.3.15)

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 241

verwendet. Diese wollen wir nun zeigen. Es ist ja

p(~A)

= p (Aαeα) = Aαp (eα) = Aαpα

Mittels 7.3.13 können wir aber auch schreiben

p(~A)

= pαωα(~A)

= pαωα(Aβ eβ

)= pαA

βωα (eβ) = pαAα

Also kann nur aus dem Vergleich der beiden Rechenwege ωα (eβ) = δβα sein.

Ebenso muss~A (ωα) = Aβ eβ (ωα)

gelten. Dies ist schnell gezeigt

~A (p) = Aβ eβ (pαωα) = Aβpαeβ (ωα) ≡ Aβpαδβ α = Aαpα

Nun können wir mit Hilfe von

ωα (eβ) = δβα (7.3.16)

die euklidische Basis der 1-Formen aufschreiben

ω0 = (1, 0, 0) ω1 = (0, 1, 0) ω2 = (0, 0, 1)

1-Formen werden immer als Zeilenvektoren angeschrieben, damit man sie vonden kontravarianten Vektoren unterscheiden kann. Betrachten wir einen demeuklidischen verschiedenen Raum, so muss immer die Bedingung ωα (eβ) =δβ

α erfüllt sein. Die Kontraktion der Basisvektoren und Basis-1-Formen mussimmer δβ α ergeben.

Wie transformiert sich nun {ωα} unter einem Basiswechsel? Wir könnenuns ja schon denken wie die Transformation stattfinden wird. Nämlich über

ωα = Λβ αωβ (7.3.17)

Wir wollen unsere Vermutung nun kontrollieren. Wir haben schon gezeigt, dassAαpα invariant ist. Dies machen wir uns jetzt zunutze.

⇒ Aαpα = Λβ αAβ p (eα) = Λβ αAβpµωµ (eα)

Nachdem Λβ α nur eine Zahl ist, können wir diese in die Kontraktion reinziehen

= Aβpµωµ(Λβ αeα

)= Aβpµω

µ (eβ)

= AβpνΛµ ν ωµ (eβ) = Aβpν ων (eβ)

= Aβpνδβν = Aβpβ

Somit ist also die Transformation in die eine Richtung

ων = Λµ ν ωµ. (7.3.18)

Auf die inverse Transformation kommt man analog in Kurzform:

Λν βων = Λν βΛµ ν ωµ = δµβωµ = ωβ

Also bestätigt sich unsere Vermutung von 7.3.17.

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 242

7.3.5 Zusammenfassung der Unterschiede zwischen 1-Formen undVektoren

• Vektoren und 1-Formen sind dual zueinander. Sie sind somit Objekteaus dualen Räumen.

• Dualräume sind sehr wichtig und existieren auch in anderen Bereichender Mathematik bzw. der mathematischen PhysikEin Beispiel. Spalten- und Zeilenvektoren sind dual, da das Produkt

(a1, a2, . . . , an) ·

a1

a2...an

= a21 + a2

2 + . . .+ a2n

eine reelle Zahl ist. Zeilenvektoren sind somit 1-Formen.

Die Operation, ein Element eines Dualraumes von einem Raum zu finden,nennt man die Adjunktion, das Element die Adjungierte. Sie ist eindeutigund umkehrbar.

7.3.6 Darstellung von 1-Formen (Geometrisch)

Anschaulich gesprochen waren Vektoren für uns bis jetzt immer Pfeile. Sie ha-ben einen Ursprung und zeigen in eine Richtung. Daran wird sich auch nichtviel ändern, denn die kontravarianten Vektoren bleiben immer noch gleich.Doch existiert auch ein geometrisches Bild der kovarianten Vektoren, also der1-Formen?

Was wir sicher gleich sagen können ist, dass eine 1-Form kein Pfeil seinkann, denn eine 1-Form muss einen Vektor in eine reelle Zahl abbilden. Unddas geht mit einem Pfeil recht schlecht (ohne Zuhilfenahme des metrischenTensors). Ein Bild einer 1-Form muss also gewährleisten, dass ein Vektor im-mer in eine Zahl abgebildet wird und dies eben unabhängig von einer Metrik!

Definition 7.3.2. Eine 1-Form wird durch eine Folge von parallelen(Hyper-) Flächen dargestellt. Der ”Betrag” ist dann durch den Abstandder Flächen gegeben. Je grösser der Abstand zwischen den Flächen,desto kleiner ist der ”Betrag” und umgekeht.

Nun wird auch relativ klar, wie eine 1-Form einen Vektor immer in eine Zahlabbildet. Setzt man einen Vektor in eine solche Folge von Flächen ein, durch-stösst der Vektor eine bestimmte Anzahl von Flächen. Die Zahl der durchstos-senen Flächen ergibt dann die reelle Zahl, was genau der Kontraktion ent-spricht.

Die 1-Form definiert keine Richtung, da sie eben kein Vektor ist. Stattdes-sen definiert sie eine Art und Weise den Raum ”in Scheiben zu schneiden”oder generell nur wie man ihn ”aufschneidet”. Das ist der wesentliche geome-trische Unterschied zwischen einem Vektor und einer 1-Form.

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 243

Abbildung 7.3.1: Illustration von kontravarianten Vektoren und 1-Formen

7.3.7 Der Gradient als 1-Form

Wir wollen nun zeigen, dass der Gradient nichts anderes als eine 1-Form ist.Dass dies plausibel ist, möchten wir kurz mit den neu gewonnenen Erkenntnis-sen erörtern. Eine 1-Form ist nichts anderes, als Flächen, die an Punkten soangelegt werden, dass sie der Geometrie des Raumes folgen. Eine gute undeindeutige Möglichkeit dies zu tun ist, sie immer als Tangentialebenen einesbestimmten Punktes P zu definieren. Somit sind 1-Formen nichts anderes,als die Hypertangentialflächen eines Raumes. Damit kann ebenfalls gezeigtwerden, dass der Gradient eine 1-Form ist. Dies wollen wir nun zeigen.

Wir betrachten ein Skalarfeld φ(~x) = φ(x, y, z), welches an jedem Punkt~x definiert sei. Dieses Skalarfeld sei zur Veranschaulichung ein Potentialfeld.Von Punkt zu Punkt kann das Potential φ einen anderen Wert annehmen.Wenn wir alle Punkte mit gleichem φ verbinden, erhalten wir sogenannte Äqui-potentialflächen. Wir wollen nun entlang eines Weges s(τ) durch dieses Ska-larfeld gehen, d.h. der Weg wird mit dem Parameter τ parametrisiert. Es istsomit x = x(τ), y = y(τ) und z = z(τ).

Betrachten wir nun die Geschwindigkeit, die wir entlang dieses Weges er-fahren werden.

~U =(dx

dτ,dy

dτ,dz

)= (Ux, Uy, U z) (7.3.19)

Da nunφ(τ) = φ (x(τ), y(τ), z(τ))

ist die Änderung des Potentialfeldes entlang unseres Weges s und mittels7.3.19 (Richtungsableitung)

dτ=

∂φ

∂x

dx

dτ+∂φ

∂y

dy

dτ+∂φ

∂z

dz

=∂φ

∂xUx +

∂φ

∂yUy +

∂φ

∂zU z (7.3.20)

Wenn wir nun diesen Ausdruck etwas genauer betrachten stellen wir fest, dassauf der linken Seite von 7.3.20 eine Zahl dφdτ steht. Auf der rechten Seite steht

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 244

ein Vektor ~U = (Ux, Uy, U z), der mit einem Objekt verknüpft ist, welches dieKomponenten (

∂φ

∂x,∂φ

∂y,∂φ

∂z

)≡(∂φ

∂x1,∂φ

∂x2,∂φ

∂x3

)(7.3.21)

aufweisst. Allgemein also ∂φ∂xα ≡ φ,α.

Aufgrund der Eigenschaft, dass 1-Formen verknüpft mit einem Vektor einereelle Zahl erzeugen, muss die Grösse 7.3.21 eine 1-Form sein (zumal sie mit~U linear verknüpft ist).

Definition 7.3.3. Unter dem Gradient versteht man eine 1-Form derGestalt

dφ =(∂φ

∂x1,∂φ

∂x2, . . . ,

∂φ

∂xn

)(7.3.22)

Diese wird auch äussere Ableitung von φ genannt.

Die Grösse dφdτ ist wie gesagt ein Skalar und gibt die zeitliche Änderung von φ

auf einer Kurve s(τ) an, auf der der Geschwindigkeitvektor ~U immer tangentialdazu ist.

Wir können also unser Bild einer 1-Form vervollständigen. Betrachten wirein Skalarfeld, welches wir anhand von Höhenlinien (Äquipotentialflächen) auf-zeichnen (siehe Bild 7.3.2). Höhenlinien repräsentieren Orte gleicher Höhe,wie z.B. auf einer Wanderkarte.

Abbildung 7.3.2: Darstellung eines Skalarfeldes mittels Höhenlinien.

In der Region A liegen die Linien dichter zusammen, als in der Region B.In A ist die Änderung des Skalarfeldes deswegen steiler, als in B. Wir haltenfest, dass senkrecht zu einer Höhenlinie sich das Feld am stärksten ändertund parallel zur Linie das Feld konstant bleibt.

Sei h die Höhe am Ort P , dann ist dh eine 1-Form und am grössten inGebieten wie A, wo die Höhenlinien eng beieinander liegen.

Wenn wir nun wissen wollen, wie gross der Höhenunterschied zwischenzwei Punkten P undQ ist, so betrachten wir einen Vektor ∆~x = ~PQ und zählendie Anzahl der durchstossenen Höhenlinien. Im Falle von Punkt 1 wären das 4,bei Punkt 2 lediglich nur 3.5 und bei Punkt 3 also 0.5. Mathematisch gesehenist dieses ”Zählen” gerade die Kontraktion des Gradienten dh mit dem Vektor

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 245

∆~x, also ∆h = dh(∆~x) = ∂h∂xi

∆xi.Der Gradient beschreibt eine Tangentialfläche, welche an jedem Punkt des

Skalarfeldes φ eine andere Ausrichtung besitzt. Dessen kann man sich leichtvergewissern, indem der 2-dimensionale Fall der Tangentialfläche (die Tan-gentiallinie) in Bild 7.3.2 entlang den Höhenlinien verfolgt wird. Wir haben inKapitel 7.3.4 gesagt, die 1-Formen bilden den Dualraum. Nachdem wir nun ge-zeigt haben, dass die 1-Formen Tangentialflächen an den Raum sind, könnenwir den Dualraum auch Tangential-Raum nennen.

Es ist nun klar, dass der Gradient kein Vektor sein kann, sondern eine 1-Form sein muss.

7.3.7.1 Transformationseigenschaft eines Gradienten

Um nun definitv sagen zu können, dass ein Gradient wirklich eine 1-Form ist(in der Mathematik kann man sich nie einer Behauptung sicher sein, solangeman sie nicht allgemein bewiesen hat), untersuchen wir dessen Transformati-onseigenschaft. Diese müsste gleich jener einer 1-Form sein. Wir müssen alsozeigen, dass (

dφ)α

= Λα β(dφ)β

(7.3.23)

ist. Dazu zeigen wir lediglich, wie sich die partiellen Ableitungen in 7.3.22transformieren.(

dφ)α

=∂φ

∂xα=

∂φ

∂xβ∂xβ

∂xα=∂xβ

∂xα∂φ

∂xβ=∂xβ

∂xα

(dφ)β

(7.3.24)

Und da xβ = Λα βxα, gilt

∂xβ

∂xα=∂(Λα βxα

)∂xα

= Λα β∂xα

∂xα= Λα β

(da Λα β nur Zahlen sind). Somit ist(dφ)α

=∂xβ

∂xα

(dφ)β

= Λα β(dφ)β

Q.E.D.Vergleichen wir dies mit der Transformationseigenschaft eines Vektors

Aα = Λβ αAβ ; ∆xα = Λβ α∆xβ (7.3.25)

sehen wir, dass dies beim Gradienten genau invers dazu erfolgt. Der Gradientist somit die archetypische 1-Form.

7.3.8 Ableitungen bei Tensoren

Da wir bei Ableitungen leicht mit den Indizes in Verwirrung kommen könnenund wir uns auch immer die viele Schreibarbeit ersparen wollen, führen wirnun für die Ableitungen folgende Notation ein:

∂φ

∂x= φ,x ;

∂φ

∂xα= φ,α (7.3.26)

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 246

Der Index α erscheint unten, was äquivalent zu oben unter dem Bruchstrichist. Dies ist mit den Transformations-Regeln konsistent. Insbesondere ist

xα,β ≡∂xα

∂xβ= δβ

α (7.3.27)

Dies ist ähnlich zur schon bekannten Beziehung

ω(eβ) = δβα (7.3.28)

Wir können dies nun auch mit 7.3.22 vergleichen und sehen, dass auch

dxα(eβ) = δβα (7.3.29)

gilt. Somit können wir den durchaus folgeschweren Schluss

dxα ≡ ωα (7.3.30)

ziehen, was bedeutet, dass die Basis der 1-Formen die einzelnen ”Differentia-le” sind. Nun wissen wir zum ersten Mal konkret, wie die Basis im Dualraumaussieht. Somit können wir für eine beliebige Funktion f

df =(∂f

∂x1,∂f

∂x2,∂f

∂x3

)=

∂f

∂xαωα =

∂f

∂xαdxα (7.3.31)

schreiben. Dabei muss nun beachtet werden, dass df kein Differential an sich

ist, sondern ein(

01

)-Tensor. Dies muss so sein, da df apriori keine Richtung

angibt, sondern erst, wenn es mit einem Vektor kontrahiert wird.

df(eβ) =∂f

∂xαdxα(eβ) =

∂f

∂xαδαβ =

∂f

∂xβ= f,β (7.3.32)

Der Ausdruck df kann auch einen infinitessimalen Wert haben, aber nur wenner wieder mit einem Vektor kontrahiert wird, d.h.

∂~vf =⟨df, ~v

⟩∂αf =

∂f

∂xα= f,α =

⟨df, eα

⟩(7.3.33)

Diese Schreibweise ist vergleichbar mit jener der bra-ket-Vektoren der Dirac-formulierung der Quantenmechanik. Dies ist auch nicht zufällig, doch auf daswollen wir hier nicht genauer eingehen.

7.3.9 Normale (senkrechte) 1-Formen

Ein Normalenvektor ist ein Vektor, welcher senkrecht zu einer Fläche steht.Um ihn zu definieren, wird ein Skalarprodukt und damit eine Metrik benötigt.Er ist dann senkrecht zu einem Tangentialvektor einer Fläche.

Doch wie sieht es nun mit einem Pendant bei den 1-Formen aus? Das in-teressante ist, dass eine normale 1-Form ohne Bezug auf eine Metrik definiert

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 247

werden kann. Sie ist nämlich dann normal zu einer Fläche, wenn sie mit einemTangentialvektor kontrahiert Null ergibt. Dies wie gesagt ohne Metrik.

ω⊥(~T ) = 0 (7.3.34)

Dies rührt daher, dass die Kontraktion wie schon erwähnt fundamentaler alsdas Skalarprodukt ist. Für eine geschlossene Fläche ist eine normale 1-Formauswärts gerichtet, wenn ihre Kontraktion mit Vektoren die auswärts weisenpositiv ist.

7.4 (0, 2)-Tensoren: 2-Formen

Wir haben uns nun ausgiebig mit den 1-Formen beschäftigt. Es stellt sich nundie Frage, was ist die nächst höhere Stufe einer 1-Form. Wir haben gesagt,

1-Formen seien(

01

)-Tensoren, welche einen Vektor als Argument ”fressen”

konnte. Die nächst höhere Stufe, also die(

02

)-Tensoren, haben 2 Vektoren

als Argumente, wie z.B. der metrische Tensor g ( , ).(

02

)-Tensoren können

am einfachsten durch das äußere Produkt zweier 1-Formen gebildet werden(wobei dies nicht die einzige Möglichkeit ist):

Falls p und q zwei 1-Formen sind, dann ist p ⊗ q das äußere Produkt

und somit ein(

02

)-Tensor. Steckt man in die ”Schlitze” zwei Vektoren, dann

ergibt sich eine reelle Zahl, d.h.

p⊗ q(~A, ~B

)= p

(~A)· q(~B)

(7.4.1)

Dabei steht auf der linken Seite das äußere (oder auch tensorielle) Produkt⊗ der beiden 1-Formen p und q und auf der rechten Seite steht das einfachearithmetische Produkt ·, da hier nur zwei reelle Zahlen miteinander multipliziertwerden (erinnere: eine 1-Form die einen Vektor frisst ergibt eine reelle Zahl).

Wir haben gesehen, dass das äußere Produkt ⊗ einen Tensor höhererStufe erzeugen kann. Dabei haben wir das äußere Produkt noch sehr abstraktdefiniert und ihm nur diese Eigenschaft zugeschrieben.

Definition 7.4.1. Das äußere Produkt ⊗ erzeugt aus zwei Tensorenniedrigerer Stufe einen Tensor höherer Stufe. Es ist wie folgt definiert:

p⊗ q(~A, ~B

)= p

(~A)· q(~B)

(7.4.2)

Das äußere Produkt⊗ ist nicht kommutativ! Dies ergibt sich aus der Definition,da

q ⊗ p(~A, ~B

)= q

(~A)· p(~B)6= p

(~A)· q(~B)

(7.4.3)

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 248

7.4.1 Die Komponenten eines (0, 2)-Tensors

Der allgemeinde(

02

)-Tensor ist nicht einfach ein äußeres Produkt zweier(

01

)-Tensoren, doch kann er als Summe von

(01

)-Tensoren dargestellt

werden.

Betrachten wir nun die Komponenten eines allgemeinden(

02

)-Tensors:

fαβ = F (eα, eβ) (7.4.4)

Da jeder Index z.B. für N = 3 drei Werte annehmen kann, gibt es 3 × 3 = 9Komponenten, die man sich als Matrix angeordnet vorstellen kann. Hierbei istanzumerken, dass die oft gebrauchte Formulierung ein Tensor ist ”so etwaswie eine Matrix” falsch ist, denn erstens würde dies ohnehin nur für Tensoren

2. Stufe gelten, und zweitens wird der wichtige Unterscheid zwischen(

02

)-,(

11

)- und

(20

)-Tensoren nicht gemacht. Der Wert (eine reelle Zahl) von F

bei Anwendung auf zwei Vektoren ~A und ~B ist

F(~A, ~B

)= F

(Aαeα, B

β eβ

)= AαBβF (eα, eβ) = AαBβfαβ (7.4.5)

Es stellt sich nun die Frage, können wir eine einfach Basis für diese Ten-

soren angeben? Wir müssten jetzt 3 × 3 = 9(

02

)-Tensoren (sogenannte

2-Formen) ωαβ finden, so dass

F = fαβωαβ (7.4.6)

gilt. Damit würde für die Komponenten gelten:

fµν = F (eµ, eν) = fαβωαβ (eµ, eν) (7.4.7)

Analog zu 7.3.16 folgt nun eindeutig, dass

ωαβ (eµ, eν) = δµαδν

β (7.4.8)

denn dann wärefµν = fαβδµ

αδνβ

Nun gilt ja aber nach 7.3.16 δµ α = ωα (eµ) und δν β = ωβ (eν). Somit ist dannalso

ωαβ (eµ, eν) = δµαδν

β = ωα (eµ) · ωβ (eν) (7.4.9)

und dies ist jaωαβ = ωα ⊗ ωβ (7.4.10)

Daraus folgt aber, dass die Tensoren ωα ⊗ ωβ die Basis aller(

02

)-Tensoren

bilden!F ( , ) = F = fαβω

αβ = fαβωα ⊗ ωβ (7.4.11)

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 249

Es ist leicht zu erkennen, dass das Transformationsverhalten der Kompo-

nenten eines(

02

)-Tensors für eine beliebige Transformation

fαβ = Λα µΛβνfµν (7.4.12)

gehorchen muss.

7.4.2 Symmetrisierung

Wir haben gesehen, dass ein(

02

)-Tensor zwei Vektoren als Argument hat,

wobei die Reihenfolge eine wichtige Rolle spielt. Wir definieren nunDefinition 7.4.2. Ein Tensor f heißt symmetrisch, wenn gilt

f(~A, ~B

)= f

(~B, ~A

)∀ ~A, ~B (7.4.13)

Dies entspricht der Bedingung für eine symmetrische Matrix, bei der ja dieElemente gespiegelt an der Hauptdiagonalen gleich sind.

Wir können nun aus einem beliebigen(

02

)-Tensor einen symmetrischen

Tensor durch folgende Regel bilden:

H(s)

(~A, ~B

)=

12H(~A, ~B

)+

12H(~B, ~A

)(7.4.14)

In Komponenten entspricht dies

H(s) (eα, eβ) = H(s)αβ =12H (eα, eβ) +

12H (eβ, eα)

=12

(Hαβ +Hβα)

=: H(αβ) (7.4.15)

Hier isH(s) der ausH konstruierte symmetrische Tensor, der die KomponentenH(αβ) hat. Beachte dabei, dass der Tensor H(αβ) nicht das Gleiche wie Hαβ

ist.Wir zeigen dies am Beispiel einer Matrixdarstellung.

Beispiel Sei

C =(

1 23 4

)dann ist nach 7.4.15 C(αβ) = 1

2 (Cαβ + Cβα).

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 250

Die einzelnen Komponenten des symmetrischen Tensors sind somit

C(11) =12

(C11 + C11) = C11 = 1

C(22) =12

(C22 + C22) = C22 = 4

C(12) =12

(C12 + C21) =12

(2 + 3) =52

C(21) =12

(C21 + C12) =12

(3 + 2) =52

Der symmetrische Tensor C(s) ist nun

C(s) =(

1 5/25/2 4

)

7.4.3 Anti-Symmetrisierung

Analog werden auch anti-symmetrische Tensoren definiert.Definition 7.4.3. Ein Tensor f heißt anti-symmetrisch, wenn gilt

f(~A, ~B

)= −f

(~B, ~A

)∀ ~A, ~B (7.4.16)

Setzen wir wiederum ~A = eα und ~B = eβ erhalten wir

F (eα, eβ) = fαβ = −F (eβ, eα) = −fβα (7.4.17)

Ein anti-symmetrischer Tensor kann immer durch folgende Vorschrift defi-niert werden:

H(A)

(~A, ~B

)=

12H(~A, ~B

)− 1

2H(~B, ~A

)⇒ H(A) (eα, eβ) =

12H (eα, eβ)− 1

2H (eβ, eα)

=12

(Hαβ −Hβα)

=: H[αβ] (7.4.18)

Somit ist

Hαβ =12

(Hαβ +Hβα) +12

(Hαβ −Hβα)

= H(αβ) +H[αβ] (7.4.19)

Daraus lässt sich eine sehr wichtige Eigenschaft ableiten:

Jeder(

02

)-Tensor kann eindeutig in seinen symmetrischen und anti-

symmetrischen Anteil zerlegt werden.

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 251

Beispiel Es sei wieder

C =(

1 23 4

)Nach 7.4.18 giltC[αβ] = 1

2 (Cαβ − Cβα). Die Komponenten des anti-symmetrischenTensors sind nun

C[11] =12

(C11 − C11) = 0

C[22] =12

(C22 − C22) = 0

C[12] =12

(C12 − C21) =12

(2− 3) = −12

C[21] =12

(C21 − C12) =12

(3− 2) =12

und es folgt

C(A) =(

0 1/2−1/2 0

)Wir wollen nun zeigen, dass der symmetrische und anti-symmterische Tensorin der Tat den ursprünglichen Tensor C erzeugen

C = C(S) + C(A) =(

1 5/25/2 4

)+(

0 −1/21/2 0

)=(

1 + 0 5/2− 1/25/2 + 1/2 4 + 0

)=(

1 23 4

)Der metrische Tensor ist ebenfalls symmetrisch:

g(~A, ~B

)= g

(Aαeα, B

β eβ

)= AαBβg (eα, eβ) = AαBβgαβ

g(~B, ~A

)= g

(Bβ eβ, A

αeα

)= BβAαg (eβ, eα) = AαBβgβα (7.4.20)

Da nun das Skalarprodukt ja eine Zahl ist und diese unabhängig der Reihen-folge wie es gebildet wird immer die gleiche Zahl ergibt ist nun ersichtlich,warum

~A · ~B = AαBβgαβ = ~B · ~A = BβAαgβα (7.4.21)

alsog(~A, ~B

)= g

(~B, ~A

)(7.4.22)

und somit gilt natürlich auch gαβ = gβα

7.5 Die Metrik als Abbildung von Vektoren in 1-Formen

Sicherlich hat sich der Leser schon die Frage gestellt, ob Vektoren in 1-Formenumgewandelt werden können. Die Antwort zu dieser Frage ist ja. Wie das gan-ze funktioniert? Mit der schon so oft erwähnten Metrik.

Betrachten wir g ( , ) = g:

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 252

Der metrische Tensor ist vom Typ(

02

), was bedeutet, dass er zwei

Vektoren als Argumente braucht. Es sei also ~V ein Vektor. Dann ist g(~V ,)

nichts anderes als eine 1-Form, da dieses Konstrukt einen Vektor als Argu-ment braucht um eine reelle Zahl zu erzeugen, genau wie eine 1-Form auch.Somit ist

g(~V ,)≡ V ( ) (7.5.1)

⇒ V(~A)≡ g

(~V , ~A

)= ~V · ~A

da g ( , ) symmetrisch ist, gilt somit auch

V ( ) = g(, ~V)

Wie wollen uns nun fragen, wie die Komponenten von V ( ) aussehen. Dazusetzen wir in bekannter Manier den Basis-Einheitsvektor in 7.5.1 ein.

Vα = V (eα) = ~V · eα = eα · ~V = eα ·(V β eβ

)= (eα · eβ)V β

≡ gαβVβ

Wir sehen alsoVα = gαβV

β (7.5.2)

Die Metrik macht also aus einem Vektor ~V mit den Komponenten V β eine 1-Form mit Komponenten Vα. Hier erkennen wir auch wieder die Notwendigkeitzwischen Ko- und Kontravarianten Vektoren zu unterscheiden.

Es gibt jedoch Fälle wo dieser Unterschied nicht zum Vorschein kommt.Dies ist leider (oder zum Glück) bei der Euklidischen Metrik der Fall:

(δαβ) =

1 0 00 1 00 0 1

(7.5.3)

Deswegen war es bis vor kurzem auch nicht notwendig, zwischen Vektorenund 1-Formen zu unterscheiden. Es galt also Vα = V β. Doch schon bei einerkleinen Änderung in der Metrik, wie z.B. im Minkowski-Raum in der speziellenRelativitätstheorie, ist die Unterscheidung extrem wichtig.

(ηαβ) =

−1 0 0 00 1 0 00 0 1 00 0 0 1

(7.5.4)

Betrachten wir als Beispiel die nullte Komponente eines Vektors im Minkowski-Raum.

V0 = ηαβVβ = η00V

0 + η01V1 + η02V

2 + η03V3

= −1V 0 + 0= −V 0

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 253

Wir sehen, die Komponente ist nicht mehr gleich. Die äquivalente Betrachtungfür die erste Komponente liefert

V1 = η1βVβ = η10V

0 + η11V1 + η12V

2 + η13V3

= 0V 0 + 1V 1 + 0V 2 + 0V 3

= V 1

Die anderen Komponenten berechnen sich gleich und wir erhalten für den Vek-tor ~V

~V =

V 0

V 1

V 2

V 3

die 1-Form

V = (V0, V1, V2, V3) =(−V 0, V 1, V 2, V 3

)Bei komplizierteren Metriken können die Unterschiede zwischen Vektor und1-Form erheblich größer sein.

Die ganze Geschichte funktioniert natürlich auch in umgekehrter Richtung,also von 1-Form zu Vektor. Auch dies geschieht wiederum mit der Metrik.

Da Vα = ηαβVβ ist, und ηαβ als Komponenten einer Matrix aufgefasst wer-

den können, müssen wir für die Umkehrung lediglich die ”inverse Matrix” fin-den. Jene existiert jedoch nur, wenn die Determinante nicht verschwindet (sie-he 6.3.1).

Wir sehen schnell, dass dies für den Euklidischen- und Minkowski-Raumgilt. Die inverse von 7.5.3 und 7.5.4 existieren also.

Sei(ηαβ)

die inverse von (ηαβ); dann gilt:

Aα = ηαβAβ (7.5.5)

Weiters giltAβ = ηαβA

α = ηαβηαγAγ = δβ

γAγ (7.5.6)

Wie sieht nun ηαβ aus? Wegen ηαβηαγ = δβγ folgt mit Hilfe von 7.5.4

η00 = −1, η0i = 0, ηij = δij i, j = 1, 2, 3 (7.5.7)

d.h. die Komponenten, von(ηαβ)

sind gleich denen von (ηαβ).Wir wollen an dieser Stelle nochmals eine Anmerkung zum Gradienten

machen. Mit dem Gradienten, d.h. der 1-Form dφ, können wir nun auch einenGradientenvektor ~dφ assoziieren. Seine Komponenten sind durch

(dφ)α = ηαβ (dφ)β (7.5.8)

gegeben. ~dφ ist wie gewohnt orthogonal zu Flächen gerichtet. Das innere Pro-dukt dieses Vektors mit einem Vektor, der in der Tangentialfläche liegt, ist somitNull. Dies wäre aber auch identisch mit dφ

(~V)

, was die Änderungsrate von

φ entlang ~V angibt. Liegt nun ~V in der Tangentialfläche, ist auch jene Ände-rungsrate Null, da hier φ = const.

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 254

Für was brauchen wir überhaupt eine Metrik? In der Physik ist das Ska-larprodukt von Vektoren sehr oft nützlich. Um aus zwei Vektoren einen Skalar

zu generieren braucht man einen(

02

)-Tensor, also eine Metrik.

Weiters gibt die Metrik dem Raum eine Struktur. Sie beschreibt, wie starker gekrümmt ist, wie ich von Punkt A zu Punkt B komme und wie groß die Ab-stände zwischen den einzelnen Punkten sind. Es ist die Metrik, die letztendlichdem euklidischen Raum seine typischen Eigenschaften gibt.

Räume, bei denen die Norm eines Vektors positiv definit ist (siehe wei-ter unten) nennt man Riemann’sche Räume. Räume, bei denen die Normindefinit ist (wie etwa der Minkowski-Raum), werden Pseudo-Riemann’schgenannt.

Es sei hier auch noch erwähnt, dass es durchaus auch antisymmetrischeMetriken gibt. In der Quantenmechanik findet z.B. eine solche Metrik Anwen-dung, nämlich jene des Spinor-Raumes.

7.6 Exkurs: Die Quantenmechanik als Beispiel einerAnwendung in der Physik

In der Quantenmechanik wird sehr viel vom bis jetzt Besprochenen Gebrauchgemacht. Die Lösung der Schrödingergleichung ist die Wellenfunktion Ψ (~x).Diese ist komplex (und nicht nur im Auffinden der Lösung...). Sie ist ein Ele-ment des sogenannten Hilbert-Raumes eines Vektorraumes, der quadrat inte-grablen Funktionen φ (~x).

In der Quantenmechanik ist das innere Produkt zwischen einer Funktionφ (~x) und einer Wellenfunktion Ψ (~x) nicht∫

φ (~x) Ψ (~x) d3x

sondern ∫φ∗ (~x) Ψ (~x) d3x

wobei φ∗ (~x) die zu φ (~x) komplex konjugierte Funktion ist.Wir können somit sagen, dass φ∗ (~x) wie eine 1-Form auf Ψ (~x) wirkt und

nur so das innere Produkt auch wirklich eine reelle Zahl ist. Die Operation deskomplex Konjugierens wirkt wie eine Metrik und transformiert φ (~x) → φ∗ (~x),d.h. einen Vektor in eine 1-Form.

Dieser Dualismus zwischen φ und φ∗ kann am besten in der Dirac’schen”bra”- und ”ket”-Schreibweise gesehen werden. Die Elemente des Raumesaller Teilchenzustände sind ket-Vektoren | 〉, während die Elemente aus demDualraum bra-Vektoren 〈 | sind.

So bilden die Vektoren |1〉 und |2〉 keine reelle Zahlen, sondern nur zumBeispiel 〈2| 1〉 bildet eine reelle Zahl und damit einen meßbaren Zustand.

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 255

7.7 Norm und Skalarprodukt von 1-Formen

Dass ein Vektor eine Norm (respektive einen Betrag) besitzt und dass diesereine Zahl ist, braucht hier wohl nicht genauer diskutiert zu werden. Für jedenVektor gilt

p2 = pαpα = gαβpαpβ = ~p2 = p2 (7.7.1)

und dies gilt somit auch für die 1-Form. Dies haben wir in 7.7.1 etwas intuitivaufgeschrieben und wollen es nun explizit zeigen. Dazu bilden wir die Vektoren~p in eine 1-Form ab und bilden so die Norm.

p2 = gαβ (gαµpµ)(gβνpν

)(7.7.2)

Es muss hier beachtet werden, dass jede unabhängige Summation in 7.7.2durch einen eigenen Index beschrieben wird, einem sogenannten Dummy-Index. Da nun gαβ und gβν zueinander invers sind, kollabiert eine Summationüber β zu gαβgβν = δα

ν (siehe 6.1.10). Somit wird aus 7.7.2

p2 = gαµpµδανpν = gαµpµpα (7.7.3)

Wir sehen, dass mit Hilfe des inversen metrischen Tensors die Norm einer1-Form aus ihren Komponenten gebildet werden kann.

Als Beispiel dazu die Norm einer 1-Form im Minkowski-Raum:

p2 = − (p0)2 + (p1)2 + (p2)2 + (p3)2 (7.7.4)

Als Vergleich dazu die Norm eines Vektors im Minkowski-Raum (wir sehen,der inverse metrische Tensor ist mit dem nicht inversen identisch)

~A2 = −(A0)2 +

(A1)2 +

(A2)2 +

(A3)2 (7.7.5)

7.7.1 Inneres Produkt zweier 1-Formen

Analog zu Vektoren, kann man nun auch das innere Produkt (Skalarprodukt)für eine 1-Form definieren. Ausgehend von der Definition der Norm schreibenwir das innere Produkt in der Form

p · q =12

[(p+ q)2 − p2 − q2

](7.7.6)

=12

[gαµ (pµ + qµ) (pα + qα)− gαµpµpα − gαµqµqα]

an. Dass dies Zweckmässig ist und zum gewünschten Resultat führt, wollenwir nun zeigen. Wir müssen diese Schreibweise wählen, da wir bis jetzt nur dieNorm definiert haben und in 7.7.6 auch nur Normen verwendet (die Summezweier 1-Formen ist ja wiederum eine 1-Form) haben. Es ist dann also z.B. imeuklidischen Raum in Komponenten-Schreibweise

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 256

p · q =12

[(p1 + q1)2 + (p2 + q2)2 + (p3 + q3)2 − (p1)2 − (p2)2 − (p3)2

− (q1)2 − (q2)2 − (q3)2]

=12

[(p1)2 + 2p1q1 + (q1)2 + (p2)2 + 2p2q2 + (q2)2 + (p3)2 + 2p3q3 + (q3)2

− (p1)2 − (p2)2 − (p3)2 − (q1)2 − (q2)2 − (q3)2]

Dabei fallen einige Terme weg und wir erhalten

=12

[2p1q1 + 2p2q2 + 2p3q3]

= p1q1 + p2q2 + p3q3

Im Minkowski-Raum erhält man analog

p · q = −p0q0 + p1q1 + p2q2 + p3q3

7.8 Allgemeine (M, N)-Tensoren

Bis jetzt haben wir uns nur mit speziellen Formen der Tensoren beschäftigtund dadurch einen Einblick in diese Welt bekommen. Nun möchten wir die

Eigenschaften zu allgemeinen Tensoren der Stufe(MN

)abstrahieren.

Der Dualismus zwischen Vektoren und 1-Formen ist vollständig. Wir haben1-Formen als lineare Funktionen von Vektoren kennengelernt, d.h. Vektorenwerden die Argumente von 1-Formen, die dann als Ergebnis reelle Zahlenproduzieren. Wir konnten auch zeigen, dass die Umkehrung ebenfalls gilt, also

p(~V)≡ ~V (p) ≡ pαV α ≡

⟨p, ~V

⟩(7.8.1)

Auf diese Weise haben Vektoren als Argument von Tensoren (z.B. 1-Formen)ihre Sonderstellung verloren und wurden selbst zu Tensoren. Die Notation 〈 , 〉soll diese Gleichstellung von Vektoren mit Tensoren veranschaulichen. Wir er-kennen auch, dass die Kontraktion (Verjüngung) von Tensoren die fundamen-tale Operation ist durch die sich der Dualismus manifestiert.

7.8.1 (M, 0)-Tensoren

Definition 7.8.1. Ein(M0

)-Tensor ist eine lineare Funktion, die M

1-Formen in die reellen Zahlen abbildet.

So ist zum Beispiel ein einfacher(

20

)-Tensor durch ~V ⊗ ~W erzeugt. Dieser

besitzt 2 ”Slots”, in die jeweils eine 1-Form (z.B. p oder q) gesteckt werden

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 257

kann. Es gilt dann

~V ⊗ ~W (p, q) = ~V (p) ~W (q) ≡ p(~V)q(~W)

= V αpαWβqβ (7.8.2)

Die Komponenten des(

20

)-Tensors ~V ⊗ ~W ( , ) sind also durch V αW β ge-

geben.Die Basis eines solchen Tensors finden wir leicht und ist z.B.

eα ⊗ eβ (7.8.3)

Analog zum obigen Beispiel werden(M0

)-Tensoren gebildet. Die Operation

⊗ steht für das äußere Produkt, welches als Resultat einen Tensor höhererStufe erzeugt.

Die Komponenten eines(M0

)-Tensors sind die reellen Zahlen, welche

entstehen, wenn die Argumente von(M0

)die Basis-1-Formen ωα sind. Be-

achte dabei, dass(M0

)-Tensoren nur kontravariante Indizes haben (also

solche, die oben stehen).

7.8.2 (M, N)-Tensoren

Die naheliegende Verallgemeinerung aus dem Vorhergegangen ist somit:

Definition 7.8.2. Ein(MN

)-Tensor ist eine lineare Funktion die M

1-Formen und N Vektoren als Argumente hat und in die reellen Zahlenabbildet.

Sei zum Beispiel < ein(

11

)-Tensor, dann besitzt dieser zwei ”Schlitze” um

eine reelle Zahl erzeugen zu können. Einen für eine 1-Form p und einen füreinen Vektor ~A. Die Komponenten dieses Tensors sind dann durch

Rβα = < (ωα; eβ) (7.8.4)

gegeben.

Ein(MN

)-Tensor hat somit M kontravariante und N kovariante Indizes.

Transformieren wir nun Rβ α in ein neues Bezugssystem, so gilt:

Rβα = <

(ωα; eβ

)= <

(Λµ αωµ; Λβ

ν eν

)= Λµ αΛβ

ν< (ωµ; eν) = Λµ αΛβνRν

µ (7.8.5)

Die Transformation im allgemeinen Fall funktioniert analog und ist sehr einfach.Jeder Index bringt eine Tranformationsmatrix Λ ins Spiel, wobei die Indizesgemäß der Summenkonvention angeordnet werden.

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 258

Ein Wort noch zur Notation. Wir schreiben für einen(MN

)-Tensor

<(p, q, . . . ;~b,~c, . . .

)(7.8.6)

wobei ein Komma hier die Trennung der einzelnen gleichartigen Elemente an-gibt (trennt die einzelnen Vektoren und 1-Formen ab) und ein Semikolon dieTrennung zwischen den 1-Formen und Vektoren als Gesamtheit bezeichnet.Die Komponenten von 7.8.6 schreiben wir wie folgt

Rµν...αβ... = <

(ωα, ωβ, . . . ; eµ, eν , . . .

)(7.8.7)

7.8.3 ”Index-Gymnastik”

Wir haben gesehen, dass wir mit Hilfe des metrischen Tensors einen Vektor ~Vin eine 1-Form V überführen können.

Vα = ηαβVβ

In gleicher Weise erzeugen wir mittels der Metrik aus einem(MN

)-Tensor

einen(M − 1N + 1

)-Tensor. Analog dazu, können wir auch mittels der inversen

Metrik(ηαβ)

aus einem(MN

)-Tensor einen neuen

(M + 1N − 1

)-Tensor ge-

nerieren. Allgemein wird in der deutschen Literatur als Überschiebung dieKontraktion eines oberen Indizes eines Tensors mit einem unteren eines an-deren Tensors bezeichnet. Die Kontraktion über einen Index eines Tensors,d.h. das Gleichsetzen eines oberen und eines unteren Indizes und anschlie-ßender Summation wird als Verjüngung bezeichnet. Hierdurch entsteht aus

einem(MN

)-Tensor ein

(M − 1N − 1

)-Tensor.

Ein Beispiel: Betrachten wir den(

21

)-Tensor Tγ αβ, dann gilt

Tβγα = ηβµTγ

αµ (7.8.8)

Wir haben also aus einem(

21

)-Tensor einen

(12

)-Tensor generiert. Wei-

ters können wir unter anderem die Tensoren

Tαβγ = ηαµTγ

µβ (7.8.9)

(beachte, dieser Tensor ist komplett verschieden zu 7.8.8) oder den(

30

)-

TensorTαβγ = ηγµTγ

αβ (7.8.10)

generieren.

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 259

7.8.4 Metrik mit gemischten Komponenten

Wir haben gesehen, dass die Komponenten der Metrik durch ηαβ gegebensind und jene der inversen durch ηαβ. Wir können nun auch für den metrischenTensor einen Index rauf oder herunter ziehen,

ηβα = ηαµηµβ ≡ δβ α (7.8.11)

da (ηαµ) und (ηµβ) inverse Matrizen sind.Ziehen wir noch einen Index hoch, ergibt sich lediglich eine Identität

ηαβ = ηµβηµα = ηµβδµ

α ≡ ηαβ (7.8.12)

Für den metrischen Tensor g sind die kontravarianten Komponenten gleichjener Elemente der Matrix, die zu den kovarianten Komponenten von g inverssind. Der metrische Tensor ist der einzige Tensor, für den dies gilt!

7.9 Differentiation von Tensoren allgemein

Wie Tensoren abgeleitet werden, haben wir schon im Kapitel 7.3.8 kurz ange-

sprochen. Wir wollen uns erinnern, dass eine Funktion F ein(

00

)-Tensor

ist, und der Gradient dF ein(

01

)-Tensor. Die Differentiation eines

(MN

)-

Tensors erzeugt somit einen(

MN + 1

)-Tensor.

Es sei zum Beispiel <(t) ein(

11

)-Tensor mit den Komponenten R(t)β

α.

Wir können nun allgemein < schreiben als

<(t) = R(t)βαωβ ⊗ eα (7.9.1)

Die Ableitung von <(t) nach t ist dann gegeben durch den Differenzenquotient

d<(t)dt

= lim∆t→0

<(t+ ∆t)−<(t)∆t

(7.9.2)

Da die Basisvektoren und Basis-1-Formen sich nicht mit t ändern sollen, d.h.ω(t+ ∆t) = ω(t) folgt

d<(t)dt

=(dRβ

α

dt

)ωβ ⊗ eα (7.9.3)

da wie gesagtdωβ

dt=deαdt≡ 0

Wie im Falle des Gradienten gilt aber

φ,α ≡∂φ

∂xα

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 260

unddφ

dt=

∂φ

∂xαUα

womit also giltdφ

dt= φ,αU

α

Wir können nun also folgendes schreiben

dRβα

dt= Rβ,γ

αUγ (7.9.4)

Dabei ist d<dt ein

(11

)-Tensor, da er ja nach der Definition des Differenzen-

quotientes nur die Differenz von zwei(

11

)-Tensoren ist. Aufgrund der Kon-

traktion mit ~U ist Rβ,γ α aber ein(

12

)-Tensor. Es ist somit

d<dt

=(Rβ,γ

αωβ ⊗ eα)Uγ

da Uγ = dxγ

dt . Es ist nun

∂<∂xσ

=(Rβ,γ

αωβ ⊗ eα)⊗ ∂xγ

∂xσωσ =

(Rβ,γ

αωβ ⊗ eα)⊗ δσ γωσ (7.9.5)

Der Gradient des Tensors < ist nun

~∇< =∂<∂xσ

= Rβ,γαωβ ⊗ eα ⊗ δσ γωσ

= Rβ,γαωβ ⊗ ωγ ⊗ eα (7.9.6)

Wir benützen die Schreibweise ~∇, da d bereits für einen anderen Zweck reser-viert ist. Es gilt ferner als Notation

d<dt≡ ~∇~U<

Dies bedeutet nicht, dass nach ~U differenziert wird, sondern entlang einer Kur-ve, zu der ~U tangential ist.

d<dt≡ ~∇~U< → {Rβ,γ

αUγ}

Bei dieser Herleitung wurde benutzt, dass sich die Basis-Vektoren und Basis1-Formen nicht mit dem Ort ~x ändern. Genau das ist aber zum Beispiel in derallgemeinen Relativitätslehre nicht mehr gegeben, da ändert sich die Metrikvon Ort zu Ort.

Wir werden dann sehen, dass die örtliche Änderung der Metrik mit Hilfeder Christoffel-Symbole beschrieben werden kann.

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 261

7.10 Spezielle Tensoren

7.10.1 Kronecker-Delta

Wir haben es schon oft benutzt, jetzt wollen wir es endlich systematisch ein-führen: das Kronecker-Delta. Wir haben die exakte Definition bewusst bis jetztherausgezögert, damit wir die Tensorform des Kronecker-Deltas sichtbar ma-chen konnten um es entgegen gängigen Lehrbüchern auch gleich so zu de-finieren. Wir verwenden von jetzt an immer die Tensorform des Kronecker-Deltas.

Definition 7.10.1. Das Kronecker-Delta ist wie folgt definiert:

δji =

{0, i 6= j

1, i = j(7.10.1)

Das Kronecker-Delta ist also ein symmetrischer Tensor, der in der Diagonalennur die Elemente 1 enthält, ansonsten 0.

Eine wichtige Eigenschaft des Kronecker-Delta ist es, dass es gleiche In-dizes austauscht. Also in einem Beispiel:

δjiδm

nAklmi = δnmA

jklm = Akln

j

Weiters betrachten wir noch eine andere Eigenschaft, die hauptsächlichvon der einsteinschen Summenkonvention herrührt. Was bedeutet der Aus-druck δi i? Nachdem über gleiche Indizes von 1 . . . N summiert wird gilt

δii = δ1

1 + δ22 + . . .+ δN

N = 1 + 1 + . . .+ 1 = N (7.10.2)

Da im euklidischen Raum nicht zwischen ko- und kontravarianten Indizes un-terschieden wird, gilt dort: δj i = δij = δij

7.10.2 Epsilon-Tensor (Levi-Civita Symbol)

Auch schon oft angetroffen aber nie richtig definiert wurde der Epsilon-Tensor(auch Levi-Civita Symbol genannt). Er ist ein vollständig anti-symetrischer Ten-sor.

Definition 7.10.2. Der Epsilon-Tensor (Levi-Civita Symbol) ist wiefolgt definiert:

εij...k = εij...k =

+1, gerade Anz. von paarweisen Permutationen−1, ungerade Anz. von paarweisen Permutationen0, wenn zwei oder mehrere Indizes gleich sind

(7.10.3)

Zum Beispiel gilt:εijkl = −εjikl = +εjkil = . . .

Die erste Vertauschung von i und j ist ungerade, daher das Minuszeichen.Werden zusätzlich noch i und k vertauscht, so hat man eine gerade Anzahlvon Permutationen, daher das Pluszeichen.

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 262

Der Epsilon-Tensor kann auch in einer gemischten Form auftreten. Dabeigelten die gleichen Eigenschaften wie bei der nicht gemischten Form. Es giltdeswegen zum Beispiel für einen Tensor 6. Stufe

εijklmn = εijklmn = εijklmn = εijkl

mn = . . . (7.10.4)

Das Transformationsverhalten des Epsilon-Tensors ist analog zu normalenTensoren

εµνρ = Λµ ηΛν σΛρ τ εηστ (7.10.5)

und im allgemeinen sind die Λµ η 6= 1.Gehen wir nochmals kurz darauf ein, wie die Permutationen vorzunehmen

sind. Im Falle von drei Indizes kann man die geraden und ungeraden Permu-tationen auch als zyklisch und anti-zyklisch betrachten.

k

ji

k

ji

anti-zyklisch zyklisch

Abbildung 7.10.1: Graphische Dar-stellung einer zyklischen und anti-zyklischen Vertauschung

Eine zyklische Permutation liegt dann vor, wenn die Indizes im mathema-tisch positiven Sinn (der vordere Index wird immer nach hinten geschoben)permutiert werden. Die Ausgangssituation ist i, j, k.

i, j, k j, k, i k, i, j

Eine anti-zyklische Permutation ist das exakte Gegenteil, z.B. es wird vonk, j, i gestartet (es kommt nicht darauf an, wo gestartet wird).

k, j, i j, i, k i, k, j

Für alle, die sich lieber was graphisches merken wollen, sind die Permutations-typen auch nochmals in 7.10.1 abgebildet. Da der Epsilon-Tensor 3. Stufe sichauch gut visualisieren lässt, haben wir dies anhand eines Würfels in 7.10.2gemacht.

7.10.2.1 Rechenregeln für den Epsilon-Tensor

Wir wollen nun die Rechenregeln für den Epsilon-Tensor angeben.Man kann sich schnell vergewissern, dass der Epsilon-Tensor in folgender

Form aufgeschrieben werden kann.

εijk =

∣∣∣∣∣∣δi

1 δj1 δk

1

δi2 δj

2 δk2

δi3 δj

3 δk3

∣∣∣∣∣∣ (7.10.6)

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 263

i

j

k

1 2 3

1

2

3

1

2

3

0 0 0

0

0

0

0

1

-1

0 0

0 00

001

-1

-1

1

0 0

0

0 0 0

0

Abbildung 7.10.2: Bildform des Epsilon-Tensors.

Multiplikation zweier Epsilon-Tensoren, keine gleichen Indizes Das Pro-dukt zweier Epsilon-Tensoren 3. Grades schreibt sich in der allgemeinstenForm

εijkεlmn =

∣∣∣∣∣∣δi

1 δj1 δk

1

δi2 δj

2 δk2

δi3 δj

3 δk3

∣∣∣∣∣∣∣∣∣∣∣∣δ1

l δ1m δ1

n

δ2l δ2

m δ2n

δ3l δ3

m δ3n

∣∣∣∣∣∣Damit wir nicht die Determinanten ausschreiben müssen und alles ausmulti-plizieren, erinnern wir uns an die Determinanten-Rechenregel detA · detB =detA · B und transponieren die erste Matrix (das verändert ja den Wert derDeterminante nicht), erhalten wir

εijkεlmn =

∣∣∣∣∣∣δ1i δ2

i δ3i

δ1j δ2

j δ3j

δ1k δ2

k δ3k

∣∣∣∣∣∣∣∣∣∣∣∣δ1

l δ1m δ1

n

δ2l δ2

m δ2n

δ3l δ3

m δ3n

∣∣∣∣∣∣ =

∣∣∣∣∣∣δil δj

l δkl

δim δj

m δkm

δin δj

n δkn

∣∣∣∣∣∣ (7.10.7)

Um zu zeigen, wie man das herleitet, schauen wir uns das erste Element derresultierenden Determinante an. Nachdem die beiden Matrizen miteinandermultipliziert werden (siehe Rechenregel für Determinaten oben), besteht daserste Element der Determinante rechts aus

δi1δ1

l + δi2δ2

l + δi3δ3

l = δikδk

l = δil

Dabei haben wir die Einsteinsche Summenkonvention angewendet.7.10.6 und 7.10.7 können sinngemäss auch auf höherstufige Epsilon-Tensoren

ausgeweitet werden, sollte der Bedarf bestehen.

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 264

Multiplikation zweier Epsilon-Tensoren, ein gemeinsamer Index Wir be-trachten nun den Fall, bei dem zwei Epsilon-Tensoren über einen gemeinsa-men Index summiert werden. Dazu nützen wir die Kontraktion eines Tensorsaus.

εijkεlmk = εijk

lmk = εijlm

Dies ist mittels 7.10.7

εijlm =

∣∣∣∣ δil δj

l

δim δj

m

∣∣∣∣ = δilδj

m − δi mδj l

Somit ist alsoεijkε

lmk = δilδj

m − δi mδj l (7.10.8)

Wir merken an, dass im euklidischen Raum dies identisch ist mit εijkεlmk, dahier die ko- und kontravarianten Komponenten der Tensoren gleich sind.

Multiplikation zweier Epsilon-Tensoren, zwei gemeinsame Indizes Sindzwei Indizes gleich, können wir von der vorher hergeleiteten Relation ausge-hen.

εijkεljk = δi

lδjj − δi jδj l

Nachdem über gleiche Indizes summiert wird, ist δj j = 3. Im zweiten Termδijδj

l werden die Indizes ausgetauscht und wir erhalten

εijkεljk = 3δi l − δi l = 2δi l (7.10.9)

Multiplikation zweier Epsilon-Tensoren, drei gleiche Indizes Sind alle dreiIndizes gleich, wird es ganz einfach. Auch hier wenden wir die gerade erst her-geleitete Identität an

εijkεijk = 2δi i = 6 (7.10.10)

da ja wie schon gezeigt, δi i = 3 ist.

Beispiel Und wozu kann man das alles brauchen? Der Epsilon-Tensor er-leichtert oft das Rechnen mit Kreuzprodukten. Zum Beispiel haben wir im Ka-pitel mit den Vektoren schon vorweggenommen, dass das Kreuzprodukt mit5.2.43 als

~a×~b = εjkiajbk

geschrieben werden kann. Damit können wir beliebige Kombinationen vonKreuzprodukten ausrechnen, ohne dass wir das alles komponentenweise aus-rechnen müssen (was man vielleicht mal gemacht haben muss, damit manvom Epsilon-Tensor endgültig überzeugt ist - zwei Minuten oder einige halbeStunden rechnen macht schon einen Unterschied).

Wir wollen das Verfahren am folgenden Beispiel zeigen.

~a× (~b× ~c)

KAPITEL 7. TENSOREN UND DIFFERENTIALFORMEN 265

Als erstes möchten wir zeigen, wie wir so einen Ausdruck in die Indexschreib-weise übersetzen. Am sichersten ist es, einen Ausdruck von innen nach aus-sen umzuschreiben, also die innerste Klammer zuerst, und sich dann immerweiter nach außen. vorarbeiten

Nachdem im Falle eines Kreuzprodukts ein Vektor resultiert, bleibt immer

ein Index übrig, der den neuen Vektor charakterisiert. Für[~a×~b

]i= εjk

iajbk

wäre dies der Index i. Damit der Überblick über solche Indizes nicht verlorengeht, schreiben wir diese immer hinter die zugehörigen Klammern. Wichtigernoch: während die linke Seite ohne den Index i den neuen Vektor bezeichnenwürde gibt εjk iajbk nur die i-te Komponente an, dafür aber eine beliebige. Mansieht also den Vorteil gegenüber dem explixiten Ausrechnen aller Komponen-ten.

In unserem Beispiel würde das dann der Reihe nach so ausschauen. Wirbeginnen mit der Klammer

~a× (~b× ~c)→[~a× (~b× ~c)

]m= εli

malεjkibjck

Nun gilt es, diesen Ausdruck auszuwerten. Dazu verwenden wir haupt-sächlich die Gleichung 7.10.8, da wir zwei Epsilon-Tensoren miteinander mul-tiplizieren, die einen gemeinsamen Index besitzen. Es ist nun extrem wichtig,welche Reihenfolge die Indizes einnehmen. In Gleichung 7.10.8 steht der ge-meinsame Index immer am Schluss der Epsilon-Tensoren. εmliεjki In unseremFall aber, steht im zweiten Tensor der gemeinsame Index i an erster Stel-le. Unter Berücksichtigung der Eigenschaften der Permutationen von Indizeskönnen wir den Ausdruck εmliεijk in die gewünschte Form bringen. Dazu wirdaus εijk → εjki und wir erhalten und formen dies mit den entsprechenden Re-chenregeln des Kronecker-Deltas um auf

albjckεlimεjk

i = albjck (δj mδlk − δk mδlj) = akbjckδj

m − ajbjckδk m

= akckbm − ajbjcm → (~a · ~c)~b−

(~a ·~b

)~c

Der resultierende Ausdruck kann nun wieder in die Vektorform rückübersetztwerden, indem die Definition des Skalarproduktes in Indexschreibweise 5.2.10berücksichtigt wird.

~a×(~b× ~c

)= ~b (~a · ~c)− ~c

(~a ·~b

)Man beachte die Klammersetzung, die durch das Skalarprodukt vorgegebenist, d.h. im allgemeinen ist ~b (~a · ~c) 6=

(~b · ~a

)~c. Die beschriebene Rechenme-

thode ist vielleicht am Anfang etwas ungewohnt, aber erleichtert zum Glückdas Rechnen erheblich.