Upload
hans-joerg
View
218
Download
2
Embed Size (px)
Citation preview
1 Die linearen Strukturen
Die Begriffsbildungen und Methoden der linearen Algebra gehören zum grundlegenden Instrumentarium der Analysis. Ausgangspunkt ist der lineare Vektorraum, eine Menge von Objekten, genannt Vektoren, versehen mit einer algebraischen Struktur. Diese Struktur, die "Linearität", tritt in der physikalischen Welt im "Superpositionsprinzip" zutage. Die Wirkung mehrerer in einem Punkt angreifender Kräfte manifestiert sich in einer Resultierenden, der "Summe" dieser Kräfte, eine Einzelkraft, in ihrer Wirkung abgeschwächt oder verstärkt, macht sich in einem entsprechenden "Vielfachen" dieser Einzelkraft bemerkbar.
Die Linearität ist nicht nur eine mathematische Abstraktion des physikalischen Prinzips der Superposition. Im folgenden ersten Kapitel sollen die Grundzüge der linearen Algebra entwickelt werden, soweit sie für das Weitere erforderlich sind. Die Darstellung ist dabei bewußt eher abstrakt gehalten, einerseits um die Objekte mit den zugrundeliegenden Strukturen und nicht Größen wie Koordinaten, die sie zahlenmäßig repräsentieren, in den Vordergrund treten zu lassen, andererseits mit Hinblick auf eine Form der Abstraktion, die für das Spätere nicht bloß dienlich, sondern auch notwendig ist. Gewisse algebraische Grundbegriffe, die für den Aufbau benötigt werden, sind für den in diesen Dingen unkundigen Leser in einem Anhang zusammengestellt.
1.1 Der lineare Vektorraum
Unter einem linearen Vektorraum V über einem Zahlenkörper IK1 ) versteht man eine Menge von Objekten - die man Vektoren nennt -, für welche zwei Rechenoperationen erklärt sind, eine Addition c = a + b zweier Vektoren a und b und eine Multiplikation d = ,x. a eines Vektors a mit einer Zahl ,X aus dem Körper IKj der Vektor c heißt die Summe der Vektoren a
und b, der Vektor d das 'x-fache des Vektors a. Die Addition ist eine binäre Operation + : V X V ----) V, die Multiplikation mit einer Zahl eine Abbildung . : IK X V ----) V. Für diese beiden Operationen gelten die folgenden Gesetze:
1) Für das Folgende sei stillschweigend vorausgesetzt, daß der Zahlenkörper IK die Charakteristik Null habe; damit wird verlangt, daß die mit einem beliebigen von 0 verschiedenen Körperelement :z: gebildete n-fache Summe n:z: = :z: + ... + :z: stets ungleich 0 ist (siehe Anhang).
H. J. Dirschmid, Tensoren und Felder© Springer-Verlag/Wien 1996
2 1 Die linearen Strukturen
Die Addition ist
(i) kommutativ: a, b E V :::} a + b = b + a,
(ii) assoziativ: a,b,cEV :::} a+(b+c)=(a+b)+c
(iii) und umkehrbar, d.h. es besteht die Möglichkeit der Subtraktion: Sind a, bE V beliebige Vektoren, so gibt es genau einen Vektor x E V mit a + x = b. Diesen Vektor nennt man die Differenz von bund a und schreibt x = b ~ a.
Aus der dritten Forderung ergibt sich für b = a, daß es genau einen Vektor o E V gibt, für den a + 0 = a für jeden Vektor a gilt, und weiter für b = 0, daß es zu jedem Vektor a E V genau einen Vektor a( -1) gibt, der die Gleichung a + a( -1) = 0 erfüllt. Der Vektor 0 heißt der Nullvektor in V (er ist das neutrale Element bezüglich der Addition), der Vektor a(-l)
heißt das inverse Element von a und wird mit ~a bezeichnet. Man sagt, die Menge V ist bezüglich der so erklärten Addition eine kommutative oder abelsche Gruppe.
Die Multiplikation erfüllt (der "Malpunkt" . wird im folgenden unterdrückt)
(iv) das assoziative Gesetz: A, {L E IK, a E V :::} A({La) = (A{L )a,
(v) das 1. distributive Gesetz: A,{LEIK, aEV:::} (A+{L)a=Aa+{La,
(vi) das 2. distributive Gesetz: A E IK, a, b E V :::} A( a + b) = Aa + Ab,
(vii) a E V :::} 1a = a.
In dieser letzten Forderung ist die Zahl 1 E IK das neutrale Element bezüglich der Multiplikation in IK. Aus (v) ergibt sich durch die Setzung {L = 0 die Gleichung Aa = (A + O)a = Aa + Oa, aus der Oa = 0 für jeden Vektor a E V folgt. Für A = 1, {L = ~ 1 liefert die Forderung (v) o = Oa = [1 + (~1)la = a + (~1)a, woraus hervorgeht, daß das inverse Element ~a als Produkt (~1)a angeschrieben werden kann, die Differenz a ~ b erscheint als Summe a + [( ~1)bl. Setzt man schließlich in (vi) für b = ~a, so erhält man unter Berücksichtigung des eben gewonnenen Ergebnisses AO = A(a ~ a) = Aa ~ Aa = 0, d.h. es ist AO = 0 für jede Zahl A E IK.
Ist IK = IR der Körper der reellen Zahlen, so spricht man von einem reellen Vektorraum, ist IK = C der Körper der komplexen Zahlen, so nennt man V einen komplexen Vektorraum. Wenn im folgenden nicht eigens anderes vermerkt ist, sollen griechische Buchstaben A, {L, ... Zahlen des Grundkörpers IK bezeichnen, während lateinische Buchstaben x, y, ... für Vektoren aus V stehen.
Sind Xl, X2, ••• , X n beliebige Vektoren in V und Al, A2, ... , An Zahlen des Grundkörpers IK, so wird die Summe
A1 X 1 + A2:1::2 + ... + AnXn
1.1 Der lineare Vektorraum 3
eine Linearkombination der Vektoren Xi E V genannt; die Zahlen >'i E IK heißen die Koeffizienten. Für >'1 = >'2 = ... = >'n = 0 ist
>'lX1 + >'2X2 + ... + >'nxn = OX1 + OX2 + ... + OXn
=0+0+···+0=0.
Eine Linearkombination, deren Koeffizienten sämtlich gleich Null sind, wird trivial genannt; ist wenigstens ein Koeffizient von Null verschieden, so spricht man von einer nicht-trivialen Linearkombination.
Ein endliches Vektorsystem S = {Xl, X2, ••• ,Xn } ~ V heißt linear abhängig, wenn der Nullvektor 0 durch eine nicht-triviale Linearkombination von Vektoren aus S dargestellt werden kann, d.h. wenn es Zahlen >'i E IK gibt, von denen wenigstens eine von Null verschieden ist, sodaß gilt
(1.1 )
Ist ein endliches Vektorsystem S nicht linear abhängig, so heißt es linear unabhängig. Aus einer Gleichung (1.1), in der die Vektoren Xl, X2, ••• , Xn
linear unabhängig sind, folgt demnach zwingend >'1 = >'2 = ... = >'n = o. Ist S ~ V eine unendliche Menge von Vektoren, so heißt S linear
abhängig, wenn in S endlich viele linear abhängige Vektoren enthalten sind. Wenn eine unendliche Menge S von Vektoren nicht linear abhängig ist, so wird sie linear unabhängig genannt; da es kein endliches linear abhängiges Teilsystem gibt, besteht für endlich viele Vektoren Xl, X2, .•• , X n aus S eine Gleichung (1.1) nur für >'1 = >'2 = ... = >'n = O.
Sind SI ~ S2 ~ V zwei Teilmengen von V, so ist S2 linear abhängig, wenn SI linear abhängig ist, es ist SI linear unabhängig, wenn S2 linear unabhängig ist. Wegen 10 = 0 kann die Gleichung >'0 = 0 stets in nichttrivialer Weise erfüllt werden, weshalb die allein aus dem Nullvektor bestehende Teilmenge {o} ~ V linear abhängig ist. Gilt demnach für ein beliebiges Vektorsystem S ~ V die Inklusion {o} ~ S, also 0 ES, so ist die Menge S jedenfalls linear abhängig: jede Menge von Vektoren, die den Nullvektor enthält, ist linear abhängig.
Eine Teilmenge E ~ V heißt ein Erzeugendensystem für V, wenn jeder Vektor X E V als Linearkombination von Vektoren aus E dargestellt werden kann,
(1.2)
Ist EI ein Erzeugendensystem für V und EI ~ E2 ~ V, so ist klarerweise auch E2 ein Erzeugendensystem für V; insbesondere ist V selbst ein (triviales) Erzeugendensystem.
Eine Darstellung (1.2) ist in keiner Weise eindeutig, ein und derselbe Vektor X E V kann unter Umständen auch mit Hilfe anderer Vektoren aus E dargestellt werden. Ist jedoch ein Erzeugendensystem E linear unabhängig, so kann ein beliebiger Vektor aus V auf genau eine Weise als Linearkombination von Vektoren aus E dargestellt werden. Würde nämlich für n
4 1 Die linearen Strukturen
Vektoren :l:i E E und für m Vektoren Yj E E die Gleichung
:I: = A1:1:1 + A2:1:2 + ... + An:l:n = /L1Y1 + /L2Y2 + ... + /LmYm
auch nur für einen einzigen Vektor :I: E V, :I: i- 0, bestehen, so wäre das System S = {:l:1' ••. ,:l:n } U {Y1 ... ,Ym} ~ E linear abhängig und nach dem oben Gesagten folglich auch E. Also ist nur mehr die Situation
:I: = AI:l:1 + A2:1:2 + ... + An:l:n = /LI:l:I + /L2:1:2 + ... + /Ln:l:n
denkbar. Durch Subtraktion ergibt sich zunächst
(Al - /Ld:l:1 + (A2 - /L2)X2 + ... + (An - /Ln):l: n = 0,
und daraus schließlich Ai = /Li für i = 1, 2, ... , n, da angenommen wurde, daß das Erzeugendensystem E linear unabhängig ist. Ein System B von Vektoren aus V, welches einerseits linear unabhängig, andererseits ein Erzeugendensystem für V ist, heißt eine Basis für V. Existiert ein endliches Erzeugendensystem für V, d.h. ein Erzeugendensystem bestehend aus endlich vielen Vektoren, so heißt der Vektorraum V endlichdimensional. In diesem Fall hat jede Basis endlich viele Elemente; es läßt sich weiter zeigen, daß jede Basis aus der selben Anzahl von Vektoren besteht. Diese Zahl heißt die Dimension von V, symbolisch dirn V.
Ist V = {o} der "triviale" Vektorraum, der nur aus dem Nullvektor besteht, so vereinbart man dirn V = o. Gibt es kein endliches Erzeugendensystem für V, so heißt der Vektorraum V unendlichdimensional. Solche Vektorräume führen aus der linearen Algebra hinaus. Da sie später auch nicht benötigt werden, soll im folgenden das Augenmerk auf die endlichdimensionalen Vektorräume gerichtet werden, obwohl viele der im weiteren zu besprechenden Begriffsbildungen und Konstruktionen auch für unendlichdimensionale Vektorräume grundlegend sind.
Ist B = {el,e2' •.. ,eN} eine Basis des N-dimensionalen Vektorraumes V, so läßt sich jeder Vektor :I: E V eindeutig in der Form
:I: = X1e1 + X2e2 + ... + XNeN
darstellen. Die Zahlen Xl, X 2 , .•• , X N heißen die Koordinaten 2) des Vektors :I: (in Bezug auf die zugrundeliegende Basis B), der Vektor Xiei wird Komponente von :I: in der Richtung ei genannt.
Ist E ein endliches Erzeugendensystem für einen nicht-trivialen Vektorraum V und S ~ E ein System linear unabhängiger Vektoren, so läßt sich das Vektorsystem S durch Hinzunahme geeigneter Vektoren aus E zu einer Basis B für V ergänzen. Da V nicht-trivial ist, muß jedes Erzeugendensystem E wenigstens einen linear unabhängigen Vektor enthalten, denn andernfalls wäre E = {o} und somit V ein trivialer Vektorraum. Sei also E ein aus m Vektoren bestehendes Erzeugendensystem für V und
2) Im folgenden werden die Koordinaten eines Vektors in Bezug auf eine gewisse Basis mit hochgestelltem Index geschrieben; als "Grundsymbol" für die Koordinaten eines Vektors wird stets der dem Vektor-Symbol entsprechende Großbuchstabe verwendet.
1.1 Der lineare Vektorraum 5
S = {Xl, ••• , X n } ~ & ein System linear unabhängiger Vektoren aus &. Betrachtet man jetzt die Gesamtheit aller Teilmengen von &, welche einerseits linear unabhängige Vektorsysteme sind, anderseits aber die Vektoren Xl, X2, ••• , X n enthalten, so befindet sich unter diesen, da sie ja alle höchstens m Elemente haben können, ein System &0 = {X1, ... ,XN}:2 S mit maximaler Elementezahl N; offenbar ist dabei n :-=; N :-=; m. Ein solches Vektorsystem mit maximaler Elementezahl ist aber eine das System S enthaltende Basis für V. Hiefür ist nur mehr der Nachweis zu erbringen, daß &0 ein Erzeugendensystem ist. Wäre dies - in indirekter Schlußweise - nicht der Fall, so müßte es in & einen Vektor X o geben, der nicht als Linearkombination der Vektoren in &0 dargestellt werden kann, da sonst jeder Vektor aus & - und damit auch jeder Vektor in V - eine Linearkombination der Vektoren aus &0 ist; klarerweise ist X o rt &0. Dies führt aber auf einen Widerspruch zur Maximaleigenschaft von &0' denn das System &0 U {x o } wäre linear unabhängig, es enthält das Vektorsystem S, die Anzahl der Vektoren ist aber um 1 größer als jene von &0.
Berücksichtigt man jetzt, daß jeder Vektorraum ein Erzeugendensystem für sich selbst ist, so erhält man den sogenannten Ergänzungssatz:
Jedes endliche System S linear unabhängiger Vektoren, das kein Erzeugendensystem und somit keine Basis für V ist, läßt sich durch Hinzunahme weiterer Vektoren zu einer Basis B von V ergänzen.
In einem Vektorraum ist keine Basis gegenüber einer anderen ausgezeichnet. Es ist daher von Interesse, wie sich die Koordinaten eines Vektors bei einem Wechsel der Basis verhalten.
Sind B = {e1, e2,· .. , eN} und ß = {e1, e2, ... , eN} zwei beliebige Basen von V, so läßt sich jeder Vektor der einen Basis als Linearkombination der Vektoren der jeweils anderen Basis ausdrücken,
N
ei = La{ ej, i = 1,2, ... ,N. (1.3) j=l
Ist X E V ein beliebiger Vektor, der in Bezug auf die Basis B die Koordinaten Xi, in Bezug auf die Basis ß die Koordinaten Xi hat, so erhält man aus der Gleichung
N N
X = LXjej = LXiei, j=l i=l
wenn man darin aus (1.3) einsetzt, N N N N N
X = LXjej = LLXia{ej = L(La{Xi)ej; j=l i=l j=l j=l i=l
infolgedessen ist N N
L (L a{Xi - Xj)ej = 0
j=l i=l
6 1 Die linearen Strukturen
und somit, da Basisvektoren linear unabhängig sind, N
Xi = La{Xi, j = 1,2, ... ,N. i=l
(1.4)
Dies sind die Transformationsformeln für die Koordinaten eines Vektors bei einem Basiswechsel (1.3). Die Matrix {a{} heißt die Tranajormationamatriz. 3 ) Natürlich lassen sich auch die Vektoren der Basis ß durch die Vektoren der Basis ß ausdrücken,
N
ei = L a{ei' i = 1,2, ... ,N. i=l
Aus diesen Gleichungen erhält man durch eine analoge Rechnung die Transformationsformeln
j = 1,2, ... ,N. (1.5) i=l
Die N -reihigen Transformationsmatrizen {a{} und {a{} sind regulär und zueinander invers.
1.2 Teilräume und Faktorräume
Eine nichtleere Teilmenge U ~ V eines linearen Vektorraumes V über dem Körper IK heißt ein Unterraum oder Teilraum, wenn die beiden "Grundrechnungsarten" in Vektorräumen, die Vektoraddition und die Multiplikation mit einer Zahl aus IK, nicht aus U "hinausführen", d.h. wenn die Summe zweier beliebiger Vektoren aus U stets ein Vektor in U ist,
Ul, U2 EU=? Ul + U2 EU,
und wenn jedes Vielfache eines beliebigen Vektors in U ebenfalls in U liegt,
u E U, A E IK =? Au EU.
Gleichwertig damit ist offenbar die Forderung, daß jede Linearkombination von Vektoren aus U ein Vektor in U ist; also kann man die beiden obigen Bedingungen in einer einzigen zusammenfassen, nämlich in
Ul,U2 E U, Al,A2 E IK =? AlUl + A2U2 EU.
Der Nullvektor 0 E V ist offenbar in jedem Teilraum enthalten, da mit einem Vektor x auch der Vektor Ox = 0 dem Teilraum angehören muß. Die allein aus dem Nullvektor bestehende Teilmenge {o} von V ist klarerweise ein Teilraum, desgleichen der ganze Vektorraum V selbst. Diese beiden Teilräume werden die trivialen Teilräume genannt.
3) Der hochgestellte Index steht für die Zeilennummer , der tiefgestellte Index für die Spaltennummer.
1.2 Teilräume und Faktorräume 7
In einem Teilraum U ~ V können nicht mehr linear unabhängige Vektoren enthalten sein als in V selbst. Hat also der Vektorraum V endliche Dimension, so gibt es in V eine Maximalzahllinear unabhängiger Vektoren und damit erst recht in einem Teilraum U; die Maximalzahl linear unabhängiger Vektoren in U wird die Dimen.'lion des Teilraumes U genannt, symbolisch dirn U. Ein maximales System linear unabhängiger Vektoren aus U heißt eine B a.'li.'l für U. Ist U ein nicht-trivialer Teilraum von V, so gilt 0 < dirn U < dirn V. Sinngemäß vereinbart man dirn { o} = 0 für den trivialen Teilraum {o}, da dieser keinen linear unabhängigen Vektor enthält.
Ist S = {Xl, X2, ••• ,Xn } ~ V eine endliche Menge von Vektoren, so bildet die Menge aller Linearkombinationen Li AiXi der Vektoren Xi E S einen Unterraum, der die lineare Hülle von S genannt wird, symbolisch (S) = (Xl, X2, ••• ,xn ). Die Ausdehnung dieses Begriffs auf unendliche Vektorsysteme liegt auf der Hand.
Sind UI und U2 zwei Teilräume von V, so ist der Durchschnitt UI n U2
ein Teilraum von V. Sind nämlich Xl und X2 zwei Vektoren aus UI n U2 ,
so sind beide Vektoren sowohl in UI als auch in U2 enthalten; deshalb ist eine Linearkombination AIXI + A2X2 ein Vektor in UI wie auch in U2 und folglich im Durchschnitt UI n U2 enthalten.
Hingegen ist die Vereinigung UI U U2 zweier Teilräume von V i.a. kein Teilraum von V. Durch die Vereinigung zweier Teilräume wird jedoch ein Unterraum ausgezeichnet, nämlich die lineare Hülle der Vereinigung, die der "kleinste" die Teilmenge UI U U2 enthaltende Teilraum von V ist und die Summe der Teilräume UI und U2 genannt wird, symbolisch
UI + U2 := (UI U U2 ) •
Ist speziell UI n U2 = {o}, so nennt man die Summe direkt und verwendet zur Kennzeichnung dieses Sachverhalts an Stelle des Summenzeichens + das Symbol EB,
Ist X E U1 + U2 , so ist X eine Linearkombination von Vektoren aus UI
und U2 . Folglich gibt es einen Vektor Xl E UI und einen Vektor X2 E U2 ,
sodaß X = Xl + X2 gilt. Diese Darstellung ist aber i.a. nicht eindeutig, nur wenn die Summe direkt ist, gibt es genau ein Paar solcher Vektoren. Wäre nämlich X = Xl + X2 = YI + Y2, so hieße dies Xl - YI = Y2 - X2; die linke Seite dieser Gleichung ist ein Vektor in UI , die rechte ein Vektor in U2 , also sind beide Seiten im Durchschnitt UI n U2 enthalten. Wenn dieser aber nur aus dem Nullvektor besteht, ist Xl = YI und X2 = Y2'
Allgemein gilt für zwei beliebige Teilräume UI und U2 eines endlichdimensionalen Vektorraumes
dim( U1 + U2 ) + dim( UI n U2 ) = dirn UI + dirn U2 • (1.6)
Um diese Beziehung zwischen den Dimensionen zweier Teilräume und den Dimensionen ihres Durchschnitts bzw. ihrer Summe zu beweisen, geht man
8 1 Die linearen Strukturen
am besten von einer Basis Xl, ••• , Xr des Durchschnitts U1 n U2 aus, im Fall, daß U1 + U2 =1= {o} ist. Diese läßt sich durch Vektoren Y1, ••• , Yp zu einer Basis von U1 und durch Vektoren Zl, ••• , Zq zu einer Basis von U2
ergänzen, d.h. es ist dirn U1 = r + p, dirn U2 = r + q. Die Gültigkeit von (1.6) ist dann erwiesen, wenn feststeht, daß die r + p + q Vektoren
Xl, X2, ••• ,Xr , Y1, Y2, ••• ,Yp, Zl, Z2, ••• ,Zq
linear unabhängig sind - sie bilden dann eine Basis der Summe U1 + U2 •
Wäre nun
>'l X 1 + ... + >'rxr + J.L1Y1 + ... + J.LPYp + V1 Z1 + ... + VqZq = 0
eine nicht-triviale Linearkombination dieser Vektoren, so muß wenigstens ein Koeffizient Vk =1= 0 sein, da andernfalls alle Koeffizienten >'i und alle Koeffizienten J.Li gleich Null sein müßten - die Vektoren Xl, ••• , X r , Y1, ••• , YP
sind ja als Basisvektoren linear unabhängig -, was einen Widerspruch zur Annahme ergibt, daß die obige Linearkombination eine nicht-triviale ist. Aus dem gleichen Grund muß einer der Koeffizienten J.Li =1= 0 sein. Es folgt daraus, daß der Vektor
>'l X 1 + ... + >'rxr + J.L1Y1 + ... + J.LPYp = -V1 Z1 - ••• - VqZq
einerseits vom Nullvektor verschieden ist, andererseits sowohl im Teilraum U1 als auch im Teilraum U2 enthalten ist, also dem Durchschitt U1 n U2
angehört und somit durch die Basisvektoren Xi dargestellt werden kann,
-V1Z1 - ••• - VqZq = 1I:1X1 + ... + II:rX r j
diese Gleichung kann aber, da die Basisvektoren Xl, ••. , X r , Zl, .•• , zp des Teilraumes U2 linear unabhängig sind, nur bestehen, wenn alle Koeffizienten Vi und alle Koeffizienten lI:i gleich Null sind, was neuerlich ein Widerspruch zur Annahme ist. Analog ist der Fall U1 n U2 = {o} zu behandeln.
Sind U1 und U2 zwei Teilräume von V mit der Eigenschaft
U1 ffi U2 = V,
so heißt der Teilraum U1 komplementär zum Teilraum U2 und umgekehrt der Teilraum U2 komplementär zum Teilraum U1 • Zu jedem Teilraum in V gibt es stets einen komplementären Teilraum. Für einen trivialen Teilraum ist diese Aussage selbstverständlich, denn für U = {o} ist W = V, für U = V ist W = {o} ein komplementärer Teilraum. Sei also U ein nichttrivialer Teilraum des N -dimensionalen Vektorraumes V und {Xl, • •• ,xr }
eine Basis von U. Diese Basis läßt sich durch Hinzunahme von N - r weiteren Vektoren Xr+1, ... , XN zu einer Basis von V ergänzen. Sei jetzt W die lineare Hülle der hinzugekommenen Basisvektoren,
W = (X r+1, Xr+2, ... , XN).
Die beiden Teilräume U und W haben nur den Nullvektor gemeinsam, denn gäbe es einen vom Nullvektor verschiedenen Vektor X, der sowohl in U als auch in W enthalten ist, so wäre X einerseits die nicht-triviale Linearkombination
1.2 Teilräume und Faktorräume
andererseits aber auch die gleichfalls nicht-triviale Linearkombination
x = Ar+1Xr+1 + Ar+2Xr+2 + ... + ANXN.
Dies hätte weiter die Gleichung
9
A1X1 + A2X2 + ... + ArXr - Ar+1Xr+1 - Ar+2Xr+2 - •.. - ANXN = 0
zur Folge, die aber in nicht-trivialer Weise nicht erfüllt werden kann, da die Vektoren Xl, .•. , XN als Basisvektoren linear unabhängig sind. Also ist U n W = {o}. Ist jetzt x E V ein beliebiger Vektor,
x = 1L1 X 1 + 1L2 X 2 + ... + ILr X r + ILr+1 Xr+1 + ILr+2 X r+2 + ... + ILNXN,
so ist der Vektor
der Vektor
x" = ILr+1Xr+1 + ILr+2Xr+2 + ... + ILNXN E W,
also x = x' + x" mit x' E U, x" E W. Damit ist jeder Vektor x E V auch in U $ W enthalten und folglich U $ W = V. -
Unter dem Faktorraum eines Vektorraumes V bezüglich eines Teilraumes U ~ V versteht man einen Vektorraum, der aus disjunkten Teilmengen von V gebildet wird, welche folgendermaßen konstruiert werden.
Zwei Vektoren x E V, Y E V heißen äquivalent modulo des Teilraumes U, in Zeichen
x == y (mod U),
wenn x - y E U ist. Man faßt äquivalente Vektoren zu einer sogenannten ÄquivalenzklaJJe zusammenj ist x in einer gewissen Äquivalenzklasse enthalten, so nennt man x einen Vertreter derselben und schreibt [x] für diese Äquivalenzklasse. Die Äquivalenzklassen sind disjunkt, jeder Vektor von V liegt in genau einer Äquivalenzklasse. Die Addition von Äquivalenzklassen und die Multiplikation mit Zahlen aus dem Grundkörper lK von V werden nun folgendermaßen erklärt. Die Summe zweier Äquivalenzklassen [x] und [y] ist jene Klasse, in der die Summe x + y enthalten ist,
[x] + [y] := [x + y],
das A-fache einer Äquivalenzklasse [x] ist jene Klasse, in welcher das A-fache des Vektors x liegt,
A[X] := [AX].
Diese Definitionen sind unabhängig von der Auswahl der jeweiligen Vertreter. Der Teilraum U = [0] ist das Nullelement bezüglich der Addition, die Äquivalenzklasse [-x] ist das inverse Element von [x]. Da die Addition offensichtlich kommutativ und assoziativ ist, erhält auf diese Weise die Gesamtheit der Äquivalenzklassen modulo eines Teilraumes U eine Vektorraumstrukturj man nennt diesen Vektorraum den Faktorraum von V nach U, symbolisch V / U.
10 1 Die linearen Strukturen
Sind [Xl], [X2], ... , [xn] beliebige Äquivalenzklassen, so ist eine Linearkombination jene Äquivalenzklasse, in der die entsprechende Linearkombination ihrer Vertreter enthalten ist,
.\1 [Xl] + .\2 [X2] + ... + .\n[Xn] = [.\l X1 + '\2 X2 + ... + .\nxn].
Daraus geht hervor, daß Äquivalenzklassen [Xi] genau dann linear abhängig sind, wenn es eine nicht-triviale Linearkombination der Vektoren Xi gibt, die im Teilraum U enthalten ist,
'\lX1 + '\2X2 + ... + .\nxn EU. Nur im Falle U = {o} sind Äquivalenzklassen [Xi] E VjU genau dann linear abhängig, wenn die Vektoren Xi linear abhängig sind.
Ist V ein endlichdimensionaler Vektorraum, so gilt die Dimensionsbeziehung
dirn U + dirn V jU = dirn V . (1. 7)
Ist U = {o} der eine triviale Teilraum von V, so enthält jede Äquivalenzklasse [x] genau ein Element, nämlich den Vektor x. Wäre x' ein zweiter Vertreter, also X == x' modulo U, so ist X - x' E U und somit X = x'. Sind die N Vektoren ei eine Basis von V, so sind die N Äquivalenzklassen [ei] eine Basis von V jU, denn aus X = Li .\iei folgt [x] = [Li .\iei] = Li .\de;]. Also gilt dirn V j U = N = dirn V und (1. 7) ist wegen dim{ o} = 0 erfüllt. Ist U = V der andere triviale Teilraum, so ist V jU = {[o]}, der Faktorraum besteht in diesem Fall nur aus einer Äquivalenzklasse, nämlich [0] = V, er ist somit ein trivialer Vektorraum, dem die Dimension 0 zugeordnet wird. Sei schließlich U C V ein nicht-trivialer Teilraum. Ist n = dirn U und Bu = {U1,U2'" ,un} eine Basis von U, so kann diese durch Hinzunahme von m = N - n weiteren Vektoren V1 , ... , Vm zu einer Basis von V ergänzt werden; die Basisvektoren Ui von U liegen dabei alle in der Äquivalenzklasse [0] = U, die Vektoren Vj liegen in separaten Äquivalenzklassen [Vj], j = 1, 2, ... , m. Diese m Äquivalenzklassen sind klarerweise linear unabhängig, denn wäre .\1 [V1] + ... + .\m[Vm] = [0], so würde der Vektor '\lV1 + .. ·+.\mvm in U liegen, was aber nicht der Fall sein kann, da sonst die Vektoren U1, ... , Un, V1, ... , Vm keine Basis von V sein könnten. Ist dann [x] eine beliebige Äquivalenzklasse in V jU, so kann der Vertreter x in der Form x = Li .\iUi + Lj fLjVj dargestellt werden; dies wiederum bedeutet
[x] = Li .\i[Ui] + Lj fLj[Vj], also ist wegen Li .\iUi E U
t .\i[Ui] = [t .\iUi] = [0], i=l i=l
somit m
[x] = LfLj[Vj] , j=l
d.h. die m= N - n Äquivalenzklassen [V1], ... , [vm] bilden eine Basis des Faktorraumes V j U. Daher ist dirn V j U = N - n = dirn V - dirn U.
1.3 Lineare Abbildungen 11
1.3 Lineare Abbildungen
Sind A und ß zwei Mengen, so heißt eine Funktion (Abbildung) f: A ~ ß injektiv, wenn die Gleichung f(x ' ) = f(x") nur für x' = x" möglich ist; offenbar hat nur dann die Gleichung Y = f( x) für beliebiges Y E ß höchstens eine Lösung x E A. Die Funktion f heißt dagegen surjektiv, wenn jedes Element in ß wenigstens ein Urbild in A hat, d.h. die Gleichung Y = f(x) hat für jedes y E ß mindestens eine Lösung x E A. Die Funktion f heißt schließlich bijektiv, wenn sie sowohl injektiv als auch surjektiv ist.
Um eine Funktion f : A ~ ß umkehren zu können, muß durch die Vorschrift f jedem Element von ß genau ein Element von A entsprechen, oder anders ausgedrückt, die Gleichung y = f( x) muß für jedes y E ß genau eine Lösung x E A haben. Damit diese Gleichung für jedes y E ß überhaupt eine Lösung in A besitzt, muß die Funktion f surjektiv sein, damit sie nicht mehr als eine Lösung in A hat, muß f injektiv sein - also ist eine Funktion f : A ~ ß genau dann umkehrbar, wenn sie bijektiv ist. Die Umkehrung f- 1 : ß ~ A ist dann ebenfalls eine bijektive Funktion.
Eine Abbildung f : A ~ ß heißt linear, wenn A und ß lineare Vektorräume über einem gemeinsamen Körper IK sind und f die Eigenschaft der Additivität
f(x + y) = f(x) + f(y) , x, Y E A, (1.8)
sowie der Homogenität
f(>"x) = >"f(x) , >"EIK,xEA, (1.9)
besitzt. Mit anderen Worten, eine Abbildung ist linear, wenn die Funktionsvorschrift mit den beiden "Grundrechnungsarten" in linearen Vektorräumen - Addition und Multiplikation mit einer Zahl - vertauschbar ist.
Die Forderung, daß Definitions- und Bildbereich lineare Vektorräume sind, ist wesentlicher Bestandteil des Begriffs der linearen Abbildung. Nur wenn der Definitionsbereich ein linearer Vektorraum ist, hat die jeweils linke Seite von (1.8) und (1.9) einen Sinn, und damit dies auch für die rechte Seite zutrifft, muß auch der Bildbereich ein linearer Vektorraum sein.
Eine lineare Abbildung T : A ~ A eines Vektorraumes in sich heißt auch eine lineare Transformation. Eine lineare Abbildung T : A ~ IK, deren Bildraum der Grundkörper IK des Vektorraumes A ist, nennt man ein lineares Funktional oder eine Linearform auf A.
Ersetzt man in (1.8) den Vektor x durch das Vielfache >..x, desgleichen y durch J-LY, so erhält man unter Heranziehung von (1.9) die Gleichung
f(>"x + J-LY) = >"f(x) + J-Lf(Y) , >",J-L E IK, x,y E A, (1.10)
die mit den beiden Forderungen (1.8) und (1.9) äquivalent ist; sie wird in der Regel zum Nachweis der Linearitätseigenschaft einer Abbildung herangezogen. Wegen Ox = 0 ist f(o) = f(Ox) = Of(x) = o.
12 1 Die linearen Strukturen
Im folgenden stehen die Symbole U, V, ... für lineare Vektorräume, griechische Buchstaben T, u, ... für lineare Abbildungen. Das Bild eines Vektors x unter einer linearen Abbildung T schreibt man üblicherweise in der Form TX an Stelle von T(X).
Sind u, T : U ---+ V lineare Abbildungen zweier Vektorräume mit gemeinsamem Grundkörper , so ist die Summe
(u + T)X := ux + TX
eine lineare Abbildung von U in V, ebenso das Vielfache
(AT)X := ATX.
Mit dieser Addition und Multiplikation hat die Gesamtheit aller linearen Abbildungen von U in V die Struktur eines Vektorraumes.
Sind U : U ---+ V und T : V ---+ W zwei lineare Abbildungen, so ist auch die Zusammensetzung TU: U ---+ Weine lineare Abbildung,
TU( AX + fLY) = T( AUX + fLUY) = ATUX + fLTUY .
Ist T : U ---+ V eine bijektive lineare Abbildung, so ist Zu = T- 1T die identische Abbildung auf U und Zv = TT- 1 die identische Abbildung auf V. Die Umkehrung T- 1 : V ---+ U einer bijektiven linearen Abbildung T: U ---+ V ist wieder eine lineare Abbildung. Sind x, Y E U zwei beliebige Vektoren, so gibt es zwei eindeutig bestimmte Vektoren u, v E V, für welche TU = X, TV = Y gilt j infolgedessen ist
T-1(AX + fLY) = T- 1T(AU + /Lv) = AU + /LV = AT-lX + /LT- 1y.
Sind U : U ---+ V und T : V ---+ W zwei bijektive lineare Abbildungen, so ist auch das Produkt TU bijektiv. Die Inverse eines Produktes ist das Produkt der Inversen der Faktoren in umgekehrter Reihenfolge,
(TU)-l = U- 1T-1 .
Von Bedeutung ist der Einfluß, den die Linearitätseigenschaft (1.10) einer Abbildung T : U ---+ V auf die Überprüfung der Injektivität nimmt, weil eine Gleichung TX1 = TX2 für lineare Abbildungen auch in der Form T( Xl - X2) = 0 geschrieben werden kann. Deshalb ist die Forderung, daß aus einer Gleichung TX1 = TX2 zwingend Xl = X2 folgt, indem man x = Xl - X2 setzt, gleichbedeutend damit, daß die Gleichung
TX = T(X1 - X2) = TX1 - TX2 = 0
nur durch x = 0 erfüllt werden kann. Da hievon auch die Umkehrung gilt, ist erwiesen: Eine lineare Abbildung T ist genau dann injektiv, wenn aus der Gleichung TX = 0 notwendig x = 0 folgt.
Eine injektive lineare Abbildung T : U ---+ V bildet ein System S ~ U linear unabhängiger Vektoren aus U auf ein System S' ~ V linear unabhängiger Vektoren aus V ab. Sind nämlich die Vektoren Xl, X2, ... , Xn linear unabhängig, so ist infolge der Injektivität von T genau dann
A1TX1 + A2TX2 + ... + AnTXn = T(A1X1 + A2X2 + ... + AnXn ) = 0,
1.3 Lineare Abbildungen 13
wenn A1X1 +A2Z2+" '+AnZn = 0 istj also zieht die lineare Unabhängigkeit der Vektoren Zl, Z2, ... , X n die lineare Unabhängigkeit der Bildvektoren TZ1, TZ2, •.• , TZ n nach sich. Im Bildraum existieren daher mindestens genausoviele linear unabhängige Vektoren wie im Urbildraum. Auf Grund dessen ist dirn U ~ dirn V, sofern zwei Vektorräume U und V endliche Dimension haben und eine injektive lineare Abbildung von U in V existiert.
Eine surjektive lineare Abbildung T : U --t V bildet ein Erzeugendensystem [ ~ U auf ein Erzeugendensystem [' ~ V ab. Auf Grund der Surjektivität von T hat jedes Element Y E V ein Urbild Z E Uj da [ ein Erzeugendensystem für U ist, kann der Vektor x durch eine Linearkombination Z = L:i AiZi von Vektoren Zi E [ ausgedrückt werdenj infolgedessen ist Y = TZ = L:i AiTZi, d.h. der Vektor y E V ist als Linearkombination von Vektoren TZi des Bildes [' von [ unter T dargestellt - also ist [' ein Erzeugendensystem für V. Somit gilt dirn U ~ dirn V, wenn U und V endlichdimensionale Vektorräume sind und eine surjektive lineare Abbildung von U auf V existiert.
Eine bijektive lineare Abbildung T: U --t V heißt ein Isomorphismus. 4)
Ein Isomorphismus T: U --t V, also eine injektive und surjektive lineare Abbildung, führt eine Basis B in U in eine Basis B' in V über. Als Basis ist nämlich Bein Erzeugendensystem für U, sodaß durch die Surjektivität von T sichergestellt wird, daß B' ein Erzeugendensystem für V ist. Die Injektivität von T zieht nach sich, daß die Vektoren in B' linear unabhängig sind, weil es die Urbildvektoren in B sind. Man sagt, die Vektorräume U und V sind isomorph. Sind zwei endlichdimensionale Vektorräume U und V isomorph, so haben sie dieselbe Dimension: dirn U = dirn V.
Zwei Vektorräume U und V heißen (algebraisch) äquivalent, U ~ V, wenn es einen Isomorphismus u: U --t V gibt. Die identische Abbildung 'tu : U --t U ist ein Isomorphismus, und dies bedeutet U ~ U. Da die Inverse eines Isomorphismus wieder ein Isomorphismus ist, folgt V ~ U aus U ~ V. Sind schließlich u:U --t V und T:V --t W zwei Isomorphismen, so ist TU: U --t Wein Isomorphismus, sodaß U ~ V und V ~ W die Äquivalenz U ~ W nach sich zieht. Daher stellt der Begriff des Isomorphismus eine Äquivalenzrelation unter den linearen Vektorräumen dar.
Sei T : U --t V eine beliebige lineare Abbildung zweier endlichdimensionaler Vektorräume U und V. Die Gesamtheit aller Vektoren aus U, die durch T auf den Nullvektor in V abgebildet werden, stellt einen Teilraum von U dar. Ist nämlich TX = TY = 0, so gilt mit beliebigen Zahlen A und I"
T (AZ + fLY) = ATZ + fLTY = AO + 1"0 = 0, d.h. mit Z und Y wird auch die Linearkombination AZ + fLY auf den Nullvektor in V abgebildet. Diesen Teilraum, der symbolisch5 ) in der Form
T-1{0}:={zlzEU, TZ=O}
4) Griech. 10"0e; (isos), gleich, ähnlich; floPtjl~ (morphe), Form, Gestalt. 5) Ist I: A --> B eine beliebige Funktion, so bezeichnet 1-1 (B'), B' ~ B, jene
Teilmenge von A, deren Elemente durch die Funktion 1 auf B' abgebildet werden.
14 1 Die linearen Strukturen
geschrieben wird, nennt man den Kern der Abbildung T, die Dimension dieses Teilraumes heißt der Defekt von T, symbolisch def T := dim T-1{ o}. Eine lineare Abbildung T: U - V ist genau dann injektiv, wenn ihr Kern der triviale Teilraum {o} ist.
Die Gesamtheit aller Bildvektoren TZ mit Z E U bildet einen Teilraum in V, der das Bild von U unter T genannt wird, symbolisch6 )
TU := {y I y E V, Y = TZ, Z EU} .
Die Dimension dieses Teilraumes wird der Rang der Abbildung T genannt, in Zeichen rgT:= dimTU. Da nämlich jeder Vektor in TU wenigstens ein Urbild in U besitzt, gibt es für zwei beliebige Vektoren z, y E TU stets zwei Vektoren u, v E U mit TU = Z, TV = Yj sind dann A und p. zwei beliebige Zahlen aus dem Grundkörper , so ist
AZ + p.y = ATU + P.TV = T(AU + p.v),
d.h. sind Z und y zwei Bilder unter der linearen Abbildung T, so ist auch jede Linearkombination dieser Vektoren ein Bild unter T. Daher ist das Bild TU ein Teilraum von V. Eine lineare Abbildung T : U - V ist genau dann surjektiv, wenn TU = V ist.
Sind U und V zwei endlichdimensionale Vektorräume und ist T: U - V eine lineare Abbildung, so gilt
dim TU + dimT-1{0} = dimU (1.11)
beziehungsweise rgT + defT = dimU.
Zum Nachweis dieser Dimensionsbeziehung betrachtet man den Faktorraum UjT-1{0} und konstruiert die Abbildung U:UjT-1{ o} _ TU, durch welche eine Äquivalenzklasse [zJ mit dem Vertreter Z auf den Vektor u[zJ := TZ abgebildet wird. Diese Definition der Abbildung u ist unabhängig von der Auswahl des Vertreters der Äquivalenzklasse. Ist z' E [zJ ein beliebiger anderer Vertreter, so ist z' == z, also z' -z E T-1{0} und somit T(Z' -z) = 0
bzw. TZ' = TZ. Die Abbildung u ist linear, denn für zwei Äquivalenzklassen [zJ und [yJ gilt auf Grund der Linearitätseigenschaft der Abbildung T
U[AZ + p.yJ = T(AZ + p.Y) = ATZ + P.TY = AU[ZJ + p.u[yJ .
Die lineare Abbildung u ist surjektiv. Ist y E TU ein beliebiger Vektor, so gibt es einen Vektor z E U mit TZ = y, d.h. es ist u[zJ = y und die Klasse [zJ ist das Urbild von y unter u. Schließlich ist u injektiv. Aus u[zJ = 0 folgt nämlich TZ = u[zJ = 0, also z E T-1{0} = [oJ bzw. [zJ = [oJ. Die lineare Abbildung u: UjT-1{0} _ TU ist also ein Isomorphismus, die beiden Vektorräume UjT-1{0} und TU sind isomorph und haben folglich dieselbe Dimensionj dann ergibt sich aber mit Hilfe von (1.7)
dimTU = dimUjT-1{0} = dimU - dimT-1{0}.
6) Ist!: A -+ 8 eine beliebige Funktion, so bezeichnet man mit !(A'), wenn A' ~ A ist, jene Teilmenge von B, deren Urbilder in A' liegen.
1.4 Duale Vektorräume 15
Sind U und V endlichdimensionale Vektorräume gleicher Dimension und ist T: U -t V eine surjektive bzw. injektive lineare Abbildung, so ist, wie die Gleichung (1.11) für TU = V bzw. T-1{O} = {o} lehrt, die Abbildung T automatisch injektiv bzw. surjektiv, also bijektiv und daher ein Isomorphismus der Vektorräume U und V.
Ist T: U -t V eine lineare Abbildung zweier endlichdimensionaler Vektorräume, ßu = {el,e2, ... ,eN} eine Basis für U, ßv = {h,/2, ... ,fM} eine Basis für V, so können die Bilder Tei der Basisvektoren ei in U durch Linearkombinationen der Basisvektoren Ii in V ausgedrückt werden,
M
Tei = 'Lt{li, i = 1,2, ... ,N. (1.12) i=l
Die Koeffizienten t{ dieser Linearkombinationen lassen sich in einer Matrix
{t1} zusammenfassenj sie heißt die Matriz der Abbildung T bezüglich der Basen ßu und ßv. Ist x = Li Xiei ein beliebiger Vektor in U, so erhält man für das Bild von x unter T
N N M M N
TX = 'LXiTei = 'LXi 'Lt{1i = 'L('Lt{Xi)li, i=l i=l i=l i=l i=l
also, wenn y = TX = Li yi fi gesetzt wird,
N
Y i = '" t1,."Xi , . 12M L...J J=" ... ,. i=l
1.4 Duale Vektorräume
(1.13)
Es seien U und V zwei endlichdimensionale Vektorräume über einem gemeinsamen Zahlenkörper lK. Eine Funktion cp : U X V -t lK heißt eine bilineare Funktion oder Bilinearform, wenn cp in jedem der beiden Argumente die Linearitätseigenschaft (1.10) hat, d.h. wenn
cp(>.x + J.LY, z) = >.cp(x, z) + J.Lcp(y, z)
für alle Vektoren z E V beziehungsweise
cp(x,>'y+J.Lz) = >.cp(x,y) +J.Lcp(x,z)
für alle Vektoren x E U gilt. Klarerweise ist cp(o,y) = 0 für alle y E Vj gibt es in U weitere Vektoren x und y, sodaß cp(x,z) = cp(y,z) = 0 für alle z E V gilt, so trifft dies auf Grund der Linearitätseigenschaft auch auf jede Linearkombination dieser Vektoren zu. Jeder Bilinearform ist daher ein Teilraum
Uo={xlxEU, VyEV =? cp(x,y)=O}
16 1 Die linearen Strukturen
in U und analog ein Teilraum
Va={ylyEV, VxEU =} cp(x,y)=O}
in V zugeordnet. Ist Ua = U oder Va = V, so ist die Bilinearform cp konstant gleich Null, ein Fall, der natürlich ausgeschlossen sein soll. Sind Ua C U und Va C V echte Teilräume und enthält entweder Ua oder Va einen vom jeweiligen Nullvektor verschiedenen Vektor, ist also {o} C Ua C U oder {o} C Va C V, so heißt die Bilinearform cp ausgeartet. Die letzte Möglichkeit ist Ua = {o} und Va = {o}; in diesem Fall spricht man von einer nichtausgearteten Bilinearform und nennt cp ein Skalarprodukt der Vektorräume U und V. Es ist üblich, ein Skalarprodukt zweier Vektorräume U und V mit dem Symbol (0,0) : U x V - IK zu belegen,
(x,y) := cp(x,y).
Die Vektorräume U und V werden zueinander dual (bezüglich des Skalarproduktes (0,0)) genannt.
Der Dualraum schlechthin eines Vektorraumes V, der symbolisch mit V* bezeichnet wird, ist der Vektorraum der linearen Abbildungen o::V - IK. Die linearen Funktionale oder Linearformen, wie solche Abbildungen auch genannt werden, bilden mit den üblichen Verknüpfungen von zahlenwertigen Funktionen, der Addition und der Multiplikation mit einer Zahl, einen Vektorraum, denn sind 0: und ß zwei Linearformen auf V, so ist die Summe
(0: + ß)(x) := o:(x) + ß(x), x E V,
eine Linearform auf V, denn es ist
(0: + ß)(.\x + ,."y) = o:(.\x + ,."y) + ß(.\x + ,."y)
= .\o:( x) + ,."o:(y) + .\ß( x) + ,."ß(y)
= .\[(o:(x) + ß(x)] + ,.,,[(o:(y) + ß(y)]
= .\(0: + ß)(x) + ,.,,(0: + ß)(y).
Ebenso zeigt man, daß das Produkt einer Linearform mit einer Zahl aus dem Grundkörper IK,
(.\o:)(x) := .\o:(x) , x E V,
wiederum eine Linearform ist. Deshalb ist cp : V* x V - IK,
cp(o:,x) := o:(x) , 0: E V*, x E V, (1.14)
eine Bilinearform. Der Teilraum Va besteht aus allen Vektoren x E V, für die
o:(x) = 0
gilt für alle 0: E V; - eine Gleichung, die nur der Nullvektor in V* erfüllt. Analog hat nur die identisch verschwindende Linearform 0 die Eigenschaft
o(x) = 0
1.4 Duale Vektorräume 17
für alle x E V. Die Bilinearform (1.14) ist demnach nicht-ausgeartet und somit ein Skalarprodukt (0,0) der dualen Vektorräume V* und V. Ist V endlichdimensional, so ist auch V* endlichdimensional, die beiden Vektorräume haben dieselbe Dimension,
dirn V* = dirn V . (1.15)
Zum Beweis dieser Dimensionsbeziehung sei zunächst der Vektorraum V auf eine feste Basis B = {eI, e2, ... , e N} bezogen. Sodann betrachtet man für i = 1, 2, ... , N die Abbildungen ci : V ~ lK,
(1.16)
Die Abbildung ci ordnet jedem Vektor x E V seine i-te Koordinate Xi bezüglich der Basis B zu. Da AXi + ILyi die i-te Koordinate des Vektors AX + ILY ist, sind diese Abbildungen linear,
ci(AX + ILY) = AXi + ILyi = Aci(X) + ILci(y) ,
und damit Vektoren in V*. Wendet man die Linearform ci auf den Basisvektor ej an, dessen Koordinaten alle Null sind bis auf die i-te Koordinate, welche gleich 1 ist, so erhält man
i() (i ) ci {O für i f= i, c ej = c, ej = 0j = 1 f" . _ . ur ~ - J. (1.17)
Aus der Definition (1.16) geht übrigens auch hervor, daß die Linearformen ci durch die Basis B in V eindeutig bestimmt sind. Sie sind ferner linear unabhängig, denn wäre nämlich
Al cl + A2c2 + ... + ANcN = 0
und darin z.B. Ai f= 0, so erhielte man den Widerspruch
0= o(e;} = (AlCl + A2c2 + ... + ANcN)(ei)
= Alcl(ei) + A2c2(e;) + ... + ANcN(ei) = Ai.
Also ist dirn V* 2: N. Bildet man nun mit einer beliebigen Linearform 0: E V* die Linearform ß = 0: - Li 0:( ei) ci, so erhält man
N N
ß(x) = o:(x) - "Lo:(ei)ci(x) = o:(x) - "LXio:(ei) i=l i=l
N N
= o:(x) - 0:(:E Xiei) = 0:( x - :E Xiei) = 0 i=l i=l
für alle x E V, d.h. die N + 1 Linearformen cl, c2, ... , cN, 0: sind linear abhängig. Somit ist dirn V* ~ N, da 0: E V* beliebig war. Die Linearformen ci sind folglich eine - durch die Basis B in V eindeutig bestimmte - Basis in V*j sie heißt die zu B duale Basis B* in V*.-
Mit Hilfe der Gleichung (1.15) läßt sich leicht der Nachweis erbringen, daß duale Vektorräume stets dieselbe Dimension haben. Sind U und V dual
18 1 Die linearen Strukturen
bezüglich des Skalarproduktes (0,0), so ist die Abbildung L: U ---+ V*, die dem Vektor x E. U die Linearform
LX(Y) := (x, y) , Y E V, (1.18)
aus V* zuordnet, ein Isomorphismus. Infolge der Bilinearität des Skalarproduktes ist diese Abbildung linear,
L(>'X + J.LY)(z) = (>'x + J.LY,z) = >.(x,z) + J.L(y,z) = >'LX(Z) + J.LLY(Z), Sie ist ferner injektiv, denn aus LX = 0 folgt
(x,y) = LX(Y) = o(y) = 0
für alle y E V, was aber für x i- 0 nicht möglich ist, da ein Skalarprodukt nicht ausgeartet ist. Die Injektivität der Abbildung L hat nun dirn U ~ dirn V* und damit wegen (1.15) die Ungleichung dirn U ~ dirn V zur Folge. Dieselbe Schlußweise mit vertauschten Rollen von U und V führt zur Ungleichung dirn V ~ dirn U, womit die Gleichheit der Dimensionen dualer Vektorräume nachgewiesen ist. Da eine injektive Abbildung von Vektorräumen gleicher (endlicher) Dimension wegen (1.11) automatisch auch surjektiv ist, ist L ein Isomorphismus. Es gilt also: Sind U und V ein Paar dualer Vektorräume, so besteht Dimensionsgleichheit,
dimU=dimV.
Sind U und V zueinander duale Vektorräume bezüglich eines Skalarproduktes (0,0), so nennt man zwei Vektoren x E U, Y E V orthogonal, wenn
(X,y) = O.
Ist Bu {el,e2, ... ,eN} eine Basis von U, Bv = {!I,!2, ... ,!N} eme Basis von V mit der Eigenschaft
{ 0 für i i- j, (ei,/j)=oij= 1 f'" . (1.19) ur z =],
so nennt man die Basen Bu und Bv dual. Ist eine Basis in U gegeben, so ist ihre duale Basis in V eindeutig bestimmt und umgekehrt.
Ist U und V ein Paar dualer Vektorräume und W ~ U ein Teilraum von U, so versteht man unter dem orthogonalen Komplement dieses Teilraumes den Teilraum W-L ~ V, der aus denjenigen Vektoren aus V besteht, die zu allen Vektoren aus W orthogonal sind,
W-L := {y I y E V, Vx E W :::} (x,y) = O}. (1.20)
Der Nachweis, daß W-L ein Teilraum ist, darf jetzt dem Leser überlassen werden. Es gilt
dirn W + dirn W-L = dirn U = dirn V . (1.21 )
Zum Beweis dieser Dimensionsbeziehung faßt man das orthogonale Komplement W-L des Teilraums Wals eigenständigen Vektorraum auf und konstruiert die Abbildung «P : U!W X W-L ---+ IK,
«p([x],Y) := (x,y).
1.4 Duale Vektorräume 19
Diese Definition ist eindeutig. Mit einem anderen Vertreter x' == x der Äquivalenzklasse [x] erhält man nämlich
q,([xl,y) - q,([x'l,y) = (x',y) - (x,y) = (x' - x,y) = 0,
denn die Vektoren x' -x E Wund y E W~ sind orthogonal. Die Abbildung q, ist ferner bilinear, es ist einerseits
q, (A[X] + Jl[Y] , z) = q, (lAX + JlY], z) = (AX + JlY, z) = A(X, z) + Jl(Y, z)
= Aq,([X],z) + Jlq,([y],z)
und andererseits
q, ([x], AY + Jlz) = (x, AY + Jlz) = A(X, y) + Jl(x, z)
= Aq,([X],y) + Jlq,([x],z).
Die Bilinearform q, ist schließlich nicht ausgeartet, weil das Skalarprodukt (0,0) der Vektorräume U und V nicht-ausgeartet ist. Aus q,([x],y) = 0 für alle Y E W~ folgt ja (x, y) = 0 für alle Y E W~, also x E Wund damit [x] = [0]; wenn anders q,([x],y) = 0 für alle [x] E UjW gilt, so muß (x, y) = 0 für alle x E U gelten, was wiederum nur für y = 0 möglich ist. Damit ist q, eine nicht-ausgeartete bilineare Funktion und somit ein Skalarprodukt der Vektorräume U jW und W~, die Vektorräume U jW und W~ sind zueinander dual und haben folglich die gleiche Dimension; mit Rücksicht auf (1.7) erhält man dann
dimUjW = dimU - dimW = dimW~.
Wie jeden Vektorraum V der Dualraum V* der Linearformen auf V begleitet, gehört zu einer linearen Transformation r : V - V eine lineare Transformation r*: V* - V*. Ist a E V* eine beliebige Linearform, so stellt
ß(x) := a(rx) , x E V, (1.22)
eine wohlbestimmte Linearform aus dem Dualraum V* dar, denn es ist
ß(Ax + JlY) = a(r(Ax + JlY)) = a(Arx + Jlry)
= Aa(rx) + Jla(ry) = Aß(X) + Jlß(y)·
Diese Zuordnung a - ß = r* a ist eine lineare Transformation r*: V* - V*, es gilt nämlich für zwei beliebige Linearformen a und ß
r*(Aa + Jlß)(x) = (Aa + Jlß)(rx) = Aa(rx) + Jlß(rx)
= h*a(x) + Jlr*ß(x)
für alle x E V. Die durch die lineare Transformation r im Dualraum induzierte lineare Transformation r* wird die duale oder adjungierte Transformation genannt. In der Notation des Skalarproduktes schreibt sich die Gleichung (1.22) in der Form
(r*a,x) = (a,rx), a E V*, x E V. (1.23)
20 1 Die linearen Strukturen
Da das Skalarprodukt nicht-ausgeartet ist, gibt es nur eine lineare Transformation r* im Dualraum, die diese Gleichung erfüllt.
Ist {t{} die (quadratische) Matrix der Transformation r bezüglich einer Basis B in V (vgl. (1.12) mit!; = ej), so erhält man für die rechte Seite von (1.23), wenn man für a = c;i einen Vektor der dualen Basis B* von V* und für :c = ej einen Vektor der Basis B von V einsetzt,
N N N
i /i""k) ""k i ""ki i (c; ,Tej) = \c; 'L..Jtjek = L..Jtj(c; ,ek) = L..JtjSk =tj . k=l k=l k=l
Ist {(t*)1} die Matrix der dualen Transformation r* bzüglich der zu B dualen Basis B* in V*,
N
r*c;i = L{t*)1c;k , k=l
so findet man für die linke Seite N N
(r*c;i,ej) = L{t*)1(c;k,ej) = L{t*)iS; = (t*)~, k=l k=l
d.h. es ist (t*)1 = t1.
Geht man von einer Basis Beines N-dimensionalen Vektorraumes V zu einer Basis B über, gleichzeitig im Dualraum V* von der zu B dualen Basis B* zur dualen Basis B* von B*, so wird der Zusammenhang zwischen den alten und den neuen Basisvektoren durch Gleichungen
N N
e-· - "" aje· '-L..J i l' j=l
(1.24)
beschrieben, worin {ai} und {ai} reguläre Matrizen sind. Aus den Darstellungen
N
ergibt sich dabei, wenn man für SI aus (1.17) einsetzt,
N N N N
a1 = L a7(c;i,ek) = (c;i'La7ek) ' a1 = La{(c;k,ei) = (La{c;k,ei) k=l k=l k=l k=l
und weiter unter Berücksichtigung von (1.24)
a{ = (c;j, ei) , a{ = (t j , ei) . (1.25)
Die beiden Matrizen {ai} und {ai} sind zueinander invers, denn es gilt
N N N
L a7a{ = La7(ti,ek) = (ti'La7ek) = (ti,ei) = SI· k=l k=l k=l
1.5 Determinantenfunktionen 21
Vertauscht man in (1.25) die Rollen der Basisvektoren von Bund 8 bzw. B* und 8*, so erhält man die Umkehrformeln zu (1.24),
N
ci = La{ti . (1.26) i=1
Da jeder Vektorraum V von seinem Dualraum V* begleitet wird, ist auch dem Dualraum V* ein Dualraum (V*)* = V** zugeordnet. Die Vektoren von V** sind die Linearformen auf V*. Betrachtet man für einen festen Vektor x E V die Gesamtheit der Zahlen (a,x), wenn a in V* variiert, so ist eine - offensichtlich lineare - Zuordnung gegeben, die jeder Linearform a E V* die Zahl (a, x) aus dem Grundkörper IK zuweist, d.h. der feste Vektor x E V bestimmt eine Linearform f auf V*, also einen Vektor aus V**. Diese lineare Zuordnung x ---t f ist injektiv, da das Skalarprodukt der Vektorräume V und V* nicht-ausgeartet ist; wegen dirn V = dirn V* = dirn V** ist sie daher ein Isomorphismus. Dieser Isomorphismus der beiden Vektorräume V und V** ist keine willkürliche Konstruktion, er ist gewissermaßen auf "natürliche" Weise durch das Skalarprodukt der Vektorräume V und V* gegeben, was Anlaß dafür ist, die beiden Vektorräume V und V** zu identifizieren: jeder Vektor aus V repräsentiert eine Linearform auf V*. Die durch einen Vektor x E V bestimmte Linearform auf V* schreibt man in der Form
x(a) = (x,a)* = (a,x), (1.27)
worin (0,0)* : V** x V* ---t IK das Skalarprodukt der Vektorräume V* und V** ist.
Wenn im folgenden vom Dualraum eines Vektorraumes V gesprochen wird, so ist damit stets der Vektorraum V* der Linearformen auf V gemeint. Das Symbol (0,0) ist dabei dem Skalarprodukt der Vektorräume V und V* vorbehalten, wobei das erste Argument eine Linearform aus V*, das zweite ein Vektor aus V ist.
1.5 Determinantenfunktionen
Es seien VI, V2, ... , Vn und U endlichdimensionale Vektorräume über einem gemeinsamen Grundkörper IK. Eine Abbildung a: VI x ... X Vn ---t U, die jedem geordneten Vektor-n-tupel (Xl,X2, ... ,xn) mit Xi E Vi einen Vektor a(xl,x2""'Xn) E U zuordnet, heißt multilinear, wenn sie in Bezug auf jedes Argument die Linearitätseigenschaft (1.10) hat, d.h. wenn
a( .. . ,..\x + J-LY, ... ) = ..\a( . .. , x, ... ) + J-La( .. . , Y, ... )
für jede Stelle der Argumentliste von a gilt. Im Falle n = 2 spricht man von einer bilinearen Abbildung. Ist U = IK, so heißt a auch eine multilineare Funktion; für n = 1 ist a eine Linearform, für n = 2 eine Bilinearform.
22 1 Die linearen Strukturen
Von besonderem Interesse sind jene multilinearen Abbildungen, für die VI = ... = Vn = V ist. Ist dabei U = 1K, so spricht man auch von einer n-linearen Funktion auf V. Unter diesen nimmt eine gewisse Klasse eine Sonderstellung ein, nämlich die Klasse der alternierenden oder schiefsymmetrischen Funktionen.
Ist h : vn -t 1K eine multilineare Funktion mit der Eigenschaft, daß die Vertauschung zweier Argumente sich nur in einem Vorzeichenwechsel auswirkt,
h( ... ,x, ... ,y, ... ) = -h( ... ,y, ... ,x, ... ), (1.28)
so heißt h alternierend oder schiefsymmetrisch. Einer Linearform, für die ja die Forderung (1.28) hinfällig ist, wird die Eigenschaft der schiefen Symmetrie per definition em zugesprochen. Die identisch verschwindende Funktion h = 0 heißt die triviale alternierende Funktion.
Setzt man in (1.28) für y = x, so folgt
h( ... ,x, ... ,x, ... )=O. (1.29)
Sind demnach zwei Argumente einer alternierenden Funktion identisch, so hat sie den Wert Null. Dieser Sachverhalt ist jedoch nur ein Spezialfall eines allgemeineren Zusammenhangs: Eine alternierende Funktion hat den Wert Null, wenn ihre Argumentvektoren linear abhängig sind. Da sich dann einer der Argumentvektoren, z.B. der Vektor xn , als Linearkombination X n = ).lX1 + ... + ).n-1Xn-1 der übrigen darstellen läßt, wird
n-1 n-1
6(XI, ... , xn) = 6( Xl,···, Xn-I, LAiXi) = LAi6(X1"'" Xn-I, xd = O. i=l i=I
Da in einem N-dimensionalen Vektorraum V mehr als N Vektoren stets linear abhängig sind, ist für n > N jede alternierende Funktion 0: : vn -t 1K identisch Null.
Bezeichnet 7r eine beliebige Permutation 7) der natürlichen Zahlen von 1 bis n und ist sign(7r) ihr Vorzeichen,8) so erhält man aus (1.28)
h(X1f(1),X 1f(2), ..• ,x1f(n») = sign(7r)h(x1,X2, ... ,Xn ). (1.30)
Stellt man nämlich die Reihenfolge 7r(1 )7r(2) ... 7r( n) durch k Vertauschungen aus der Reihenfolge 12 ... n her, so bedingt dies k-mal einen Vorzeichenwechsel, also eine Änderung des Vorzeichens entsprechend sign( 7r) = ( _l)k.
7) Eine Permutation von n (unterscheidbaren!) Elementen ist eine bijektive Abbildung von {I, 2, ... , n} in die Menge dieser Elemente (siehe Anhang),
8) Das Vorzeichen einer Permutation ist +1, wenn die Permutation durch eine gerade Anzahl von Vertauschungen aus der "natürlichen" Reihenfolge 12 ... n hervorgeht, und -1, wenn sie durch eine ungerade Anzahl von Vertauschungen entsteht. Diese Vorzeichendefinition ist sinnvoll, weil eine Permutation entweder nur durch eine gerade oder nur durch eine ungerade Anzahl von Vertauschungen aus einer gegebenen Permutation, z.B. der natürlichen Reihenfolge, erzeugt werden kann.
1.5 Determinantenfunktionen 23
Eine alternierende Funktion b. : VN ~ IK auf dem N -dimensionalen Vektorraum V heißt eine Determinantenfunktion. Ist ß = {eI, ... ,eN} eine Basis in V, so erhält man für N Vektoren Xi = Lj Xl ej auf Grund der Multilinearität zunächst
N N N
b.(XI,X2, ... ,XN)= L L ... L xf 1 x4 2 ••• Xj.;b.(ejl,ej2,···,ejN)· jl=1 h=l jN=l
Wegen (1.29) liefert die N-fache Summe rechts nur dann einen Beitrag, wenn keine zwei der N voneinander unabhängig von 1 bis N laufenden Indizes il, ... , iN übereinstimmen, sodaß ein Summand rechts nur dann von Null verschieden sein kann, wenn die Indizes il, ... , iN eine Permutation der natürlichen Zahlen 12 ... N sind. Infolgedessen ist die N-fache Summe rechts in Wirklichkeit eine Summe über alle Permutationen der natürlichen Zahlen 12 ... N; berücksichtigt man noch (1.30), so gelangt man zu
A( ) A( )". () X 7r(1)X 7r(2) X 7r(N) UXl,X2,···,XN = Uel,e2,···,eN L...,.slgn7r 1 2 •.. N .
(1.31 )
Aus dieser Darstellung läßt sich der folgende wichtige Schluß ziehen: Eine nicht-triviale Determinantenfunktion hat genau dann den Wert Null, wenn ihre Argumentvektoren linear abhängig sind. Daß diese Bedingung hinreichend ist, wurde weiter oben schon nachgewiesen; daß sie auch notwendig ist, zeigt folgende Überlegung. Angenommen, es würde N linear unabhängige Vektoren geben, für die b. den Wert Null hat. Diese Vektoren können, da sie voraussetzungsgemäß linear unabhängig sind, als Basisvektoren ei in (1.31) fungieren; unter diesen Umständen wäre aber die rechte Seite von (1.31) gleich Null und folglich b.(XI, ... ,XN) = 0 für jedes Vektorsystem - dann muß aber ~ die triviale Determinantenfunktion sein.
Die Gleichung (1.31) zeigt noch einen weiteren bedeutsamen Sachverhalt auf: Zwei nicht-triviale Determinantenfunktionen ~l und ~2 sind proportional, d.h. es gibt eine Konstante A, sodaß
~l = A~2
gilt. Diese Konstante, die durch den Quotienten
A= ~1(el,e2, ... ,eN) b.2(el,e2, ... ,eN)
gegeben ist, hängt nur scheinbar von den Basisvektoren des Vektorraumes ab, denn eine Determinantenfunktion ist eindeutig bestimmt, wenn man ihren Wert auf einer Basis vorgibt. Aus diesem Grund ist auch der Quotient
b.(XI,X2, ... ,XN) _". ()X7r(1)X7r(2) X 7r(N) - L...,. slgn 7r 1 2 . . . N
b.( el, e2, ... , eN) 7r
nur von den Argumentvektoren Xi abhängig; üblicherweise wird er mit dem
24 1 Die linearen Strukturen
Determinantensymbol
Xl Xl 1 2
X 2 X 2 1 2
xi" xf belegt.
._ ". () X 7r(l)X 7r(2) X 7r(N) .- L.J slgn 7r 1 2 . . . N
7r
Eine Rechnung, die der Ableitung von (1.31) völlig analog ist, ergibt für eine alternierende Funktion 0 : vn _ IK mit n < dirn V
Xil 1
Xil 2 Xil n
Xh Xh Xh O(Xl,X2' ... 'Xn ) = L
1 2 n o( eil, eh, ... , ein) ,
il <···<in xin
1 xin
2 Xin n
(1.32) worin die Summe über alle Kombinationen 1 :S jl < < jn :S N der Summations-Indizes jl, ... , jn zu erstrecken ist. Die Anzahl der Summanden in (1.32) ist deshalb der Binomialkoeffizient (~). -
Sei ß eine nicht-triviale Determinantenfunktion in V und T : V - V eine lineare Transformation. Dann ist mit ß auch die Summe
N
ßT(Xl, ... ,XN):= Lß(Xl, ... ,TXi, ... ,XN) i=l
eine Determinantenfunktion auf V. Da zwei Determinantenfunktionen proportional sind, gibt es eine Zahl A mit der Eigenschaft ßT = Aß; dieser Proportionalitätsfaktor ist nur von der linearen Transformation Tabhängig und wird die Spur von T genannt, symbolisch SpurT. Somit ist
N
L ß(Xl' ... ' TXi,···, XN) = SpurT ß(Xl,X2, ... ,XN). (1.33) i=l
Man sagt, die Spur einer linearen Transformation ist eine Invariante, und bringt damit zum Ausdruck, daß die Spur allein von der linearen Transformation abhängt und nicht etwa von einer Basis, die dem Vektorraum zugrundegelegt ist.
Sind U und T zwei beliebige lineare Transformationen, so gilt
spur(Au+JLT) = ASpurU+JLSpurT, (1.34)
wie aus (1.33) unter Berücksichtigung der Multilinearität emer Determinantenfunktion abgeleitet werden kann.
Eine lineare Transformation T : V _ V definiert eine zweite Determinantenfunktion,
ß T(Xl,X2, ... , XN) := ß(TXl, TX2, ... , TXN).
1.5 Determinantenfunktionen 25
Auch die beiden Determinantenfunktionen ß und ß r sind proportional, der Proportionalitätsfaktor ist wieder nur von der linearen Transformation T abhängig und wird die Determinante von T genannt, symbolisch det T. Es gilt also
ß r (Zl' Z2, ... ,ZN) = det T ß(Zl' Z2, ... ,ZN) beziehungsweise
ß(TZ1, TZ2, ... , TZN) = detT ß(Zl' Z2, ... ,ZN). (1.35)
Wie die Spur ist auch die Determinante einer linearen Transformation eine Invariante. Sind U und T zwei beliebige lineare Transformationen von V, so ergibt sich aus
ß(UTZ1, UTZ2, ... , UTZN) = det U ß(TZ1,TZ2, ... ,TZN)
= det U det T ß( Zl, Z2, ... ,Z N )
= det(UT)ß(Zl,Z2' ... ' ZN)
der Multiplikationssatz für Determinanten,
det( UT) = det U det T . (1.36)
Ist {t{} die Matrix der linearen Transformation T bezüglich einer Basis ß = {e1' ... ' eN}, so erhält man, wenn in (1.33) die Vektoren dieser Basis als Argumente eingesetzt werden,
N N N
Lß(e1, ... ,Tei, ... eN) = LL t{ß(e1, ... ,ej, ... ,eN) i=l i=l j=l
N
= Lt~ß(e1,e2, ... ,eN)' i=l
da die Doppelsumme wegen (1.29) nur für i = j einen Beitrag liefert. Infolgedessen ist
N
spurT = LtL (1.37) i=l
d.h. die Spur einer linearen Transformation ist die Summe der Hauptdiagonalelemente der Matrix der linearen Transformation T bezüglich einer beliebigen Basis - bei einem Wechsel der Basis ändert sich wohl die Matrix der linearen Transformation T, nicht aber die Summe der Hauptdiagonalelemente. Darin kommt wieder zum Ausdruck, daß die Spur einer linearen Transformation eine Invariante ist.
Ähnlich verhält es sich mit der Determinante einer linearen Transformation. Eine den obigen Betrachtungen analoge Rechnung führt zu
tt t~ tkr t~ t~ t~
detT = det{t{} = (1.38)
tf tf
26 1 Die linearen Strukturen
Somit ist die Determinante einer linearen Transformation gleich der Determinante ihrer Matrix bezüglich irgendeiner Basis, im Einklang damit, daß diese ihren Wert bei einem Basiswechsel nicht ändert.
Die Gleichung (1.35) lehrt, daß eine lineare Transformation genau dann bijektiv ist, wenn det T -=f:. 0 gilt. Da die Elemente der Matrix der identischen Transformation'/, = T- 1T auf V - und zwar bezüglich jeder Ba-sis - die Zahlen of in (1.17) sind, ist dett = det{ of} = 1 und deshalb 1 = det T det T- 1 auf Grund des Multiplikationssatzes (1.36), also
1 1 detT- = -d-'
etT
1.6 Orientierte Vektorräume
Eine dem Leser aus der ebenen und räumlichen analytischen Geometrie her vertraute Begriffsbildung ist das "positiv orientierte" kartesische Koordinatensystem. Einem zweidimensionalen Raum liegt ein positiv orientiertes kartesisches Koordinatensystem zugrunde, wenn der erste Maßvektor durch eine Drehung entgegen dem Uhrzeigersinn in den zweiten übergeführt werden kann. Den Drehsinn entgegen der Uhrzeigerdrehung bezeichnet man dabei als "positiv". Im dreidimensionalen Raum spricht man von einem positiv orientierten kartesischen Koordinatensystem, wenn die drei Maßvektoren in der Reihenfolge, in der sie numeriert sind, ein sogenanntes "Rechtssystem" bilden. Damit ist gemeint, daß eine Drehung des ersten Maßvektors in den zweiten, und zwar um den kleineren Winkel, den die beiden Vektoren miteinander einschließen, zusammen mit einer Fortbewegung in Richtung des dritten Maßvektors eine Rechtsschraubung ergibt. Ebenso wie der Drehsinn in der Ebene ist diese Forderung willkürlich aus den beiden bestehenden Möglichkeiten - Rechtsschraubung und Linksschraubung -herausgegriffen. Um orientierte Koordinatensysteme in affinen und allgemeineren Räumen einführen zu können, muß der Begriff der "Orientierung" eines Vektorraumes sowie der daraus abgeleitete Begriff der "orientierten Basis" zur Verfügung stehen. Allerdings kommen für eine Orientierung nur solche Vektorräume in Betracht, deren Grundkörper IK "angeordnet", d.h. mit einer Ordnungsstruktur ::; versehen ist. Da der Körper IR der reellen Zahlen eine solche besitzt, sollen der Einfachheit halber die folgenden Betrachtungen auf reelle Vektorräume beschränkt bleiben.
Auf Grund des Umstandes, daß sich zwei nicht-triviale Determinantenfunktionen auf einem reellen Vektorraum V um einen von Null verschiedenen Faktor unterscheiden, können die Determinantenfunktionen auf V in zwei Klassen eingeteilt werden. Nennt man zwei Determinantenfunktionen ß 1 und ß2 äquivalent, wenn ihr Proportionalitätsfaktor positiv ist,
ß 1 == ß 2 {::=> ß 1 = ..\ß2 , ..\ > 0,
1.6 Orientierte Vektorräume 27
so ist eine Äquivalenzrelation gegeben, welche die nicht-trivialen Determinantenfunktionen auf V in zwei Äquivalenzklassen [ß]o und [ßh einteilt. Man sagt, jede dieser beiden Äquivalenzklassen repräsentiert eine Orientierung des Vektorraumes V. Indem man eine Orientierung von V durch Auswahl einer dieser beiden Äquivalenzklassen festlegt, greift man in entsprechenden Zusammenhängen stets auf Determinantenfunktionen der die Orientierung repräsentierenden Klasse zurück.
Ist eine Orientierung von V gewählt, so lassen sich jetzt auch die Basen von V in zwei Klassen einteilen. Zwei beliebige Basen B' und B", deren Vektoren durch Gleichungen
N
" "jl ei = L..J a i ej
j=l
miteinander verknüpft sind, bestimmen eine bijektive lineare Transformation T: V ----+ V, durch welchen die Basisvektoren e~ von B' in die Vektoren e~' = Te~ der Basis B" übergeführt werden; die Matrix der Transformation T ist die Transformationsmatrix {ai}. Daher ist nach (1.35) und (1.38)
ß( e~, ... , e~) = det{ a{} ß( e~, ... , e~) für jede Determinantenfunktion ß. Man nennt jetzt zwei Basen B' und B" äquivalent, wenn die Determinante ihrer Transformationsmatrix {ai} positiv ist,
B' == B" {=::} det{ a{} > o. Durch diese Äquivalenzrelation wird die Gesamtheit aller Basen von V in zwei Klassen [B1+ und [B1- eingeteilt, wobei - für eine feste Determinantenfunktion ß - das Vorzeichen von ß( e1, ... , eN) für alle Basen aus jeweils einer der beiden Klassen stets dasselbe ist. Ist ß eine orientierungsgerechte Determinantenfunktion, so sei ß( e1, ... , eN) > 0 für die Basen in [B1+ und ß(e1"" ,eN) < 0 für die Basen in [B1- vereinbart. Die Auswahl einer der beiden Äquivalenzklassen stellt eine Orientierung der Basen in V dar; man nennt die Basen in [B1+ positiv orientiert, die Basen in [B1-negativ orientiert.
Eine Orientierung des Vektorraumes V und seiner Basen ist insofern unvollständig, als der mit V innig zusammenhängende Dualraum V* davon nicht betroffen wird. Es liegt deshalb nahe, mit V auch den Dualraum V* zu orientieren, wofür der Begriff der dualen Determinantenfunktion benötigt wird.
Die Abbildung C : V*N X VN ----+ IR,
(a1,x1) (a 2 ,x1)
c(a1, ... ,aN,x1, ... ,XN) =
28 1 Die linearen Strukturen
ist auf Grund der wohlbekannten Determinanteneigenschaften multilinear, schiefsymmetrisch in den ersten N Argumenten o:i und ebenso in den zweiten N Argumenten Xi. Daher ist C für jedes System von Linearformen o:i eine Determinantenfunktion auf V. Wenn dann .1. eine beliebige Determinantenfunktion auf V ist, so gibt es eine nur von den Linearformen o:i abhängige Zahl JL, sodaß 6 = JLß ist. Da aber 6 für jedes Vektorsystem Xi
auch eine Determinantenfunktion auf V* ist, muß JL als Funktion der Linearformen o:i selbst eine Determinantenfunktion auf V* sein. Ist demnach .1.* eine beliebige Determinantenfunktion auf V*, so ist JL = .\.1.* mit einer gewissen Zahl .\ und somit
6(0:1, ... , o:N, Xl, ... , XN) = .\.1.*(0:1, ... , o:N)ß(X1' ... ' XN).
Man nennt zwei Determinantenfunktionen .1.* und .1. dual, wenn ihr Produkt der Gleichung
.1.*( 0:1, ... ,o:N)ß(X1' ... ,XN) = det{ (o:i, xi)} (1.40)
genügt, worin die rechte Seite die Determinante in (1.39) ist. Die zu einer Determinantenfunktion .1. auf V duale Determinantenfunktion .1.* auf V* ist daher durch .1. eindeutig bestimmt; sind nämlich Xl, ... , XN beliebige linear unabhängige Vektoren in V, so ist für
ß*(o:l, ... ,o:N) = .1.( 1 ) det{(o:i, xi)} xl,··· ,XN
zu setzen. Teilt man jetzt die Determinatenfunktionen auf V in zwei Äquivalenzklassen [.1.]0 und [ßh ein, ebenso die Determinantenfunktionen auf V* in zwei Klassen [.1.*]0 und [ß*h, so bewirkt die Orientierung von V automatisch die Auswahl einer der beiden Äquivalenzklassen für V*, wenn man Begriff der dualen Determinantenfunktion heranzieht. Sind nämlich .1.1 und .1.2 zwei äquivalente Determinantenfunktionen auf V, so liegen auch die eindeutig bestimmten dualen Determinantenfunktionen .1.; und .1.; in ein und derselben Äquivalenzklasse, einerseits wegen .1.2 = .\.1.1, worin .\ > 0 ist, andererseits wegen
det{(o:i, ei)} = ß~(o:l, ... , o:N)ß1(X1' ... ' XN)
= .1.;(0:1, ... , o:n)ß2(X1' ... ' XN)
= .\.1.;(0:1, ... ,o:N)ß1(X1' ... ' XN),
denn aus der letzten dieser Gleichungen folgt in Verbindung mit der ersten
.1.; = .\.1.;.
Dies bedeutet, daß eine Orientierung von V automatisch eine Orientierung von V* induziert.
Ist eine Orientierung für V und damit auch für V* gewählt, so legt eine Orientierung der Basen in V auch eine Orientierung der jeweils dualen Basen in V* fest. Ist z.B. 8 E [8]+ eine Basis für V, so liegt die eindeutig bestimmte duale Basis 8* auch in der Äquivalenzklasse [8*]+, denn wegen
ß*(c;.1, ... ,c;N)ß(e1, ... ,eN) = det{(c;i,ei)} = det{6}} = 1
1.7 Euklidische Vektorräume
(vgl. (1.17)) ist mit ß{el, ... ,eN) > 0 auch
ß*{c:.1, ... ,eN ) > 0
und somit B* E [B*J+.
29
Eine Orientierung des Vektorraumes V induziert also eine Orientierung des Dualraumes V*, eine Orientierung der Basen in V legt eine Orientierung der jeweiligen dualen Basen in V* fest. Wenn eine Orientierung für einen Vektorraum benötigt wird und im Zusammenhang damit von einer Determinantenfunktion die Rede ist, so ist stillschweigend immer eine orientierungsgerechte gemeint; was die Basen anlangt, so wird stets auf gleichartig orientierte zurückgegriffen. Solche sind daran zu erkennen, daß die Determinante ihrer Transformationsmatrix positiv ist. Eine die Orientierung des Vektorraumes repräsentierende Determinantenfunktion ist für die Vektoren einer positiv bzw. negativ orientierten Basis nur positiver bzw. negativer Werte fähig.
1. 7 Euklidische Vektorräume
Ein Fundament der analytischen Geometrie ist die Längen- und Winkelmessung. Beiden Maßen, jenem für die Länge eines Vektors und jenem für den Winkel, den zwei Vektoren miteinander einschließen, liegt das innere Produkt zugrunde. Um Längen und Winkel in Punkträumen messen zu können, müssen - in gewissem Sinn "begleitende" - Vektorräume mit der Struktur eines inneren Produktes ausgestattet sein. Da dies zur Voraussetzung hat, daß der Grundkörper mit einer Ordnungsrelation versehen ist, sollen im folgenden nur reelle Vektorräume in Betracht gezogen werden.
Sei also V ein endlichdimensionaler reeller Vektorraum. Eine bilineare Funktion cp : V X V --t lR heißt symmetrisch, wenn
cp{z,y) = cp{y,z)
für alle z, y E V gilt; man spricht auch von einer symmetrischen Bilinearform auf V. Jeder symmetrischen Bilinearform cp ist der Teilraum
A:={zlzEV, VyEV => cp{z,y)=O}
zugeordnet. Als Teilmenge von V ist A -I 0, denn A enthält den Nullvektor o. Sind z, y E A, z E V beliebige Vektoren, so gilt cp{z, z) = 0, cp(y,z) = 0 und folglich cp(.\z + /Ly,z) = .\cp(z,z) + /LCP(Y,z) = 0 für jeden Vektor z E V; also ist auch .\z + /LY E A und daher A ein Teilraum ,"on V. Der Teilraum A heißt AusartungsTaum der Bilinearform cp. Im Falle A = V ist die Bilinearform cp auf V identisch Null - schließt man diesen trivialen Fall aus, so ist A ein echter Teilraum von V. Enthält A einen linear unabhängigen Vektor, d.h. ist dimA > 0, so heißt die Bilinearform cp ausgeartet, für A = {o} nennt man die Bilinearform cp nicht-ausgeartet. Eine
30 1 Die linearen Strukturen
nicht-ausgeartete symmetrische Bilinearform r.p wird ein inneres Produkt in V genannt, symbolisch
(x,y) := r.p(x,y).
Es kann die Gleichung (x, y) = 0 für alle y EV nur bestehen, wenn x = 0 ist.
Durch ein inneres Produkt wird in V eine quadratische Funktion
1/J(x) := (x,x)
definiert. Die Funktion 1/J heißt definit, wenn sie für x -=f. 0 von Null verschieden ist und stets dasselbe Vorzeichen hat; ist dieses gleich +1, so nennt man 1/J positiv definit, ist es -1, so heißt 1/J negativ definit. In A bschwächung der Definitheit nennt man 1/J positiv (bzw. negativ) semidefinit, wenn 1/J ( x) ~ 0 (bzw. 1/J (x) ::; 0) ist. Nimmt die Funktion 1/J beide Vorzeichen an, so nennt man 1/J indefinit. Sinngemäß ist diese Klassifizierung bei einer Einschränkung von 1/J bzw. r.p auf einen Teilraum U ~ V vorzunehmen.
Ein Vektorraum mit positiv definitem inneren Produkt wird ein euklidischer Vektorraum genannt ,9) ein Vektorraum mit indefinitem inneren Produkt heißt ein pseudo-euklidischer Vektorraum. Mit dem Symbol E soll künftig darauf hingewiesen werden, daß der in Betracht stehende Vektorraum euklidisch oder pseudo-euklidisch ist. Sofern nicht die Besonderheiten pseudo-euklidischer Vektorräume Gegenstand der Untersuchungen sind, sondern der Vektorraum mit der Struktur des inneren Produktes im Vordergrund steht, soll kurz von einem euklidischen Vektorraum die Rede sein.
Ist die quadratische Form 1/J auf einem Teilraum U des euklidischen Vektorraumes E semidefinit, so gilt auf U die sogenannte SchwarzlJche Ungleichung
x,y EU. (1.41 )
Ist z.B. 1/J auf U ~ t: positiv semidefinit, so gilt für jedes Paar von Vektoren x, y EU
1/J(x + ,Xy) = r.p(x + 'xy,x + ,Xy) = 1/J(x) + 2'x(x,y) + ,X21/J(y) ~ 0
für alle Zahlen ,X E lR. Die Diskriminante des rechterhand stehenden quadratischen Polynoms in ,X kann folglich nicht positiv sein. Der Unterschied zwischen definitem und semidefinitem Fall besteht allein darin, daß im definiten Fall das Gleichheitszeichen in (1.41) genau dann eintritt, wenn die Vektoren x und y linear abhängig sind, was im semidefiniten Fall nicht zuzutreffen braucht.
Ist die quadratische Form 1/J indefinit, so gilt die Schwarzsehe Ungleichung (1.41) offensichtlich nicht mehr. -
9) Ist r.p(:1:, y) eine nicht-ausgeartete symmetrische bilineare Funktion und die quadratische Funktion ,p(:1:) = r.p(:1:,:1:) negativ definit, so ist -r.p eine gleichfalls symmetrische und nicht-aus geartete Bilinearform, deren zugeordnete quadratische Funktion jetzt positiv definit ist. Ein inneres Produkt, für das ,p negativ definit ist, kann daher durch bloße Vorzeichenänderung in ein solches mit positiv definiter quadratischer Funktion ,p verwandelt werden.
1.7 Euklidische Vektorräume 31
Ein euklidischer Vektorraum E ist auf "natürliche" Weise zu seinem Dualraum E* isomorph. Ist a E E ein fester Vektor, so ist auf Grund der Bilinearität des inneren Produktes die Funktion
o(x):= (a,x) (1.42)
eine Linearform auf E und damit ein Vektor aus E*. Damit ist eine Abbildung L: E - E* definiert, die dem Vektor a E E die Linearform 0 = La E E* zuordnet. Diese Abildung ist offensichtlich linear, denn sind a, b E E, so gilt für beliebige Zahlen )., J.L E IR
L().a + J.Lb)( x) = ().a + J.Lb, x) = ).( a, x) + J.L( b, x) = ). La( x) + J.L Lb( x ) . Die Abbildung L ist ferner injektiv, denn wäre La = 0, aber a i- 0, so würde dies wegen
(a, x) = La( x) = o( x) = 0
einen Widerspruch zur Voraussetzung ergeben, daß ein inneres Produkt nicht-ausgeartet ist. Da die Vektorräume E und E* gleiche Dimension haben, ist L auf Grund der Dimensionsbeziehung (1.11) auch surjektiv und damit als bijektive lineare Abbildung ein Isomorphismus. Den Zusammenhang des inneren Produktes in E mit dem Skalarprodukt der Vektorräume E und E* stellt die Gleichung
(La,x) = (a,x) (1.43)
her. Dieser natürliche Isomorphismus L der Vektorräume E und E* wird noch eine wichtige Rolle spielen.
Das innere Produkt (0,0) in E induziert ein inneres Produkt (0,0)* im Dualraum E* ,
(1.44)
Die zugeordnete quadratische Funktion 'IjJ* hat deshalb dieselben Merkmale wie die quadratische Funktion 'IjJ. Daher sind die Vektorräume E und E* entweder beide euklidisch oder heide pseudo-euklidisch.
Eine lineare Transformation Teines Vektorraumes wird stets von der dualen Transformation T* des Dualraumes begleitet. Handelt es sich dabei um einen euklidischen Vektorraum E, so ergibt die linke Seite von (1.23) für 0 = LY wegen (1.43)
(T*LY,X) = (L-1T*LY,X) ,
die rechte Seite ist das innere Produkt der Vektoren Y und TX. Folglich kann in euklidischen Vektorräumen die Gleichung (1.23) mit Hilfe des natürlichen Isomorphismus L der dualen Vektorräume E und E* in der Form
(L-1T*LY,X) = (y,n)
geschrieben werden. Das Zustandekommen der linearen Transformation L-1T*L veranschaulicht das nachfolgende Diagramm.
V ~ V
·1 1.- 1
V*
32 1 Die linearen Strukturen
Eine lineare Transformation T:E --t E heißt zu Jich JelbJt dual oder Jelbstadjungiert, wenn
gilt und folglich die Gleichung
(TY,X) = (y,TX) (1.45)
für alle Vektoren x, y E E gültig ist. Man nennt dann das obige Diagramm kommutativ. -
Zwei Vektoren x, y E E werden orthogonal genannt, wenn ihr inneres Produkt verschwindet,
(x,y)=o.
Ist U ~ E ein Teilraum von E, so s.tellt Ul.. ~ E jenen Teilraum von E dar, dessen Vektoren allesamt orthogonal zu allen Vektoren aus U sind,
Ul..:={xIXEE, VyEU:::} (x,y)=O}.
Der Teilraum Ul.. heißt orthogonales Komplement von U in E. Es gilt i.a. nur
U+Ul.. ~ E, (1.46)
und zwar ist die Summe U + Ul.. gen au dann ein echter Teilraum von E, wenn der Teilraum U n Ul.. keinen linear unabhängigen Vektor enthält und somit der triviale Teilraum {o} ist. Es ist nämlich einerseits nach (1.6)
dim( U + Ul..) + dirn U n Ul.. = dirn U + dirn Ul.. ,
andererseits nach (1. 7)
dimUl.. = dimE - dimU,
denn die Abbildung q, : EIU X Ul.. --t IR,
q,([x],y) := (x,y),
ist ein Skalarprodukt der Vektorräume EIU und Ul... Der Beweis für diese Behauptung darf dem Leser überlassen werden - er ist analog der Beweisführung für die Gleichung (1.21) in §4 zu erbringen. Also ist
dim(U + Ul..) + dirn U n Ul.. = dimE
und somit
Ist x E U n Ul.., so ist x als Vektor des Teilraumes Ul.. orthogonal zu allen Vektoren in U, und deshalb, da x ja auch in U enthalten ist, orthogonal zu sich selbst, d.h. es ist 1/;(x) = O. Ist E ein euklidischer Vektorraum im eigentlichen Sinn, so kommt aber als Lösung der Gleichung 1/;( x) = 0 wegen der Definitheit von1/; nur x = 0 in Frage. Ist daher U ein beliebiger Teilraum eines im eigentlichen Sinn euklidischen Vektorraumes E, so ist stets
(1.47)
1.7 Euklidische Vektorräume 33
Der Teilraum U ist, da auch die Einschränkung von1/; auf U definit ist, selbst wieder ein euklidischer Vektorraum. Für einen pseudo-euklidischen Vektorraum gilt dies uneingeschränkt nicht mehr. Ein Unterraum eines pseudo-euklidischen Vektorraumes ist genau dann euklidisch oder pseudoeuklidisch, wenn die Einschränkung der Bilinearform ,(), die in E ein inneres Produkt ist, auf dem Teilraum U nicht ausgeartet ist. Sinngemäß versteht man unter dem Ausartungsraum der Einschränkung von '() auf den Teilraum U den Unterraum
Au={xlxEU, 'VyEU => '{)(x,y)=O}.
Ist also x E Au, so liegt x einerseits in U, andererseits im orthogonalen Komplement u-L, und deshalb ist Au ~ U n Ul... Umgekehrt ist ein Vektor in U n Ul.. zu allen Vektoren in U orthogonal und folglich, da er auch in U enthalten ist, ein Vektor des Ausartungsraumes, sodaß U n Ul.. ~ Au gelten muß. Da dies aber nur dann möglich ist, wenn
Au = Un Ul..
gilt, ist bewiesen: ein Teilraum U ~ E eines pseudo-euklidischen Vektorraumes ist genau dann pseudo-euklidisch, wenn U n Ul.. = {o} bzw. (1.47) gilt. Der Unterraum U kann dann durchaus ein euklidischer Teilraum im eigentlichen Sinn sein.
In einem euklidischen Vektorraum ist nur der Nullvektor zu sich selbst orthogonal. In einem pseudo-euklidischen Vektorraum gibt es wenigstens einen Vektor x+ mit 1/;(x+) > 0, wenigstens einen Vektor;c- mit 1/;(x-) < 0 und wenigstens einen Vektor X o -=I 0 mit 1/;(xo ) = O. Aus der Anwendung pseudo-euklidischer Vektorräume in der speziellen und allgemeinen Relativitätstheorie stammen folgende Bezeichnungen: ein Vektor x E E, x -=I 0,
heißt
- zeitartig, wenn 1/;(;c) > 0,
- lichtartig, wenn 1/;(;c) = 0 und
- raum artig, wenn 1/;(;c) < 0 ist.
Die besondere Struktur pseudo-euklidischer Vektorräume zeigt sich nun in folgendem
Satz. Ein pseudo-euklidischer Vektorraum E kann in zwei Teilräume E+ und E_, deren direkte Summe E ist, zerlegt werden,
(1.48)
Darin ist stets 1/;(;c) > 0 für x E E+ und 1/;( x) < 0 für x E E_ und x -=I o. Die Darstellung (1.48) ist nicht eindeutig; ist durch zwei Teilräume E~ und E~ eine zweite Zerlegung dieser Art gegeben, so gilt aber
dirn E+ = dirn E~ dirn E_ = dirn E~ .
Da die Dimensionen der Vektorräume E+ und E_ bei jeder derartigen Zerlegung gleich sind, hängt dirn E+ und dirn E_ nur vom inneren Produkt
34 1 Die linearen Strukturen
in E ab. Die natürliche Zahl r = dirn E+ heißt der Indez des inneren Produktes bzw. kurz des pseudo-euklidischen Vektorraumes E, die Differenz II = dirn E+ - dirn E_ wird die Signatur genannt.
Da die quadratische Form 'IjJ indefinit ist, gibt es einen Vektor x+ E E mit 'IjJ( x+) > 0; die lineare Hülle des Vektors x+ bildet somit einen eindimensionalen Unterraum von E derart, daß 'IjJ auf (x+) positiv definit ist. Es gibt folglich einen (x+) enthaltenden Teilraum E+ in E mit maximaler Dimension, sodaß 'IjJ positiv definit ist auf E+. Sei dann E_ = E~ das orthogonale Komplement von E+ in E. Dann ist zunächst E+ n E_ = {o}. Enthielte nämlich E+ n E_ einen vom Nullvektor verschiedenen Vektor xo ,
so gilt wegen X o E E+ einerseits 'IjJ(x o ) > 0, andererseits (xo,y) = 0 für alle y E E_, also auch für y = X o ; daher müßte 'IjJ(xo ) = 0 sein, ein Widerspruch, der nur durch X o = 0 aufgelöst werden kann. Also ist nach (1.47) die Summe in (1.48) direkt.
Es bleibt zu zeigen, daß 'IjJ( x) < 0 für x E E_ und x#-o ist. Um den Nachweis hiefür zu erbringen, sei in indirekter Beweisführung zunächst angenommen, daß ein Vektor X o E E_ existiert, für den 'IjJ(x o ) > 0 ist. Dieser Vektor kann dann nicht in E+ enthalten sein, da, wie eben gezeigt wurde, diese beiden Teilräume nur den Nullvektor gemeinsam haben. Folglich wäre (xo ) $ E+ ein Teilraum von E, auf welchem die quadratische Form'IjJ positiv definit ist. Man sieht dies durch folgende Überlegung. Ist y E (xo ) $ E+ ein beliebiger Vektor, so läßt sich dieser eindeutig in der Form y = JLX o + Z mit einem gewissen Vektor Z E E+ zerlegen; dabei ist (xo,z) = 0 wegen X o E L. Infolgedessen muß gelten
1jJ(y) = (JLX o + z, JLX o + z) = JL21jJ( x o ) + 2JL( X O , z) + 1jJ( z) = JL21jJ( x o ) + 1jJ( z) > o. Dann kann aber E+ kein Teilraum mit maximaler Dimension sein, auf dem die quadratische Funktion 1jJ positiv definit ist, es muß 1jJ(x) ::; 0 für xE E_ gelten. Wäre nun für einen gewissen Vektor X o E L, X O #- 0 die Gleichung 'IjJ(x o ) = 0 erfüllt, so hätte dies zur Folge, indem man die Schwarzsehe Ungleichung (1.41), die ja wegen 1jJ(x) ::; 0 für x E E_ auf dem Teilraum E_ angewendet werden kann, daß die Ungleichung
(x o ,y)2 ::; 1/J(xo )1/J(Y) = 0
für alle y E E_ gültig ist. Da von vornherein (xo , y) = 0 für alle y E E+ gilt, müßte dann (xo , y) = 0 für alle y E E gelten, was im Widerspruch dazu steht, daß das innere Produkt in E nicht ausgeartet ist. Also ist die quadratische Form 1/J negativ definit auf L und die Existenz der Zerlegung (1.48) bewiesen.
Um den zweiten Teil der Behauptung zu beweisen, sei E = eine beliebige andere Zerlegung dieser Art. Klarerweise ist
E~ n E_ = {o}, E+ n E~ = {o}.
E' $E' + -
Die direkten Summen E: $ E_ und E+ $ E~ sind Teilräume von E; es gilt daher einerseits
dirn E: + dirn E_ ::; dirn E , dirn E+ + dirn E~ ::; dirn E ,
1.7 Euklidische Vektorräume 35
andererseits aber auch
dirn t:+ + dirn t:_ = dirn t: = dirn t:: + dirn t:~ ;
diese Gleichungen sind mit den beiden obigen Ungleichungen aber nur dann verträglich, wenn die Beziehungen
dirn t:: = dirn t:+ , dirn t:~ = dirn t:_
bestehen. -
Ist t: ein N-dirnensionaler euklidischer Vektorraum, so heißt Beine orthogonale Basis, wenn die Vektoren Xi dieser Basis paarweise orthogonal sind,
Ist t: ein euklidischer Vektorraum im eigentlichen Sinn, so kann man von einer orthogonalen Basis durch die Setzungen
Xi E' - -----:== ,- J?j;(xd'
i = 1,2, ... ,N,
zu einer orthonormalen Basis übergehen; eine orthonormale Basis liegt vor, wenn die Vektoren Ei dieser Basis die Gleichungen
{ I füri=j (Ei,Ej) = Oij = 0 für i f=. j
erfüllen. Ist {Y1, . .. ,YN} ein System linear unabhängiger Vektoren und somit auch eine Basis, so kann durch ein Orthogonalisierungsverfahren aus diesen Vektoren eine orthogonale Basis B = {Xl, . •• ,X N} hergestellt werden. Hiefür setzt man Xl = Yl und unterwirft, nachdem man die paarweise orthogonalen Vektoren Xl, ••. , Xi-l bereits bestimmt hat, den Vektor
Xi = lXi1Xl + lXi2X2 + ... + lXii-1Xi-1 + Yi (1.49)
den Orthogonalitätsbedingungen (Xi, Xj) = 0 für j = 1, 2, ... , i-I; auf diese Weise erhält man die Koeffizienten
(Xi,Xj) lXij = - für j = 1,2, ... ,i - 1 .
(Xj,Xj)
In pseudo-euklidischen Vektorräumen ist mit Rücksicht auf die Indefinitheit der quadratischen Funktion ?j; etwas anders vorzugehen. N achdem man eine Zerlegung von t: entsprechend (1.48) vorgenommen hat, wählt man Basisvektoren Y1, Y2, ... , Yr - darin ist r der Index des pseudo-euklidischen Vektorraumes - für den Teilraum t:+ und Basisvektoren Yr+l, ... , YN für den Teilraum L. Da das Orthogonalisierungsverfahren (1.49), angewendet auf die Vektoren Yl, Y2, ... , Yr, aus dem Teilraum t:+ nicht hinausführt, kann von diesen Vektoren zu einer orthogonalen Basis {Xl, ••. ,Xr } von t:+ übergegangen werden; ebenso kann aus den Basisvektoren Yr+ 1, ... , YN des Teilraumes t:_ eine orthogonale Basis {X r+ 1, ... , X N }
36 1 Die linearen Strukturen
für E_ erzeugt werden. Auf Grund der Konstruktion von E_ als orthogonales Komplement des Teilraums E+ bilden jetzt die Vektoren Xl, X2, ••. , XN
eine orthogonale Basis von E. Geht man nun in E+ zu den Vektoren Xi
e· - ---:== t - J'IjJ(xd'
i=1,2, ... ,r,
und wegen 'IjJ( xd < 0 in E_ zu den Vektoren
i=r+1, ... ,N,
über, so erhält man eine Basis von E, für welche
( ei, ei) = T/i oii ,
gilt, wenn darin für
. _ { 1 für i = 1,2, ... , r 17. - 1 f'" 1 N - urz=r+ , ... ,
(1.50)
gesetzt wird. Eine solche Basis wird eine orthonormale Basis des pseudoeuklidischen Vektorraumes E genannt. Nachdem es auf die Numerierung der Basisvektoren nicht ankommt, heißt jede Basis eine orthonormale Basis von E, wenn ihre Vektoren ei Gleichungen der Art (1.50) genügen, worin die Zahlen 17i = ±1 sind. Ist r der Index von E, so sind stets r dieser Zahlen gleich +1, die übrigen N - r sind gleich -1. In diesbezüglichen Zusammenhängen ist der Spezialfall des eigentlichen euklidischen Vektorraumes für r = N enthalten. -
Seien jetzt B = {eI, e2, ... ,eN} und B* = {cl, c2 , ... , cN } duale Basen in E und E*,
(vgl (1.17)). Der natürliche Isomorphismus t: E _ E* bestimmt zwei symmetrische Matrizen {9ii} und {gii} mit den Elementen,
(1.51 )
(vgl. (1.43)) und
gii = ci(t-1ci) = (ci,t-1ci) = (t-1ci,t-1ci) = (ci,ci )*. (1.52)
Darin wird für beide Matrizen dasselbe Buchstabensymbol - 9 - verwendet, unterschieden werden diese Matrizen durch die obere bzw. untere Stellung der Spalten- und Zeilenindizes. Aus den Orthogonalitätsbedingungen (1.17) folgt
N N N
(tei,ei) = L:(tei,el)(cl,ei) = \L:(tei,el)cl,ei) = \L:giICI,ei)
und daraus
1=1 1=1 1=1
N
Lei = L: 9iici . i=l
(1.53)
1.7 Euklidische Vektorräume 37
Eine analoge Rechnung
N N N
(c i , L -1 ci) = L (c k , L -1 ci ) ( ci , e k) = ( ci, L (c k , L -1 ci ) e k ) = ( ci , L gi k e k )
k=l k=l k=l
zeigt den Zusammenhang
N 1· " .. L- C· = L..Jg·'ei (1.54)
i=l
auf. Mit Hilfe der Orthogonalitätsbedingungen (1.17) findet man weiter
.i (i ) (-1 i ) (i ) Vi = c, ei = L c, ei = c, Lei * N N N
" ik "i k " ik =L..Jg (ek,ei)=L..Jgik(c,c t=L..Jgik9 , k=l k=l k=l
woraus folgt, daß die Matrizen {9ii} und {gii} zueinander invers sind,
N
" ik i L..J gikg = hi . (1.55) k=l
Ist nun x = l:i Xi ei E C ein beliebiger Vektor, so erhält man aus den Gleichungen (1.53) unter Berücksichtigung der Symmetrien
N N N N N
LX = LXiLei = LXi Lgiici = L(LgiiXi)ci . i=l i=l i=l i=l i=l
Setzt man für N
Xi = LgiiXi , i=l
so ist das Bild des Vektors x unter dem Isomorphismus L der Vektor
N
LX = LXici. i=l
(1.56)
(1.57)
Man nennt die Größen Xi mit hochgestelltem Index die kontravarianten Koordinaten, die Größen Xi mit tiefgestelltem Index die kovarianten Koordinaten des Vektors x E c. Multipliziert man die Gleichungen (1.56) mit gi k und summiert über den Index j auf, so erhält man unter Berücksichtigung von (1.55) und den Symmetrieeigenschaften der Matrizen {9ii} und {gii}
N N N N N N
"Ok "" °k . "(" Ok)· "k . L..J g' Xi = L..J L..J g' giiX~ = L..J L..J giig' X· = L..J hi X· °
i=l i=l i=l i=l i=l k=l
38 1 Die linearen Strukturen
Also beschreiben die Gleichungen
N
Xi = L9iiXi i=l
(1.58)
den Übergang von den kovarianten zu den kontravarianten Koordinaten. Aus den Beziehungen
N N
(ei'x) = (tej,x) = \Lej,LXkek) = LXk(tei,ek) k=l k=l
und N N
(gi,x) = \gi, LXkek) = L Xk(gi, ek) k=l k=l
ergeben sich mit (1.17), (1.51) und (1.56) schließlich die Zusammenhänge
x· - (e· x) J - J' (1.59)
und Xi = (gi, x) . (1.60)
In Abb. 1.1 sind die kontravarianten und kovarianten Koordinaten eines Vektors veranschaulicht. Zwischen ihnen ist begrifflich streng zu unterschei
den. Genau genommen sind die kontravarianten Koordinaten eines Vektors x seine Koordinaten - im Sinne von Koeffizienten einer Linearkombination der Basisvektoren - bezüglich einer Basis B, die kovarianten Koordinaten hingegen sind die Koordinaten des Vektors LX in Bezug auf die zu B duale Basis B*, wie die Gleichung (1.57) zeigt. Indem man von den kontravarianten Koordinaten Xi und den kovarianten Koordinaten Xi eines Vektors spricht, identifiziert man die beiden Vektoren x E E und LX E E* im Sinne einer Fa-
Abb. 1.1 milie zweier durch den Isomorphismus L "assozi-ierter Vektoren". Innerhalb dieser zweigliedrigen
Familie unterscheidet man aber, indem man vom kontravarianten Vektor x und vom kovarianten Vektor LX spricht.
Die kontravarianten Koordinaten Xi eines beliebigen Vektors x E E stimmen mit den kovarianten Koordinaten Xi genau dann überein, wenn
9ii = (ei, ei) = bii
gilt, was voraussetzt, daß E ein euklidischer auf eine orthonormale Basis bezogener Vektorraum ist. In einem euklidischen Vektorraum kann also die Unterscheidung zwischen kontravarianten und kovarianten Koordinaten entfallen, wenn man sich auf orthonormale Basen beschränkt. Für einen pseudo-euklidischen Vektorraum gilt dies aber nicht mehr, selbst wenn eine
1.7 Euklidische Vektorräume 39
orthonormale Basis zugrundegelegt wird. Die Matrix {gij} hat dann zwar Diagonalgestalt - wie stets, wenn die Basis orthogonal ist -, die Elemente in der Hauptdiagonale aber sind +1 und -1, wobei die Anzahl der Elemente, welche gleich +1 sind, durch den Index des inneren Produktes vorgegeben und für jede orthonormale Basis dieselbe ist.
Ist ß eine orthogonale Basis in [, so ist die duale Basis ß* eine orthogonale Basis in [*. Die Orthogonalität der Basis ß bedingt, daß die Matrix {gij} Diagonalgestalt hat, weshalb auch ihre Inverse {gi j } Diagonalgestalt hat. Dies wiederum bedeutet
(c: i , c: j )* = gi j = 0 für i =I- j .
Die Beziehungen zwischen den kontravarianten und kovarianten Koordinaten eines Vektors vereinfachen sich dann zu
und X i iiX = 9 i, (1.61 )
denn aus den Gleichungen (1.55) folgt giigii = 1, da beide Matrizen Diagonalgestalt haben. Für eine orthonormale Basis ß gilt 19ii I = 1, weshalb dann auch die duale Basis ß* eine orthonormale Basis in [* ist.
Die Forderung, daß ein inneres Produkt nicht-ausgeartet ist, bedingt die Regularität der Matrizen {gij} und {gi j }, daß sie symmetrisch sind, ist eine Konsequenz aus der Symmetrie des inneren Produktes. Beide Matrizen haben wegen ihrer Regularität und ihrer Symmetrie nur von Null verschiedene reelle Eigenwerte. Diese sind, was ihre Zahlenwerte anlangt, von der Wahl der Basis abhängig, aber die Anzahl der positiven und negativen Eigenwerte wird vom Indez des inneren Produktes bestimmt und ist daher in jeder Basis dieselbe. Als symmetrische Matrix hat {gij} insbesondere orthogonale Eigenvektoren xt, X~, ... , Xiv zu den reellen Eigenwerten }.1,
'\2, ... , .\N,
Setzt man
N
L 9ijxt = }.kX~ , j=l
N
N
L xtxl = { TJk > ~ , j=l '
ek = LXtej, k=1,2, ... ,N, j=l
so ist die Basis f3 = {eI, e2 , ... , e N} orthogonal,
N N N
k = l, k=l-1.
(ek,e!) = L X~Xl(ei,ej) = L X~Xlgij =}./ Lx~xf = 0, k =1-1. i,j=l i,j=l i=l
Wegen
und TJk > 0 müssen daher genau r Eigenwerte der Matrix {gij} positiv sein, wenn r der Index des inneren Produktes ist.
40 1 Die linearen Strukturen
Im Zusammenhang mit orthonormalen Basen sei für alles Folgende die Symbolik
. .. .. 1 1 "'i = (ei,ed = gii, ",' = (c',c')* = g" = - = - ="'i (1.62) gii "'i
vereinbart. Numeriert man die Vektoren einer Basis immer so, daß die inneren Produkte der ersten r Vektoren positiv sind, so gilt iji = "'i bei einem Basiswechsel ß ---t ß.
Bildet man das innere Produkt zweier Vektoren x und y mit den (kontravarianten) Koordinaten Xi und yi bezüglich einer Basis ß in [, so erhält man mit (1.51)
N N N N
(x,y) = (LXiei'Lyjej) L Xiyj(ei,ej) = L 9ijXiyj. i=l j=l i,j=l i,j=l
(1.63) Indem man die Summe über den Index i mit Hilfe von (1.56) auswertet, wird daraus
N
(x,y) = LXjyj. (1.64) j=l
Andere Formen der Darstellung des inneren Produktes, die man alle mit Hilfe der Umrechnungsformeln (1.56) und (1.58) erhält, sind
N N N N
(x,y) = LXiYi = LYiLgijXj = L /jXjYi. (1.65) i=l i=l j=l i,j=l
Bei einem Basiswechsel (1.24) in [ und [* ändern sich die kontravarianten und die kovarianten Koordinaten eines Vektors. Aus den Gleichungen
N N N N
x = LXiei = L a{Xiej = LXiei = L a{Xiej i=l i,j=l i=l i,j=l
(vgl. (1.24) und (1.26)) lassen sich die Transformationsformeln für die kontravarianten Koordinaten leicht ablesen,
N
xj = La1Xi. (1.66) i=l i=l
Um das Transformationsgesetz für die kovarianten Koordinaten herzustellen, ist von den Darstellungen
N N N N
LX = L xjcj = L a{Xj[i = L Xi[i = L Xia}c j j=l i,j=l i=l i,j=l
auszugehen, N N
X j = La}Xi' Xj = La}Xi. (1.67) i=l i=l
1.7 Euklidische Vektorräume 41
Bei einem Basiswechsel in E und E* ändern sich auch die Elemente der Matrizen {gij} und {gi j }. Setzt man aus (1.24) und (1.26) in (1.51) ein, so erhält man
N N
Yij = (ei,ej) = L a:a~(ek,el) = L a:a~gkl j (1.68) k,l=l k,l=l
in der Matrizensymbolik10) schreiben sich diese Gleichungen in der Form
{Yij} = {a{} t . {gij} . {a{} , (1.69)
worin mit dem hochgestellten Zeichen t das Transponieren von Matrizen angedeutet wird. Analog transformiert sich die Matrix {gi j },
N N
-ij (-i -j) '" vi V j ( k ') '" vi vj kl 9 = e ,e * = L...J aka, e ,e * = L...J aka,g , (1.70) k,l=l k,l=l
beziehungsweise (1.71)
Aus diesen Transformationsformeln ergibt sich das wichtige Transformationsgesetz für die Determinante der Matrix {gij}. Da die Determinantenbildung mit dem Transponieren einer Matrix vertauschbar ist, liefert der Multiplikationssatz für Determinanten aus der Gleichung (1.69)
det{Yij} = (det{ a{})2 det{gij} . (1. 72)
Die Determinante der Matrix {gij} hat in jeder Basis dasselbe Vorzeichen, entsprechend dem Umstand, daß die Determinante einer Matrix das Produkt ihrer Eigenwerte ist, von denen im gegenständlichen Fall stets r positiv und die übrigen N - r negativ sind. In einem pseudo-euklidischen Vektorraum [ ist deshalb in alleiniger Abhängigkeit vom Index r des inneren Produktes stets
sign(det{gij}) = (_l)N-r.
Liegt speziell eine orthonormale Basis zugrunde, so ist
det{gij} = TllTl2 ... TIN = (_l)N-r .
(1.73)
Eine besondere Rolle spielen pseudo-euklidische Vektorräume [ mit dem Index r = 1. Ist speziell dim [ = 4, so wird [ ein Lorentz-Raum genannt und symbolisch mit C} bezeichnet. Die Vektoren eines Lorentz-Raumes werden auch Vierer- Vektoren genannt. Es ist üblich, die Koordinaten mit 0,1,2,3 zu indizieren und dementsprechend auch die Basisvektoren zu numerieren.
Ist eo, e1 , e2, ea eine orthonormale Basis des C4 ,
gij = (ei, ej) = 1/j Dij , 1/0 = 1, 1/1 = 1/2 = 1/a = -1 , (1.74)
10) Der obere Index im Matrix-Symbol {a{} kennzeichnet die Zeilennummer , der untere die Spaltennummer . Sind beide Indizes tiefgestellt wie in {aij} oder beide hochgestellt, so steht der erste Index für die Zeilen nummer , der zweite für die Spaltennummer .
42 1 Die linearen Strukturen
so ist gij = gi j , die beiden Matrizen mit den Elementen gij und gi j haben Diagonalgestalt ,
(1 0 0
ij 0 -1 0 {gij} = {g } = 0 0-1
000 ~) .
-1
(1.75)
Sind Xo, Xl , X 2 , X 3 die kontravarianten Koordinaten des Vektors z E r.4 , so sind
Xo = Xo, Xi = _Xi, i = 1,2,3,
die kovarianten Koordinaten des Vektors z (vgl. (1.61)). Das innere Produkt zweier Vektoren z, y E r.4 ist nach (1.63) bzw. (1.64) bzw. (1.65)
(z,y) = Xoyo + Xlyl + X2y2 + X3Y3
= X°Yo + Xll'i. + X 2 }2 + X 3 }3
= XOyo _ Xlyl _ X 2 y 2 _ X 3 y 3
= Xoyo - Xll'i. - X 2Y2 - X3Y3.
Ist t: ein euklidischer Vektorraum, so nennt man eine lineare Transformation r : t: ---t t: mit der Eigenschaft
(TX,ry) = (x,y) (1.76) ein orthogonale Transformation; ist t: pseudo-euklidisch, so spricht man von einer p/Jeudo-euklidi/Jchen Drehung.
Eine orthogonale Transformation in t: ist bijektiv. Wäre nämlich rxo = 0 für Xo =I- 0, so müßte 0 = (TXo,ry) = (xo,y) für alle y E t: gelten, was aber nicht möglich ist, da das innere Produkt in t: nicht-ausgeartet ist. Daher ist eine orthogonale Transformation injektiv und wegen (1.11) auch surjektiv. Das Bild einer Basis unter einer orthogonalen Transformation ist daher wieder eine Basis; insbesondere werden die Vektoren ei einer orthogonalen bzw. orthonormalen Basis auf orthogonale bzw. orthonormale Basisvektoren ei = rei abgebildet.
Sind (1', r : t: ---t t: zwei orthogonale Transformationen, so ist auch die Zusammensetzung (1'r eine orthogonale Transformation,
( (1'TX, (1'ry) = (TX, ry) = (x, y) . Da die Zusammensetzung von Funktionen assoziativ ist, bilden die orthogonalen Transformationen bzw. die pseudo-euklidischen Drehungen bezüglich der Hintereinanderausführung eine Gruppe; das neutrale Element dieser Gruppe ist die identische Transformation, welche trivialerweise orthogonal ist.
Eine orthogonale Transformation r: [4 ---t [4 des Lorentz-Raumes [4
heißt auch eine Lorentz- Tran/Jformation.
Ist {t{} die Matrix einer orthogonalen Transformation, so folgt aus (1.76) für x = ei, Y = ej mit der üblichen Bedeutung für das 6-Symbol
N N
6ij = (ei,ej) = (rei,rej) = L: t;t;(ek,e!) = L:t;tj. (1.77) k,l=l k=l
1.7 Euklidische Vektorräume 43
In der Matrizensymbolik schreibt sich diese Gleichung in der Form
{t{} . {t{}t = {ot} bzw. {t{}t = {t{} -1,
d.h. die Inverse der Matrix {t{} ist gleich ihrer Transponierten, was sich mit Hilfe der Matrixelemente durch
vj i t· = t· . ] (1.78)
ausdrücken läßt, wenn die Zahlen l{ die Elemente der Inversen sind. Eine solche Matrix heißt orthogonal. Eine pseudo-euklidische Drehung T führt die Vektoren ei einer orthonormalen Basis in die Vektoren ei = Tei einer gleichfalls orthonormalen Basis über. Wegen
ijiOij = (ei,ej) = (ei,ej) = T/iOij
gilt dabei iji = 'f/i, an die Stelle der Gleichung (1.77) tritt jetzt
N
'f/iOij = L t;tj'f/k , k=l
d.h. die Größen (1.79)
sind die Elemente der Inversen {l{} der Transformationsmatrix {t1}.
Ist ein pseudo-euklidischer Vektorraum E entsprechend (1.48) in zwei Teilräume E+ und E_ zerlegt, so führt eine pseudo-euklidische Drehung T : E ~ E zu einer zweiten Zerlegung dieser Art,
(1.80)
Ist nämlich x E Te+, so ist x = TY mit Y E e+ und folglich 1/I{x) = 1/I{TY) = 1/I(Y) > Oj ebenso ist 1/I(x) < 0 für xE TE_. Daher ist TE+ n TL = {o}. Ist x E Te+, y E TL, so folgt mit x = TU, U E E+ und y = TV, V E E_ wegen (x,y) = (u,v) die Orthogonalität der Vektoren x und y, wenn e+ = e-:-und L = e:;: istj dann ist auch Te+ = (TE_)~ und TE_ = (Te+)~. Ist schließlich x E E, so gibt es genau einen Vektor y E e mit x = TYj für diesen besteht die eindeutige Darstellung y = y+ + y_ mit y+ E e+ und y E E_. Folglich ist x = TY+ + TY_, d.h. der Vektorraum E ist die Summe der Teilräume TE+ und TE_. Damit ist (1.80) bewiesen.
Sind E' und Eil zwei euklidische Räume, so heißt eine lineare Abbildung T: E' ~ Eil eine Isometrie oder isometrische Abbildung, wenn für x, y E E' stets
(TX, TY) = (x, y) (1.81 )
gilt. Darin steht auf der linken Seite das innere Produkt in Eil, auf der rechten Seite das innere Produkt in E'.
Jede Isometrie ist ein Isomorphismus.
44 1 Die linearen Strukturen
Im dreidimensionalen euklidischen Vektorraum erhält man beim Übergang von einer orthonormalen Basis e1, e2, e3 auf eine ebenfalls orthonormale Basis e1 , e2 ,e3 die Transformationsformeln
Xl = Xl cos a - X 2 sin a,
X 2 = Xl sin a + X 2 cos a ,
X 3 = X3 ,
wenn e3 = e3 ist, d.h. wenn eine Drehung um die 3-Achse angenommen wird; dabei ist ader Drehwinkel. Im pseudo-euklidischen Lorentz-Raum C4 erhält man beim Übergang von einer orthonormalen Basis eo, e1, e2 ,e3 auf die orthonormale Basis eo, e1, e2, e3, bei welchem die Koordinaten bezüglich der 2- und 3-Achse unverändert bleiben,
XO = XO cosh'T + Xl sinh'T,
Xl = XO sinh 'T + Xl cosh'T,
X 2 = X 2 ,
X 3 = X 3 •
(1.82)
Dabei wurde - im Einklang mit (1.80) - davon ausgegangen, daß die Vektoren der Basis Beine Zerlegung des C4 entsprechend (1.48) bestimmen, wobei der Basisvektor eo den Teilraum c~ bestimmt, während die übrigen drei Basisvektoren den Teilraum C:. aufspannen. Da das innere Produkt von einem Basiswechsel nicht berührt wird, gilt
XOyo _ X 1y 1 _ X 2 y2 _ X 3y3 = XOyo _ X 1y1 _ X 2y 2 _ X 3y 3 ,
also XOyo _ X 1y1 = XOyo _ X 1y1 .
Zieht man jetzt die Gleichungen (1.66) heran, durch welche die kontravarianten Koordinaten eines Vektors in zwei beliebigen Basen in Zusammenhang gebracht werden, und macht man für die Transformationsmatrix {a1} den Ansatz
so erhält man zunächst
o o 1 o
(z,y) = XOyo _ X 1y 1 _ X 2 y 2 _ X 3y 3 0-0 0-1 0-0 0-1 1-0 1-1 1-0 1-1
= (aoX + a1 X )(aoY + a1 y ) - (aoX + a1X )(aoY + a1 y ) _ X 2 y2 _ X 3y3
[(ag)2 _ (a~)2lXOyO _ [(a~)2 _ (a~)2lX1y1 0011-0-10011-1-0 -2-2 -3-3 + (aOal - aoadX y + (alaO - a1aO)X y - X Y - X Y
= XOyO _ X 1y1 _ X 2y2 _ X 3y3
und daraus durch Vergleich
(ag)2 _ (a~)2 = 1, (a~/ - (an2 = 1, aga~ - a~a~ = O.
Diese drei Gleichungen werden durch die Setzungen
ag = cosh'T , a~ = sinh'T = a~, a~ = cosh'T ,
erfüllt, in denen 'T ein beliebiger reeller Parameter ist.
1.8 Übungs beispiele 45
1.8 Übungsbeispiele
1. Man zeige, daß die Menge lR N aller geordneten N -Tupel mit der Addition
(Xl, ... ,XN) + (Yl,···,YN):= (Xl +Yl, ... ,XN +YN)
und der Multiplikation
A(Xl, ... ,XN):= (AX1, ... ,AXN)
ein reeller N -dimensionaler Vektorraum ist.
2. Die Menge aller (reellen bzw. komplexen) Matrizen mit m Zeilen und n Spalten bildet bezüglich Addition von Matrizen und der Multiplikation von Matrizen mit Zahlen (aus lR bzw. C) einen (reellen bzw. komplexen) Vektorraum M~.
3. Die Gesamtheit aller auf einem Intervall I der Zahlengeraden stetigen reellen Funktionen bildet mit den üblichen Operationen mit Funktionen (Addition und Multiplikation mit reellen Zahlen) einen reellen Vektorraum, der gewöhnlich mit C(I) bezeichnet wird. Worauf stützt sich diese Aussage?
4. Die Gesamtheit aller auf einem Intervall I n-mal differenzierbaren reellen Funktionen mit auf I stetiger n-ter Ableitung bildet einen reellen Vektorraum, der mit cn(I) bezeichnet wird. Worauf stützt sich diese Behauptung?
5. Welche der folgenden Vektorsysteme des lR3 sind linear abhängig, welche linear unabhängig?
(i) S = {(1,2,3),(4,5,6),(7,8,9)}
(ii) S = {(1,0,-1),(1,-1,0),(0,-1,1),(1,1,1)}
(iii) S = {(1,1,1),(0,1,1),(0,0,1)}
(iv) S = {(I, 1, 0), (1, 2, 3)}
6. Handelt es sich bei den folgenden Vektorsystemen
(i) S = {(1,1,2),(1,-1,1),(1,0,1),(2,1,2)}
(ü) S = {(1,2,3),(4,5,6),(7,8,9),(5,7,9),(2,2,2)}
um Erzeugendensysteme für den Vektorraum lR3 ?
7. Man zeige, daß die Menge aller Polynome mit reellen Koeffizienten und maximalem Grad N - 1 ein reeller N-dimensionaler Vektorraum ist, wenn die Addition und die Multiplikation mit Zahlen auf die übliche Weise für reellwertige Funktionen erklärt ist. Man gebe eine Basis dieses Vektorraumes an!
8. Sei M~ der Vektorraum der Matrizen von Bsp. 2. Was ist die Dimension dieses Vektorraumes? Man gebe eine Basis an!
46 1 Die linearen Strukturen
9. Sei M~ der Vektorraum der quadratischen n-reihigen Matrizen mit reellen Elementen. Man bilde alle symmetrischen Matrizen A, deren Elemente Null sind bis auf das in der i-ten Zeile/Spalte und j-ten Spalte/Zeile,
A ij = Aji = 1 , für 1 ~ i ~ j ~ n ,
und alle schiefsymmetrischen Matrizen B, deren Elemente Null sind bis auf das in der i-ten Zeile/Spalte und j-ten Spalte/Zeile,
B ij = -Bji = 1, für 1 ~ i < j ~ n.
Schließlich zeige man, daß diese insgesamt n(n2+1) symmetrischen Matri
zen und die insgesamt n(~-l) schiefsymmetrischen Matrizen eine Basis des Vektorraumes M~ bilden.
Im Falle n = 3 sind dies die 6 symmetrischen
(6 ~ ~),(~ ~ ~),(~ ~ ~),(~ 6 ~),(~ 0000000010001
und die drei schiefsymmetrischen Matrizen
( 0 1 0) (0 0 1) (0 0 -1 0 0 , 0 0 0 , 0 0 o 0 0 -1 0 0 0 -1
Man stelle eine beliebige dreireihige Matrix in dieser Basis dar!
10. Bildet die Gesamtheit aller Vektoren des IRn mit Xl = a einen Teilraum des IRn ?
11. Man berechne Summe und Durchschnitt der beiden Teilräume
U = ((1,0,1,0), (1, 1, 1, 1)), V = ((0,1,0,1), (1, -1, 1, 1))
des IR4 durch Angabe einer Basis für diese Teilräume.
12. Seien U und V Teilräume des IR3 • Man überprüfe, ob U + V = IR4
gültig ist, gegebenenfalls, ob die Summe direkt ist. Trifft dies nicht zu, so bestimme man - durch Angabe einer Basis - den Durchschnitt U n V.
(i) U = ((1,0,1,2),(-1,2,0,1)), V = ((0,1,1,0),(-1,1,2,-1))
(ii) U = ((1,1,0,1),(1,-1,1,0)), V = ((2,0,1,1),(1,0,1,0))
(iii) U = (\0, 1, 1, 1), (1,0, 1, 1)), V = ((1, 1,0, 1), (1, 1, 1,0), (1,0,1,0) )
13. Man zeige, daß die Menge der Vektoren des IR\ deren Koordinaten den Bedingungen
Xl + 2X2 - X3 + X4 = 0, 2Xl - X2 + X3 = 0
genügen, einen Unterraum U des IR4 bildet. Man bestimme die Dimension dieses Unterraumes und gebe eine Basis an! Man bestimme ferner den Faktorraum IR4 /U durch Angabe einer Basis (Hinweis: Man ergänze eine Basis von U zu einer Basis des IR4 ). Welche Beziehungen bestehen zwischen verschiedenen Basisvektoren des Faktorraumes IR4 /U infolge unterschiedlicher Wahl der Ergänzung der Basis von U zu einer Basis des IR4 ?
1.8 Übungs beispiele 47
14. Man zeige, daß die Menge aller Polynome (mit der Addition und der Multiplikation von Funktionen mit einer Zahl) ein unendlichdimensionaler Vektorraum ist. Bilden die Potenzen 1, x, x 2 , • •• , x n , . .. eine Basis?
15. Welche der folgenden Abbildungen cp : IRn -t IRm ist linear?'
(i) !(x) = (X1-X2,X2-X3,X3-XI), (n = m = 3)
(ii) !(x) = (x1x2,x1+2x2,2x1-x2), (n = 2,m = 3)
(iii) !(x) = (X1,X2,X1 +X2,X1X2), (n = 2,m = 4)
(iv) !(x) = (Xl +x-2, X2+X3, X3+X4, X4+Xt), (n = m = 4)
16. Welche der folgenden Abbildungen T: IRn -t IRm ist injektiv, surjektiv und bijektiv?
(i) TX = (Xl +2X2-X3+X4,Xl-3x3-2x4,3x1 +4X2-5x3+6x4)
(ii) TX = (Xl +2X2+X3+3x4+X5, Xl +X2+X4+X5, X2+X3+2X4)
(iii) TX = (Xl +2X2+X3, 3X1 +2X2 -2X3, 4X1 -3X2 -X3, 2X1 +4X2 +2X3)
(iv) TX = (Xl +2X2-X3+3X4, Xl +2X4, Xl +X2+3X4, X2-X3, Xl -X3+X4)
(v) TX = (Xl +X2, -Xl +2X2+X3, -X2+3X3+X4, -x3+4x4)
Hinweis: Soll die Abbildung T injektiv sein, so darf das lineare Gleichungssystem TX = 0 nur die Lösung x = 0 haben, soll T surjektiv sein, so muß das lineare Gleichungssystem TX = Y für jeden Vektor y E IRm lösbar sein!
17. Sei T : IRn -t IRm eine lineare Abbildung. Man bestimme den Rang und den Defekt von T für
(i) TX = (X2+X3, Xl +X3, Xl +X2), n = m = 3
(ii) TX = (X2+X3, Xl +X3, Xl +X2, Xl +X2+X3), n = 3, m = 4
(iii) TX = (Xl +2X2-X3, 2X1-X2+2x3-X4, xl-3x2+3x3-X4), n = 4,m = 3
18. Sei T:U -t V eine lineare Abbildung endlich dimensionaler Vektorräume. Ist T = {t1} die Matrix von T bezüglich zweier Basen in U bzw. V, so ist der Rang von T gleich dem Rang der Matrix T.
19. Seien U und V lineare Vektorräume endlicher Dimension und T: U -t V eine lineare Abbildung. Man zeige:
(i) ist T injektiv, so gibt es eine surjektive Abbildung U : V -t U mit UT = tu (die Abbildung U ist eine "Linksinverse" der Abbildung T);
(ii) ist T surjektiv, so gibt es eine injektive Abbildung p: V -t U mit Tp = t v (die Abbildung p ist eine "Rechtsinverse" der Abbildung T).
Hinweis: Für (i) gehe man von einer Basis Xi für U aus, ergänze die Vektoren Yi = TXi durch Hinzunahme von Vektoren Zj zu einer Basis {Yi, Zj} von V und lege durch UYi := Xi, UZj := 0 die Abbildung U fest; für (ii) wähle man eine Basis Xi für V, zeige die lineare Unabhängigkeit der Vektoren Yi
in TYi = Xi, ergänze sie durch Vektoren Zj zu einer Basis von U und setze PXi := Yi·
48 1 Die linearen Strukturen
20. Seien 7:U - V, O":V - U zwei lineare Abbildungen mit der Eigenschaft
'TO" = lv .
Dann ist 0" injektiv und 7 surjektiv (eine Linksinverse ist surjektiv, eine Rechtsinverse ist injektiv).
21. Ist eine Linksinverse bzw. eine Rechtsinverse einer linearen Abbildung 7: U - V eindeutig? Unter welchen Umständen kann dies nur zutreffen?
22. Seien 0" und 7 zwei lineare Transformationen und 0"7 = o. Man zeige:
(i) ist 0" injektiv => 7 = 0;
(ii) ist 7 surjektiv => 0" = o.
23. Sei 7 : U - V eine lineare Abbildung. Man zeige, daß es nur eine Abbildung 0" : V - U geben kann, für welche 70" = lv und 0"7 = lu gilt (Eindeutigkeit der Inversen einer linearen Abbildung).
24. Seien U und V zwei Vektorräume, dirn U = dirn V = N. Dann gibt es eine bijektive lineare Abbildung 7: U _ V (zwei endlichdimensionale Vektorrräume gleicher Dimension sind isomorph).
Hinweis: Man wähle eine Basis {eI, ... ,eN} in U, eine Basis {f1, ... ,IN} in V und setze 7ei = fi für i = 1, ... , N. Schließlich erweitere man 7 zu einer linearen Abbildung der beiden Vektorräume.
25. Sei M~ der Vektorraum der l-zeiligen Matrizen mit n Spalten, M~ der Vektorraum der I-spaltigen Matrizen mit n Zeilen (vgl. Bsp. 2) und
cp( a, b) := a . b , a E M~, b E M~ ,
worin der Malpunkt die Matrizenmultiplikation symbolisiert. Man zeige, daß cp ein skalares Produkt ist, mithin die beiden Vektorräume Mf und M~ dual sind ("Vektoren" sind Spalten, "Linearformen" sind Zeilen). Man bestimme die duale Basis von
" ~ (i) , " ~ (I) , ... , 'n ~ m . 26. Seien M~ und M~ die dualen Vektorräume von Bsp. 25 für n 3. Man berechne das orthogonale Komplement des Teilraumes
von M~.
27. Man beweise allgemein: Faßt man die n Spalten einer Basis des M~ zu einer Matrix X ("Zeile von Spalten") zusammen, so ist X regulär, die Zeilen der Inversen X-I sind die Vektoren der dualen Basis für M~ (X-I als "Spalte von Zeilen").
1.8 Übungsbeispiele 49
28. Sei M:, der Vektorraum der reellen Matrizen mit m Zeilen und n Spalten. Man zeige, daß ip : M: x M:, ~ ffi.,
«I>(A, B) := spur A . B, A E M:', B E M:" bilinear, nicht-ausgeartet und somit ein Skalarprodukt der beiden Vektorräume M: und M:, ist, die solcherart dual sind.
29. Man bestimme die duale Basis zu den drei linear unabhängigen Vektoren
el = e2 + e3, e2 = el + e3 , e3 = el + e2
unter der Annahme, daß cl, c2 ,c3 die zu den drei linear unabhängigen Vektoren el, e2, e3 duale Basis ist.
30. Sei M~, Mi' das Paar dualer Vektorräume von Bsp. 25 und Ta := T· a eine lineare Transformation des M~, wobei Teine n-reihige Matrix ist. Man bestimme die duale Transformation T*b für b E Mi'.
31. Seien Bund B* duale Basen in einem N-dimensionalen Vektorraum V und seinem Dualraum V*. Für i = 1,2, ... , n ist
71'iX:= (ci,x)ei' x E V,
gesetzt. Man zeige, daß 71'i : V ~ V eine lineare Transformation mit der Eigenschaft SpUr7l'i = 1 ist und beweise ferner
N
(ii) 71'i7l'j =0, i=/:j, (iii) L 71'i = Zy •
i=l
Die Transformationen 71'i werden "Projektoren" genannt. Man berechne die dualen Transformationen 71'; : V* ~ V*.
32. Seien (T und T zwei lineare Transformationen auf dem endlichdimensio-nalen Vektorraum V. Man zeige
( )* * * (TT = T (T •
33. Sei T: V ~ V eine bijektive lineare Transformation. Man zeige
(T*fl = (T- l)* .
34. Seien Ul , U2 Teilräume eines endlichdimensionalen Vektorraumes V. Gilt U1 ~ U2 und dirn U1 = dirn U2 , so ist U1 = U2 •
35. Sei U, V ein Paar dualer (endlichdimensionaler) Vektorräume und W ein Teilraum von U (oder V). Man zeige
W-L-L = (W-L)-L = W.
36. Sei V ein endlich dimensionaler Vektorraum und T: V ~ V eine lineare Transformation. Man zeige
(i) (TV)-L = T*-l{o}, (T*V*)-L = T-l{O}
(ii) (T-1{0})-L = T*V*, (T*-l{O})-L = TV.
50 1 Die linearen Strukturen
37. Sei V ein linearer Vektorrraum endlicher Dimension und T: V - V eine lineare Transformation. Man beweise, daß die Bedingung
VaEV*, T*a=o => (a,b) =0
notwendig und hinreichend für die Lösbarkeit der linearen Gleichung Ta; = b ist.
38. Man zeige: Eine lineare Transformation T : V - V, dim V = N, ist gen au dann bijektiv, wenn det T -I- 0 ist.
39. Sei B eine positiv definite n-reihige Matrix. Man zeige, daß durch die nach den Regeln der Matrizenrechnung auszuführenden Operationen (das hochgesetzte Zeichen t kennzeichnet das Transponieren von Matrizen, also die Vertauschung der Rolle von Zeilen und Spalten) über
If'(x,y) := xt . B· y
ein inneres Produkt auf dem Vektorraum ]Rn eingeführt ist. Man zeige, daß der ]Rn mit diesem inneren Produkt ein euklidischer Vektorraum im eigentlichen Sinn ist.
40. Sei B eine reguläre und symmetrische n-reihige Matrix. Dann ist auch
If'(x,y) := xt . B· y
ein inneres Produkt auf dem Vektorraum ]Rn. Unter welchen Voraussetzungen über die Matrix B handelt es sich um einen euklidischen, unter welchen Voraussetzungen um einen pseudo-euklidischen Vektorraum? Man berechne Index und Signatur des inneren Produktes im Falle n = 3 und
B = (~ ~ =~). -4 -2 3
41. Sei B die dreireihige Matrix in Bsp. 40 und If'(x,y) das von ihr induzierte innere Produkt im ]R3. Man gebe eine orthonormale Basis an!
42. Sei Mn = M~ der Vektorraum der n-reihigen Matrizen. Man zeige, daß
If'(A,B) := spur At . B
ein definites inneres Produkt ist.
43. Sei Mn = M~ der Vektorraum der quadratischen n-reihigen Matrizen. Man zeige, daß
If'(A, B) := spur A . B
ein indefinites inneres Produkt ist. Man beweise, daß r = n(~+l) der Index dieses inneren Produktes ist.
44. Sei (a, b, c) das Koordinatentripel eines Vektors v in einem dreidimensionalen euklidischen Vektorraum E bezüglich einer Basis {eI, e2, e3}, (a, ß, I) das Koordinatentripel des assoziierten kovarianten Vektors If' = LV
bezüglich der dualen Basis {t: l , t: 2 , t:3 }. Man bestimme die Koordinatentripel beider Vektoren bei einem Basiswechsel
el = e2 + e3, e2 = el + e3, e3 = el + e2 .