Upload
vuonglien
View
221
Download
0
Embed Size (px)
Citation preview
Lineare Algebra
Das Handout ist Bestandteil der Vortragsfolien zur Hoheren Mathematik; siehe die Hinweise auf der Internetseite
vhm.mathematik.uni-stuttgart.de fur Erlauterungen zur Nutzung und zum Copyright.
Lineare Algebra 1-1
Gruppe
Unter einer Gruppe (G , ) versteht man eine Menge G , auf der eine binareOperation definiert ist:
: G × G 7−→ G ,
d.h. jedem Elementepaar (a, b): a, b ∈ G ist ein Element a b ∈ Gzugeordnet. Ferner mussen folgende Eigenschaften gelten:
Assoziativitat: (a b) c = a (b c) ∀a, b, c ∈ G
Neutrales Element: Es existiert ein eindeutig bestimmtes neutralesElement e ∈ G , d.h.
e a = a e = a ∀a ∈ G
Inverses Element: Zu jedem Element a ∈ G existiert ein eindeutigbestimmtes inverses Element a−1 ∈ G mit
a a−1 = a−1 a = e
Gruppen und Korper Gruppe 1-1
Man nennt eine Gruppe eine kommutative oder abelsche Gruppe, wenn dieOperation kommutativ ist:
a b = b a ∀a, b ∈ G
Wenn aus dem Zusammenhang ersichtlich ist, welche Operation verwendetwird, schreibt man haufig statt (G , ) nur G .
Gruppen und Korper Gruppe 1-2
Beispiel:
Die bijektiven reellen Funktionen f : R→ R bilden bzgl. derHintereinanderschaltung eine Gruppe.
Assoziativitat:
((f g) h)(x) = f (g(h(x))) = (f (g h))(x)
Neutrales Element ← Identitat:
e : x 7→ x
Inverses Element ← Umkehrfunktion:
f −1 : f (x) 7→ x
Gruppen und Korper Gruppe 2-1
Die Hintereinanderschaltung ist nicht kommutativ.
Beispielsweise ist fur
f : x 7→ 2x ,
g : x 7→ x + 1
f g 6= g f :
f (g(x)) = 2(x + 1) 6= 2x + 1 = g(f (x)) .
Gruppen und Korper Gruppe 2-2
Beispiel:
Die Menge der Restklassen,
0, 1, . . . , n − 1 ,
bildet eine abelsche Gruppe unter der Addition modulo n und wird mit
Zn = Z mod n
bezeichnet.
Die Multiplikation modulo n definiert keine Gruppenstruktur auf Zn, da 0kein Inverses besitzt.
Gruppen und Korper Gruppe 3-1
einige Beispiele fur Modulo-Operationen in
Z4 = 0, 1, 2, 3
Addition/Subtraktion
1 + 3 mod 4 = 0
0− 2 mod 4 = 2
Multiplikation1 · 2 mod 4 = 3 · 2 mod 4 = 2
Widerspruch zur Eindeutigkeit des neutralen Elements(keine Gruppenstruktur)
Gruppen und Korper Gruppe 3-2
Beispiel:
Die Operation auf einer endlichen Gruppe G = g1, . . . , gn kann durchdie Verknupfungsmatrix A erklart werden:
A : ai ,j = gi gjVerknupfungsstrukturen fur Gruppen mit n ≤ 4:
n = 2
e a
e e a
a a e
n = 3
e a b
e e a b
a a b e
b b e a
n = 4
e a b c
e e a b c
a a e c b
b b c e a
c c b a e
n = 4
e a b c
e e a b c
a a e c b
b b c a e
c c b e a
Symmetrie von A (ai ,j = aj ,i ) ⇒ G abelsch.Die erste nicht-abelsche Gruppe hat 6 Elemente und kann mit denPermutationen von 1, 2, 3 identifiziert werden.
Gruppen und Korper Gruppe 4-1
Untergruppe
Fur eine Gruppe (G , ) bezeichnet man (U, ) als Untergruppe, wenn UTeilmenge von G ist und (U, ) selbst eine Gruppe bildet.
Um zu testen, ob U mit der Verknupfung eine Untergruppe bildet,genugt es zu uberprufen, dass U bezuglich der Verknupfung und derBildung von Inversen abgeschlossen ist:
a, b ∈ U ⇒ a b ∈ U und a ∈ U ⇒ a−1 ∈ U .
Gruppen und Korper Untergruppe 5-1
Beispiel:
Gruppe der Kongruenzabbildungen eines Quadrates
ABCD 7→ BCDA
ABCD 7→ ADCB
. . .
Untergruppe der Drehungen (0, 90, 180, 270)
ABCD 7→ ABCD
ABCD 7→ BCDA
ABCD 7→ CDAB
ABCD 7→ DABC
abgeschlossen bzgl. Verknupfung und Invertierung
Dα Dβ = Dα+β, (Dα)−1 = D−α
Gruppen und Korper Untergruppe 6-1
Spiegelungen bilden keine Untergruppe: Verknupfung Drehungz.B.Spiegelung an der Diagonale durch A und C
S1 : ABCD 7→ ADCB
Spiegelung an der Mittelsenkrechten auf der Strecke von A nach B
S2 : ABCD 7→ BADC
Hintereinanderschaltung
D = S2 S1 : ABCD 7→ BCDA
− Drehung um 90
Fur Spiegelungen existiert ebenfalls kein neutrales Element.
Gruppen und Korper Untergruppe 6-2
Permutationen und symmetrische Gruppe
Fur eine beliebige Menge M bilden die Bijektionen von M in M, versehenmit der Komposition von Abbildungen als Operation, eine Gruppe, diesogenannte symmetrische Gruppe von M.
Ist M = 1, 2, . . . , n, so spricht man von der symmetrischen Gruppe Snvom Grad n. Die n! Elemente π von Sn nennt man Permutationen undbenutzt die Schreibweise
π =
(1 2 3 . . . n
π(1) π(2) π(3) . . . π(n)
).
Dabei stehen in der oberen Zeile die Elemente der Menge in dernaturlichen Reihenfolge, darunter dann jeweils ihre Bilder unter π.
Die Permutationsgruppe ist im Allgemeinen nicht kommutativ.
Gruppen und Korper Permutationen 7-1
Zyklenschreibweise von Permutationen
Permutationen werden auch in der so genannten Zyklenschreibweiseangegeben. Dabei besteht ein Zyklus aus einem Element und seinenBildern bei mehrfacher Ausfuhrung der Permutation, bis wieder dasursprungliche Element erreicht wird. Aus den Elementen, die im erstenZyklus nicht vorkommen, werden weitere Zyklen gebildet, bis alle Elementeauftreten. Die Zyklen werden nach der Anzahl der Elemente absteigendsortiert und jeweils in runden Klammern hintereinander geschrieben.Zyklen der Lange 1 werden meist weggelassen.Beispielsweise ist
π =
(1 2 3 4 5 64 3 2 6 5 1
)≡ (1 4 6) (2 3) (5) bzw. π = (1 4 6) (2 3) .
Gruppen und Korper Permutationen 8-1
Transposition und Signum einer Permutation
Eine Transpositionτ = (j k)
ist eine Vertauschung von j und k. Durch Verknupfung dieser elementarenPermutationen lasst sich jede Permutation π darstellen:
π = τ1 · · · τm
Dabei ist die Paritat (gerades oder ungerades m) eindeutig bestimmt, undman definiert
σ(π) = (−1)m
als Vorzeichen oder Signum der Permutation π.
Gruppen und Korper Permutationen 9-1
Beweis:
zeige die Wohldefiniertheit von σ durch Induktion(n − 1)→ n:betrachte
τ1 · · · τm = π ∈ Sn
definiereπ = (k , n) π mit k = π(n)
π(n) = n und damit
π ∈ Sn−1 ∧ σ(π) = (−1)(−1)m
Induktionsvoraussetzung =⇒ Paritat von π eindeutig=⇒ Vorzeichen von (−1)m eindeutig
Gruppen und Korper Permutationen 10-1
Beispiel:
Bestimmung des Signums der Permutation
π =
(1 2 3 4 5 66 5 3 1 2 4
)(i) Uberfuhrung von
(π(1), . . . , π(6)) = (6, 5, 3, 1, 2, 4)
durch Transpositionen sukzessive in die kanonische Reihenfolge:
(1, 6) : (1, 5, 3, 6, 2, 4)
(2, 5) : (1, 2, 3, 6, 5, 4)
(4, 6) : (1, 2, 3, 4, 5, 6)
=⇒id = (4, 6) (2, 5) (1, 6) π, π = (1, 6) (2, 5) (4, 6)
und σ(π) = (−1)3 = −1Gruppen und Korper Permutationen 11-1
(ii) Alternative Bestimmung von σ mit Hilfe der Zyklenschreibweise:
π = (1 6 4) (2 5) (3)
σ(τ) = (−1)k−1 fur einen Zyklus τ der Lange k , denn
(a b c . . . d e f ) = (e f ) (d e) · · · (b c) (a b)
Anwendung auf das Beispiel
σ(π) = (−1)2 · (−1)1 · (−1)0 = −1
Gruppen und Korper Permutationen 11-2
Korper
Eine Menge K , auf der eine Addition”+“ und eine Multiplikation
”·“
definiert sind, nennt man einen Korper, wenn folgende Eigenschaftengelten:
Additive Gruppenstruktur: (K ,+) ist eine abelsche Gruppe mitneutralem Element 0 (Nullelement), d.h. fur alle a, b ∈ K gilt
a + b = b + a
(a + b) + c = a + (b + c)
a + 0 = a
a + (−a) = 0
wobei (−a) das inverse Element zu a bezeichnet.
Gruppen und Korper Korper 12-1
Multiplikative Gruppenstruktur: (K\0, ·) ist eine abelsche Gruppemit neutralem Element 1 (Einselement), d.h. fur alle a, b, c ∈ K\0gilt
a · b = b · a(a · b) · c = a · (b · c)
a · 1 = a
a · a−1 = 1
wobei a−1 das inverse Element zu a bezeichnet.
Distributivgesetz: a · (b + c) = a · b + a · c fur alle a, b, c ∈ K .
Gruppen und Korper Korper 12-2
Beispiel:
Q ⊂ R ⊂ C
Nullelement: 0 und Einselement: 1
Inverses Element bezuglich der Multiplikation einer komplexen Zahlz = x + iy 6= 0 :
w =x
x2 + y2+ i
−yx2 + y2
denn
z ·w = (x+ iy)
(x
x2 + y2+ i
−yx2 + y2
)=
x2 − i2y2
x2 + y2+ i−xy + yx
x2 + y2= 1+ i0
Gruppen und Korper Korper 13-1
Beispiel:
Verknupfungstabellen der Addition und Multiplikation fur denGalois-Korper GF[22] mit 4 Elementen
+ 0 1 a b
0 0 1 a b
1 1 0 b a
a a b 0 1
b b a 1 0
· 0 1 a b
0 0 0 0 0
1 0 1 a b
a 0 a b 1
b 0 b 1 a
Konstruktion von Korpern mit p` Elementen, ` ∈ N, fur beliebigePrimzahlen p durchfuhrbar alle endlichen Korper
Gruppen und Korper Korper 14-1
Primkorper
Fur jede Primzahl p ist die Menge
Zp = 0, 1, . . . , p − 1
ein Korper unter der Addition und Multiplikation modulo p.Allgemeiner existieren endliche Korper mit pk Elementen fur jedes k ∈ N,die sogenannten Galois-Korper.
Gruppen und Korper Primkorper 15-1
Beweis:
Rechenregeln fur Addition und Multiplikation in Korpern gelten in denganzen Zahlen Gultigkeit der Rechenregeln fur Zp
zeige die Existenz eines inversen Elementes a−1 fur a ∈ 2, . . . , p − 1:
ai 6= 0 mod p ∀i ∈ N ,denn
ai = np =⇒ p teilt a =⇒ Widerspruch zu a < p
betrachte die Folge
ai mod p, i = 0, . . . , p − 1 .
mindestens ein Rest tritt zweimal auf:
ai1 = ai2 mod p , i1 < i2
Division durch ai1
1 = ai2−i1 mod p = ai2−i1−1amod p =⇒ a−1 = ai2−i1−1 mod pGruppen und Korper Primkorper 16-1
Beispiel:
inverse Elemente im Primkorper Z5
2−1 = 3 mod 5
3−1 = 2 mod 5
4−1 = 4 mod 5
Beispielsweise gilt(2 + 4)
3mod 5 =
1
3mod 5 = 2
im Einklang mit
2
3+
4
3mod 5 = 2 · 2 + 4 · 2 mod 5
= 12 mod 5
= 2
Gruppen und Korper Primkorper 17-1
Beispiel:
In Stuttgart, Munchen und Berlin soll an 4 Terminen ein Turnier unter 9Mannschaften ausgetragen werden. Dabei soll
”jeder gegen jeden“ spielen.
Es sind also an jedem Termin 3 Gruppen aus je 3 Mannschaften zu bilden,die jeweils in einer der Stadte ihre Spiele untereinander austragen.Mathematische Formulierung:
S0,k ∪ S1,k ∪ S2,k = 1, . . . , 9, k = 0, . . . , 3 ,
| Sj ,k ∩ Sj ′,k ′ |≤ 1,
mit drei-elementigen Mengen Sj ,k .
Konstruktion mit Hilfe des Primkorpers Z3:Identifiziere die Mannschaften 1, . . . , 9 mit Punkten der Ebene Z2
3, d.h.
1, 2, ..., 9 3 γ ↔ (α, β), α, β ∈ Z3
Mengen ↔ Geraden
Gruppen und Korper Primkorper 18-1
Geraden in Z23 haben die Form
Sj ,k = (α, k · α + j mod 3) : α = 0, 1, 2, (Steigung k = 0, 1, 2)
Sj ,3 = (j , α) : α = 0, 1, 2 (senkrechte Geraden)
Paarungstabelle fur 16 Mannschaften, 4 Stadte und 5 Termine basierendauf 4-elementigen Galois-Korper GF[22]
Spielort 1 Spielort 2 Spielort 3 Spielort 4
1. Spieltag 1,2,3,4 5,6,7,8 9,10,11,12 13,14,15,16
2. Spieltag 1,6,11,16 5,2,15,12 9,14,3,8 13,10,7,4
3. Spieltag 1,10,15,8 5,14,11,4 9,2,7,16 13,6,3,12
4. Spieltag 1,14,7,12 5,10,3,16 9,6,15,4 13,2,11,8
5. Spieltag 1,5,9,13 2,6,10,14 3,7,11,15 4,8,12,16
q Primzahlpotenz GF[q] Paarungstabelle fur q2 Mannschaften, q StadteGruppen und Korper Primkorper 18-2
Chinesischer Restsatz
Fur teilerfremde Zahlen p1, . . . , pn besitzen die Kongruenzen
x = a1 mod p1
. . .
x = an mod pn
genau eine Losung x ∈ 0, . . . ,P − 1, P = p1 · · · pn.Bezeichnet Qk eine zu Pk = P/pk inverse ganze Zahl modulo pk , d.h. ist
QkPk = 1 mod pk ,
so gilt
x =n∑
k=1
akQkPk mod P .
Gruppen und Korper Chinesischer Restsatz 19-1
Beweis:
(i) Existenz:Darstellung
x =n∑
k=1
akQkPk mod P
=⇒x mod pk = akQkPk mod pk ,
da pk Teiler von P` fur ` 6= kDefinition einer zu Pk inversen Zahl modulo pk , QkPk = 1 mod pk , =⇒
x = ak · 1 mod pk = ak mod pk
Gruppen und Korper Chinesischer Restsatz 20-1
(ii) Eindeutigkeit:zu zeigen:
x = x ′ mod pk fur k = 1, . . . , n =⇒ x − x ′ = αP
sukzessives Betrachten der Kongruenzenx = x ′ mod p1 =⇒
x − x ′ = α1p1
x = x ′ mod p2 =⇒
α1p1 = 0 mod p2 ⇔ α1p1 = βp2
p1, p2 teilerfremd =⇒ p2 teilt α1, d.h.
α1 = α2p2, x − x ′ = α2p1p2
weitere Kongruenzen
x − x ′ = α3p1p2p3, . . . , x − x ′ = αnp1 · · · pnGruppen und Korper Chinesischer Restsatz 20-2
Beispiel:
(i) Bestimmung von Modulo-Inversen teilerfremder ganzer Zahlenm1 > m2:
xm1 + ym2 = 1
erweiterter Euklidischer Algorithmus
m1 = s2m2 + m3
m2 = s3m3 + m4
. . .
mk−1 = skmk + 1
Ruckwartseinsetzen von
mk = mk−2 − sk−1mk−1
mk−1 = mk−3 − sk−2mk−2
. . .
beginnend mit letzter Gleichung mk−1 − skmk = 1 Modulo-Inverse vonm1 und m2Gruppen und Korper Chinesischer Restsatz 21-1
(ii) konkrete Kongruenzen:
x = 6 mod 9
x = 5 mod 10
x = 4 mod 13
Chinesischer Restsatz =⇒
x = 6Q1P1 + 5Q2P2 + 4Q3P3 mod P, P = 9 · 10 · 13 = 1170
mit
P1 = 10 · 13 = 130, P2 = 9 · 13 = 117, P3 = 9 · 10 = 90
und Qk zu Pk inversen ganzen Zahlen modulo pk , d.h.
QkPk + ypk = 1
Gruppen und Korper Chinesischer Restsatz 21-2
Bestimmung der Modulo-Inversen
Q1:
130 = 14 · 9 + 4
9 = 2 · 4 + 1
Ruckwartseinsetzen
1 = 9− 2 · 4= 9− 2 · (130− 14 · 9) = 29 · 9 + (−2)130
=⇒ Q1 = (−2) mod 9 = 7
Gruppen und Korper Chinesischer Restsatz 21-3
Q2:
117 = 11 · 10 + 7
10 = 1 · 7 + 3
7 = 2 · 3 + 1
Ruckwartseinsetzen
1 = 7− 2 · 3= 7− 2 · (10− 1 · 7) = 3 · 7− 2 · 10
= 3 · (117− 11 · 10)− 2 · 10 = 3 · 117− 35 · 10
=⇒ Q2 = 3
Gruppen und Korper Chinesischer Restsatz 21-4
Q3:
90 = 6 · 13 + 12
13 = 1 · 12 + 1
Ruckwartseinsetzen
1 = 13− 1 · 12
= 13− 1 · (90− 6 · 13) = 7 · 13 + (−1) · 90
=⇒ Q3 = (−1) mod 13 = 12
Einsetzen in die Darstellung der Losung
x = 6Q1P2 + 5Q2P2 + 4Q3P3 mod 1170
= 6 · 7 · 130 + 5 · 3 · 117 + 4 · 12 · 90 mod 1170
= 11535 mod 1170 = 1005
Gruppen und Korper Chinesischer Restsatz 21-5
Vektorraum
Eine abelsche Gruppe (V ,+) heißt Vektorraum uber einem Korper K oderK -Vektorraum, wenn eine Skalarmultiplikation
”·“ definiert ist, die
(λ, v) ∈ K × V das Produkt λ · v ∈ V zuordnet und folgendeEigenschaften besitzt:
(λ1 + λ2) · v = λ1 · v + λ2 · vλ · (v1 + v2) = λ · v1 + λ · v2
(λ1 · λ2) · v = λ1 · (λ2 · v)
1 · v = v
fur alle Skalare λ, λ1, λ2 ∈ K und alle Vektoren v , v1, v2 ∈ V .Ist K = R bzw. K = C, so spricht man von einem reellen bzw. komplexenVektorraum und lasst den Punkt fur die skalare Multiplikation imAllgemeinen weg.
Vektorraume Vektorraum 22-1
Man beachte, dass das Pluszeichen sowohl fur die Addition in V als auchfur die Addition in K benutzt wird. Ebenso wird der Malpunkt auch fur dieMultiplikation in K verwendet.
Vektorraume Vektorraum 22-2
Beispiel:
Die Polynome vom Grad ≤ n
p(x) = a0 + a1x + · · ·+ anxn, ai ∈ R (ai ∈ C),
bilden einen reellen (komplexen) Vektorraum, wobei die Addition und dieskalare Multiplikation in der nahe liegenden Weise definiert sind:
(p + q)(x) = p(x) + q(x), (λp)(x) = λp(x) .
Die Vektorraumeigenschaften verifiziert man leicht.
Beachte: Polynome mit Grad n, d.h. mit an 6= 0, bilden auf Grundeventueller Gradreduktion durch Addition keinen Vektorraum, z.B.
(2x − x2) + (3 + x2) = 3 + 2x .
Vektorraume Vektorraum 23-1
Beispiel:
Die reellen Folgen (an) mit n ∈ N bilden einen reellen Vektorraum mit denOperationen
(an) + (bn) = (an + bn), λ(an) = (λan) .
Zusatzliche Eigenschaften sind moglich, falls diese kompatibel mit derVektorraumstruktur sind.
Beschrankte Folgen Vektorraum.
Monotone Folgen kein Vektorraum:Summen monotoner Folgen sind nicht notwendig monoton, z.B.
(4n) + (−n2) .
Vektorraume Vektorraum 24-1
Vektorraum der n-Tupel
Fur einen Korper K bilden die n-Tupel oder n-Vektoren
a =
a1...an
, ai ∈ K
den K -Vektorraum Kn mit der komponentenweise definierten Addition undSkalarmultiplikation, d.h. a1
...an
+
b1...bn
=
a1 + b1...
an + bn
und λ ·
a1...an
=
λ · a1...
λ · an
fur ai , bi , λ ∈ K .
Vektorraume Vektorraum 25-1
Oft ist es bequem, n-Tupel als Zeilenvektor
at = (a1, . . . , an) bzw. a = (a1, . . . , an)t
zu schreiben. Durch das Symbol”t“ der Transposition wird von der
Standardkonvention als Spaltenvektor unterschieden.
Fur K = R bzw. K = C erhalt man die Vektorraume der n-Tupel reellerund komplexer Zahlen Rn und Cn.
Vektorraume Vektorraum 25-2
Unterraum
Eine nichtleere Teilmenge U eines K -Vektorraums V , die mit der in Vdefinierten Addition und Skalarmultiplikation selbst einen Vektorraumbildet, nennt man einen Unterraum von V .
Unterraume U werden oft durch Bedingungen an die Elemente von Vdefiniert:
U = v ∈ V : A(v),wobei A eine Aussage bezeichnet, die fur v ∈ U erfullt sein muss.
Um zu prufen, ob es sich bei einer nichtleeren Teilmenge U von V umeinen Unterraum handelt, genugt es zu zeigen, dass U bzgl. der Additionund Skalarmultiplikation abgeschlossen ist:
u, v ∈ U =⇒ u + v ∈ U
λ ∈ K , u ∈ U =⇒ λ · u ∈ U .
Vektorraume Unterraum 26-1
Beispiel:
Unterraume des Vektorraums der reellen Funktionen
f : R→ R ,
definiert durch zusatzliche Eigenschaften
Eigenschaft Unterraum
(un)gerade jabeschrankt jamonoton neinstetig japositiv neinlinear ja
Vektorraume Unterraum 27-1
exemplarische Begrundungen
beschrankt:
|fk | ≤ ck =⇒ |f1(x) + f2(x)| ≤ |f1(x)|+ |f2(x)| ≤ c1 + c2
|f | ≤ c =⇒ |λf (x)| ≤ λc
jeweils ∀x f1 + f2 und λf sind beschrankt Unterraumkriterium erfullt
monoton:
h(x) = exp(x)− x nicht monoton wegen limx→±∞
h(x) = +∞
trotz Monotonie von f (x) = exp(x) und g(x) = x
Vektorraume Unterraum 27-2
Beispiel:
Gerade in einem K -Vektorraum:
g : x = u + tv , t ∈ K
a = 0 Unterraum
x1 + x2 = t1v + t2v = (t1 + t2︸ ︷︷ ︸t
)v ∈ g , λx = (λt)v ∈ g
0 /∈ g kein Unterraum
λx = λu + λtv = 0 6∈ g fur λ = 0
Vektorraume Unterraum 28-1
Linearkombination
Fur Vektoren v1, v2, . . . , vm in einem K -Vektorraum V bezeichnet man
λ1 · v1 + λ2 · v2 + · · ·+ λm · vm =m∑i=1
λi · vi
mit Skalaren λi ∈ K als Linearkombination der Vektoren vi .
Die Menge aller solchen Linearkombinationen nennt man die lineare Hulleder vi :
span(v1, . . . , vn) =
n∑
i=0
λi · vi : λi ∈ K
.
Allgemeiner definiert man fur eine Menge U ⊂ V von Vektoren span(U)als die Menge aller Linearkombinationen von Vektoren aus U. Die sogewonnene lineare Hulle von U ist ein Unterraum von V .
Vektorraume Linearkombination 29-1
Beispiel:
(i) v = (1, 2, 3)t ist eine Linearkombination der Vektoren
v1 = (3, 4, 5)t, v2 = (1, 1, 1)t,
dennv = v1 − 2v2 .
(ii) v = (1, 0)t ist keine Linearkombination der Vektoren
v1 = (0, 1)t, v2 = (0, 2)t,
denn jede Linearkombination von v1 und v2 hat die Form (0, ?)t.
(iii) v = (0, 0, 0, 0)t ist auf verschiedene Art als Linearkombination von
v1 = (1, 1, 0, 0)t, v2 = (0, 2, 2, 0)t, v3 = (0, 0, 3, 3)t, v4 = (4, 0, 0, 4)t
darstellbar:v = λ(12v1 − 6v2 + 4v3 − 3v4), λ ∈ R
Vektorraume Linearkombination 30-1
Beispiel:
V = R3
(i) v1 = (1,−1, 0)t, v2 = (0, 1,−1)t:
span(v1, v2) = λ1(1,−1, 0)t + λ2(0, 1,−1)t : λi ∈ R= (λ1, λ2 − λ1,−λ2)t : λi ∈ R
Ebene, orthogonal zu (1, 1, 1)t
(ii) v3 = (−1, 0, 1)t:gleiche lineare Hulle, da
v3 = −v1 − v2
(darstellbar als Linearkombination von v1 und v2)keine eindeutige Darstellung von Vektoren in span(v1, v2, v3):
(0, 0, 0)t = λ(v1 + v2 + v3), λ ∈ R
Vektorraume Linearkombination 31-1
Konvexkombination
In einem reellen Vektorraum V bezeichnet man eine Linearkombination
λ1v1 + λ2v2 + · · ·+ λmvm
mitλi ≥ 0,
∑i
λi = 1
als Konvexkombination der Vektoren vi ∈ V .
Die Menge aller Konvexkombinationen von Vektoren aus einer TeilmengeM ⊆ V wird als konvexe Hulle von M, conv(M), bezeichnet.
Vektorraume Konvexkombination 32-1
Geometrisch ist conv(M) die kleinste M enthaltende Menge, die fur jezwei Elemente u, v auch deren Verbindungsstrecke
S = λu + (1− λ)v : 0 ≤ λ ≤ 1
enthalt.
conv(M)
Su
v
M
Vektorraume Konvexkombination 32-2
Beispiel
(i) zwei Vektoren:
w = (1− t)u + tu
w teilt das Segment conv(u, v) im Verhaltnis t : (1− t)
(ii) drei Vektoren:
x = ru + sv + tw , r + s + t = 1
baryzentrische Koordinaten bezogen auf das Dreieck conv(u, v ,w)
(iii) zwei Halbgeraden gk : u + tkvk , tk ≥ 0:
conv(g1, g2) = u + s1v1 + s2v2 : sk ≥ 0Winkelbereich mit Spitze u, aufgspannt durch vk
Vektorraume Konvexkombination 33-1
Lineare Unabhangigkeit
Vektoren v1, . . . , vm heißen linear abhangig, wenn es Skalare α1, . . . , αm
gibt mitα1v1 + · · ·+ αmvm = 0
und mindestens einem αi 6= 0.Andernfalls heißen sie linear unabhangig. In diesem Fall folgt aus∑
k αkvk = 0 dass α1 = · · · = αm = 0 .
Vektorraume Lineare Unabhangigkeit 34-1
Beispiel:
(i) Zwei Vektoren im R2 sind genau dann linear unabhangig, wenn keinerder beiden ein Vielfaches des anderen ist.konkrete Beispiele(1, 0)t, (1, 1)t sind linear unabhangig, denn
α(1, 0)t + β(1, 1)t = (0, 0)t =⇒ β = α = 0
(0, 0)t, (2, 3)t sind linear abhangig, denn
(0, 0)t = 0(2, 3)t =⇒ 1(0, 0)t + 0(2, 3)t = (0, 0)t ,
d.h. ∃ eine nichttriviale Darstellung des Nullvektors
Vektorraume Lineare Unabhangigkeit 35-1
(ii) Drei Vektoren u, v ,w im R2 sind immer linear abhangig.
αu + βv + γw = 0
unterbestimmtes, homogenes lineares Gleichungssystem
αu1+βv1 + γw1 = 0
αu2+βv2 + γw2 = 0
fur α, β, γ, das immer eine nichttriviale Losung besitzt.konkretes Beispiel:
α
(01
)+ β
(12
)+ γ
(23
)=
(00
)fur γ = s, β = −2s und α = s und beliebiges s ∈ R
Vektorraume Lineare Unabhangigkeit 35-2
Beispiel:
(i) Zwei Vektoren im R3 sind linear abhangig, wenn sie parallel sind, d.h.wenn ein Vektor ein Vielfaches des anderen ist.
(ii) Drei Vektoren sind linear abhangig, wenn zwei Vektoren parallel sindoder wenn ein Vektor in der von den beiden anderen Vektorenaufgespannten Ebene liegt.
(iii) Vier und mehr Vektoren im R3 sind immer linear abhangig.
Test fur lineare Abhangigkeit: homogenes lineares Gleichungssystem
λ1
x1
y1
z1
+ · · ·+ λn
xnynzn
=
000
fur die Skalare λi
Lineare Unabhangigkeit ⇔ λ1 = · · · = λn = 0 ist einzige Losung.
Vektorraume Lineare Unabhangigkeit 36-1
Konkrete Falle
(i) u = (0, 1, 2)t, v = (1, 2, 3)t sind linear unabhangig, da u ∦ v
(ii) u = (1, 0, 0)t, v = (2, 3, 0)t, w = (4, 5, 6)t sind linear unabhangig, da
λ
100
+ ρ
230
+ σ
456
=
000
=⇒ σ = ρ = λ = 0
(iii) (1, 0, 0)t, (0, 2, 0)t, (0, 0, 3)t, (4, 5, 6)t sind linear abhangig, da
5
100
+ 2
020
+ 2
003
+ (−1)
546
=
000
Vektorraume Lineare Unabhangigkeit 36-2
Basis
Eine Teilmenge B eines Vektorraumes V heißt eine Basis von V , wenn dieVektoren in B linear unabhangig sind und sich jeder Vektor v ∈ Veindeutig als Linearkombination
v =∑i
cibi
mit bi ∈ B darstellen lasst. Die Koeffizienten ci werden als Koordinatenvon v bzgl. B bezeichnet:
v ↔ vB = (c1, c2, . . .)t .
Besitzt ein Vektorraum V eine endliche Basis B = b1, . . . , bn, so ist dieAnzahl der Basisvektoren eindeutig bestimmt und wird Dimension von Vgenannt:
n = dimV .
Man setzt dimV = 0 fur V = 0 und V =∞ fur einen Vektorraum ohneendliche Basis.
Vektorraume Basis 37-1
Beweis:
Eindeutigkeit der Dimension im endlichen Fallhinreichend zu zeigen: Hat ein Vektorraum eine n-elementige Basis
b1, . . . , bn ,
so sind n + 1 Vektoren v1, . . . , vn+1 (und damit auch mehr als n + 1Vektoren) linear abhangig.( =⇒ Widerspruch zur linearen Unabhangigkeit bei Basen mitunterschiedlich vielen Vektoren)Beweis durch Induktion:(n − 1)→ n: betrachte Basisdarstellung der Vektoren vi :
vi =n∑
j=1
γi ,jbj , i = 1, . . . , n + 1
trivialer Fall:γi ,1 = · · · = γi ,n = 0
=⇒ vi = 0 =⇒ lineare AbhangigkeitVektorraume Basis 38-1
andernfalls, nach geeigneter Nummerierung γn+1,n 6= 0definiere Vektoren, die sich als Linearkombination der n − 1 Vektorenb1, . . . , bn−1 darstellen lassen:
v ′i = vi −γi ,nγn+1,n
vn+1, i = 1, . . . , n
Koeffizient von bn = 0 =⇒
v ′1, . . . , v′n ∈ V ′ = span b1, . . . , bn−1
Induktionsvoraussetzung, angewandt auf die Basis b1, . . . , bn+1 von V ′
=⇒ ∃ nichttriviale Linearkombination
λ1v′1 + · · ·+ λnv
′n = 0
Umformung Linearkombination der vi , also behauptete lineare Abhangigkeit
Vektorraume Basis 38-2
Reelles Skalarprodukt
Ein Skalarprodukt auf einem reellen Vektorraum V ist eine Abbildung
〈·, ·〉 : V × V → R
mit folgenden Eigenschaften:
Positivitat:〈v , v〉 > 0 fur v 6= 0
Symmetrie:〈u, v〉 = 〈v , u〉
Linearitat:〈λu + %v ,w〉 = λ〈u,w〉+ %〈v ,w〉
Dabei sind u, v ,w ∈ V und λ, % ∈ R beliebige Vektoren bzw. Skalare.
Aufgrund der Symmetrie ist ein reelles Skalarprodukt auch bzgl. deszweiten Argumentes linear, also eine Bilinearform auf V .
Skalarprodukt und Basen Skalarprodukt 39-1
Beispiel:
Vektorraum der auf [0, 1] definierten, reellwertigen stetigen Funktionen
〈f , g〉 =
1∫0
f (x)g(x) dx
(PositivitatX, LinearitatX, SymmetrieX)
Verallgemeinerung durch Einfuhrung einer positiven Gewichtsfunktion w :
〈f , g〉w =
1∫0
fg w
gewichtete Skalarprodukte fur radialsymmetrische Funktionen auf derKreisscheibe oder Kugel:∫ 1
0f (r)g(r)r dr ,
∫ 1
0f (r)g(r)r2 dr
Skalarprodukt und Basen Skalarprodukt 40-1
Komplexes Skalarprodukt
Ein Skalarprodukt auf einem komplexen Vektorraum V ist eine Abbildung
〈·, ·〉 : V × V → C
mit folgenden Eigenschaften:
Positivitat:〈v , v〉 > 0 fur v 6= 0
Schiefsymmetrie:〈u, v〉 = 〈v , u〉
Linearitat:〈λu + %v ,w〉 = λ〈u,w〉+ %〈v ,w〉
Dabei sind u, v ,w ∈ V und λ, % ∈ C beliebige Vektoren bzw. Skalare.
Skalarprodukt und Basen Skalarprodukt 41-1
Aufgrund der Schiefsymmetrie ist ein komplexes Skalarprodukt bzgl. derzweiten Variablen nicht linear:
〈u, λv + %w〉 = λ〈u, v〉+ %〈u,w〉 .
Lediglich fur reelle Skalare ist die komplexe Konjugation ohne Bedeutung.
Skalarprodukt und Basen Skalarprodukt 41-2
Erlauterung:
Die Asymmetrie ist notwendig fur die Positivitat des komplexenSkalarproduktes, z.B.
〈iv , iv〉 6= i2〈v , v〉 = −〈v , v〉 < 0 fur v 6= 0
Antisymmetrie
〈iv , iv〉 = i〈v , iv〉 = (ii)〈v , v〉 = 〈v , v〉 > 0
Die Positivitat ist notwendig fur die Definition der induzierten Norm
|v | =√〈v , v〉
Skalarprodukt und Basen Skalarprodukt 42-1
Beispiel:
mogliche Definitionen reeller Skalarprodukte fur Vektoren x , y ,∈ R2:
Skalarprodukt Eigenschaften
10x1y1 + x2y2 alle
x1y2 Linearitat
|x1y1|+ |x2y2| Positivitat, Symmetrie
x1x2 + y1y2 Symmetrie
Die erste Definition beschreibt kein Skalarprodukt auf C2, da wederPositivitat noch Schiefsymmetrie erfullt ist:
〈(i, 0), (i, 0)〉 = 10i2 = −10 < 0
10i = 〈(i, 0), (1, 0)〉 6= 〈(1, 0), (i, 0)〉 = −10i
richtige Erweiterung auf den komplexen Fall:
〈x , y〉 = 10x1y1 + x2y2
Skalarprodukt und Basen Skalarprodukt 43-1
Euklidisches Skalarprodukt
Fur Vektoren x = (x1, . . . , xn)t, y = (y1, . . . , yn)t ∈ Cn ist das kanonischeSkalarprodukt durch
y∗x =n∑
j=1
xj yj
definiert mit der assoziierten Norm
|z | =√|z1|2 + · · ·+ |zn|2 .
Das Superskript ∗ bezeichnet dabei die Transposition und komplexeKonjugation eines Vektors.Die Definition schließt den reellen Fall ein, bei dem die komplexeKonjugation entfallt:
y∗x = y tx = x1y1 + x2y2 + · · ·+ xnynfur x , y ∈ Rn .
Skalarprodukt und Basen Skalarprodukt 44-1
Beispiel:
x =
(1 + 2i−2− i
), y =
(22i
)komplexes Skalarprodukt:
〈x , y〉 = (1 + 2i) · 2 + (−2− i) · 2i = 2 + 4i + 4i + 2i2 = 2 + 8i− 2 = 8i
Konjugieren ist notwendig fur die Positivitat der assoziierten Normkeine Konjugation falsche Definition der Langen
x :√
(1 + 2i)2 + (−2− i)2 =√
1 + 4i− 4 + 4 + 4i− 1 =√
8i 6∈ R
y :√
22 + (2i)2 =√
4− 4 = 0 6> 0
Skalarprodukt und Basen Skalarprodukt 45-1
Cauchy-Schwarz-Ungleichung
Das Skalarprodukt lasst sich mit Hilfe der assoziierten Norm abschatzen:
|〈u, v〉| ≤ |u||v |, |w | =√〈w ,w〉 .
Gleichheit gilt genau dann, wenn u ‖ v .Fur ein reelles Skalarprodukt kann durch
cosϕ =〈u, v〉|u| |v |
ein Winkel ϕ ∈ [0, π] zwischen u und v definiert werden.
Skalarprodukt und Basen Cauchy-Schwarz-Ungleichung 46-1
Beweis:
v = λu Gleichheit
Ungleichung unverandert bei Multiplikation von u bzw. v mit einem Skalar
o.B.d.A.: |u|2 = |v |2 = 1
betrachte komplexes Skalarprodukt (Argumentation schließt den reellenFall ein)
〈u, v〉 = r exp(iϕ)︸ ︷︷ ︸=:λ
, r > 0 ,
u, v nicht parallel =⇒0 < 〈u − λv , u − λv〉
= 1 + λλ− λ r exp(iϕ)︸ ︷︷ ︸〈v ,u〉
−λ r exp(iϕ)︸ ︷︷ ︸〈u,v〉
= 1 + 1− r − r .
d.h.
r = |〈u, v〉| < 1
Skalarprodukt und Basen Cauchy-Schwarz-Ungleichung 47-1
Beispiel:
Skalarprodukt
〈f , g〉 =
∫ 1
0f (x)g(x) dx
fk(x) = xk
|fk | =
(∫ (xk)2
dx
)1/2
= (2k + 1)−1/2
〈fk , f`〉 =
∫xkx` dx = (k + `+ 1)−1
Ungleichung von Cauchy-Schwarz
(k + `+ 1)−1 = |〈fk , f`〉| ≤ |fk ||f`| = (2k + 1)−1/2(2`+ 1)−1/2
X: Quadrieren und Kehrwertbildung
k2 + `2 + 1 + 2k`+ 2k + 2` ≥ 4k`+ 2k + 2`+ 1 ⇔ (k − `)2 ≥ 0
Skalarprodukt und Basen Cauchy-Schwarz-Ungleichung 48-1
Norm
Eine Norm auf einem reellen oder komplexen Vektorraum V ist eineAbbildung
‖ · ‖ : V → R
mit den folgenden Eigenschaften:
Positivitat:‖v‖ > 0 fur v 6= 0
Homogenitat:‖λv‖ = |λ|‖v‖
Dreiecksungleichung:
‖u + v‖ ≤ ‖u‖+ ‖v‖
.
Dabei sind u, v beliebige Vektoren und λ ein beliebiger Skalar.
Skalarprodukt und Basen Norm 49-1
Fur einen reellen oder komplexen Vektorraum V mit einem Skalarproduktist
|v | =√〈v , v〉, v ∈ V
die kanonische Norm. In Anlehnung an den euklidischen Fall werden beidieser speziellen Norm einfache Betragsstriche verwendet.Mit Hilfe einer Norm kann durch
d(u, v) = ‖u − v‖
ein Abstand zwischen zwei Vektoren definiert werden.
Skalarprodukt und Basen Norm 49-2
Beweis:
Uberprufung der Normeigenschaften fur die einem Skalarproduktzugeordnete Norm
Positivitat und Homogenitat X
Die Dreiecksungleichung folgt aus
|u + v |2 = 〈u + v , u + v〉= 〈u, u〉+ 〈u, v〉+ 〈u, v〉︸ ︷︷ ︸
∈R
+〈v , v〉
≤ |u|2 + 2|〈u, v〉|+ |v |2≤
Cauchy-Schwarz|u|2 + 2|u||v |+ |v |2
= (|u|+ |v |)2
durch Wurzelziehen.
Skalarprodukt und Basen Norm 50-1
Beispiel:
Fur die Vektorraume Rn und Cn bezeichnet
‖z‖∞ = maxi|zi |
die Maximum-Norm.
Die Dreiecksungleichung ist erfullt, denn fur z = x + y gilt
maxi|zi | = max
i|xi + yi | ≤ max
i(|xi |+ |yi |) ≤ max
i|xi |+ max
i|yi | .
Die Maximum-Norm kann durch Einfuhrung von Gewichten wi ∈ R+
verallgemeinert werden:
‖z‖∞,w = maxi
(wi |zi |) .
Skalarprodukt und Basen Norm 51-1
Orthogonale Basis
Eine Basis B = u1, . . . , un heißt orthogonal, wenn
〈ui , uj〉 = 0, i 6= j .
Sind die Basisvektoren normiert, d.h. ist |ui | = 1, so spricht man voneinem Orthonormalsystem oder einer Orthonormalbasis.Ein Vektor v besitzt bzgl. einer orthogonalen Basis u1, . . . , un dieDarstellung
v =n∑
j=1
cjuj , cj =〈v , uj〉|uj |2
.
Fur die Koeffizienten cj gilt
|c1|2|u1|2 + · · ·+ |cn|2|un|2 = |v |2 .Fur eine normierte Basis fallen die Terme |uj |2 weg, und es ergibt sich
cj = 〈v , uj〉 , |c1|2 + · · ·+ |cn|2 = |v |2 .Skalarprodukt und Basen Orthogonale Basis 52-1
Beweis:
u1, . . . , un Basis → Existenz von Skalaren c1, . . . , cn mit
v =n∑
j=1
cjuj
Skalarprodukt mit uk und Orthogonalitat der Basis
〈v , uk〉 = ck〈uk , uk〉 bzw. ck =〈v , uk〉〈uk , uk〉
Identitat fur die Koeffizienten − Verallgemeinerung des Satzes vonPythagorasBeweis durch Ausmultiplizieren von
|v |2 = 〈c1u1 + · · ·+ cnun, c1u1 + · · ·+ cnun〉Gemischte Terme
〈cjuj , ckuk〉, j 6= k
verschwinden wegen der Orthogonalitat der Basisvektoren.Skalarprodukt und Basen Orthogonale Basis 53-1
Beispiel:
(i) orthogonale Basis:
u1 =
(13
), u2 =
(−62
)
Darstellung von v = (8, 4)t:
v =〈v , u1〉〈u1, u1〉
u1 +〈v , u2〉〈u2, u2〉
u2 =8 + 12
1 + 9u1 +
−48 + 8
36 + 4u2 = 2u1 − u2
Quadratsumme der Koeffizienten:
|2|2∣∣∣∣( 1
3
)∣∣∣∣2 + | − 1|2∣∣∣∣( −6
2
)∣∣∣∣2 = 4 · 10 + 1 · 40 =
∣∣∣∣( 84
)∣∣∣∣2
Skalarprodukt und Basen Orthogonale Basis 54-1
(ii) orthonormale Basis:
u1 =1
9
148
, u2 =1
9
47−4
, u3 =1
9
8−41
Darstellung von v = (−1, 1, 3)t
v = 〈v , u1〉u1 + 〈v , u2〉u2 + 〈v , u1〉u1 = 3u1 − u2 − u3
Quadratsumme der Koeffizienten:
|3|2 + | − 1|2 + | − 1|2 =
∣∣∣∣∣∣ −1
13
∣∣∣∣∣∣2
Skalarprodukt und Basen Orthogonale Basis 54-2
Orthogonale Projektion
Die orthogonale Projektion
v 7→ PU(v) ∈ U
auf einen Unterraum U ist durch die Orthogonalitatsbedingung
〈v − PU(v), u〉 = 0, ∀u ∈ U
charakterisiert.
O
PU(v)
v
U
Skalarprodukt und Basen Orthogonale Projektion 55-1
Ist u1, . . . , uj eine orthogonale Basis von U, so ist
PU(v) =
j∑k=1
〈v , uk〉〈uk , uk〉
uk .
Skalarprodukt und Basen Orthogonale Projektion 55-2
Beispiel:
Hyperebene in R4
H : x1 + x2 + x3 + x4 = 0
orthogonale Basis fur H
u =
11−1−1
v =
1−11−1
w =
1−1−11
orthogonale Projektion des Vektors x = (1, 2, 3, 4)t auf H
PHx =x tu
|u|2 u +x tv
|v |2 v +x tw
|w |2w =−4
4u +−2
4v +
0
4w
= −(1, 1,−1,−1)t − 1
2(1,−1, 1,−1)t = (−3/2,−1/2, 1/2, 3/2)t
Skalarprodukt und Basen Orthogonale Projektion 56-1
Verfahren von Gram-Schmidt
Aus einer Basis b1, . . . , bn kann wie folgt eine orthogonale Basis u1, . . . , unkonstruiert werden. Man definiert sukzessive
uj = bj −∑k<j
〈bj , uk〉〈uk , uk〉
uk ,
fur j = 1, . . . , n. Dabei ist die Summe die orthonale Projektion von bj aufspan(u1, . . . , uj−1).
Die Rekursion vereinfacht sich, wenn man die Basisvektoren nach jedemSchritt normiert:
uj ←uj|uj |
.
In diesem Fall ist 〈uk , uk〉 = 1.
Skalarprodukt und Basen Verfahren von Gram-Schmidt 57-1
Beweis:
Zeige induktiv: u1, . . . , u` bilden orthogonale Basis fur span (b1, . . . , b`).
` = 1 : u1 = b1 X
Induktionsschritt (`→ `+ 1):fur j ≤ `
〈u`+1, uj〉 = 〈b`+1, uj〉 −∑k≤`
〈b`+1, uk〉〈uk , uk〉
〈uk , uj〉︸ ︷︷ ︸δk,j |uj |2
= 0
=⇒ u1, . . . , u`+1 orthogonal
b`+1 − u`+1 ∈ span(u1, . . . , u`) = span(b1, . . . , b`)
=⇒ Beide Basen spannen denselben Unterraum auf.
Skalarprodukt und Basen Verfahren von Gram-Schmidt 58-1
Beispiel:
Konstruktion einer bzgl. des Skalarproduktes
〈f , g〉 =
∫ 1
−1f (x)g(x) dx
orthogonalen Folge von Polynomen p0, p1, . . . aus den Monomenqj(x) = x j
Verfahren von Gram-Schmidt:
p0 = q0 = 1
p1 = q1 −∫ 1−1 x · 1 dx∫ 1−1 1 · 1 dx
· 1 = x − 0
p2 = q2 −∫ 1−1 x
2 · x dx∫ 1−1 x · x dx
· x −∫ 1−1 x
2 · 1 dx∫ 1−1 1 · 1 dx
· 1 = x2 − 0 · x − 1
3
allgemeine Formel: pn+1 = qn+1 −∑n
j=0〈qn+1,pj 〉〈pj ,pj 〉 pj
Skalarprodukt und Basen Verfahren von Gram-Schmidt 59-1
Vereinfachung durch Verwendung von qn+1(x) = xpn(x) anstelle vonqn+1(x) = xn+1.Legitim, da xpn(x) = cxn+1 +
∑j≤n cjx
j =⇒
spanp1, . . . , pn, qn+1 = spanp1, . . . , pn, qn+1
alle Summanden bis auf j = n − 1 Null
j = n : auf Grund der Antisymmetrie des Integranden
〈qn+1, qn〉 =
∫ 1
−1x qn(x) qn(x)dx = 0
j < n − 1 : [x pj(x)] Linearkombination von pk(x), k < n =⇒
〈qn+1, pj〉 =
∫ 1
−1pn(x) [x pj(x)] dx = 0 ,
da pn ⊥ pk
Skalarprodukt und Basen Verfahren von Gram-Schmidt 59-2
andere Normierung Legendre-Polynome
pn(x) = αnxn + . . . , αn =
(2n)!
2n(n!)2
Gram-Schmidt-Prozess 3-Term-Rekursion
(n + 1)pn+1(x) = (2n + 1)xpn(x)− npn−1(x)
mit p0(x) = 1 und p1(x) = x
Skalarprodukt und Basen Verfahren von Gram-Schmidt 59-3
Lineare Abbildung
Eine Abbildung L : V 7−→W zwischen K -Vektorraumen V und W heißtlinear, wenn sie folgende Eigenschaften besitzt:
Additivitat:L(u + v) = L(u) + L(v)
Homogenitat:L(λv) = λL(v)
Dabei sind u, v ∈ V und λ ∈ K beliebige Vektoren bzw. Skalare.
Insbesondere gilt L(0V ) = 0W und L(−v) = −L(v).
Lineare Abbildungen Lineare Abbildung 60-1
Beispiel:
(i) Drehung:
~v1 ~v2
~v
L(~v1)
L(~v2)
L(~v)
~v 3~v
L(~v)
L(3~v)
Vertauschbarkeit von Addition und skalarer Multiplikation X
Lineare Abbildungen Lineare Abbildung 61-1
(ii) Spiegelung:
~v1 ~v2
~v
L(~v1)
L(~v2)
L(~v)
~v 3~v
L(~v)
L(3~v)
Vertauschbarkeit von Addition und skalarer Multiplikation X
Lineare Abbildungen Lineare Abbildung 61-2
(iii) Verschiebung:
nicht linear, denn fur
T : (x1, x2) 7→ (x1 + 1, x2)
undv1 = (1, 0), v2 = (0, 1), λ = 2
gilt
T (v1 + v2) = (2, 1) 6= (3, 1) = T (v1) + T (v2)
T (λv1) = (3, 0) 6= (4, 0) = λT (v1) ,
d.h. T ist weder additiv noch homogen
Lineare Abbildungen Lineare Abbildung 61-3
Beispiel:
Abbildungen reeller Funktionen
Abbildung additiv homogen
f 7→ f ′ X X
f 7→ |f | – –
f 7→∫ 1
0 f X X
f 7→ max f – –
f 7→ f (0) X X
f 7→ (max f + min f )/2 – X
additive aber nicht homogene Abbildung:
T : f 7→ Re f , f komplexwertig
nicht homogen, daT (if ) 6= iT (f )
Lineare Abbildungen Lineare Abbildung 62-1
Komposition linearer Abbildungen
Fur zwei lineare Abbildungen
S : U → V , T : V →W
definiert man die Komposition (auch Hintereinanderausfuhrung genannt)
T S : U →W
durch(T S)(u) = T (S(u)) ,
d.h. man wendet auf ein u ∈ U die Abbildung S und auf das Ergebnis dieAbbildung T an; die Abbildung T wird nach der Abbildung S ausgefuhrt.Die Komposition zweier linearer Abbildungen ist wiederum linear.
Lineare Abbildungen Komposition linearer Abbildungen 63-1
Matrix
Unter einer (m× n)-Matrix (m, n ∈ N) uber einem Korper K versteht manein Rechteckschema
A = (ai ,j) =
a1,1 a1,2 · · · a1,n
a2,1 a2,2 · · · a2,n...
......
am,1 am,2 · · · am,n
.
Man bezeichnet (ai ,1, ai ,2, . . . , ai ,n) als i-ten Zeilen- und(a1,j , a2,j , . . . , am,j)
t als j-ten Spaltenvektor von A. Speziell ist eine(n × 1)-Matrix ein Spalten- und eine (1× n)-Matrix ein Zeilenvektor.
Lineare Abbildungen Matrix 64-1
Die (n ×m)-Matrizen bilden den Vektorraum Kn×m; Rn×m (Cn×m)bezeichnet die reellen (komplexen) Matrizen. Die Vektorraumoperationensind komponentenweise definiert:
C = A± B ⇔ ci ,j = ai ,j ± bi ,j
B = λA ⇔ bi ,j = λai ,j
Lineare Abbildungen Matrix 64-2
Beispiel:
Verschiedene Matrixdimensionen
315797
, (i, 1 + i,−1, 3i) ,
0 1 0i 1 + i −i√
3 + 3i 7543 17
,
11 1221 2231 32
Spalten- bzw. Zeilenvektor, quadratische und rechteckige Matrix
Lineare Abbildungen Matrix 65-1
Matrix einer linearen Abbildung
Eine lineare Abbildung L : V 7−→W zwischen zwei K -Vektorraumen mitden Basen E = e1, . . . , en und F = f1, . . . , fm ist durch die Bilder derBasisvektoren
L(ej) = a1,j f1 + · · ·+ am,j fm
eindeutig bestimmt. Sie besitzt die Matrixdarstellung
w = L(v) ⇔ wi =n∑
j=1
ai ,jvj , i = 1, . . . ,m ,
wobei vj und wi die Koordinaten von v und w = L(v) bzgl. der Basen Eund F bezeichnen. In der j-ten Spalte der Matrix A stehen also dieKoordinaten von L(ej) bzgl. der Basis F .
Lineare Abbildungen Matrix 66-1
Beweis:
L ist aufgrund der Bedingungen fur Linearitat durch die Bilder einer Basiseindeutig bestimmt:
w = L(v) = L
∑j
vjej
=∑j
vjL(ej) =∑j
∑i
vjai ,j fi
mit den Basiskoeffizienten vj von vBasisdarstellung von w :
w =∑i
wi fi
Vergleich der Koordinaten der Basisvektoren Matrixdarstellung
wi =n∑
j=1
ai ,jvj
Lineare Abbildungen Matrix 67-1
Beispiel:
lineare Abbildungen L : R2 → R2 der Ebene festgelegt durch dieBilder der Einheitsvektoren ei (fett)
e1 =
(10
), e2 =
(01
)e1
e2
Urbild
L(e1) = re1
L(e2) = se2
Streckung
L(e1)
L(e2)
ϑ
Drehung
L(e1)
L(e2)
ϑ
Scherung
A =
(r 00 s
)A =
(cosϑ − sinϑsinϑ cosϑ
)A =
(1 cotϑ0 1
)Die Spalten von A enthalten die Koordinaten der Vektoren L(ei ).
Lineare Abbildungen Matrix 68-1
Beispiel:
(i) Auswertung einer linearen Funktion an den Punkten x = 0, 1:
L : p 7→(
p(0)p(1)
), p(x) = a0 + a1x
Matrix bzgl. der Monombasis p1 : x 7→ 1, p2 : x 7→ x
(L(p1), L(p2)
)=
(1 01 1
)
Matrix bzgl. der Basis p1 : x 7→ 1− x , p2 : x 7→ x(p1(0) p2(0)p1(1) p2(1)
)=
(1 00 1
)
Lineare Abbildungen Matrix 69-1
(ii) Auswertung eines Polynoms
p(x) = a0 + a1x + · · ·+ anxn
vom Grad ≤ n an m Stutzstellen x = x1, . . . , xm:Monombasis Vandermonde-Matrix
V =
x0
1 x11 · · · xn1
x02 x1
2 · · · xn2...
.... . .
...x0m x1
m · · · xnm
,
p(x1)...
p(xm)
= V
a0...an
Spalte j : Auswertung des Monoms x 7→ x j an den Punkten xi
Zeile i : Auswertung der Monome x 7→ x j am Punkt xi
Lineare Abbildungen Matrix 69-2
Affine Abbildung
Eine affine Abbildung f : Rn → Rm setzt sich aus einer linearenTransformation und einer Verschiebung zusammen:
f (x) = Ax + v
mit einer m × n-Matrix A und einem m-Vektor v .Der Verschiebungsvektor v ist das Bild des Nullvektors und fur die Spaltenvon A gilt a1,k
...am,k
= f (ek)− v
mit ek ∈ Rm dem k-ten Einheitsvektor.
Lineare Abbildungen Affine Abbildung 70-1
Basiswechsel
Bei einem Basiswechsel E → E ′ transformieren sich die Koordinaten einesVektors v gemaß vE ′ = TEE ′(vE ).
Kn
V
Kn
TEE′
BE BE′
Dabei ist TEE ′ = BE ′ B−1E mit den Abbildungen
BE : v → vE , BE ′ : v → vE ′ ,
die Vektoren v ihre Koordinaten bzgl. der Basen E und E ′ zuordnen.
Lineare Abbildungen Koordinatentransformation bei Basiswechsel 71-1
Die Koordinatentransformation TEE ′ kann durch eine quadratische MatrixA dargestellt werden:
vE ′ = AvE .
Die Spalten der Matrix A enthalten die Koeffizienten der Basisvektoren ekbzgl. der Basis E ′:
ek =∑j
aj ,ke′j .
Lineare Abbildungen Koordinatentransformation bei Basiswechsel 71-2
Beweis:
Darstellung von v bezuglich der Basen E und E ′:∑k
ckek = v =∑k
c ′ke′k
Darstellung von ek bezuglich der Basis E ′
v =∑k
ckek =∑k
ck
∑j
aj ,ke′j
=
∑j
(∑k
aj ,kck
)e ′j =
∑j
c ′je′j
Koordinatenvergleich ⇒ vE ′ = AvE
Lineare Abbildungen Koordinatentransformation bei Basiswechsel 72-1
Beispiel:
E =
(01
),
(23
), E ′ =
(31
),
(20
)Darstellung von ek als Linearkombination von e ′j(
01
)= 1 ·
(31
)− 3
2·(
20
),
(23
)= 3 ·
(31
)− 7
2·(
20
) Transformationsmatrix
A =
(1 3−3/2 −7/2
)
Lineare Abbildungen Koordinatentransformation bei Basiswechsel 73-1
Basiskoeffizient von v = (2, 5)t(25
)= 2 ·
(01
)+ 1 ·
(23
)=⇒ vE =
(21
)Umrechnung
vE ′ =
(1 3−3/2 −7/2
)(21
)=
(5
−13/2
)Probe: (
25
)!
= 5 ·(
31
)− 13
2·(
20
)X
Lineare Abbildungen Koordinatentransformation bei Basiswechsel 73-2
Bild und Kern
Fur eine lineare Abbildung L : V →W bezeichnet man mit
Kern L = v ∈ V : L(v) = 0 ⊆ V
den Kern und mit
Bild L = w ∈W : ∃v ∈ V mit L(v) = w ⊆W
das Bild von L.
Beide Mengen sind Unterraume und
dimV = dim ker(L) + dim Bild(L) ,
falls dimV <∞.
Lineare Abbildungen Bild und Kern 74-1
Beweis:
(i) Kern L ist Unterraum von V :zu zeigen: Abgeschlossenheit bzgl. Addition und skalarer MultiplikationFur u, v ∈ Kern(L), λ ∈ K folgt aus der Linearitat von L
L(λ u) = λ L(u) = λ 0 = 0
undL(u + v) = L(u) + L(v) = 0 + 0 = 0 ,
d.h. λu, u + v ∈ Kern(L)(ii) Bild L ist Unterraum von W :Fur u, v ∈ Bild L mit u = L(x), v = L(y) und λ ∈ K folgt analog
λ u = λ L(x) = L(λ x)
undu + v = L(x) + L(y) = L(x + y) ,
d.h. die Existenz entsprechender Urbilder=⇒ λu, u + v ∈ Bild L
Lineare Abbildungen Bild und Kern 75-1
(iii) Dimensionsformel:Wahle eine Basis E ′ = e1, . . . , em fur Kern L und erganze diese durchem+1, . . . , en zu einer Basis E von V .
L
(n∑
i=1
viei
)=
n∑i=m+1
viL(ei )
=⇒ Bild L = spanF , F = L(em+1), . . . , L(en)F linear unabhangig, also eine Basis von Bild L, denn
n∑i=m+1
viL(ei ) = 0 =⇒n∑
i=m+1
viei ∈ Kern L
und somit vi = 0Vergleich der Anzahlen der Basisvektoren =⇒ Dimensionsformel
Lineare Abbildungen Bild und Kern 75-2
Beispiel:
Projektion P parallel zu der Geraden
g : (t, t, t), t ∈ R
von R3 auf die x1x2-Ebene:
P : x 7→
x1 − x3
x2 − x3
0
=⇒
KernP = g , BildP = span
100
,
010
Dimensionsformel: 3 = dimR3 = dim KernP + dim BildP = 1 + 2 X
Lineare Abbildungen Bild und Kern 76-1
Beispiel:
k-te Ableitung Dk auf dem Raum der Polynome Pn vom Grad ≤ n(i) k = 1 und n = 2: 1, x , x2 Basis fur P2
p(x) = a0 + a1x + a2x2 ⇒ (Dp)(x) = a1 + 2a2x ∈ P1
dimP2 = 3, dim kerD = 1 dim Bild = 2Ableitung annuliert Konstanten, einen eindimensionalen Unterraum.(i) allgemeiner Fall:
p(x) =n∑`=0
a`x` ⇒ (Dkp)(x) =
n∑`=k
`!
(`− k)!a`x
`−k ∈ Pn−k
Dk annulliert Polynome vom Grad < k Dimensionsformel
n + 1 = ((n − k) + 1)︸ ︷︷ ︸dim Bild
+ k︸︷︷︸dim Kern
= dimPn−k + dimPk−1
Lineare Abbildungen Bild und Kern 77-1
Inverse Abbildung
Eine lineare Abbildung L : V →W ist genau dann injektiv, wennKern L = 0V , d.h. nur das Nullelement von V wird auf das Nullelementvon W abgebildet:
Lv = 0W =⇒ v = 0V .
In diesem Fall ist durch
w 7→ v , w = L(v) ,
eine inverse Abbildung L−1 : Bild L→ V definiert, die ebenfalls linear ist.Insbesondere gilt
L−1 L(v) = v , L L−1(w) = w
fur alle v ∈ V und w ∈ Bild L.
Lineare Abbildungen Inverse Abbildung 78-1
Beweis:
(i) Injektivitat von L:
L injektiv =⇒ 0V ist einziges Urbild von 0W , d.h. Kern L = 0V
Kern L = 0V ∧ L(v1) = L(v2)=⇒ 0W = L(v1 − v2) =⇒ v1 − v2 ∈ Kern L =⇒v1 − v2 = 0V=⇒ L injektiv
(ii) Linearitat derUmkehrabbildung:
L−1(L(v1) + L(v2)) = L−1(L(v1 + v2))
= v1 + v2 = L−1(L(v1)) + L−1(L(v2))
L−1(λL(v1)) = L−1(L(λv1))
= λv1 = λL−1(L(v1))
Lineare Abbildungen Inverse Abbildung 79-1
Beispiel:
L :
(x1
x2
)7→ y =
x1 − αx2
0x2 − αx1
bestimme Kern L:
0 = x1 − αx2
0 = x2 − αx1
⇔x1 − α2x1 = 0
x2 = αx1
d.h. Kern L = (0, 0) ⇔ α 6= ±1inverse Abbildung:y3 = x2 − αx1 =⇒ x2 = y3 + αx1
y1 = x1 − αx2 = x1 − α(y3 + αx1) =⇒ x1 = (y1 + αy3)/(1− α2)d.h. (nach weiterer Umformung)
L−1 :
y1
y2
y3
7→ x =1
1− α2
(y1 + αy3
αy1 + y3
)Lineare Abbildungen Inverse Abbildung 80-1
Matrix-Multiplikation
Das Produkt einer (`×m)-Matrix A und einer (m × n)-Matrix B ist die(`× n)-Matrix
C = AB , ci ,k =m∑j=1
ai ,jbj ,k ,
d.h. zur Definition von ci ,k werden die Produkte der Elemente aus Zeile ivon A und Spalte k von B summiert: ci ,k
=
ai ,1 · · · ai ,j · · · ai ,m
b1,k
...bj ,k
...bm,k
Man beachte, dass dazu die Spaltenzahl von A mit der Zeilenzahl von Bubereinstimmen muss.
Matrixrechnung Matrix-Multiplikation 81-1
Die Matrixmultiplikation entspricht der Komposition der linearenAbbildungen
T : u 7→ v = Bu, S : v 7→ w = Av ,
d.h. C = AB ist die Matrixdarstellung von S T .Die Matrix-Multiplikation ist i.a. nicht kommutativ.
Matrixrechnung Matrix-Multiplikation 81-2
Beweis:
Komposition der durch
wi =m∑j=1
ai ,jvj , vj =n∑
k=1
bj ,kuk
definierten Abbildungen
wi =∑j
∑k
ai ,jbj ,kuk =∑k
∑j
ai ,jbj ,k
uk
mit [...] = ci ,k den Elementen der Matrix C = AB
Matrixrechnung Matrix-Multiplikation 82-1
Beispiel:
einige konkrete Matrix-Produkte:
(1 10 100
100 10 1
) 1 3 22 1 33 2 1
=
(321 213 132123 312 231
) 1
23
( 0 −1)
=
0 −10 −20 −3
(
3 4)( 3
4
)= 25
(1 ii 1
)(1i
)=
(0
2i
)
Matrixrechnung Matrix-Multiplikation 83-1
Beispiel:
Berechnung des Produktes C = AB von zwei (2× 2)-Matrizen A, B in derublichen Weise 8 MultiplikationenV. Strassen: 7 Multiplikationen genugen[Gaussian elimination is not optimal, Numer. Math. 13 (1969), 357–361]
p1 = (a1,2 − a2,2)(b2,1 + b2,2)p2 = (a1,1 + a2,2)(b1,1 + b2,2)p3 = (a1,1 − a2,1)(b1,1 + b1,2)p4 = (a1,1 + a1,2)b2,2
p5 = a1,1(b1,2 − b2,2)p6 = a2,2(b2,1 − b1,1)p7 = (a2,1 + a2,2)b1,1
c1,1 = a1,1b1,1 + a1,2b2,1 = p1 + p2 − p4 + p6
c1,2 = a1,1b1,2 + a1,2b2,2 = p4 + p5
c2,1 = a2,1b1,1 + a2,2b2,1 = p6 + p7
c2,2 = a2,1b1,2 + a2,2b2,2 = p2 − p3 + p5 − p7
Matrixrechnung Matrix-Multiplikation 84-1
Rekursive Anwendung der Konstruktion in Blockform auf Matrizen derDimension n = 2k
Reduktion der Multiplikationen von n3 auf O(nlog2 7)
Verbesserung: O(n2.376...)[D. Coppersmith, S. Winograd: Matrix Multiplication via arithmeticprogressions, J. Symb. Comp. 9 (1990), 251–280]
Vermutung: O(n2) moglich (optimaler Exponent noch unbekannt)
Die Methode hat heute keine praktische Bedeutung mehr, da aufmodernen Computern Multiplikation und Addition fast gleich schnell sind.
Matrixrechnung Matrix-Multiplikation 84-2
Beispiel:
Bei der Hintereinanderausfuhrung zweier Spiegelungen S1 und S2 anunterschiedlichen Achsen g1 und g2 ist die Reihenfolge relevant.
g1 g2
ϑ
2ϑ
g1g2
ϑ 2ϑg1g2
Doppelspiegelung S2 S1 und Doppelspiegelung S1 S2
Drehungen um den doppelten Winkel zwischen den Geraden inunterschiedliche Richtungen
Matrixrechnung Matrix-Multiplikation 85-1
wahle g1 als erste Winkelhalbierende und g2 als y -Achse Matrixdarstellungen der Abbildungen:
v = S1u =
(0 11 0
)u
v = S2u =
(−1 0
0 1
)u
Darstellungen der Doppelspiegelungen:
w = S2S1u =
(−1 0
0 1
)(0 11 0
)u =
(0 −11 0
)u
w = S1S2u =
(0 11 0
)(−1 0
0 1
)u =
(0 1−1 0
)u
Drehungen um 90 Grad in entgegengesetzte RichtungenKommutator:
[S1, S2] =
(0 1−1 0
)−(
0 −11 0
)=
(0 2−2 0
)Matrixrechnung Matrix-Multiplikation 85-2
Inverse Matrix
Fur eine invertierbare lineare Abbildung v 7→ Av bezeichnet A−1 dieInverse der (notwendigerweise quadratischen) Matrix A, d.h.
AA−1 = A−1A = E
mit
E =
1 0 · · · 00 1 · · · 0...
. . ....
0 0 · · · 1
der Einheitsmatrix.Fur Produkte quadratischer Matrizen gilt
(AB)−1 = B−1A−1 ;
bei Invertierung von Abbildungen vertauscht sich die Reihenfolge.Matrixrechnung Inverse Matrix 86-1
Beweis:
B−1A−1AB = B−1EB = B−1B = E
=⇒ B−1A−1 ist Inverse von AB.
Matrixrechnung Inverse Matrix 87-1
Beispiel:
Diagonalmatrix:
A =
(3 00 1/7
), A−1 =
(1/3 0
0 7
)Dreiecks-Matrix:
B =
(1 01 1
), B−1 =
(1 0−1 1
)Die Struktur bleibt erhalten.
voll besetzte Matrix:
C =
(−1 2−1 1
), C−1 =
(1 −21 −1
)Berechnung der Eintrage durch Losen eines linearenGleichungssystems
Matrixrechnung Inverse Matrix 88-1
Transponierte, adjungierte, symmetrische und hermitescheMatrix
Werden Zeilen und Spalten einer Matrix A vertauscht so spricht man vonder transponierten Matrix B = At, d.h.
bi ,j = aj ,i .
Konjugiert man bei einer komplexen Matrix A zusatzlich alle Eintrage, soergibt sich die adjungierte Matrix C = A∗ = At, d.h.
ci ,j = aj ,i .
Matrixrechnung Transponierte und adjungierte Matrix 89-1
Eine Matrix mit A = At bezeichnet man als symmetrisch, eine Matrix mitA = A∗ als selbst-adjungiert oder hermitesch. Fur reelle Matrizen bedeutendie Begriffe hermitesch und symmetrisch dasselbe.Es gelten folgende Regeln:
(AB)t = BtAt, (AB)∗ = B∗A∗ ,(At)−1 = (A−1)t, (A∗)−1 = (A−1)∗ .
Matrixrechnung Transponierte und adjungierte Matrix 89-2
Beweis:
Elemente von C t = (AB)t
ctj ,i = ci ,j =
∑k
ai ,kbk,j =∑k
atk,ib
tj ,k =
∑k
btj ,ka
tk,i
⇒ C t = BtAt
a + b = a + b und ab = ab ⇒ gleiche Formel fur Adjungierte(A−1
)t= (At)−1 folgt aus
E = E t =(AA−1
)t=(A−1
)tAt
Entsprechendes gilt fur die Adjungierte.
Matrixrechnung Transponierte und adjungierte Matrix 90-1
Beispiel:
A =
(0 i1 2
), B =
(i 12 0
):
(i)
(AB)∗ =
(2i 0
4 + i 1
)∗=
(2i 0
4 + i 1
)t
=
(−2i 4− i
0 1
)B∗A∗ =
(−i 21 0
)·(
0 1−i 2
)=
(−2i 4− i
0 1
)(ii)
(A−1)∗ =
(2i 1−i 0
)∗=
(−2i i
1 0
)=
(0 1−i 2
)−1
= (A∗)−1
Matrixrechnung Transponierte und adjungierte Matrix 91-1
Spur einer Matrix
Die Summe der Hauptdiagonalenelemente einer n× n-Matrix A nennt mandie Spur von A,
SpurA =n∑
i=1
ai ,i .
Fur beliebige quadratische Matrizen gilt
Spur(AB) = Spur(BA) .
Hieraus folgt fur eine regulare Matrix T
Spur(T−1AT ) = SpurA ,
d.h. Koordinatentransformationen lassen die Spur invariant.
Matrixrechnung Spur 92-1
Beispiel
A =
(1 23 4
), B =
(2 14 3
), T =
(1 21 3
), T−1 =
(3 −2−1 1
)(i) Matrixprodukt:
AB =
(10 722 15
), BA =
(5 8
13 20
)und
Spur(AB) = 25 = Spur(BA)
(ii) Koordinatentransformation:
T−1AT = T−1
(3 87 18
)=
(−5 −124 10
)und
Spur(T−1AT ) = 5 = SpurA
Matrixrechnung Spur 93-1
Rang einer Matrix
Fur eine m × n-Matrix A stimmt die maximale Anzahl linear unabhangigerSpalten mit der maximalen Anzahl linear unabhangiger Zeilen uberein undwird als Rang von A, RangA, bezeichnet. Insbesondere gilt
RangA ≤ minm, n
und fur eine invertierbare n × n-Matrix A ist RangA = n.
Matrixrechnung Rang einer Matrix 94-1
Beweis:
lineare Hulle der Zeilen und Spalten der m × n-Matrix A:
U = span(ut1, . . . , u
tm), V = span(v1, . . . , vn)
zu zeigen:dimU = dimV (= RangA)
A reprasentiert eine lineare Abbildung:
A : Rn → Rm
Satz uber die Dimension von Bild und Kern =⇒
dimV = dim BildA = n − dim KernA
Matrixrechnung Rang einer Matrix 95-1
w ∈ KernA ⇔ uk w = 0∀k=⇒ U orthogonales Komplement von KernA
=⇒ Dimensionen addieren zu n:
n = dimU + dim KernA
Einsetzen in die Dimensionsformel =⇒ Behauptung
Matrixrechnung Rang einer Matrix 95-2
Beispiel:
typische Falle:
Rang
0 00 00 0
= 0 Rang
1 22 33 4
= 2, Rang
3 46 89 12
= 1
fur die dritte Matrix:
4S1 = 3S2, 2Z3 = 3Z2 = 6Z1
=⇒ dimV = dimW = 1
Matrixrechnung Rang einer Matrix 96-1
Matrix-Norm
Einer Vektornorm ist die Matrixnorm
‖A‖ = supx 6=0
‖Ax‖‖x‖ = max
‖x‖=1‖Ax‖
zugeordnet. Zusatzlich zu den Normeigenschaften (Positivitat,Homogenitat, Dreiecksungleichung) gilt
‖AB‖ ≤ ‖A‖‖B‖ ,
d.h. die zugeordnete Matrixnorm ist submultiplikativ.
Matrixrechnung Norm einer Matrix 97-1
Beweis:
(i) Positivitat: X(ii) Homogenitat:
‖λA‖ = max‖x‖=1
‖λAx‖ = max‖x‖=1
|λ|‖Ax‖
= |λ| max‖x‖=1
‖Ax‖ = |λ|‖A‖
(iii) Dreiecksungleichung:
‖A + B‖ = max‖x‖=1
‖(A + B)x‖ = max‖x‖=1
‖Ax + Bx‖
≤ max‖x‖=1
(‖Ax‖+ ‖Bx‖)
≤ max‖x‖=1
‖Ax‖+ max‖x‖=1
‖Bx‖ = ‖A‖+ ‖B‖
Matrixrechnung Norm einer Matrix 98-1
(iv) Submultiplikativitat:
B = 0 ⇒ AB = 0 Xfur B 6= 0:
‖AB‖ = supx 6=0
‖ABx‖‖x‖ = sup
x :Bx 6=0
‖A(Bx)‖‖Bx‖
‖Bx‖‖x‖
≤ supy 6=0
‖Ay‖‖y‖ sup
x 6=0
‖Bx‖‖x‖ = ‖A‖‖B‖
(Einschrankung bei der ersten Umformung unproblematisch, da Bx = 0=⇒ ABx = 0)
Matrixrechnung Norm einer Matrix 98-2
Beispiel:
Der Maximum-Norm fur Vektoren ‖v‖∞ = maxi|vi | ist die
Zeilensummennorm fur Matrizen
‖A‖∞ = maxi
∑j
|ai ,j |
zugeordnet.Definition der zugeorneten Norm =⇒
‖A‖∞ = max‖x‖∞=1
maxi|∑j
ai ,jxj | ≤ maxi
∑j
|ai ,j |
Gleichheit gilt furxj = sign ai ,j
mit i einem Index, fur den die Zeilensumme maximal ist.
Matrixrechnung Norm einer Matrix 99-1
z.B.
A =
1 54 −32 0
, B =
(−1 42 3
)=⇒
‖A‖∞ = |4|+ | − 3| = 7, ‖B‖∞ = | − 1|+ |4| = 5
und
AB =
9 19−10 7−2 8
, ‖AB‖∞ = |9|+ |19| = 28 ≤ 7 · 5
Matrixrechnung Norm einer Matrix 99-2
Unitare und orthogonale Matrix
Eine komplexe n × n-Matrix A heißt unitar, falls
A−1 = At
= A∗ ,
d.h. falls die Spalten von A eine orthonormale Basis von Cn bilden.
Fur relle Matrizen entfallt (wie beim Skalarprodukt) die komplexeKonjugation,
A−1 = At ,
und man spricht von einer orthogonalen Matrix.
Eine reelle (komplexe) Matrix A ist genau dann orthogonal (unitar), wennsie die euklidische Norm jedes Vektors invariant lasst:
|Av | = |v |
Matrixrechnung Unitare und orthogonale Matrizen 100-1
Beweis:
Es genugt, den allgemeineren komplexen Fall zu betrachten.(i) A unitar =⇒ (Ay)∗(Ax) = y∗A∗Ax = y∗x Invarianz des komplexen Skalarproduktes, was Normtreue einschließt(ii) Normtreue =⇒ Spalten vj von A als Bilder der Einheitsvektorenej normiert:
|vj | = |Aej | = 1
zum Beweis der Orthogonalitat wahle λ = exp(iϑ), so dass
s = v∗j (λvk) ∈ R
Normtreue und Definition der euklidischen Norm
2 = |ej + λek |2 = |vj + λvk |2= |vj |2 + |λ|2|vk |2 + v∗j (λvk) + (λvk)∗vj︸ ︷︷ ︸
=s=s
= 2 + 2s
=⇒ s = 0 und somit ebenfalls v∗j vk = 0
Matrixrechnung Unitare und orthogonale Matrizen 101-1
Beispiel:
Fur n = 2k existieren bis auf Skalierung orthogonale Matrizen Hk derDimension n × n mit Eintragen in −1, 1, die so genanntenHadamard-Matrizen.
H1 =(
1), H2 =
(1 11 −1
), H4 =
1 1 1 11 −1 1 −11 1 −1 −11 −1 −1 1
Rekursion:
H2k =
(Hk Hk
Hk −Hk
)
Matrixrechnung Unitare und orthogonale Matrizen 102-1
Beispiel
Durch Bilden von Potenzen der Einheitswurzel
wn = exp(2πi/n)
erhalt man die sogenannte Fourier-Matrix
Wn =
w0·0n · · · w
0·(n−1)n
......
w(n−1)·0n · · · w
(n−1)·(n−1)n
.
Sie ist nach Normierung (Wn →Wn/√n) unitar, d.h. W ∗
nWn/n ist dieEinheitsmatrix.Die Orthogonalitat der Spalten folgt aus der geometrischen Summenformel
n−1∑`=0
w `jn w `k
n =∑`
w(j−k)`n =
w(j−k)nn − 1
w j−kn − 1
= 0 ,
da wnn = 1.
Matrixrechnung Unitare und orthogonale Matrizen 103-1
Normale Matrizen
Eine komplexe Matrix A heißt normal, falls
AA∗ = A∗A ,
mit A∗ = At. Insbesondere sind unitare und hermitesche Matrizen normal.
Fur relle normale Matrizen ist
AAt = AtA ,
was insbesondere fur orthogonale und symmetrische Matrizen erfullt ist.
Matrixrechnung Unitare und orthogonale Matrizen 104-1
Beweis:
A unitar =⇒AA∗ = AA−1 = E = A−1A = A∗A
A hermitesch =⇒AA∗ = AA = A∗A
Beide Eigenschaften sind demnach hinreichend fur Normalitat.
Matrixrechnung Unitare und orthogonale Matrizen 105-1
Beispiel:
A =
(1 ab c
)=⇒
AAt =
(1 ab c
)(1 ba c
)=
(1 + a2 b + acb + ac b2 + c2
)AtA =
(1 ba c
)(1 ab c
)=
(1 + b2 a + bca + bc a2 + c2
)normal, falls
a = ±b ∧ b + ac = a + bc
⇔a = b ∨ (a = −b, c = 1)
Matrixrechnung Unitare und orthogonale Matrizen 106-1
Zyklische Matrizen
Bei einer zyklischen n × n-Matrix werden die Spalten durch zyklischesVerschieben der ersten Spalte gebildet:
C =
a0 an−1 an−2 . . .a1 a0 an−1 . . .a2 a1 a0 . . ....
......
, d.h. cj ,k = aj−k mod n .
Die zyklische Struktur bleibt bei Matrixmultiplikation und Inversenbildungerhalten.
Matrixrechnung Zyklische Matrizen 107-1
Beweis:
(i) Matrix-Produkt:Q = CD, ci ,j = ai−j mod n, di ,j = bi−j mod n =⇒
qi ,k =n∑
j=1
ai−j mod n bj−k mod n
Substitution j = j ′ + k
qi ,k =n−k∑
j ′=1−ka(i−k)−j ′mod n bj ′mod n
Modulo-Arithmetik =⇒ Invarianz der Summanden bei Ersetzen vonj ′ durch j ′ ± n Anderung des Summationsbereiches
1− k , . . . , 0, 1, . . . , n − k → n + 1− k , . . . , n, 1, . . . , n − k=⇒ qi ,k hangt nur von (i − k) mod n ab, d.h. Q ist zyklisch:qi ,k = pi−k mod n
Matrixrechnung Zyklische Matrizen 108-1
(ii) Inverse Matrix:D = C−1, cj ,k = aj−k mod n
Fur die erste Zeile (b0, b−1, . . . , b1−n) von D gilt wegen E = DC
δ1,` =n∑
k=1
b1−k mod nak−`mod n
zeige di ,k = bi−k mod n:wahle dazu ` = j − i + 1 mod n, substituiere k ′ = k + i + 1 und erhalte
δi ,j = δ1,j−i+1 mod n =n∑
k=1
b1−k mod nak−j+i−1 mod n
=i+n−1∑k ′=i
bi−k ′mod nak ′−j mod n
Verschiebung des Summationsbereiches, i , . . . , i + n − 1 → 1, . . . , n=⇒ di ,k = bi−k mod n erfullt E = DC und ist somit inverse Matrix
Matrixrechnung Zyklische Matrizen 108-2
Beispiel:
C =
0 2 −1−1 0 22 −1 0
, D =
3 5 44 3 55 4 3
Produkt der zyklischen Matrizen:
CD =
3 2 77 3 22 7 3
Inverse der zyklischen Matrix C
C−1 =1
7
2 1 44 2 11 4 2
Matrixrechnung Zyklische Matrizen 109-1
Positiv definite Matrix
Eine quadratische Matrix A heißt positiv definit, falls
v∗Av > 0 ∀v 6= 0 .
Ist v∗Av lediglich nichtnegativ, so bezeichnet man A als positiv semidefinit.
Eine positiv definite Matrix A hat ausschließlich positive Diagonalelementeund Eigenwerte. Insbesondere ist A invertierbar und die Inverse istebenfalls positiv definit.
Matrixrechnung Positiv definite Matrizen 110-1
Beispiel
Gramsche Matrix G einer Basis v1, · · · , vn:
gi ,j = 〈vi , vj〉
G ist positiv definit, da
x∗Gx =∑i ,j
x igijxj = 〈∑
xivi︸ ︷︷ ︸u
,∑
xjvj〉
= 〈u, u〉 > 0
fur u 6= 0 ⇔ x 6= 0Die komplexe Konjugation ist notwendig wegen
〈λu, v〉 = λ〈u, v〉, 〈u, λv〉 = λ〈u, v〉
Matrixrechnung Positiv definite Matrizen 111-1
Determinante
Die DeterminantedetA = det(a1, . . . , an)
einer quadratischen Matrix A mit Spalten aj kann durch folgendeEigenschaften definiert werden.
Multilineariat:
det(. . . , αaj + βbj , . . .) = α det(. . . , aj , . . .) + β det(. . . , bj , . . .)
Antisymmetrie:
det(. . . , aj , . . . , ak , . . .) = − det(. . . , ak , . . . , aj , . . .)
Normierung:det(e1, . . . , en) = 1, (ek)` = δk` .
Determinanten Determinante als antisymmetrische Multilinearform 112-1
Mit den definierenden Regeln lasst sich eine Determinante als Summen-facher Produkte entwickeln:
detA =∑i∈Sn
σ(i) ai1,1 · · · ain,n ,
wobei uber alle Permutationen (i1, . . . , in) von (1, . . . , n) summiert wirdund σ das Vorzeichen der Permutation bezeichnet.Man benutzt ebenfalls die Schreibweisen
detA = |A| =
∣∣∣∣∣∣∣a1,1 · · · a1,n
......
an,1 · · · an,n
∣∣∣∣∣∣∣ .Wegen der hohen Anzahl der Summanden (es exisitieren n!Permutationen) ist die explizite Darstellung der Determinante fur diepraktische Berechnung schlecht geeignet. Sie ist jedoch unmittelbar mitden definierenden Eigenschaften verknupft und wird zum Beweis sowie zurHerleitung einiger anderer Eigenschaften benotigt.
Determinanten Determinante als antisymmetrische Multilinearform 112-2
Beweis:
(i) Eigenschaften ⇒ Entwicklung der Determinante via Permutationen:Stelle Spalten von A als Linearkombinationen der Einheitsvektoren ei dar:
aj =n∑
i=1
ai ,jei
Multilinearitat ⇒ detA =∑n
i1=1 · · ·∑n
in=1 ai1,1 · · · ain,n det(ei1 , . . . , ein)︸ ︷︷ ︸=di
Antisymmetrie ⇒ det(. . . , ek , . . . , ek , . . .) = − det(. . . , ek , . . . , ek , . . .) ,d.h. det(ei1 , . . . , ein) = 0, falls nicht alle eiν verschieden sind nur Permutationen (i1, . . . , in) von (1, . . . , n) zu berucksichtigen di = (−1)τ(i) det(e1, . . . , en) , wobei τ(i) die modulo 2 eindeutigbestimmte Anzahl von Vertauschungen bezeichnet, um dieEinheitsvektoren in die kanonische Reihenfolge zu bringen
Definition des Vorzeichens einer Permutation und Normierung =⇒det(ei1 , . . . , ein) = σ(i) det(e1, . . . , en) = σ(i)
Determinanten Determinante als antisymmetrische Multilinearform 113-1
(ii) Entwicklung ⇒ Eigenschaften:
Multilinearitat: Produkteai1,1 · · · ain,n
enthalten aus jeder Spalte jeweils genau ein Element.
Antisymmetrie: Vertauschung von Spalten andert Vorzeichen derPermutation.
Normierung: Fur die Einheitsmatrix existiert nur ein nichttrivialerSummand:
a1,1 · · · an,n = 1 · · · 1 = 1 .
Determinanten Determinante als antisymmetrische Multilinearform 113-2
Beispiel:
Determinante einer (2× 2)-Matrix:∣∣∣∣ a bc d
∣∣∣∣ = ad − bc
nur 2 Summanden bei der Entwicklung nach Permutationen
alternative Herleitung mit Hilfe der definierenden Eigenschaften:
det(ae1 + ce2, be1 + de2) = a det(e1, be1 + de2) + c det(e2, be1 + de2)
= ab det(e1, e1) + ad det(e1, e2)
+ cb det(e2, e1) + cd det(e2, e2)
= ab · 0 + ad · 1 + cb · (−1) + cd · 0= ad − bc
Determinanten Determinante als antisymmetrische Multilinearform 114-1
Beispiel:
Die Determinante einer 3× 3-Matrix ist eine Summe von Produkten, dieden verschiedenen Diagonalen entsprechen.
Dieses sogenannte Sarrus-Schema ist in der Abbildung illustriert.
PSfrag repla ementsa1;1 a1;2 a1;3a2;1 a2;2 a2;3a3;1 a3;2 a3;3a1;1 a1;2 a1;3a2;1 a2;3
= a1;1a2;2a3;3 + a2;1a3;2a1;3 + a3;1a1;2a2;3a3;1a2;2a1;3 a1;1a3;2a2;3 a2;1a1;2a3;3Determinanten Determinante als antisymmetrische Multilinearform 115-1
Uberprufung des Sarrus-Schemas durch Entwicklung nach Permutationen:
i Vertauschungen σ(i) Produkt
(1, 2, 3) + a1,1a2,2a3,3
(2, 3, 1) → (3, 2, 1)→ (1, 2, 3) + a2,1a3,2a1,3
(3, 1, 2) → (2, 1, 3)→ (1, 2, 3) + a3,1a1,2a2,3
(3, 2, 1) → (1, 2, 3) − a3,1a2,2a1,3
(1, 3, 2) → (1, 2, 3) − a1,1a3,2a2,3
(2, 1, 3) → (1, 2, 3) − a2,1a1,2a3,3
Determinanten Determinante als antisymmetrische Multilinearform 115-2
Volumen eines Parallelepipeds
Der Betrag der Determinante einer reellen Matrix A = (a1, . . . , an) stimmtmit dem n-dimensionalen Volumen des von den Spalten ai aufgespanntenParallelepipeds uberein:
| detA| = vol
n∑
i=1
αiai : 0 ≤ αi ≤ 1
= vol (A[0, 1]n) .
Determinanten Orientiertes Volumen 116-1
Beweis:
Das orientierte Volumen
vol∗ A = sign(detA) vol(A[0, 1]n)
besitzt alle drei definierenden Eigenschaften der Determinante(Multilinearitat, Antisymmetrie, Normierung).
=⇒vol∗ A = detA
Determinanten Orientiertes Volumen 117-1
Beispiel:
Fur Vektoren u, v , w im R3 stimmt die Determinante mit demSpatprodukt uberein:
det(u, v ,w) = [u, v ,w ] .
alternative Darstellung mit Hilfe des ε-Tensors:
det(u, v ,w) =∑i
∑j
∑k
εi ,j ,kuivjwk
z.B.
u =
211
, v =
121
, w =
112
Spatprodukt
(2, 1, 1)
121
× 1
12
= (2, 1, 1)
3−1−1
= 6− 1− 1 = 4
Determinanten Orientiertes Volumen 118-1
alternative Berechnung mit Hilfe des ε-Tensors
det(u, v ,w) = ε1,2,3 · 2 · 2 · 2 + ε1,3,2 · 2 · 1 · 1 + ε2,1,3 · 1 · 1 · 2+ε2,3,1 · 1 · 1 · 1 + ε3,1,2 · 1 · 1 · 1 + ε3,2,1 · 1 · 2 · 1
= 8− 2− 2 + 1 + 1− 2 = 4
Determinanten Orientiertes Volumen 118-2
Determinanten spezieller Matrizen
Fur einige spezielle (n × n) Matrizen A laßt sich die Determinanteunmittelbar angeben.
Dreiecksmatrix: Ist ai ,j = 0 fur i < j oder i > j , so gilt
detA = a1,1 · · · an,n .
Blockdiagonalmatrix: Hat die Matrix B Blockstruktur mit Ai ,j = 0,i 6= j und quadratischen Diagonalblocken Ai ,i , so gilt
detB =k∏
i=1
detAi ,i .
Orthogonale und unitare Matrix: Fur eine unitare Matrix U gilt
| detU| = 1 .
Speziell ist fur eine orthogonale Matrix (ui ,j ∈ R)
detU ∈ −1, 1 .
Determinanten Determinanten spezieller Matrizen 119-1
Beweis:
(i) Obere Dreiecksmatrix:detA = detAt betrachte obere DreiecksmatrixPermutation i von (1, . . . , n) ungleich der Identitat
=⇒ ∃k mit ik > k (k = min` : i` 6= `), d.h. aik ,k = 0 =⇒ detA =∑i
σ(i)ai1,1 · · · ain,n = a1,1 · · · an,n
(ii) Blockdiagonalmatrix:betrachte zunachst eine Aufteilung in zwei Diagonalblocke der Große n1
und n2
ai1,1 · · · ain,n 6= 0 nur fur i1, · · · , in1 ≤ n1 ∧ in1+1, · · · , in ≥ n1 + 1
=⇒ Produktform der Determinante:
detB =∑i∈Sn
σ(i)(ai1,1 · · · ain1 ,n1)(ain1+1,n1+1 · · · ain,n)
=( ∑
k∈Sn1
σ(k)(ak1,1 · · · akn1 ,n1))( ∑
`∈Sn2
σ(`)(an1+`1,n1+1 · · · an1+`n2 ,n))
= detA1,1 detA2,2Determinanten Determinanten spezieller Matrizen 120-1
Induktion =⇒ Aussage fur eine Aufteilung in mehr als zwei Blocke(iii) Orthogonale und unitare Matrix:komplexe Konjugation vertauschbar mit Summen und Produkten,detU = detUt und det(AB) = detA detB
=⇒ 1 = detE = det (U∗U) = detU∗ detU
= detUt detU = detU detU = | detU|2
A reell =⇒ detU ∈ −1, 1
Determinanten Determinanten spezieller Matrizen 120-2
Beispiel:
Dreiecksmatrix:
A =
(1 20 3
), detA = 1 · 3 = 3
orthogonale Matrix:
B =1√2
(1 11 −1
), detB = −1
Blockmatrix
C =
1 2 0 00 3 0 0
0 0 1/√
2 1/√
2
0 0 1/√
2 −1/√
2
=
(A 00 B
), detC = 3 · (−1) = −3
Determinanten Determinanten spezieller Matrizen 121-1
Eigenschaften von Determinanten
Die Determinante einer Matrix ist genau dann nicht Null, wenn die Spalten(Zeilen) eine Basis bilden. Insbesondere ist die Determinante einer Matrixmit zwei gleichen Spalten oder Zeilen Null. Daraus folgt, dass sich dieDeterminante nicht andert, wenn man ein Vielfaches einer Spalte (Zeile)zu einer anderen Spalte (Zeile) addiert.Durch Skalierung, Addition und Vertauschung von Zeilen und Spalten lasstsich eine Determinante sukzessive auf Dreiecksform transformieren unddamit als Produkt der modifizierten Diagonalelemente berechnen.Es gelten die folgenden Regeln:
det(AB) = (detA)(detB)
detA = detAt
det(A−1) = (detA)−1
Determinanten Determinanten spezieller Matrizen 122-1
Beweis:
(i) Basistest:Die Vektoren a1, . . . , an ∈ Rn sind genau dann linear unabhangig, wenn sienicht in einer Hyperebene liegen.=⇒ Basiseigenschaft aufgrund der Interpretation von | det(a1, . . . , an)|
als Volumen des von ak aufgespannten Parallelepipeds.(ii) Transposition:Entwicklung nach Permutationen
detA =∑π
σ(π) aπ(1),1 · · · aπ(n),1
Umordnung der Faktoren
aπ(1),1 · · · aπ(n),1 = a1,π−1(1) · · · an,π−1(n)
mit π−1 der inversen Permutation zu πσ(π) = σ(π−1) ∑
π
σ(π−1) atπ−1(1),1 · · · at
π−1(n),1 = detAt
Invarianz unter Transposition analoge Aussagen fur Spalten- undZeilenoperationen
Determinanten Determinanten spezieller Matrizen 123-1
(iii) Produkte von Matrizen:detA = 0 ⇔ a1, . . . , an linear abhangig=⇒ Ab1, . . . ,Abn linear abhangig, da Abk Linearkombinationen der a`
sind=⇒ det(AB) = det(Ab1, . . . ,Abn) = 0 = detA detB X
fur detA 6= 0 definiere
d(b1, . . . , bn) = det(AB)/ detA
und verifiziere die definierenden Eigenschaften der DeterminanteAntisymmetrie und Normierung unmittelbar ersichtlichzum Beweis der Linearitat bemerke fur bk = αu + βv
d(. . . , αu + βv , . . .) = det(. . . , αAu + βAv , . . .)/ detA
= αd(. . . , u, . . .) + βd(. . . , v , . . .)
Determinanten Determinanten spezieller Matrizen 123-2
(iv) Inverse:AA−1 = E =⇒
1 = detE = det(AA−1) = det(A) det(A−1)
Determinanten Determinanten spezieller Matrizen 123-3
Beispiel:
Transformation von Determinanten auf Dreiecksform durch
Skalierung
Addition
Vertauschen
Berechnung der Determinante von
A =
1 4 0 20 8 0 43 3 3 20 6 0 4
Zeile 3 - 3× Zeile 1:
detA = det
1 4 0 20 8 0 40 −9 3 −40 6 0 4
Determinanten Determinanten spezieller Matrizen 124-1
Vertauschen von Spalte 2 und Spalte 4:
detA = − det
1 2 0 40 4 0 80 −4 3 −90 4 0 6
Zeile 3 + Zeile 2, Zeile 4 - Zeile 2:
detA = − det
1 2 0 40 4 0 80 0 3 −10 0 0 −2
= −1 · 4 · 3 · (−2) = 24
Determinanten Determinanten spezieller Matrizen 124-2
Entwicklung von Determinanten
Die Determinante einer n × n-Matrix A lasst sich nach einer beliebigenZeile oder Spalte entwickeln:
detA =n∑
j=1(−1)i+jai ,j det Ai ,j (Entwicklung nach Zeile i)
=n∑
i=1(−1)i+jai ,j det Ai ,j (Entwicklung nach Spalte j) ,
wobei Ai ,j die Matrix bezeichnet, die durch Streichen der i-ten Zeile j-tenSpalte von A entsteht.
Determinanten Entwicklung von Determinanten 125-1
Beweis:
detA = detAt Entwicklung nach einer Spaltej-te Spalte
aj =n∑
i=1
ai ,jei
Multilinearitat der Determinante =⇒
detA =n∑
i=1
ai ,j det (a1, . . . , aj−1, ei , aj+1, . . . , an)︸ ︷︷ ︸=Bi
n − j Spaltenvertauschungen und n − i Zeilenvertauschungen 1 von ei in rechter unterer Ecke:
detBi = (−1)n−j(−1)n−i det
0
Ai ,j...0
ai1 · · · ai ,j−1 ai ,j+1 · · · ai ,n 1
Determinanten Entwicklung von Determinanten 126-1
Entwicklung nach Permutationen nichttriviale Beitrage nur vonPermutationen i mit in = n, d.h. (i1, . . . , in−1) ∈ Sn−1 und
det
0
Ai ,j...0
ai ,1 · · · ai ,j−1 ai ,j+1 · · · ai ,n 1
= det Ai ,j
angegebene Entwicklungsformel
Determinanten Entwicklung von Determinanten 126-2
Beispiel:
∆ =
∣∣∣∣∣∣∣∣1 3 0 42 0 0 30 6 1 50 0 2 9
∣∣∣∣∣∣∣∣Entwicklung nach der zweiten Zeile
(−1)2+1 · 2
∣∣∣∣∣∣3 0 46 1 50 2 9
∣∣∣∣∣∣+ 0 + 0 + (−1)2+4 · 3
∣∣∣∣∣∣1 3 00 6 10 0 2
∣∣∣∣∣∣Entwicklung der ersten Determinante nach der ersten Spalte
(−1)1+1 · 3∣∣∣∣ 1 5
2 9
∣∣∣∣+ (−1)2+1 · 6∣∣∣∣ 0 4
2 9
∣∣∣∣ = −3 + 48 = 45
Determinante der Dreiecksmatrix: 1 · 6 · 2 = 12insgesamt: ∆ = −2 · 45 + 3 · 12 = −54
Determinanten Entwicklung von Determinanten 127-1
Beispiel:
Ebene durch die drei Punkte P1 = (x1, y1, z1), P2 = (x2, y2, z2) undP3 = (x3, y3, z3)
E :
∣∣∣∣∣∣∣∣x y z 1x1 y1 z1 1x2 y2 z2 1x3 y3 z3 1
∣∣∣∣∣∣∣∣ = 0
Entwicklung nach der ersten Zeile
E : ax + by + cz = d
mit
a =
∣∣∣∣∣∣y1 z1 1y2 z2 1y3 z3 1
∣∣∣∣∣∣ , b = −
∣∣∣∣∣∣x1 z1 1x2 z2 1x3 z3 1
∣∣∣∣∣∣ ,c =
∣∣∣∣∣∣x1 y1 1x2 y2 1x3 y3 1
∣∣∣∣∣∣ , d =
∣∣∣∣∣∣x1 y1 z1
x2 y2 z2
x3 y3 z3
∣∣∣∣∣∣ .Determinanten Entwicklung von Determinanten 128-1
Vandermonde Determinante
Die Determinante der an n Punkten xi ausgewerteten Monome1, x , . . . xn−1 ist ∣∣∣∣∣∣∣∣∣
1 x1 . . . xn−11
1 x2 . . . xn−12
......
...1 xn . . . xn−1
n
∣∣∣∣∣∣∣∣∣ =∏i>j
(xi − xj) .
Determinanten Entwicklung von Determinanten 129-1
Beweis:
Induktion(i) n = 2:
det
(1 x1
1 x2
)= x2 − x1
(ii) (n − 1)→ n:Subtraktion der ersten Zeile von allen weiteren Zeilen∣∣∣∣∣∣∣∣∣
1 x1 . . . xn−11
1 x2 . . . xn−12
......
...1 xn . . . xn−1
n
∣∣∣∣∣∣∣∣∣ =
∣∣∣∣∣∣∣∣∣1 x1 . . . xn−1
1
0 x2 − x1 . . . xn−12 − xn−1
1...
......
0 xn − x1 . . . xn−1n − xn−1
1
∣∣∣∣∣∣∣∣∣Entwicklung nach der ersten Spalte∣∣∣∣∣∣∣
x2 − x1 . . . xn−12 − xn−1
1...
...
xn − x1 . . . xn−1n − xn−1
1
∣∣∣∣∣∣∣Determinanten Entwicklung von Determinanten 130-1
Herausziehen des Faktors xk − x1 aus der k-ten Zeile
(n∏
k=2
(xk − x1)
)∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣
1 x2 + x1 x22 + x2x1 + x2
1 . . .n−2∑i=0
xn−2−i2 x i1
1 x3 + x1 x23 + x3x1 + x2
1 . . .n−2∑i=0
xn−2−i3 x i1
......
......
1 xn − x1 x2n + xnx1 + x2
1 . . .n−2∑i=0
xn−2−in x i1
∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣Subtraktion des x1-fachen der vorhergehenden Spalte von jeder Spalte
(n∏
k=2
(xk − x1)
)∣∣∣∣∣∣∣∣∣1 x2 . . . xn−2
2
1 x3 . . . xn−23
......
...1 xn . . . xn−2
n
∣∣∣∣∣∣∣∣∣Induktionsvoraussetzung =⇒ | · · · |= ∏
i>j≥2(xi − xj)
Determinanten Entwicklung von Determinanten 130-2
Lineares Gleichungssystem
Ein lineares Gleichungssystem hat die Form
a1,1x1 + · · · + a1,nxn = b1...
......
......
...am,1x1 + · · · + am,nxn = bm
⇔ Ax = b
mit einer Koeffizientenmatrix A = (ai ,j), zu bestimmenden Unbekannten xjund einer rechten Seite b.
Das lineare Gleichungssystem nennt man homogen, wenn b = 0 ist, sonstbezeichnet man es als inhomogen.
Lineare Gleichungssysteme Lineares Gleichungssystem 131-1
Besitzt das lineare Gleichungssystem keine Losung (im Allgemeinen furm > n), so bezeichnet man es als uberbestimmt. Man spricht in diesemFall auch von einem Ausgleichsproblem. Ein lineares Gleichungssystem mitkeiner eindeutigen Losung (im Allgemeinen fur m < n) nennt manunterbestimmt.
Lineare Gleichungssysteme Lineares Gleichungssystem 131-2
Beispiel:
Rekonstruktion einer Funktion f (x) aus Daten
(xi , fi ), i = 1, . . . , n ,
durch Interpolationlinearer Ansatz
f (x) ≈ p(x) =n∑
j=1
cjpj(x)
mit geeigneten Basisfunktionen pj Interpolationsbedingungen
fi = p(xi ) =n∑
j=1
cjpj(xi ), i = 1, . . . , n
⇔ lineares GleichungssystemAc = b
mit ai ,j = pj(xi ) und bi = fiLineare Gleichungssysteme Lineares Gleichungssystem 132-1
0 5 10 15 20 25 30 35 40 45 500
100
200
300
400
500
600
700
PSfrag repla ements Regnie-DuretteVillie-MorgonCote du Fut d'Avenas
FleurieRomane he-Thorins ChanesCharnay-les-Ma on Ma onpi(x)Tour-de-France-Etappe, modelliert mit Exponentialfunktionen
pi (x) = exp
(−(x − xi
10
)2)
starkes Abklingen von pi fur |x − xi | → ∞ lokale Auswirkung vonAnderungen
Lineare Gleichungssysteme Lineares Gleichungssystem 132-2
Beispiel:
Elektrischer Schaltkreis
xi : Kreisstrome mit Fließrichtung entgegen dem Uhrzeigersinn
Ri ,j : gemeinsamer Widerstand der i-ten und j-ten Schleife
Ui : angelegte Spannungen
Ohmsches und Kirchhoffsches Gesetz lineares Gleichungssystem∑i∼0
xiRi ,0 +∑i∼j
(xi − xj)Ri ,j = Ui
i ∼ j : i-te und j-te Schleife haben einen gemeinsamen Widerstanddurchflossen vom Strom xi − xj
Ri ,0, i ∼ 0: Widerstande, die nur in der i-ten Schleife liegen
Lineare Gleichungssysteme Lineares Gleichungssystem 133-1
x1
x2
x3
x4
x5
70Ω
80Ω
10Ω
40Ω
50Ω
30Ω
90Ω
60Ω
20Ω110V
220V
150 −70 −80 0 0−70 120 −10 −40 0−80 −10 160 0 −70
0 −40 0 130 −300 0 −70 −30 190
x1
x2
x3
x4
x5
=
110
000−220
Lineare Gleichungssysteme Lineares Gleichungssystem 133-2
Diagonale: Summe der zu einer Schleife gehorigen Widerstande
ai ,j : negativer gemeinsamer Widerstand der Schleifen i und j
Losung
x ≈
1.01570.56410.0358−0.0940−1.1595
Lineare Gleichungssysteme Lineares Gleichungssystem 133-3
Losungsmenge eines linearen Gleichungssystems
Die Losungsmenge eines homogenen linearen Gleichungssystems
Ax = 0,
mit einer m × n Koeffizientenmatrix A ist ein Unterraum U = KernA desVektorraums der n-Tupel (x1, · · · , xn)t.
Besitzt das inhomogene lineare Gleichungssystem
Ax = b
eine Losung v , so gilt fur die allgemeine Losung
x ∈ v + U ,
d.h. die Losungsmenge ist ein affiner Unterraum.
Insbesondere kann also ein inhomogenes lineares Gleichungssystementweder keine, eine (U = 0) oder unendlich viele (dimU > 0) Losungenbesitzen.
Lineare Gleichungssysteme Lineares Gleichungssystem 134-1
Beweis:
(i) x , y Losungen des homogenen linearen Gleichungssystems =⇒
A(x + y) = Ax + Ay = 0 + 0 = 0
A(λx) = λAx = λ0 = 0 ,
d.h. die Losungsmenge des homogenen linearen Gleichungssystems bildeteinen Unterraum U(ii) v Losung des inhomogenen linearen Gleichungssystems und u ∈ U=⇒
Ax = A(v + u) = Av + Au = b + 0 = b,
d.h. x = v + u ist ebenfalls Losung des inhomogenen linearenGleichungssystems x ∈ v + U(iii) v und w Losungen des inhomogenen linearen Gleichungssystems=⇒
A(v − w) = Av − Aw = b − b = 0
d.h. v −w lost das homogene lineare Gleichungssystem v −w ∈ ULineare Gleichungssysteme Lineares Gleichungssystem 135-1
Beispiel:
verschiedene Typen von linearen Gleichungssystemen(i) eindeutige Losung: (
3 57 4
)(x1
x2
)=
(2960
) x1 = 8, x2 = 1(ii) unendlich viele Losungen:
(1 −2 43 −2 4
) x1
x2
x3
=
(26
)
x3 = t beliebig ⇒ x2 = 2t, x1 = 2
Lineare Gleichungssysteme Lineares Gleichungssystem 136-1
(iii) keine Losung: 1 13 10 2
( x1
x2
)=
678
Zeile 3 x2 = 4widerspruchliche Werte fur x1 aus den restlichen Gleichungen:Einsetzen in Zeile 1 x1 = 2Einsetzen in Zeile 2 x1 = 1
Lineare Gleichungssysteme Lineares Gleichungssystem 136-2
Cramersche Regel
Fur ein quadratisches lineares Gleichungssystem Ax = b ist
xi detA = det(a1, . . . , ai−1, b, ai+1, . . . , an) ,
wobei aj die Spalten der Koeffizientenmatrix A bezeichnen.
Ist detA 6= 0, so existiert eine eindeutige Losung x = A−1b fur beliebiges bund die Inverse C = A−1 kann durch
ci ,j =det(a1, . . . , ai−1, ej , ai+1, . . . , an)
detA
bestimmt werden, wobei ej der j-te Einheitsvektor ist.
Lineare Gleichungssysteme Cramersche Regel 137-1
Beweis:
Multilinearitat und Antisymmetrie der Determinante =⇒
det(a1, . . . , ai−1, b, ai+1, . . . , an) = det(a1, . . . , ai−1,
n∑j=1
ajxj , ai+1, .., an)
=n∑
j=1
xj det(a1, . . . , ai−1, aj , ai+1, .., an)
= xi det(a1, . . . , ai−1, ai , ai+1, . . . , an)
b = ej j-te Spalte x = (ci ,j , . . . , cn,j)t der Inversen, denn
AC = E = (e1, . . . , en) =⇒ Ax = ej
Lineare Gleichungssysteme Cramersche Regel 138-1
Beispiel:
Berechnung der Inversen C der (2× 2)-Matrix
A =
(a bc d
)Cramersche Regel
c1,1 =
∣∣∣∣ 1 b0 d
∣∣∣∣detA
=d
detA, c1,2 =
∣∣∣∣ 0 b1 d
∣∣∣∣detA
=−b
detA,
c2,1 =
∣∣∣∣ a 1c 0
∣∣∣∣detA
=−c
detA, c2,2 =
∣∣∣∣ a 0c 1
∣∣∣∣detA
=a
detA,
bzw. mit detA = ad − cb
A−1 =1
ad − cb
(d −b−c a
)Lineare Gleichungssysteme Cramersche Regel 139-1
Beispiel:
lineares Gleichungssystem 4 −1 −1−3 −4 4−2 2 −1
x1
x2
x3
=
85−7
eindeutige Losung, da
detA = 4
∣∣∣∣ −4 42 −1
∣∣∣∣+
∣∣∣∣ −3 4−2 −1
∣∣∣∣− ∣∣∣∣ −3 −4−2 2
∣∣∣∣= −16 + 11 + 14 = 9 6= 0
Lineare Gleichungssysteme Cramersche Regel 140-1
Cramersche Regel
x1 =1
9
∣∣∣∣∣∣8 −1 −15 −4 4−7 2 −1
∣∣∣∣∣∣ = 1
x2 =1
9
∣∣∣∣∣∣4 8 −1−3 5 4−2 −7 −1
∣∣∣∣∣∣ = −3
x2 =1
9
∣∣∣∣∣∣4 −1 8−3 −4 5−2 2 −7
∣∣∣∣∣∣ = −1
Lineare Gleichungssysteme Cramersche Regel 140-2
Ruckwarts-Einsetzen
Bei einem linearen Gleichungssystem in oberer Dreiecksform, r1,1 · · · r1,n. . .
...0 rn,n
︸ ︷︷ ︸
R
x1...xn
=
b1...bn
,
mit detR = r1,1 · · · rn,n 6= 0 konnen die Unbekannten xn, . . . , x1
nacheinander bestimmt werden:
rn,nxn = bn =⇒ xn = bn/rn,n
und, fur ` = n − 1, . . . 1,
r`,`x` + · · ·+ r`,nxn = b` =⇒ x` = (b` − r`,`+1x`+1 − · · · − r`,nxn) /r`,` .
Dabei werden jeweils die schon berechneten Werte x`+1, . . . , xn verwendet.Bei einem linearen Gleichungssystem mit einer unteren Dreiecksmatrixkann man analog nacheinander x1, . . . , xn bestimmen.
Lineare Gleichungssysteme Gauß-Elimination 141-1
Die Berechnungen konnen mit Hilfe eines Tableaus R|b erfolgen, in demdie Koeffizientenmatrix und die rechte Seite zusammengefasst sind. Fur` = n, . . . , 1 dividiert man die Zeile ` durch r`,` ( Diagonalelementgleich 1) und zieht fur i = `− 1, . . . , 1 das ri ,`-fache der `-ten Zeile vonden Zeilen mit niedrigerem Index ab. Dadurch werden oberhalb vonr`,` = 1 Nullen erzeugt. Als Resultat enthalt das Tableau die Einheitsmatrixund in der letzten Spalte (modifizierte rechte Seite b) die Losung x .Bei der praktischen Durchfuhrung werden nur die sich andernden Zeilenuntereinander notiert.
Lineare Gleichungssysteme Gauß-Elimination 141-2
Beispiel:
4x1 + 3x2 + x3 = 62x2 + 2x3 = 0
7x3 = 7
Ruckwartseinsetzen
x3 = 7/7 = 1
x2 = (0− 2x3)/2 = (0− 2 · 1)/2 = −1
x1 = (6− 3x2 − x3)/4 = (6− 3(−1)− 1)/4 = 2
Lineare Gleichungssysteme Gauß-Elimination 142-1
alternative Losung mit Hilfe des Tableaus R|b
4 3 1 60 2 2 00 0 7 7
4 3 0 50 2 0 −2
0 0 1 1
4 0 0 8
0 1 0 −1
1 0 0 2
markierte Zeilen (Diagonalelement gleich 1) Losung
x3 = 1, x2 = −1, x1 = 2
Lineare Gleichungssysteme Gauß-Elimination 142-2
Gauß-Elimination
Durch Gauß-Transformationen lasst sich ein lineares Gleichungssystem mitinvertierbarer (n × n)-Koeffizientenmatrix A in maximal n − 1 Schrittenauf obere Dreiecksform bringen.Dazu werden sukzessive die Koeffizienten unterhalb der Diagonalenannulliert, d.h. nach `− 1 Schritten hat das lineare Gleichungssystem dieForm
a1,1x1 + a1,2x2 + . . . + a1,`x` + . . . + a1,nxn = b1
a2,2x2 + . . . + a2,`x` + . . . + a2,nxn = b2...
......
a`,`x` + . . . + a`,nxn = b`a`+1,`x` + . . . + a`+1,nxn = b`+1
......
...an,`x` + . . . + an,nxn = bn
Lineare Gleichungssysteme Gauß-Elimination 143-1
Im einzelnen verlauft der `-te Eliminationsschritt wie folgt.
Aus den Koeffizienten a`,`, . . . , an,` wird ein von Null verschiedenerKoeffizient ak,`, das sogenannte Pivot-Element, ausgwahlt, und die`-te mit der k-ten Gleichung vertauscht.
Fur i > ` wird die i-te Gleichung durch eine Linearkombination deri-ten und `-ten Gleichung ersetzt, um den Term mit der Unbekanntenx` zu eliminieren (ai ,` → 0):
ai ,j ← αiai ,j + βia`,j , j = `, . . . , n, bi ← αibi + βib`
(j = ` : αiai ,` + βia`,` = 0).
Eine kanonische Wahl bei den Eliminationsschritten ist αi = 1,βi = −ai ,`/a`,`; jedoch kann, um gegebenenfalls Bruche zu vermeiden,auch eine andere Wahl getroffen werden, z.B. αi = a`,`, βi = −ai ,`.
Lineare Gleichungssysteme Gauß-Elimination 143-2
Ublicherweise werden fur die Eliminationsschritte die Matrix A und dierechte Seite b zu einem Tableau A|b zusammengefasst. Die modifiziertenZeilen werden dann untereinander aufgelistet und die Pivot-Elementemarkiert. Zur besseren Erlauterung konnen die Faktoren αi und βi in einerzusatzlichen Spalte notiert werden. Die resultierende Dreieckform bestehtdann aus den markierten Pivot-Zeilen.Das Schema kann zur simultanen Behandlung mehrerer rechter Seitenbenutzt werden. Insbesondere kann so mit b = (e1, . . . , en) die Inverse derMatrix A bestimmt werden.
Lineare Gleichungssysteme Gauß-Elimination 143-3
Beispiel:
lineares Gleichungssystem
2x2 + x3 −x4 = −13x1 + 2x2 +x4 = 53x1 + x2 − 2x3 +x4 = 36x1 + 4x2 − x3 +x4 = 7
Matrix und rechte Seite
A =
0 2 1 −13 2 0 13 1 −2 16 4 −1 1
, b =
−1537
Lineare Gleichungssysteme Gauß-Elimination 144-1
Ablauf des Gauß-Algorithmus mit Hilfe des Tableaus A|b
0 2 1 −1 −1 1
3 2 0 1 5 0 −1 −2 → Zeile 13 1 −2 1 3 16 4 −1 1 7 1
0 2 1 −1 −1 1
0 -1 −2 0 −2 2 0 → Zeile 20 0 −1 −1 −3 1
0 0 −3 −1 −5 1
0 0 -1 −1 −3 −3 → Zeile 3
0 0 0 2 4 → Zeile 4
Beispielsweise entsteht die drittletzte Zeile des Tableaus, indem die Zeilemit Pivot-Element −1 und die daruberliegende Zeile, gewichtet mit denFaktoren 2 und 1 (notiert in der Kommentarspalte rechts), addiert werden.
Lineare Gleichungssysteme Gauß-Elimination 144-2
Ruckwartseinsetzen fur das resultierende System in Dreiecksform,beginnend mit dem Tableau R|b (erste vier Zeilen)
3 2 0 1 50 −1 −2 0 −20 0 −1 −1 −30 0 0 2 4
3 2 0 0 30 −1 −2 0 −20 0 −1 0 −1
0 0 0 1 2 = x4
3 2 0 0 30 −1 0 0 0
0 0 1 0 1 = x3
3 0 0 0 3
0 1 0 0 0 = x2
1 0 0 0 1 = x1
Lineare Gleichungssysteme Gauß-Elimination 144-3
Beispiel:
Bestimmung der Inversen der Matrix
A =
1 4 −2−1 −7 30 −4 1
Gauß-Elimination mit Hilfe des Tableaus A|E mit E der Einheitsmatrix
1 4 −2 1 0 0 1 0 → Zeile 1−1 −7 3 0 1 0 10 −4 1 0 0 1 1
0 -3 1 1 1 0 −4 → Zeile 20 −4 1 0 0 1 3
0 0 -1 −4 −4 3 → Zeile 3
Lineare Gleichungssysteme Gauß-Elimination 145-1
Losung des enstandenen Dreieckssystems (Zeilen 1-3) durchRuckwartseinsetzen
1 4 −2 1 0 00 −3 1 1 1 00 0 −1 −4 −4 3
1 4 0 9 8 −60 −3 0 −3 −3 3
0 0 1 4 4 −3 Zeile 3 vonA−1
1 0 0 5 4 −2
0 1 0 1 1 −1 Zeile 2 vonA−1
1 0 0 5 4 −2 Zeile 1 vonA−1
Beispielsweise entstehen die Zeilen 4 und 5 des Tableaus, indem diedarunter stehende Pivot-Zeile, multipliziert mit −1 bzw. 2, zu den Zeilen 1und 2 addiert wird.
A−1 =
4 −31 1 −15 4 −2
Lineare Gleichungssysteme Gauß-Elimination 145-2
Zeilenstufenform eines Gleichungssystems
Ein lineares Gleichungssystem mit einer m × n-Koeffizientenmatrix lasstsich mit Gauß-Transformationen auf Zeilenstufenform (Echelon-Form)transformieren:
Ax = b →
0...0 p1 ∗...∗
0 0...0 p2 ∗...∗0 0...0 p3 ∗...
. . .
︸ ︷︷ ︸
A′
x1...xn
=
c1...cm
.
Dabei sind die so genannten Pivots
p1 = a′1,j1 , . . . , pk = a′k,jk , k ≤ m, 1 ≤ j1 < · · · < jk ≤ n ,
ungleich Null und k ist der Rang von A.
Lineare Gleichungssysteme Zeilenstufenform 146-1
Der `-te Transformationsschritt verlauft wie folgt:
Ein von Null verschiedenes Matrixelement p` mit Zeilenindex ≥ ` undkleinstem Spaltenindex j` wird als Pivotelement gewahlt und durchZeilenvertauschung in die Position (`, j`) gebracht.
Existiert kein Pivotelement, so ist die Zeilenstufenform erreicht.
Andernfalls werden in den Gleichungen `+ 1, . . . ,m durch Bilden vonLinearkombinationen mit der `-ten Gleichung,
Gli ← αiGli + βiGl`, i = `+ 1, . . . ,m ,
die Terme mit der j`-ten Unbekannten annulliert (ai ,j` → 0).
Analog zur Gauß-Elimination werden die Modifikationen desGleichungssystems mit Hilfe eines Tableaus A|b durchgefuhrt, in dem diesich andernden Koeffizienten und Elemente der rechten Seite zeilenweiseaufgelistet werden.
Lineare Gleichungssysteme Zeilenstufenform 146-2
Beispiel:
Transformation eines Gleichungssystems Ax = b auf Zeilenstufenform mitHilfe des Tableaus A|b
0 0 0 1 5 −3 0 9 −1 1
0 2 3 0 −1 4 1 −2 2 0 −2 1 0 → Zeile 10 4 6 1 3 5 2 5 3 10 −2 −3 1 6 −7 −1 6 0 10 0 0 1 5 −3 0 9 4 1
0 0 0 1 5 −3 0 9 −1 −1 −1 −1 → Zeile 20 0 0 1 5 −3 0 9 −1 10 0 0 1 5 −3 0 4 2 10 0 0 1 5 −3 0 9 4 1
0 0 0 0 0 0 0 0 0 → Zeile 4
0 0 0 0 0 0 0 -5 3 → Zeile 30 0 0 0 0 0 0 0 5 → Zeile 5
Lineare Gleichungssysteme Zeilenstufenform 147-1
resultierendes Gleichungssystem in Zeilenstufenform (Zeilen 1-5)0 2 3 0 −1 4 1 −20 0 0 1 5 −3 0 90 0 0 0 0 0 0 −50 0 0 0 0 0 0 00 0 0 0 0 0 0 0
x =
2−1305
Koeffizientenmatrix mit Rang gleich 3 (Anzahl der Pivots)keine Losung, da funftes Element der rechten Seite ungleich Null
Lineare Gleichungssysteme Zeilenstufenform 147-2
Losung eines linearen Gleichungssystems inZeilenstufenform
Ein lineares Gleichungssystem Dx = c in Zeilenstufenform,0 . . . 0 p1 ∗ . . . ∗
0 0 . . . 0 p2 ∗ . . . ∗0 0 . . . 0 p3 ∗ . . . ∗
. . .
x1
...xn
=
c1...cm
mit Pivots p1, . . . , pk ist genau dann losbar, wenn ck+1 = · · · = cm = 0.Die Losung ist eindeutig, falls k = n. Fur k < n gibt es n − k linearunabhangige Losungen des homogenen linearen Gleichungssystems(ci = 0): dim KernD = n − k .Die Unbekannten, die den Spalten ohne Pivots entsprechen, konnen freigewahlt werden.
Lineare Gleichungssysteme Zeilenstufenform 148-1
Beispiel:
typische Falle von Gleichungssystemen Dx = c in Zeilenstufenform(i) k = n = 4:
1 5 0 30 4 −1 30 0 −2 70 0 0 1
x1
x2
x3
x4
=
−1
091
Ruckwarts-Einsetzen eindeutige Losung x = (1,−1,−1, 1)t
(ii) 3 = k < n = 5, c4 6= 0:4 1 −1 −2 20 2 0 7 10 0 0 1 10 0 0 0 0
x1
x2
x3
x4
x5
=
2351
keine Losung, da 0 · x1 + · · ·+ 0 · x5 = 1 (letzte Zeile)
Lineare Gleichungssysteme Zeilenstufenform 149-1
(iii) 3 = k < n = 5, c4 = 0:
4 1 −1 −2 20 2 0 7 10 0 0 1 10 0 0 0 0
x1
x2
x3
x4
x5
=
−5
220
ck+1 = 0 =⇒ Dx = c losbarRangD = 3 = n − 2 =⇒zwei linear unabhangige Losungen vi des homogenen Systemsallgemeine Losung:
x = xs + α1v1 + α2v2 , αj ∈ R
mit xs einer speziellen Losung des inhomogenen Systems
Lineare Gleichungssysteme Zeilenstufenform 149-2
Bestimmung von vi durch kanonische Wahl der nicht zu den Pivot-Spaltengehorigen Unbekannten und Berechnung der restlichen Unbekannten uberdas homogene System:
(x3 = 1, x5 = 0) v1 =
1/4
0100
(x3 = 0, x5 = 1) v2 =
−7/4
30−11
Setzen von x3 = x5 = 0 spezielle Losung xs = (5/4,−6, 0, 2, 0)t
Lineare Gleichungssysteme Zeilenstufenform 149-3
Eigenwert, Eigenvektor und Eigenraum
Ein Skalar λ heißt Eigenwert einer quadratischen Matrix A, wenn
Av = λv , v 6= 0 .
Die Vektoren v 6= 0 mit Av = λv werden als Eigenvektoren zum Eigenwertλ bezeichnet.
Die Eigenvektoren zu einem Eigenwert bilden zusammen mit demNullvektor einen linearen Raum, den so genannten Eigenraum
Vλ = Kern(A− λE )
von λ.
Eigenwerte Eigenwert und Eigenvektor 150-1
Beispiel:
1 2 −10 2 0−1 2 1
Eigenwert λ1 = 0, Eigenvektor ‖ (1, 0, 1)t 1 2 −1
0 2 0−1 2 1
101
=
000
= 0
101
Eigenwert λ2 = 2, Eigenvektor ‖ (1, 1, 1)t 1 2 −1
0 2 0−1 2 1
111
=
222
= 2
111
Eigenwerte Eigenwert und Eigenvektor 151-1
Beispiel:
mogliche Falle fur reelle (2× 2)-Matrizen:
zwei reelle Eigenwerte:
A =
(1 22 1
), λ1 = −1 , v1 ‖
(−1
1
), λ2 = 3 , v2 ‖
(11
)ein reeller Eigenwert, zwei linear unabhangige Eigenvektoren:
A =
(2 00 2
), λ = 2 , v1 ‖
(10
), v2 ‖
(01
)ein reeller Eigenwert, ein bis auf Vielfache eindeutiger Eigenvektor:
A =
(1 −10 1
), λ = 1 , v1 ‖
(10
)zwei konjugiert komplexe Eigenwerte und Eigenvektoren:
A =
(1 −11 1
), λ1,2 = 1∓ i , v1,2 ‖
(1±i
)Eigenwerte Eigenwert und Eigenvektor 152-1
Beispiel:
mogliche Falle fur komplexe (2× 2)-Matrizen:
zwei Eigenwerte:
A =
(i 22 i
), λ1,2 = ±2 + i , v1,2 ‖
(1±1
)ein Eigenwert, zwei linear unabhangige Eigenvektoren:
A =
(2i 00 2i
), λ = 2i , v1 ‖
(10
), v2 ‖
(01
)ein Eigenwert, ein bis auf Vielfache eindeutiger Eigenvektor:
A =
(i −10 i
), λ = i , v1 ‖
(10
)
Eigenwerte Eigenwert und Eigenvektor 153-1
Ahnlichkeitstransformation
Bei einer Ahnlichkeitstransformation einer quadratischen Matrix A,
A→ B = Q−1AQ ,
bleiben die Eigenwerte erhalten.
Die Eigenvektoren werden gemaß dem durch die invertierbare Matrix Qbeschriebenen Basiswechsel transformiert, d.h. einem Eigenvektor v von Azum Eigenwert λ entspricht der Eigenvektor w = Q−1v von B zum selbenEigenwert.
Eigenwerte Ahnlichkeitstransformation 154-1
Beweis:
Av = λv ∧ w = Q−1v
=⇒
Bw = Q−1AQw = Q−1AQQ−1v
= Q−1Av = Q−1λv = λQ−1v
= λw
Eigenwerte Ahnlichkeitstransformation 155-1
Beispiel:
Eigenwerte und Eigenvektoren der Matrix A =
(1 −21 4
):
λ1 = 2, v1 =
(−21
), λ2 = 3, v2 =
(−11
)Ahnlichkeitstransformation mit Q =
(1 22 1
)
B = Q−1AQ =
(−1/3 2/32/3 −1/3
)(1 −21 4
)(1 22 1
)=
(7 4−5 −2
)Eigenvektoren w1 und w2 von B:
w1 = Q−1v1 =
(−1/3 2/32/3 −1/3
)(−21
)=
(4/3−5/3
)bzw.
w2 = Q−1v2 =
(−1/3 2/32/3 −1/3
)(−11
)=
(1−1
)Eigenwerte Ahnlichkeitstransformation 156-1
Charakteristisches Polynom
Die Eigenwerte einer n × n Matrix A sind die Nullstellen descharakteristischen Polynoms
pA(λ) = det(A− λE ) =
∣∣∣∣∣∣∣∣∣a1,1 − λ a1,2 . . . a1,n
a2,1 a2,2 − λ . . . a2,n...
.... . .
...an,1 an,2 . . . an,n − λ
∣∣∣∣∣∣∣∣∣ .Insbesondere bleiben die Eigenwerte bei Transposition undAhnlichkeitstransformationen einer Matrix invariant.Eigenvektoren v sind Losungen des homogenen linearen Gleichungssystems
(A− λE )v = 0 .
Um eine Basis fur den Eigenraum Vλ zu erhalten, kann man dieses Systemauf Zeilenstufenform transformieren.
Eigenwerte Charakteristisches Polynom 157-1
Beweis:
(i) Charakteristisches Polynom:Ein Skalar λ ist genau dann Eigenwert der (n × n)-Matrix A, wenn
Av = λv , v 6= 0 .
⇔ ∃ eine nicht-triviale Losung v des homogenen linearenGleichungssystem (A− λE )v = 0⇔ (A− λE ) singular ⇔ det(A− λE ) = 0(ii) Transposition und Ahnlichkeitstransformation:detB = detBt =⇒
det(At − λE ) = det(At − λE )t = det(A− λE )
detB = detB−1, det(BC ) = (detB)(detC ) =⇒
det(Q−1AQ − λE ) = det(Q−1(A− λE )Q)
= detQ−1 det(A− λE ) detQ = det(A− λE )
Eigenwerte Charakteristisches Polynom 158-1
Beispiel:
Eigenwerte und Eigenvektoren der MatrixA =
0 −2 −12 2 10 2 2
(i) charakteristisches Polynom pA(λ):∣∣∣∣∣∣
−λ −2 −12 2− λ 10 2 2− λ
∣∣∣∣∣∣ =Sarrus
−λ(2− λ)2 − 4 + 2λ+ 4(2− λ)
= −λ3 + 4λ2 − 6λ+ 4
Nullstellen Eigenwerte:Raten (Teiler des Absolutgliedes) λ1 = 2Abdividieren des Linearfaktors λ− 2
(−λ3 + 4λ2 − 6λ+ 4)/(λ− 2) = −λ2 + 2λ− 2
Losungsformel fur quadratische Gleichungen λ2,3 = 1± iEigenwerte Charakteristisches Polynom 159-1
(ii) Eigenvektoren:Eigenvektor v zum Eigenwert 2 lost das homogene System
(A− 2E )v =
−2 −2 −12 0 10 2 0
v = 0
=⇒ v ‖ (1, 0,−2)t
Eigenvektor w1 zum Eigenwert 1 + i lost
(A− (1 + i)E )w1 =
−1− i −2 −12 1− i 10 2 1− i
w1 = 0
=⇒ w1 ‖ (−1− i,−1 + i, 2)t
A reell =⇒ Eigenvektoren zu λ = 1± i komplex konjugiert, d.h.
w2 = w1 = (−1 + i,−1− i, 2)t
Eigenwerte Charakteristisches Polynom 159-2
Algebraische und geometrische Vielfachheit
Ist λ ein Eigenwert der n × n Matrix A, dann heißt die Vielfachheit von λals Nullstelle des charakteristischen Polynoms
pA(λ) = det(A− λE )
die algebraische Vielfachheit mλ des Eigenwerts λ.Die Dimension dλ des Eigenraums Vλ eines Eigenwertes λ nennt man diegeometrische Vielfachheit von λ.Es gilt
dλ ≤ mλ ,∑λ
mλ = n ,
sowiedλ = n − Rang(A− λE ) .
Eigenwerte Algebraische und geometrische Vielfachheit 160-1
Beispiel:
A1 =
4 0 00 4 00 0 4
, A2 =
4 0 00 5 10 −1 3
, A3 =
4 4 03 4 60 −2 4
gleiches charakteristisches Polynom
(4−λ)3 = (4−λ)(5−λ)(3−λ) + 4−λ = (4−λ)3 + 12(4−λ)−12(4−λ)
=⇒ m4 = 3Rang der Matrizen
A1 − 4E = A2 − 4E = A3 − 4E = 0 0 00 0 00 0 0
0 0 00 1 10 −1 −1
0 4 03 0 60 −2 0
Rang(A1 − 4E ) = 0 Rang(A2 − 4E ) = 1 Rang(A3 − 4E ) = 2
d4 = 3 fur A1, d4 = 2 fur A2 und d4 = 1 fur A3Eigenwerte Algebraische und geometrische Vielfachheit 161-1
Summe und Produkt von Eigenwerten
Fur die Eigenwerte λi einer (n × n)-Matrix A gilt
n∑i=1
λi = SpurA,n∏
i=1
λi = detA ,
wobei mehrfache Eigenwerte entsprechend ihrer algebraischen Vielfachheitgezahlt werden.
Eigenwerte Summe und Produkt von Eigenwerten 162-1
Beweis:
Multilinearitat der Determinante =⇒
pA(λ) = det(A− λE ) = (−λ)n + SpurA(−λ)n−1 + · · ·+ detA
Aufspalten in Linearfaktoren =⇒
pA(λ) =n∏
i=1
(λi − λ) = (−λ)n + (∑i
λi )(−λ)n−1 + · · ·+∏i
λi
Koeffizientenvergleich behauptete Identitaten
Eigenwerte Summe und Produkt von Eigenwerten 163-1
Beispiel:
A =
(a bc d
)charakteristisches Polynom
pA(λ) = λ2 − (a + d)λ+ (ad − bc)
mit Nullstellen
λ1,2 =(a + d)±
√(a + d)2 − 4(ad − bc)
2
Summe der Eigenwerte
λ1 + λ2 =(a + d) + (a + d)
2= a + d = SpurA
Produkt der Eigenwerte (via dritter Binomischer Formel)
λ1λ2 =(a + d)2 − (a + d)2 + 4(ad − bc)
4= ad − bc = detA
Eigenwerte Summe und Produkt von Eigenwerten 164-1
Basis aus Eigenvektoren
Existiert zu einer Matrix A eine Basis aus Eigenvektoren vj mitEigenwerten λj , so ist
V−1AV = diag(λ1, . . . , λn), V = (v1, . . . , vn) ,
d.h. bzgl. der Basis v1, . . . , vn hat A Diagonalform.
Eigenwerte Basis aus Eigenvektoren 165-1
Beweis:
V−1AV = diag(λ1, . . . , λn)
⇔AV = V diag(λ1, . . . , λn) = (λ1v1, . . . , λnvn)
denn die Spalten vj von V sind Eigenvektoren von A zum Eigenwert λj
Eigenwerte Basis aus Eigenvektoren 166-1
Beispiel:
A =1
2
2 −6 61 −5 15 −5 1
Eigenwerte: −2, −2 und 3zugehorige Eigenvektoren:
v1 =
110
, v2 =
−101
, v3 =
615
V = (v1, v2, v3) Diagonalisierung
V−1AV =
−2 0 00 −2 00 0 3
Eigenwerte Basis aus Eigenvektoren 167-1
Diagonalisierung zyklischer Matrizen
Eine zyklische (n × n)-Matrix A kann mit Hilfe der Fourier-Matrix
W = (w jk)j ,k=0,...,n−1, w = exp(2πi/n) ,
diagonalisiert werden:
1
nW
a0 an−1 · · · a1
a1 a0 · · · a2...
. . ....
an−1 an−2 · · · a0
W =
λ1 · · · 0...
. . ....
0 · · · λn
,
mit
λ` =n−1∑k=0
akw−k`, ` = 0, . . . , n − 1 ,
den Eigenwerten von A.
Normalformen Diagonalisierung zyklischer Matrizen 168-1
Beweis:
j-te Komponente von A(w0`, · · · ,w (n−1)`)t, A = (aj−k mod n),
n−1∑k=0
aj−k mod nw(k−j)`w j` = w j`
j∑k ′=j−n+1
ak ′mod nw−k ′`
Indizes modulo n k ′ ∈ j − n + 1, . . . ,−1 − k ′ ∈ j + 1, . . . , n − 1=⇒ ∑
k ′ · · · = λ`schreibe die Identitat fur die Spalten in Matrixform
AW = W
λ1 · · · 0...
. . ....
0 · · · λn
.
1√nW unitar und W = W t =⇒(
1√nW)−1
= 1√nW ∗ bzw. W−1 = 1
nW
behauptete Transformation auf DiagonalformNormalformen Diagonalisierung zyklischer Matrizen 169-1
Beispiel:
A =
2 1 0 11 2 1 00 1 2 11 0 1 2
Transformation auf Diagonalform mit der Fourier-Matrix:
W =
1 1 1 11 i −1 −i1 −1 1 −11 −i −1 i
1
4WAW =
4 0 0 00 2 0 00 0 0 00 0 0 2
Eigenwerte: 4, 2, 0 und 2
Normalformen Diagonalisierung zyklischer Matrizen 170-1
A reell reelle Basis fur den Eigenraum zum Eigenwert 2 durchLinearkombinationen der komplexen Eigenvektoren
1i−1−i
,
1−i−1
i
(zweite und vierte Spalte von W )
reelle Eigenvektoren1i−1−i
+
1−i−1
i
=
20−20
, i
1i−1−i
− i
1−i−1
i
=
0−202
Normalformen Diagonalisierung zyklischer Matrizen 170-2
Unitare Diagonalisierung
Eine Matrix A ist genau dann normal,
A∗A = AA∗ ,
wenn A unitar diagonalisierbar ist, d.h. wenn
U−1AU = diag(λ1, . . . , λn) ,
wobei die Spalten von U eine orthonormale Basis aus Eigenvektoren zuden Eigenwerten λj bilden.
Normalformen Unitare Diagonalisierung 171-1
Beweis:
(i) orthogonale Diagonalisierbarkeit =⇒ Normalitat:
A = UDU∗, U∗ = U−1
=⇒
AA∗ = (UDU∗)(UDU∗)∗
= UD(U∗ U∗∗︸︷︷︸U
)D∗U∗
= U(D∗D)U∗
= (UD∗U∗)(UDU∗)
= A∗A
DD∗ = D∗D wegen λλ = λλ
Normalformen Unitare Diagonalisierung 172-1
(ii) Normalitat =⇒ orthogonale Diagonalisierbarkeit:konstruiere zunachst eine orthogonale Matrix V mit
V ∗AV =
(λ 0
0 B
), B normal
Ansatz V = (v |V ), wobei die Spalten von V einen normierten Eigenvektorv zum Eigenwert λ zu einer Orthonormalbasis erganzen
V ∗AV =
(v∗
V ∗
)(λv AV
)=
(λ c∗
0 B
)= D
noch zu zeigen: BB∗ = B∗B ∧ c = 0Ahnlichkeitstransformationen erhalten Normalitat DD∗ = D∗D,d.h. ( |λ|2 + |c |2 c∗B∗
Bc BB∗
)=
(|λ|2 λc∗
λc B∗B
)Vergleich der Diagonalblocke =⇒ gewunschte Eigenschaften
Normalformen Unitare Diagonalisierung 172-2
nehme induktiv an, dass B mit einer unitaren Matrix W diagonalisierbarist, d.h.
W ∗BW = D
=⇒ A wird durch
U = V
(1 0
0 W
),
diagonalisiert, denn
U∗AU =
(1 0
0 W ∗
)(λ 0
0 B
)(1 0
0 W
)=
(λ 0
0 W ∗BW
)
Normalformen Unitare Diagonalisierung 172-3
Beispiel:
A =
(3 + 2i 3− 2i3− 2i 3 + 2i
)normal:
AA∗ =
(26 1010 26
)= A∗A
=⇒ Existenz einer orthonormalen Basis aus Eigenvektoren vk
λ1 = 6, v1 =
(1√2
1√2
), λ2 = 4i , v2 =
(1√2
− 1√2
)Diagonalisierung mit der unitaren Matrix U = (v1, v2)(
6 00 4i
)=
(1√2
1√2
1√2− 1√
2
)(3 + 2i 3− 2i3− 2i 3 + 2i
)( 1√2
1√2
1√2− 1√
2
)
Normalformen Unitare Diagonalisierung 173-1
Diagonalisierung hermitescher Matrizen
Die Eigenwerte λi einer hermiteschen Matrix A (A = A∗) sind reell und esexistiert eine Orthonormalbasis aus Eigenvektoren vi . Folglich ist
U∗AU = diag(λ1, . . . , λn) ,
mit der unitaren Matrix U = (v1, . . . , vn).
Im Spezialfall reeller symmetrischer Matrizen (A = At) sind dieEigenvektoren ebenfalls reell.
Normalformen Diagonalform hermitescher Matrizen 174-1
Beweis:
hermitesch ⇒ normal ⇒ unitar diagonalisierbar
zu zeigen: λ ∈ R:
Av = λ ⇒
λv∗v = v∗(λv) = v∗(Av) = (A∗v)∗v = (Av)∗v = (λv)∗v
= λv∗v
Division durch |v |2 =⇒ λ = λ, d.h. λ ∈ R
Normalformen Diagonalform hermitescher Matrizen 175-1
Beispiel:
hermitesche Matrix
A =
(2 −1− i
−1 + i 1
)= A∗
detA = 0 =⇒ ∃ Eigenwert λ = 0zugehoriger Eigenvektor
v =
(1
1− i
)SpurA = 3 = λ+ % zweiter Eigenwert % = 3zugehoriger Eigenvektor w ⊥ v , d.h.
w =
(1 + i−1
)(w∗v = w tv = (1− i,−1)(1, 1− i)t = 0)
Normalformen Diagonalform hermitescher Matrizen 176-1
Normierung unitare Matrix
U =1√3
(1 1 + i
1− i −1
)Diagonalisierung
A = U
(0 00 3
)U∗
Normalformen Diagonalform hermitescher Matrizen 176-2
Rayleigh-Quotient
Fur eine hermitesche positiv definite Matrix S sind die Extremwerte dessogenannten Rayleigh-Quotienten
rS(x) =x∗Sx
x∗x, x 6= 0 ,
der kleinste und großte Eigenwert von S .Insbesondere gilt fur die der euklidischen Norm zugeordneten Matrix-Norm
‖S‖ = maxx
rS(x) = λmax, ‖S−1‖−1 = minx
rS(x) = λmin .
Normalformen Rayleigh-Quotient 177-1
Beweis:
Transformation auf Diagonalform mit unitarer Matrix U = (u1, · · · , un)aus Eigenvektoren:
U∗SU = D, D = diag(λ1, . . . , λn), Sui = λiui mit λi ∈ R
S positiv definit =⇒
λi =u∗i Suiu∗i ui
=u∗i λuiu∗i ui
> 0
und o.B.d.A. λ1 ≥ · · · ≥ λnSubstitution von S = UDU∗ und x = Uy
rS(y) =y∗Dy
y∗(U∗U)y=
∑i λi |yi |2∑i |yi |2
λi > 0 =⇒λmin ≤ rS(y) ≤ λmax
mit Gleichheit fur y = en und y = e1
Normalformen Rayleigh-Quotient 178-1
Beispiel:
S =
(3 22 3
)Invariant des Rayleigh-Quotienten rs(x) unter Skalierung x → λx o.B.d.A. x = (cos t, sin t)t
r(x) = 3 cos2 t + 4 cos t sin t + 3 sin2 t = 3 + 2 sin(2t)
Extrema0
!= 4 cos(2t) =⇒ t = ±π
4kleinster und großer Eigenwert
λ± = 3 + 2 sin(±π/2), d.h. λ+ = 5, λ− = 1
zur Kontrolle:
det S = 9− 4 = 5 · 1, Spur S = 3 + 3 = 5 + 1
Normalformen Rayleigh-Quotient 179-1
Unitare Ahnlichkeitstransformation auf Dreiecksform
Eine komplexe quadratische Matrix A lasst sich durch eine unitareAhnlichkeitstranformation auf obere Dreiecksform
R =
λ1 r1,2 · · · r1,n
0. . .
. . ....
.... . .
. . . rn−1,n
0 · · · 0 λn
= Q−1AQ
transformieren, wobei die Diagonale die Eigenwerte λi von A enthalt.
Normalformen Unitare Ahnlichkeitstransformation auf Dreiecksform 180-1
Beweis:
Induktion uber die Dimension:(1× 1)-Matrix X(n × n)-Matrix A hat (mindestens) einen Eigenvektor v orthonormale Basis v ,w1, . . . ,wn−1Ahnlichkeitstransformation mit T = (v ,w1, . . . ,wn−1)
A = T ∗AT =
v∗
w∗1...
w∗n−1
( λv Aw1, . . . ,Awn−1
)
=
(λ x∗
0 B
),
da w∗k v = 0
Normalformen Unitare Ahnlichkeitstransformation auf Dreiecksform 181-1
Ahnlichkeitstransformation Q fur (n − 1× n − 1)-Matrix B:
Q∗BQ = Rn−1
Mit
Q = T
(1 0
0 Q
)folgt
Q∗AQ =
(1 0
0 Q∗
)T ∗AT
(1 0
0 Q
)
=
(1 0
0 Q∗
)(λ x∗
0 B
)(1 0
0 Q
)
=
(1 0
0 Q∗
)(λ x∗Q
0 BQ
)
=
(λ x∗Q
0 Q∗BQ
)=
(λ x∗Q0 Rn−1
)= R .
Normalformen Unitare Ahnlichkeitstransformation auf Dreiecksform 181-2
Jordan-Form
Eine komplexe quadratische Matrix A lasst sich durch eineAhnlichkeitstranformation auf die Blockdiagonalform
J =
J1 0. . .
0 Jk
= Q−1AQ
transformieren. Dabei haben die Jordanblocke die Form
Ji =
λi 1 00 λi 1
. . .. . .
λi 10 λi
,
mit einem Eigenwert λi von A.Bis auf Permutation der Blocke ist die Jordan-Form eindeutig.
Normalformen Jordan-Form 182-1
Beispiel:
A =
−1 0 42 −1 03 2 −1
charakteristisches Polynom:
pA(λ) = (−1− λ)3 + 4(4− 3(−1− λ)) = −λ3 − 3λ2 + 9λ+ 27
Nullstellen: doppelt λ = −3, einfach λ = 3
Rang(A− λE ) = Rang
2 0 42 2 03 2 2
= 2
=⇒ bis auf Vielfache nur ein Eigenvektor u zu λ = −3
Normalformen Jordan-Form 183-1
Jordan-Form
J =
−3 1 00 −3 00 0 3
Bestimmung der Transformationsmatrix Q = (u, v ,w) aus der Identitat
QJ = AQ
⇔
−3u = Au (Spalte 1)
u − 3v = Av (Spalte 2)
3w = Aw (Spalte 3)
Normalformen Jordan-Form 183-2
lineare Gleichungssysteme fur die Eigenvektoren
(A− λE )u =
2 0 42 2 03 2 2
u1
u2
u3
=
000
und
(A− λE )w =
−4 0 42 −4 03 2 −4
w1
w2
w3
=
000
Eigenvektoren
u =
−221
, w =
212
Normalformen Jordan-Form 183-3
lineares Gleichungssystem fur den Hauptvektor v
u =
−221
=
2 0 42 2 03 2 2
v1
v2
v3
= (A− λE )v
=⇒ v = (−3, 4, 1)t
Transformationsmatrix
Q = (u, v ,w) =
−2 −3 22 4 11 1 2
Normalformen Jordan-Form 183-4
Beispiel:
qualitativ verschiedene Jordan-Normalformen J fur eine 2× 2-Matrix A(i) Zwei einfache Eigenwerte λ und %:zugehorige Eigenvektoren v und w
J =
(λ 00 %
)= Q−1AQ, Q = (v ,w)
(ii) Doppelter Eigenwert λ mit zwei linear unabhangigen Eigenvektoren vund w :
J =
(λ 00 λ
)= A ,
denn mit Q = (v ,w) ist
A = QJQ−1 = Q(λE )Q−1 = λE
Normalformen Jordan-Form 184-1
(ii) Doppelter Eigenwert λ mit nur einem, bis auf Vielfache eindeutigbestimmten Eigenvektor v :
J = Q−1AQ =
(λ 10 λ
), Q = (v ,w) ,
mit einem Hauptvektor wRang(A− λE ) = 1 v mit einer nicht-trivialen Gleichung des homogenen Systems(A− λE )v = 0 bestimmbar; andere Gleichung redundantBestimmung von w aus der zweiten Spalte der Identitat
QJ = AQ ⇔ (λv , v + λw) = (Av ,Aw) ,
d.h. v = (A− λE )w
Normalformen Jordan-Form 184-2
Beispiel:
A =
(−4 4−9 8
)=⇒ charakteristisches Polynom λ2 − 4λ+ 4 = 0
doppelte Nullstelle λ = 2lineares Gleichungssystem fur den Eigenvektor
(A− λE )v =
(−6 4−9 6
)(v1
v2
)=
(00
)=⇒ v = (2, 3)t
lineares Gleichungssystem fur den Hauptvektor
v =
(23
)=
(−6 4−9 6
)(w1
w2
)= (A− λE )w
=⇒ w = (1, 2)t
Probe:
A = QJQ−1 =
(2 13 2
)(2 10 2
)(2 −1−3 2
)Normalformen Jordan-Form 185-1
Beispiel:
verschiedene Jordan-Normalformen
J = QAQ−1 ⇔ A = Q−1JQ
fur eine 3× 3-Matrix A(i) Paarweise verschiedene Eigenwerte λ, %, σ:
J =
λ 0 00 % 00 0 σ
(ii) Doppelter Eigenwert λ: λ 0 0
0 λ 00 0 %
,
λ 1 00 λ 00 0 %
Normalformen Jordan-Form 186-1
zweiter Fall:Rang(A− λE ) = 2
Q = (u, v ,w) mit Eigenvektoren u und w und einem Hauptvektor vBestimmung durch Losen der Gleichungssysteme
(A− λE )u = 0, u = (A− λE )v , (A− %E )w = 0
(iii) Dreifacher Eigenwert λ: λ 0 00 λ 00 0 λ
,
λ 1 00 λ 00 0 λ
,
λ 1 00 λ 10 0 λ
Normalformen Jordan-Form 186-2
zweiter Fall:Rang(A− λE ) = 1
erhalte einen Hauptvektor v durch Losen von
(A− λE )2v = 0, (A− λE )v 6= 0
zugehoriger Eigenvektor: u = (A− λE )vweiterer linear unabhangiger Eigenvektor w erfullt
(A− λE )w = 0, w ⊥ u
Q = (u, v ,w)dritter Fall:
Rang(A− λE ) = 2
Q = (u, v ,w) mit
(A− λE )u = 0, u = (A− λE )v , v = (A− λE )w
Normalformen Jordan-Form 186-3
Beispiel:
14 mogliche Belegunsstrukturen fur Jordan-Normalformen von4× 4-Matrizen
(i) vier verschiedene Eigenwerte λ1, λ2, λ3, λ4λ1 0 0 00 λ2 0 00 0 λ3 00 0 0 λ4
(ii) ein zweifacher Eigenwert λ1 und zwei einfache Eigenwerte λ2, λ3
λ1 0 0 00 λ1 0 00 0 λ2 00 0 0 λ3
,
λ1 1 0 00 λ1 0 00 0 λ2 00 0 0 λ3
Normalformen Jordan-Form 187-1
(iii) zwei zweifache Eigenwerte λ1, λ2λ1 0 0 00 λ1 0 00 0 λ2 00 0 0 λ2
,
λ1 1 0 00 λ1 0 00 0 λ2 00 0 0 λ2
,
λ1 1 0 00 λ1 0 00 0 λ2 10 0 0 λ2
(iv) ein dreifacher Eigenwert λ1 und ein einfacher Eigenwert λ2
λ1 0 0 00 λ1 0 00 0 λ1 00 0 0 λ2
,
λ1 1 0 00 λ1 0 00 0 λ1 00 0 0 λ2
,
λ1 1 0 00 λ1 1 00 0 λ1 00 0 0 λ2
Normalformen Jordan-Form 187-2
(v) ein vierfacher Eigenwert λ1λ1 0 0 00 λ1 0 00 0 λ1 00 0 0 λ1
,
λ1 1 0 00 λ1 0 00 0 λ1 00 0 0 λ1
,
λ1 1 0 00 λ1 1 00 0 λ1 00 0 0 λ1
λ1 1 0 00 λ1 0 00 0 λ1 10 0 0 λ1
,
λ1 1 0 00 λ1 1 00 0 λ1 10 0 0 λ1
Normalformen Jordan-Form 187-3
Dominanter Eigenwert
Besitzt A einen betragsmaßig großten einfachen Eigenwert λ mitEigenvektor v , so gilt
Anx = λn(cv + o(1)), n→∞ ,
falls x eine nichttriviale Komponente im Eigenraum von λ hat, d.h.
x = cv + w
mit c 6= 0 und v ∦ w .
Normalformen Potenzen von Matrizen 188-1
Beispiel:
jahrliche Veranderung der Marktanteile xi konkurrierender FirmenABC, +90 D, 10
E20 1020 3040
6080 20
Beispielsweise gewinnt die Firma A jahrlich 80% der Marktanteile derFirma D, und die Firma C vergroßert ihre Marktanteile um 90% durchErschließung neuer Absatzmoglichkeiten, verliert jedoch gleichzeitigMarktanteile an die Firmen A und D.
Normalformen Potenzen von Matrizen 189-1
Veranderung der Marktanteile:
Aneu = 0.7A + 0.4C + 0.8D
Bneu = 0.5B + 0.2A
Cneu = 0.9C + 0.2B
Dneu = 0.1D + 0.6C + 0.2E
Eneu = 0.8E + 0.1A + 0.3B
x = (A,B,C ,D,E )t
xneu =
0.7 0 0.4 0.8 00.2 0.5 0 0 00 0.2 0.9 0 00 0 0.6 0.1 0.2
0.1 0.3 0 0 0.8
x
Multiplikation mit der n-ten Potenz der Iterationsmatrix Marktanteile nach n Jahren
Normalformen Potenzen von Matrizen 189-2
Die normierten Vektorenx = x/(
∑k
xk)
konvergieren gegen einen Eigenvektor zum betragsmaßig großtenEigenwert:
λmax = 1.1, vmax = (3, 1, 1, 1, 2)t/8
prozentuale Anteile
A : 37.5%, B,C ,D : 12.5%, E : 25%
Normalformen Potenzen von Matrizen 189-3
Beispiel:
Fibonacci–Zahlen
a0 = 0, a1 = 1,
an+1 = an + an−1 , fur n ≥ 1 ,
erste Fibonacci-Zahlen:
1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233, 377, 610, 987, 1597, 2584, . . .
Startwerte a1 = 1 und a2 = 3 Lucas-Zahlen:
1, 3, 4, 7, 11, 18, 29, 47, 76, 123, 199, 322, 521, 843, 1364, 2207, 3571, . . .
Matrixform der Rekursion:
xn+1 = Axn, xn = (an−1, an)t, A =
(0 11 1
)Eigenwerte und Eigenvektoren von A:
λ± =1
2±√
5
2, v± =
(1λ±
)Normalformen Potenzen von Matrizen 190-1
Darstellung des Startvektors als Linearkombination von v+ und v−,(a0
a1
)=
(01
)=
1√5v+ −
1√5v−
asymptotisches Verhalten(an−1
an
)=λn−1
+√5v+ −
λn−1−√
5v−
d.h.
an =λn−1
+√5λ+ −
λn−1−√
5λ− =
1√5
(1
2+
√5
2
)n
(1− (λ−/λ+)n︸ ︷︷ ︸o(1)
)
Normalformen Potenzen von Matrizen 190-2
Konvergenz von Matrix-Potenzen
Die Potenzen An, n = 0, 1, . . ., einer komplexen Matrix konvergieren genaudann gegen die Nullmatrix, wenn der Betrag aller Eigenwerte λ kleiner als1 ist.
Die Folge (An) bleibt beschrankt, wenn |λ| ≤ 1 und fur Eigenwerte mitBetrag 1 die algebraische gleich der geometrischen Vielfachheit ist.Andernfalls divergiert die Folge, insbesondere dann, wenn ein Eigenwertmit Betrag großer als 1 existiert.
Normalformen Potenzen von Matrizen 191-1
Beweis:
Jordan-FormJ = Q−1AQ
=⇒An = (QJQ−1)(QJQ−1) · · · (QJQ−1) = QJnQ−1
untersuche die Konvergenz der Potenzen von Jbetrachte die Blocke
Ji = (λiE ) + D
(D enthalt die Nebendiagonale mit Einsen.)Dm = 0 fur einen Block der Dimension m =⇒
(Ji )n = λni E +
(n
1
)λn−1i D + · · ·+
(n
m − 1
)λn−m+1i Dm−1
=⇒ Konvergenzeigenschaften
Normalformen Potenzen von Matrizen 192-1
|λi | < 1 : limn→∞(nj
)λn−ji = 0
|λi | = 1 : Folge beschrankt, wenn m = 1|λi | > 1 : Divergenz, da λni →∞
Normalformen Potenzen von Matrizen 192-2
Beispiel:
t 1 00 t 00 0 −t
n
︸ ︷︷ ︸J
abc
, t > 0
n = 1, 2, 3, · · ·at + bbt−ct
,
at2 + 2btbt2
ct2
,
at3 + 3bt2
bt3
−ct3
, : · · ·
Konvergenz fur t < 1, da ntn−1 →∞Divergenz fur t ≥ 1 wie z.B. fur t = 1
Jn
abc
=
a + nbb
(−1)nc
Normalformen Potenzen von Matrizen 193-1
Ausgleichsgerade
Eine Geradep(t) = u + vt ,
die Daten (ti , fi ), i = 1, . . . , n, bestmoglichst approximiert, kann durchMinimierung der Fehlerquadratsumme
n∑i=1
(p(ti )− fi )2
ermittelt werden.Man erhalt fur den Achsenabschnitt u und die Steigung v die Formeln
u =(∑
t2i )(∑
fi )− (∑
ti )(∑
ti fi )
n(∑
t2i )− (
∑ti )2
v =n(∑
ti fi )− (∑
ti )(∑
fi )
n(∑
t2i )− (
∑ti )2
,
wenn mindestens zwei Abszissen ti verschieden sind.Ausgleichsprobleme Ausgleichsgerade 194-1
t
f
ti
fi
p(ti)
p(t) = u+ vt
Ausgleichsprobleme Ausgleichsgerade 194-2
Beweis:
(u, v) minimal =⇒ Ableitungen der Fehlerquadratsumme nach uund v Null:
0 = 2∑i
(u + vti − fi )
0 = 2∑i
ti (u + vti − fi )
bzw. in Matrixform(n
∑ti∑
ti∑
t2i
)︸ ︷︷ ︸
A
(uv
)=
( ∑fi∑ti fi
)
mindestens zwei ti verschieden, Cauchy-Schwarz-Ungleichung =⇒
detA = |(1, . . . , 1)|2︸ ︷︷ ︸=n
|(t1, . . . , tn)|22 −(∑
i
1 · ti)2
> 0
Cramersche Regel angegebene LosungAusgleichsprobleme Ausgleichsgerade 195-1
Beispiel:
Datenti −1 0 2
fi −3 1 4
Berechnung der Ausgleichsgerade t 7→ p(t) = u + tv∑ti = 1,
∑fi = 2,
∑t2i = 5,
∑ti fi = 11
=⇒
u =(∑
t2i )(∑
fi )− (∑
ti )(∑
ti fi )
n(∑
t2i )− (
∑ti )2
=5 · 2− 1 · 11
3 · 5− 12= − 1
14
v =n(∑
ti fi )− (∑
ti )(∑
fi )
n(∑
t2i )− (
∑ti )2
=3 · 11− 1 · 2
3 · 5− 12=
31
14
Ausgleichsprobleme Ausgleichsgerade 196-1
Normalengleichungen
Fur eine beliebige m × n Matrix A erfullt jede Losung x desAusgleichsproblems
|Ax − b| → min
die NormalengleichungenAtAx = Atb ,
d.h. das Residuum r = Ax − b ist orthogonal zu dem von den Spalten vonA aufgespannten Unterraum ARn = BildA .
0
Ax
b
Ax− b
ARn
Ausgleichsprobleme Normalengleichungen 197-1
Die Matrix AtA ist quadratisch und hat Dimension n. Sie ist genau danninvertierbar, wenn RangA = n, d.h. wenn die Spalten von A linearunabhangig sind.Die Normalengleichungen sind auch im singularen Fall losbar; die Losungist dann jedoch nicht eindeutig.
Ausgleichsprobleme Normalengleichungen 197-2
Beweis:
Minimalitat von x ⇔
|A(x + ty)− b|2 ≥ |Ax − b|2, ∀t ∈ R, y ∈ Rn
Vereinfachung mit r = Ax − b
p = tr tAy + ty tAtr︸ ︷︷ ︸2ty tAtr
+t2y tAtAy ≥ 0
(r tAy = y tAtr)p: nicht-negative Parabel in tp ≥ 0 genau dann, wenn y t(Atr) = 0y beliebig Atr = 0
Ausgleichsprobleme Normalengleichungen 198-1
Beispiel:
(i) RangA maximal:
A =
2 01 10 2
, b =
030
Normalengleichungen (
5 11 5
)(x1
x2
)=
(33
)eindeutige Losung x =
(1/2 1/2
)tmit Residuum
r = Ax − b =
1−21
Ausgleichsprobleme Normalengleichungen 199-1
(ii) RangA nicht maximal:
A =
2 41 20 0
, b =
030
linear abhangige Spalten singulare Normalengleichungen(
5 1010 20
)(x1
x2
)=
(36
)Losung
x =
(3/5
0
)+ t
(−21
), t ∈ R
nicht eindeutig, aber eindeutiges Residuum
r =
2 41 20 0
(3/5− 2tt
)−
030
=
6/5−12/5
0
Ausgleichsprobleme Normalengleichungen 199-2
Beispiel:
Computer-TomographieRekonstruktion einer Dichte x(u, v) aus dem Intensitatsverlust vonRontgenstrahlen entlang von k Bundeln aus ` parallelen Geraden
Ri : (ui , vi ) + R(cosϑi , sinϑi ), i = 1, . . . ,m = k`
Approximation von x durch eine stuckweise konstante Funktion auf einemRaster von Quadraten Qj und eine Naherung fur die Linienintegrale
bi =
∫Rx(ui + t cosϑi , vi + t sinϑi ) dt ≈
n∑j=1
ai ,jxj
mit xj einer Approximation von x(u, v) auf Qj und
ai ,j = |Ri ∩Qj |
der Lange des Durchschnitts der Geraden Ri mit dem Quadrat Qj
m >> n Ausgleichsproblem zur Bestimmung von x aus den Daten bAusgleichsprobleme Normalengleichungen 200-1
#i[ui vi
11× 11 Raster, Winkel
ϑ = 0, π/16, π/8, . . .
mit 11 parallelen Scan-Richtungen im Abstand der Rasterquadratbreite
Ausgleichsprobleme Normalengleichungen 200-2
Singularwert-Zerlegung
Zu jeder komplexen (reellen) m × n-Matrix A existieren unitare(orthogonale) Matrizen U und V mit
U∗AV = S =
s1 0s2
0. . .
.
Die singularen Werte
s1 ≥ s2 ≥ · · · ≥ sk > sk+1 = · · · = 0
sind die Wurzeln der Eigenwerte von A∗A und k ist der Rang von A.Die Spalten uj von U und vj von V bilden orthonormale Basen ausEigenvektoren von AA∗ bzw. A∗A , und es gilt
Avj = sjuj
fur 1 ≤ j ≤ k .Ausgleichsprobleme Singularwert-Zerlegung 201-1
Mit Hilfe der Singularwertzerlegung lasst sich die lineare Abbildungx 7→ y = Ax in der Form
y =k∑
i=1
si (v∗i x)ui
darstellen. Daraus folgt insbesondere, dass
KernA = spanvk+1, . . . , vn, BildA = spanu1, . . . , uk .
Schließlich ist ‖A‖2 = s1 und ‖A‖2F =
∑j ,k |aj ,k |2 = s2
1 + · · ·+ s2k .
Ausgleichsprobleme Singularwert-Zerlegung 201-2
Beweis:
(i) Konstruktion:A∗A hermitesch und positiv semidefinit =⇒
V ∗A∗AV = diag(s21 , . . . , s
2k , 0, . . . , 0) = S tS , V ∗V = E
(Eigenwerte s2j absteigend sortiert)
Spalten von AV orthogonal mit Norm si =⇒
AV =(s1u1 · · · skuk 0 · · · 0
)= US
mit einer unitaren Matrix U; die Spalten uk+1, . . . , um erganzen u1, . . . , ukzu einer orthonormalen Basis Darstellung
A = USV ∗
Ausgleichsprobleme Singularwert-Zerlegung 202-1
(ii) Rang:Invarianz des Ranges unter unitaren Transformationen =⇒
Rang A = Rang S = k
(iii) Avj = sjuj :folgt aus
A = USV ∗, V ∗vj = ej , Sej = sjej
mit ej dem j-ten Einheitsvektor(iv) y =
∑i si (v
∗i x)ui :
folgt aus (iii) und
x =∑i
(v∗i x)vi
(Darstellung bzgl. einer orthonormalen Basis)(v) ‖A‖2 = s1, ‖A‖2
F = s21 + · · ·+ s2
k :folgt aus der Invarianz euklidischer Normen unter unitarenTransformationen
Ausgleichsprobleme Singularwert-Zerlegung 202-2
Beispiel:
Berechnung der Singularwert-Zerlegung von
A =
6 −5 86 5 86 −5 86 5 8
(i) Bestimmung von V :
AtA =
144 0 1920 100 0
192 0 256
Eigenwert 100 mit Eigenvektor (0, 1, 0)t
Spalte 3 = (4/3) × Spalte 1 Eigenwert 0 mit Eigenvektor (4, 0,−3)t/5SpurA = 500 Eigenwert 500− 100− 0 = 400 mit orthogonalem Eigenvektor
Ausgleichsprobleme Singularwert-Zerlegung 203-1
absteigende Sortierung der singularen Werte (Wurzeln der Eigenwerte vonAtA
V =
3/5 0 4/50 1 0
4/5 0 −3/5
, S =
20 0 00 10 00 0 00 0 0
(ii) Bestimmung von U:
AV =
10 −5 010 5 010 −5 010 5 0
Normierung (Division durch s1, s2) Spalte 1 und 2 von U:
u1 =
1/21/21/21/2
, u2 =
−1/21/2−1/21/2
Ausgleichsprobleme Singularwert-Zerlegung 203-2
Erganzung zu einer orthogonalen Basis
U =1
2
1 −1 1 −11 1 1 11 −1 −1 11 1 −1 −1
(iii) Probe: A = USV t
A =
6 −5 86 5 86 −5 86 5 8
= USV t
=1
2
1 −1 1 −11 1 1 11 −1 −1 11 1 −1 −1
20 0 00 10 00 0 00 0 0
1
5
3 0 40 5 04 0 −3
Ausgleichsprobleme Singularwert-Zerlegung 203-3
Pseudo-Inverse
Mit der Singularwert-Zerlegung USV ∗ einer m × n-Matrix A lasst sich dieLosung des Ausgleichsproblems |Ax − b| → min mit minimaler Norm inder Form
x = A+b, A+ = VS+U∗,
schreiben, wobei A+ als Pseudo-Inverse von A bezeichnet wird, und
S+ = diag(1/s1, . . . , 1/sk , 0, . . . , 0), k = RangA ,
die n ×m-Diagonalmatrix mit den Kehrwerten der positiven singularenWerte ist.
Ausgleichsprobleme Pseudo-Inverse 204-1
Bezeichnen u1, . . . , um und v1, . . . , vn die orthonormalen Basen ausden Spalten von U bzw. V , so lasst sich die lineare Abbildungb 7→ x = A+b in der faktorisierten Form
x =k∑`=1
1
s`(u∗` b)v`
darstellen. Daraus folgt insbesondere, dass
KernA+ = spanuk+1, . . . , um, BildA+ = spanv1, . . . , vk
und ‖A+‖2 = 1/sk .
Ausgleichsprobleme Pseudo-Inverse 204-2
Beweis:
Invarianz der 2-Norm unter unitaren Transformationen =⇒|Ax − b| = |U∗(Ax − b)|
setzec = U∗b, y = V ∗x ⇔ x = Vy
aquivalentes Minimierungsproblem
|Sy − c | =
∣∣∣∣∣∣∣∣∣∣∣∣∣∣
s1y1 − c1...
skyk − ck−ck+1
...−cm
∣∣∣∣∣∣∣∣∣∣∣∣∣∣→ min, S = U∗AV
Losung der ersten k Gleichungen Minimum
yi = ci/si , i = 1, . . . k
Ausgleichsprobleme Pseudo-Inverse 205-1
Normtreue der unitaren Matrix V (|x | = |y |)
yk+1 = · · · = yn = 0
fur die Losung minimaler NormInsgesamt folgt
y = S+c, s+i ,j =
1/si fur i = j ≤ k
0 sonst
d.h.x = Vy = VS+c = VS+U∗︸ ︷︷ ︸
A+
b
Ausgleichsprobleme Pseudo-Inverse 205-2
Beispiel:
Losung des Ausgleichproblems |Ax − b| → min fur
A =
2 −4 56 0 32 −4 56 0 3
, b =
13−1
3
(i) Berechnung der Singularwert-Zerlegung:
AtA =
80 −16 56−16 32 −40
56 −40 68
Ausgleichsprobleme Pseudo-Inverse 206-1
Eigenwerte und Eigenvektoren
s21 = 144, s2
2 = 36, s23 = 0, V =
1
3
2 2 −1−1 2 2
2 −1 2
S =
12 0 0
0 6 00 0 00 0 0
, AV =
6 −3 06 3 06 −3 06 3 0
= US
Spalten 1 und 2 von U: Division der entsprechenden Spalten von AV durchdie singularen Werte Einheitsvektorenrestliche Spalten: Erganzen zu einer orthonormalen Basis
U =1
2
1 −1 −1 11 1 −1 −11 −1 1 −11 1 1 1
Ausgleichsprobleme Pseudo-Inverse 206-2
(ii) Pseudo-Inverse und Ausgleichslosung:Zerlegung A = USV ∗
A+ = V
112 0 0 00 1
6 0 00 0 0 0
U∗ =1
72
−2 6 −2 6−5 3 −5 3
4 0 4 0
Losung minimaler Norm:
x = A+b =1
4
210
Ausgleichsprobleme Pseudo-Inverse 206-3
Beispiel:
Kontrolle topographischer Hohendaten hi durch Messung vonHohendifferenzen di ,jMessfehler di ,j 6= hi − hjHohenkorrekturen xi durch Losen des Ausgleichsproblems∑
(i ,j)
(di ,j −
((hi + xi )− (hj + xj)
))2→ min
Ausgleichsprobleme Pseudo-Inverse 207-1
Modellproblem mit wenigen DatenPSfrag repla ementshj
hi h2 = 561h1 = 834
h4 = 9h3 = 207
di;j 276549 822356 631
Hohen und Differenzwerte
h = (834, 561, 207, 9)t, d = (276, 631, 822, 356, 549)t
Ausgleichsprobleme Pseudo-Inverse 207-2
uberbestimmtes System
A(h + x) = d , A =
1 −1 0 01 0 −1 01 0 0 −10 1 −1 00 1 0 −1
, d =
d1,2
d1,3
d1,4
d2,3
d2,4
Losung minimaler Norm
x = A+(d − Ah) =
1−1−33
Minimum-Norm-Losung kleinstmogliche Korrekturen
Ausgleichsprobleme Pseudo-Inverse 207-3
Spiegelung
Eine Spiegelung an der zu einem Einheitsvektor d orthogonalenHyperebene
H : d tx = 0, |d | = 1 ,
im Rn wird durch die symmetrische orthogonale Matrix
Q = E − 2dd t
mit E der Einheitsmatrix beschrieben.
PSfrag repla ements OxQx
dddtxddtx
Orthogonale Transformationen und Quadriken Spiegelung 208-1
Beweis:
(i) Symmetrie von Q X(ii) Orthogonalitat:
QQt = Q2 = (E − 2dd t)2 = E 2 − 4dd t + 4d d td︸︷︷︸=1
d t = E
(iii) Spiegelungseigenschaft:x − Qx ‖ d :
x − Qx = x − x + 2dd tx = 2(d tx)d
Mittelpunkt zwischen x und Qx ∈ H:
d t(x + Qx)/2 = (d tx + d tx − 2 d td︸︷︷︸=1
d tx)/2 = 0
=⇒ Qx ist Spiegelbild von x an der Hyperebene durch den Ursprung,die zu d orthogonal ist
Orthogonale Transformationen und Quadriken Spiegelung 209-1
Beispiel:
Spiegelung an der Ebene H durch die Punkte
(0, 0, 0), (0, 1, 0), (3, 0, 4)
Normaled = (−4, 0, 3)t/5, |d | = 1
Spiegelungsmatrix
Q = E − 2dd t =
1 0 00 1 00 0 1
− 2
25
−403
(−4 0 3)
=
1 0 00 1 00 0 1
− 2
25
16 0 −120 0 0−12 0 9
=
−0.28 0 .960 1 0.96 0 0.28
Orthogonale Transformationen und Quadriken Spiegelung 210-1
Drehung
Die orthogonale n × n-Matrix Qi ,j
Zeile i →
Zeile j →
1 0. . .
c −s. . .
s c. . .
0 1
mit c = cosϕ und s = sinϕ beschreibt eine Drehung um den Winkel ϕ inder xixj -Ebene des Rn.Jede orthogonale Matrix Q mit detQ = 1 ist als Produkt von Drehungenin Koordinatenebenen darstellbar:
Q =∏i<j
Qi ,j .
Orthogonale Transformationen und Quadriken Drehung 211-1
Beweis:
(i) Orthogonalitat:cos2 ϕ+ sin2 ϕ = 1 =⇒
QQt =
1 0. . .
c2 + s2 −sc + sc. . .
−sc + sc c2 + s2
. . .
0 1
= E
Orthogonalitat der Drehmatrix Q
Orthogonale Transformationen und Quadriken Drehung 212-1
(ii) Herleitung der Faktorisierung fur n = 3:Bestimmung der Drehungen durch sukzessives Annulieren der Elementeq21, q31, q32 von Q:
Q−11,2Q =
? ? ?0 ? ?? ? ?
Q−1
1,3Q−11,2Q =
1 ? ?0 ? ?0 ? ?
Q−1
2,3Q−11,3Q
−11,2Q =
1 ? ?0 1 ?0 0 ?
= R
Q2,3, Q1,3, Q1,2 bilden jeweils Vektoren (v1, v2)t auf Vielfache vonEinheitsvektoren ab.detQi ,j = 1, detQ = 1 =⇒ detR = 1 =⇒ r3,3 = 1Normierung der Spalten =⇒ R = E und Q = Q1,2Q1,3Q2,3
Orthogonale Transformationen und Quadriken Drehung 212-2
Beispiel:
Faktorisierung der Drehmatrix
Q =
0 12 −
√3
2
−√
22 −
√6
4 −√
24
−√
22
√6
4
√2
4
Drehung D−1
z = Q−11,2 um π
2 um die z-Achse:
0 −1 01 0 00 0 1
Q =
√
22
√6
4
√2
4
0 12 −
√3
2
−√
22
√6
4
√2
4
Orthogonale Transformationen und Quadriken Drehung 213-1
Drehung D−1y = Q−1
1,3 um π4 um die y -Achse:
√2
2 0 −√
22
0 1 0√2
2 0√
22
D−1z Q =
1 0 0
0 12 −
√3
2
0√
32
12
Drehung Dx = Q2,3 um π
3 um die x-AchseInsgesamt folgt
Q =
0 1 0−1 0 00 0 1
√2
2 0√
22
0 1 0
−√
22 0
√2
2
1 0 0
0 12 −
√3
2
0√
32
12
Dz Dy Dx
Orthogonale Transformationen und Quadriken Drehung 213-2
Drehung im Raum
Eine Drehung im R3 mit normierter Drehachsenrichtung u und Drehwinkelϕ, orientiert wie eine Rechtsschraube, bildet einen Vektor x auf
Qx = cosϕ x + (1− cosϕ)uutx + sinϕ u × x
ab, wobei u × x das Kreuzprodukt von u und x bezeichnet.Die entsprechende Drehmatrix ist
Q : qi ,k = cosϕ δi ,k + (1− cosϕ) uiuk + sinϕ∑j
εijkuj ,
mit dem Kroneckersymbol δi ,k und dem ε-Tensor εijk .
Orthogonale Transformationen und Quadriken Drehung 214-1
Beweis:
zeige:Qu = u und Q dreht einen zu u orthogonaler Vektor v um einen Winkel ϕum die Achse u.
(i) Bild von u:
Qu = cosϕ u + (1− cosϕ)u utu︸︷︷︸=1
+ sinϕ u × u︸ ︷︷ ︸=0
= u
(ii) Bild von v :Qv = cosϕ v + 0 + sinϕ u × v
⇔ Drehung um ϕ in der von v und u × v aufgespannten Ebene
Orthogonale Transformationen und Quadriken Drehung 215-1
Beispiel:
Matrix Q einer Drehung um ϕ = π3 um die Achse u = 1√
3(1 1 1)t:
cosϕ δik :
12 0 00 1
2 00 0 1
2
(1− cosϕ)uiuk :
1
6
1 1 11 1 11 1 1
sinϕ
∑j
εijkuj :1
2
0 −1 11 0 −1−1 1 0
=⇒
Q =1
3
2 −1 22 2 −1−1 2 2
Orthogonale Transformationen und Quadriken Drehung 216-1
Drehachse und Drehwinkel
Jede Drehung Q im R3 besitzt eine Drehachse, d.h. lasst einenEinheitsvektor u invariant, und entspricht einer ebenen Drehung um einenWinkel ϕ in der zu u orthogonalen Ebene.
Bezuglich eines orthonormalen Rechtssystems u, v ,w besitzt Q dieMatrixdarstellung
Q =
1 0 00 cosϕ − sinϕ0 sinϕ cosϕ
.
Insbesondere gilt fur den Drehwinkel
cosϕ =1
2(SpurQ − 1) .
Orthogonale Transformationen und Quadriken Drehachse und Drehwinkel 217-1
Beweis:
Orthogonalitat der Drehmatrix Q =⇒
Q−1 = Qt , | det Q| = 1
|λi | = 1 und λ1λ2λ3 = det Q = 1 =⇒ ∃ Eigenwert λ = 1,denn bei geeigneter Numerierung
λ1 = λ2 , λ1λ2 = 1
oderλi ∈ −1, 1
Drehachse u: normierter Eigenvektor u zum Eigenwert 1
Orthogonale Transformationen und Quadriken Drehachse und Drehwinkel 218-1
orthonormales Rechtssystem u, v ,w
Qu = u
Qv = αv + βw
Qw = γv + δw
Qv ,Qw haben keine u-Komponente, wegen der Winkeltreue orthogonalerMatrizen:
x ⊥ u =⇒ Qx ⊥ Qu = u
Matrixform obiger Gleichungen
Q(u, v ,w︸ ︷︷ ︸P
) = (u, v ,w)
1 0 00 α γ0 β δ
︸ ︷︷ ︸
Q
Orthogonale Transformationen und Quadriken Drehachse und Drehwinkel 218-2
Q = P−1QP orthogonal mit det Q = detQ = 1 =⇒(α γβ δ
)=
(cosϕ − sinϕsinϕ cosϕ
)Invarianz der Spur unter Ahnlichkeitstransformationen:
SpurQ = Spur Q = 1 + 2 cosϕ
Orthogonale Transformationen und Quadriken Drehachse und Drehwinkel 218-3
Beispiel:
Die Matrix
Q =1
2
1 −√
2 1√2 0 −
√2
1√
2 1
ist eine Drehmatrix, denn
QtQ =1
4
4 0 00 4 00 0 4
= E ⇔ Qt = Q−1
und
detQ =1
8det
1 −√
2 1√2 0 −
√2
1√
2 1
= +1
Orthogonale Transformationen und Quadriken Drehachse und Drehwinkel 219-1
(i) Drehachse:Eigenvektor u zum Eigenwert λ = 1
1
2
−1 −√
2 1√2 −2 −
√2
1√
2 −1
︸ ︷︷ ︸
Q−E
u1
u2
u3
=
000
=⇒ u =
√
2/20√2/2
(ii) Drehwinkel:
cosϕ =1
2(SpurQ − 1) =
1
2(1− 1) = 0
=⇒ ϕ = ±π2
Orthogonale Transformationen und Quadriken Drehachse und Drehwinkel 219-2
(iii) Orientierung:Das Vorzeichen von ϕ hangt von der Orientierung der Drehachsenrichtungu ab und kann mit Hilfe eines Rechtssystems u, v ,w bestimmt werden:
w tQv = w t(cosϕv + sinϕw) = sinϕ
wahle als Rechtssystem
u =
√
2/20√2/2
, u ⊥ v =
010
, w = u × v =
−√
2/20√2/2
Bilden des Produktes w tQv
sinϕ = (−√
2/2, 0,√
2/2)
−√
2/20√2/2
︸ ︷︷ ︸
Qv
= 1 ,
d.h. ϕ = π2
Orthogonale Transformationen und Quadriken Drehachse und Drehwinkel 219-3
Quadrik
Fur eine symmetrische Matrix A, einen Vektor b und eine Konstante cbezeichnet man die Punktmenge
Rn ⊃ Q : x tAx + 2btx + c = 0
als Quadrik.Mit
A =
(c bt
b A
), x t = (1, x1, . . . , xn)
kann man Q auch in der homogenen Form
Q : x tAx = 0
darstellen.
Orthogonale Transformationen und Quadriken Quadrik 220-1
Man unterscheidet die folgenden Typen:
kegelige Quadrik: Rang A = RangA,
Mittelpunktsquadrik: Rang A = RangA + 1,
parabolische Quadrik: Rang A = RangA + 2.
Orthogonale Transformationen und Quadriken Quadrik 220-2
Beispiel:
Q : x21 + λx2
2 + 2x2 + λ = 0, λ ∈ R
bzw. in Matrixschreibweise
Q : x tAx + 2btx + c = 0
mit
A =
(1 00 λ
), b =
(01
), c = λ , A =
λ 0 10 1 01 0 λ
Q ist fur λ = 0 eine parabolische (Rang A = RangA + 2), fur λ = ±1 einekegelige (Rang A = RangA) und fur alle anderen Werte von λ eineMittelpunktsquadrik (Rang A = RangA + 1).
Orthogonale Transformationen und Quadriken Quadrik 221-1
Hauptachsentransformation
Durch eine Drehung und Verschiebung, x = Uξ + v , kann eine Quadrik imRn auf Diagonalform transformiert werden:
x tAx + 2btx + c = 0 →m∑i=1
λiξ2i + 2βξm+1 + γ = 0 ,
wobei m = RangA und βγ = 0 gilt.
x1
x2
ξ1
ξ2
v
u1
u2
Orthogonale Transformationen und Quadriken Hauptachsentransformation 222-1
Die Spalten der Drehmatrix U enthalten die Eigenvektoren ui zu denEigenwerten λi der symmetrischen Matrix A, und die Geraden Ruk werdenals Hauptachsen bezeichnet. Der Verschiebungsvektor v ist derMittelpunkt der Quadrik.Durch Skalierung erhalt man eine der Normalformen
Q :m∑i=1
σiξ2i
a2i
= 1
oder
Q :m∑i=1
σiξ2i
a2i
= 2ξm+1
je nachdem, ob β oder γ Null ist. Dabei ist σi ∈ −1, 1 und ai > 0 sinddie Hauptachsenlangen.
Orthogonale Transformationen und Quadriken Hauptachsentransformation 222-2
Beweis:
At = A =⇒∃ orthonormale Basis aus Eigenvektoren ui mit det(u1, . . . , un) = 1Substitution x = Uy = (u1, . . . , un)y Diagonalform
0 = y t diag(λ1, . . . , λm, 0, . . . , 0)y + 2(Utb︸︷︷︸b
)ty + c
quadratische Erganzung (Verschiebung) fur λi 6= 0,
yi = zi − bi/λi
Elimination der linearen Terme und Anderung der Konstante
c → γ = c −m∑i=1
b2i /λi
Orthogonale Transformationen und Quadriken Hauptachsentransformation 223-1
aquivalente Form
m∑i=1
λiz2i +
n∑i=m+1
2bizi + γ = 0
weitere Drehung und Verschiebung, falls bi 6= 0 fur ein i ≥ m + 1 (nurmoglich, falls RangA < n)
Drehung z → z ′ mit
z ′i = zi , i ≤ m
z ′m+1 = (1/β)n∑
m+1
bizi , β = ±|b|
Vereinfachung der Summe∑n
i=m+1 . . .:
m∑i=1
λi (z′i )
2 + 2βz ′m+1 + γ = 0
Orthogonale Transformationen und Quadriken Hauptachsentransformation 223-2
Verschiebung z ′ → z ′′ mit
z ′′m+1 = z ′m+1 + γ/(2β), z ′′i = z ′i , i 6= m + 1
Elimination der Konstante:m∑i=1
λi (z′′i )2 + 2βz ′′m+1 = 0
Diagonalformm∑i=1
λiξ2i + 2βξm+1 + γ = 0
mit β = 0 oder γ = 0 und entsprechend ξ = z oder ξ = z ′′
Skalierung (Division durch β oder γ) Normalform
Q :m∑i=1
σiξ2i
a2i
= 2ξm+1, σi/a2i = −λi/β
oder
Q :m∑i=1
σiξ2i
a2i
= γ, σi/a2i = −λi/γ
Orthogonale Transformationen und Quadriken Hauptachsentransformation 223-3
Beispiel:
Transformation der Quadrik
Q : 8x21 +17x2
2 +20x23 +20x1x2+8x1x3+28x2x3−48x1−114x2−78x3+207 = 0
auf NormalformMatrixschreibweise
Q : x tAx + 2btx + c = 0
mit
A =
8 10 410 17 144 14 20
, b =
−24−57−39
, c = 207
Eigenwerte von A: 36, 9, 0zugehorige normierte Eigenvektoren ui mit det(u1, u2, u3) = 1:
u1 =1
3(1, 2, 2)t , u2 =
1
3(2, 1,−2)t , u3 =
1
3(2,−2, 1)t
Orthogonale Transformationen und Quadriken Hauptachsentransformation 224-1
Transformation x = Uy mit U = (u1, u2, u3)
Q : 36y21 + 9y2
2 − 144y1 − 18y2 + 18y3 + 207 = 0
quadratische Erganzung z1 = y1 − 2, z2 = y2 − 1, z3 = y3
Q : 36z21 + 9z2
2 + 18z3 + 54 = 0
Verschiebung z ′1 = z1, z ′2 = z2, z ′3 = z3 + 3 Diagonalform
Q : 36(z ′1)2 + 9(z ′2)2 + 18z ′3 = 0
Skalierung (Division durch 9) Normalform
Q : − (ξ1)2
(1/2)2− (ξ2)2 = 2ξ3
elliptisches Paraboloid mit Halbachsenlangen 1/2 und 1
Orthogonale Transformationen und Quadriken Hauptachsentransformation 224-2
gesamte Transformation
x = Uy = Uz + U
210
= Uξ − U
003
+ U
210
Verschiebung (Mittelpunkt der Quadrik)
v =1
3
1 2 22 1 −22 −2 1
︸ ︷︷ ︸
U
21−3
=1
3
−211−1
z ′ = ξ = (0, 0, 0)t − x = v
Orthogonale Transformationen und Quadriken Hauptachsentransformation 224-3
Kegelschnitt
Der Schnitt eines Doppel-Kegels
K : (x − p)tv = ± cosα
2|x − p||v |
mit Spitze p (p3 6= 0), Richtung v und Offnungswinkel α mit der EbeneE : x3 = 0 ist eine quadratische Kurve
K ∩ E : a1,1x21 + 2a1,2x1x2 + a2,2x
22 + 2b1x1 + 2b2x2 + c = 0 .
α2
β E
vp
Orthogonale Transformationen und Quadriken Kegelschnitt 225-1
Der Typ des Kegelschnitts hangt von der Große des Winkels β zwischen Eund der Geraden p + tv , t ∈ R, ab.
Ellipse: β > α/2 Parabel: β = α/2 Hyperbel: β < α/2
Orthogonale Transformationen und Quadriken Kegelschnitt 225-2
Euklidische Normalformen der zweidimensionalenQuadriken
Es existieren 9 verschiedene Typen ebener Quadriken mit den folgendenNormalformen:
Kegelige Quadriken
Normalform Bezeichnung
x21
a21
+x2
2
a22
= 0 Punkt
x21
a21− x2
2
a22
= 0 schneidendes Geradenpaar
x21
a21
= 0 Doppelgerade
Orthogonale Transformationen und Quadriken Euklidische Normalform der zweidimensionalen Quadriken 226-1
Mittelpunktsquadriken
Normalform Bezeichnung
− x21
a21− x2
2
a22
= 1 (leere Menge)
− x21
a21
+x2
2
a22
= 1 Hyperbel
x21
a21
+x2
2
a22
= 1 Ellipse
− x21
a21
= 1 (leere Menge)
x21
a21
= 1 paralleles Geradenpaar
Parabolische Quadriken
Normalform Bezeichnungx2
1
a21
= 2x2 Parabel
Orthogonale Transformationen und Quadriken Euklidische Normalform der zweidimensionalen Quadriken 226-2
Die Normalformen sind eindeutig bis auf Permutation der Indizes und beikegeligen Quadriken bis auf Multiplikation mit einer Konstanten c 6= 0.Die Großen ai werden positiv angesetzt und heißen Hauptachsenlangen derQuadrik.
schneidendes Geradenpaar Doppelgerade
x1
x2
a1
a2x1
x2
Orthogonale Transformationen und Quadriken Euklidische Normalform der zweidimensionalen Quadriken 226-3
Hyperbel Ellipse
x1
x2
a1
a2
x1a1
x2
a2
Orthogonale Transformationen und Quadriken Euklidische Normalform der zweidimensionalen Quadriken 226-4
paralleles Geradenpaar Parabel
x1
x2
a1
x1
x2
Orthogonale Transformationen und Quadriken Euklidische Normalform der zweidimensionalen Quadriken 226-5
Beispiel:
Normalform und der Typ der Quadrik
Q : 3x21 + 3x2
2 + 10x1x2 − 14√
2x1 − 2√
2x2 − 18 = 0
Matrixform
x tAx + 2btx + c = x t
(3 55 3
)x + 2
√2 (−7,−1) x − 18
charakteristisches Polynom
(3− λ)2 − 25 = 9− 6λ+ λ2 − 25 = λ2 − 6λ− 16
Nullstellen
λ1,2 =6±√
36 + 64
2= 3± 5
Orthogonale Transformationen und Quadriken Euklidische Normalform der zweidimensionalen Quadriken 227-1
homogenes lineares Gleichungssystem
det(A− (−2)E )u1 =
(5 55 5
)u1 = 0
normierter Eigenvektor u1 zu λ1 = −2:
u1 =1√2
(1,−1)t
Eigenvektor u2 zu λ2 = 8 ⊥ zu u1 =⇒
u2 =1√2
(1, 1)t
normiert und Vorzeichen so gewahlt, dass die Determinante derTransformationsmatrix
U = (u1, u2) =1√2
(1 1−1 1
)positiv ist
Orthogonale Transformationen und Quadriken Euklidische Normalform der zweidimensionalen Quadriken 227-2
Substitution x = Uy
0 = x tAx + 2btx + c
= y tUtAUy + 2(btU
)y + c
= −2y21 + 8y2
2 − 12y1 − 16y2 − 18
quadratische Erganzung z = y + (3,−1)t Diagonalform
0 = −2y21 + 8y2
2 − 12y1 − 16y2 − 18
= −2(y1 + 3)2 + 18 + 8(y2 − 1)2 − 8− 18
= −2z21 + 8z2
2 − 8
Skalierung Normalform
−ξ21
22+ξ2
2
12= 1
Mittelpunkt
ξM = zM =
(00
)=⇒ yM =
(−31
)=⇒ xM = UyM =
1√2
(−24
)Orthogonale Transformationen und Quadriken Euklidische Normalform der zweidimensionalen Quadriken 227-3
Q: Hyperbel mit Halbachsenlangen 2 und 1
−5 −4 −3 −2 −1 0 1 2
0
1
2
3
4
5
a1v1
a2v2
QM
Orthogonale Transformationen und Quadriken Euklidische Normalform der zweidimensionalen Quadriken 227-4
Euklidische Normalformen der dreidimensionalenQuadriken
Es existieren 17 verschiedene Typen raumlicher Quadriken mit folgendenNormalformen:
Kegelige Quadriken
Normalform Bezeichnung
x21
a21
+x2
2
a22
+x2
3
a23
= 0 Punkt
x21
a21
+x2
2
a22− x2
3
a23
= 0 (Doppel-)Kegel
x21
a21
+x2
2
a22
= 0 Gerade
x21
a21− x2
2
a22
= 0 schneidende Ebenen
x21
a21
= 0 Doppelebene
Orthogonale Transformationen und Quadriken Euklidische Normalform der dreidimensionalen Quadriken 228-1
Mittelpunktsquadriken
Normalform Bezeichnung
− x21
a21− x2
2
a22− x2
3
a23
= 1 (leere Menge)
− x21
a21− x2
2
a22
+x2
3
a23
= 1 zweischaliges Hyperboloid
− x21
a21
+x2
2
a22
+x2
3
a23
= 1 einschaliges Hyperboloid
x21
a21
+x2
2
a22
+x2
3
a23
= 1 Ellipsoid
− x21
a21− x2
2
a22
= 1 (leere Menge)
− x21
a21
+x2
2
a22
= 1 hyperbolischer Zylinder
x21
a21
+x2
2
a22
= 1 elliptischer Zylinder
− x21
a21
= 1 (leere Menge)
x21
a21
= 1 parallele Ebenen
Orthogonale Transformationen und Quadriken Euklidische Normalform der dreidimensionalen Quadriken 228-2
Parabolische Quadriken
Normalform Bezeichnungx2
1
a21
+x2
2
a22
= 2x3 elliptisches Paraboloid
− x21
a21
+x2
2
a22
= 2x3 hyperbolisches Paraboloid
x21
a21
= 2x2 parabolischer Zylinder
Orthogonale Transformationen und Quadriken Euklidische Normalform der dreidimensionalen Quadriken 228-3
Die Normalformen sind eindeutig bis auf Permutation der Indizes und beikegeligen Quadriken bis auf Multiplikation mit einer Konstanten c 6= 0.Die Großen ai werden positiv angesetzt und heißen Hauptachsenlangen derQuadrik.
(Doppel-)Kegel schneidende Ebenen
PSfrag repla ementsa2 a1
a3
PSfrag repla ementsa1
Orthogonale Transformationen und Quadriken Euklidische Normalform der dreidimensionalen Quadriken 228-4
zweischaliges Hyperboloid einschaliges Hyperboloid
PSfrag repla ements
a2 a1PSfrag repla ements
a1
Orthogonale Transformationen und Quadriken Euklidische Normalform der dreidimensionalen Quadriken 228-5
Ellipsoid hyperbolischer Zylinder
PSfrag repla ements
a1a3
PSfrag repla ementsa1
Orthogonale Transformationen und Quadriken Euklidische Normalform der dreidimensionalen Quadriken 228-6
elliptischer Zylinder elliptisches Paraboloid
PSfrag repla ementsa1
PSfrag repla ementsa2 a1
Orthogonale Transformationen und Quadriken Euklidische Normalform der dreidimensionalen Quadriken 228-7
hyperbolisches Paraboloid parabolischer Zylinder
PSfrag repla ementsa1 PSfrag repla ements
a1
Orthogonale Transformationen und Quadriken Euklidische Normalform der dreidimensionalen Quadriken 228-8
Beispiel:
Normalform und der Typ der Quadrik
Q : x t
5 4 04 3 40 4 1
x + 2 (−2, 1, 2) x + 2 = 0
charakteristisches Polynom der Matrix
p(λ) = λ3 − 9λ2 − 9λ+ 81
Nullstellenλ1 = 9, λ2 = 3, λ3 = −3
Orthogonale Transformationen und Quadriken Euklidische Normalform der dreidimensionalen Quadriken 229-1
normierte Eigenvektoren zu den Eigenwerten λi
u1 =1
3
221
, u2 =1
3
−212
, u3 =1
3
1−2
2
Vorzeichen so gewahlt, dass ein Rechtssystem entstehtDrehmatrix
U = (u1, u2, u3) =1
3
2 −2 12 1 −21 2 2
Substitution x = Uy
y t
9 0 00 3 00 0 −3
y + 2 (0, 3, 0) y + 2 = 0
Orthogonale Transformationen und Quadriken Euklidische Normalform der dreidimensionalen Quadriken 229-2
quadratische Erganzung z = y + (0, 1, 0)t Diagonalform
0 = 9y21 + 3y2
2 − 3y23 + 6y2 + 2
= 9y21 + 3(y2 + 1)2 − 6y2 − 3− 3y2
3 + 6y2 + 2
= 9z21 + 3z2
2 − 3z23 − 1
Skalierung Normalform
− ξ23
1/3+
ξ21
1/9+
ξ22
1/3= 1
Q: einschaliges Hyperboloid mit Hauptachsenlangen
a3 =√
1/3, a1 = 1/3, a2 =√
1/3
und Mittelpunkt
xM = UyM = U zM︸︷︷︸=(0,0,0)t
−U
010
=
2/3−1/3−2/3
Orthogonale Transformationen und Quadriken Euklidische Normalform der dreidimensionalen Quadriken 229-3