33
A mxn Matrix ⇒ m n r Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis 1 Aufgabentypen: potenzieller Aufwand und Fehleranfälligkeit ⊕⊕ zeigen, dass Matrix orthogonal Ausgleichsrechnung Q T A ⊕⊕ ⊕⊕ Matlab-Befehle ⊕⊕ Determinanten ⊖⊖ Ausgleichsrechnung A T A sind Vektoren lin. (un-)abhängig, erzeugend? ⊖⊖ ⊖⊖ ⊖⊖ 2 Matrix- und Vektormultiplikation, Transposition nicht viel zu sagen ABER: Vorfaktoren nicht vergessen! z.B. Q= 1 15 ( ) Generelle Rechenregeln: A +B¿ B+ A ( A +B) + C¿ A +( B +C ) ( A B ) C¿ A ( B C) A B≠B A ( A +B) T ¿ A T +B T ( A B) T ¿ B T A T ( λA ) T =λ ( A ) T ( A B ) 1 ¿ B 1 A 1 ( A T ) 1 ¿ ( A 1 ) T det ( A 1 ) ¿ 1 det ( A ) det ( A T ) ¿ det ( A ) 3 Gaussverfahren, Rang bestimmen, regulär / singulär todo zuletzt gespeichert: 02.01.2017 19:06:00, Version 66 1 / 33

Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

A mxn Matrix ⇒ m

n

r

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

1 Aufgabentypen: potenzieller Aufwand und Fehleranfälligkeit

⊕⊕⊕ zeigen, dass Matrix orthogonal ⊖ Ausgleichsrechnung QT A⊕⊕⊕ ⊖⊕⊕ Matlab-Befehle ⊖⊕⊕ ⊖⊕ Determinanten ⊖⊖ Ausgleichsrechnung AT A⊕ sind Vektoren lin. (un-)abhängig,

erzeugend? ⊖⊖⊕ ⊖⊖⊖⊕ ⊖⊖⊖

2 Matrix- und Vektormultiplikation, Transpositionnicht viel zu sagenABER: Vorfaktoren nicht vergessen! z.B.

Q= 115

(… )

Generelle Rechenregeln:A+B∧¿B+A

( A+B )+C∧¿ A+(B+C )(A ⋅B )⋅C∧¿ A ⋅ (B⋅C )

A ⋅B∧≠ B⋅ A( A+B )T∧¿ AT+BT

( A ⋅B )T∧¿BT ⋅AT

( λA )T=λ (A )T

(A ⋅B )−1∧¿B−1⋅ A−1

(AT )−1∧¿ ( A−1 )T

det (A−1 )∧¿ 1det (A )

det ( AT )∧¿det ( A )

3 Gaussverfahren, Rang bestimmen, regulär / singulärtodo

4 LR-Zerlegung, PA = LR ZerlegungAusgangssituation:

Ax=b⇔PAx=Pb⇔LRx⏟z≔

=Pb⏟y≔

Aufteilen der Matrix A in eine Linksdreiecksmatrix L (mit den Faktoren der Gausszerlegung), eine Rechtsdreiecksmatrix R (mit dem Gauss-Endschema) und eine Permutationsmatrix P (zu Beginn eine Einheitsmatrix).

L=(1 ¿0⋮ ¿ ¿

¿¿…¿1¿) ,R=( r11 … r1n

¿⋱ ¿ ¿¿rmn¿)

Vorgehensweise:1. Matrix ähnlich normalem Gauß-Algorithmus lösen, aber: In die Felder jeweils unter dem Pivot Element trägt

man anstatt einfach 0 folgenden Wert n ein: Diese Zeile minus n mal die Pivot-Zeile. Daneben schreibt man die P-Matrix als Einheitsmatrix und vertauscht hier genau gleich die Zeilen wie im Gauß-Verfahren. Die L Matrix ergibt sich aus dem linken Dreieck und Einsen in der Diagonale, die R Matrix aus dem rechten Dreieck und der Diagonale. Es gilt: LR = PA

2. Bestimme y=Pb3. Vorwärtseinsetzen: Löse Lz= y nach z auf

4. Rückwärtseinsetzen: Bestimme die Lösungsmenge des Gleichungssystems Rx=z

Das Verfahren eignet sich besonders, wenn man das GLS für mehrere rechte Seiten lösen muss.

Schöneres Schema / leichter nachzuvollziehen:

A=(1 2 12 10 21 0 0)

1 0 00 1 00 0 1

1 2 12 10 21 0 0⇒

0 1 01 0 00 0 1

2 10 21 2 11 0 0

0 1 01 0 00 0 1

2 10 20 −3 00 −5 −1

0 1 00 0 11 0 0

2 10 20 −5 −10 −3 0

1 0 00 1 00 0 1

I↔ II 1 0 00 1 00 0 1

II−12I

III−12I

1 0 012

1 0

12 0 1

III↔II

(12

auch

tauschen!)

1 0 012

1 0

12 0 1

P {0 1 00 0 11 0 0

2 10 20 −5 −1

0 0 35}R

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 1 / 30

Page 2: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

III−35II 1 0 0

12

1 0

12

35

1}L

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 2 / 30

Page 3: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

5 Gleichungssystem lösen / Lösungsmenge bestimmen, Matrix-Inverse

Suche x, sodass Ax=b.

Vorgehen: A gaussen bis rechte ob. Dreiecksm. und x1,…, xn bestimmen. Freie Parameter wählen, falls r<m oder m<n.

Seien B,T undX n×n-Matrizen. B und T seien bestimmt, X unbestimmt. Die Relation ist X=T−1BT .

Anstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst das lineare Gleichungssystem mit Koeffizientenmatrix T und drei rechten Seiten. Weshalb funktioniert das?

( t11 t12 t 13

t 21 t 22 t 23

t 31 t32 t 33)

⏟T

(x11

x21

x31

⏞x1

x12

x22

x32

⏞x2

x13

x23

x33

⏞x3

)⏟

X

=(b11

b21

b31

⏞b1

b12

b22

b32

⏞b2

b13

b23

b33

⏞b3

)⏟

BT

5.1 InverseDie Inverse ist, sofern sie existiert, eindeutig bestimmt.

Rechenregeln (falls A, B invertierbare n×n-Matrizen):

1) A−1 A=I n2) A−1 ist invertierbar und ( A−1 )−1

=A3) I n ist invertierbar und (I n−1 )−1

=I n4) AB ist invertierbar und ( AB )−1=B−1 A−1

5) AT ist invertierbar und ( AT )−1=( A−1 )T

Die Inverse wird für n>2 meistens nicht mehr gebildet, da der Aufwand zu gross ist. Falls die Matrix symmetrisch ist,

verwendet man AT=A−1, ansonsten wird oftmals z=T−1 y substituiert.

allgemeine Bestimmung der Inversen:

Linke Seite von ( A|I ) gaussen, bis ( I|A−1 ) steht.

Explizite Formeln:

2x2: A=(a bc d) , A−1= 1

det A ( d −b−c a )

3x3: A=(a b cd e fg h i ) , A−1= 1

det A ( ei−fh ch−bi bf−cefg−di ai−cg cd−afdh−eg bg−ah ae−bd)

6 Determinante: berechnen, Tricks, Bedeutung / Anwendung

Satz 3.3, 3.6, 3.8: RegelnFür jede n × n-Matrix gilt:

1. det AT=det A2. det αA=αndet A3. det AB=det BA= (det A ) (det B )4. falls A invertierbar

(det A≠0 ) :det A−1= 1det A

5. A orthogonal ⇒ det A=±1

Laplace-Entwicklung: Die Determinante kann nach jeder Zeile oder Spalte entwickelt werden. (Vorzeichenraster beachten!)Vorzeichenmatrix: ¿

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 3 / 30

2x2 3x3

Page 4: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

Satz 3.1, 3.5: Tricks beim Berechnen der Determinantei. Beim Vertauschen von Zeilen / Spalten ändert die Determinante ihr Vorzeichen.ii. Wird zu einer Zeile / Spalte ein Vielfaches einer anderen Zeile/Spalte addiert, so bleibt die

Determinante unverändert.iii. Wird eine Zeile / Spalte mit einem Faktor α multipliziert, so vervielfacht sich die Determinante um den

Faktor α.iv. Die Determinante einer Matrix mit zwei gleichen Zeilen / Spalten ist gleich null.v. Die Determinante einer Matrix, die eine Zeile / Spalte aus lauter Nullen enthält ist gleich null.vi. Die Determinante einer Matrix mit linear abhängigen Zeilen- / Spaltenvektoren ist gleich null.vii. Die Determinante einer Dreiecksmatrix (Diagonalmatrix) ist gleich dem Produkt ihrer

Diagonalelemente.

Blockmatrizen auf den Diagonalen:Hat eine Matrix die Form X=(A ¿∗¿ ¿ ¿ B ¿ ¿ ¿0 ¿C ), also eine „beinahe“-Rechtsdreieckmatrix mit Blockmatrizen auf den Diagonalen, so berechnet sich die Determinante zum Produkt der Determinanten der Blockmatrizen. Die Blockmatrizen können verschieden gross sein. Also reicht es eventuell, zu transponieren, ein paar Zeilen vertauschen und ein, zwei Gaussschritte machen.Hier also: |X|=|A|⋅|B|⋅|C|Die folgenden Aussagen für eine nxn-Matrix sind äquivalent:

1) A ist invertierbar2) det A≠03) Im Gauss-Endschema der Matrix ist r=n4) Ax=b ist ∀ b lösbar

5) Lösung von Ax=b ist eindeutig

6) Ax=0 hat nur die triviale Lösung

Aussagen über Lösungsmengen:a) det A≠0

das homogene GLS hat nur die triviale Lösung x=0. (dim Kern A=0¿ das inhomogene GLS hat für jede rechte Seite jeweils eine eindeutige Lösung.

b) det A=0 das homogene GLS hat unendlich viele Lösungen. (dim Kern A≠0) das inhomogene GLS hat keine oder unendlich viele Lösungen.

7 orthogonale MatrizenEigenschaften:

quadratisch, reell alle Spalten sind orthonormal zueinander, d.h. Skalarprodukt = 0

Es gilt: U UT=I n⇒UT=U−1

Determinante immer ∈ {±1 } EW haben komplexen Betrag = 1 A,B orthogonal ⇒ AB orthogonal Ein Gleichungssystem Ax=b hat für jedes b eine Lösung

o dieses lässt sich einfach mit x=At b lösen

Die durch orthogonale Matrizen beschriebenen linearen Abbildungen sind Winkel- (Skalarprodukt unter A gleich) und längentreu (Norm unter A gleich).

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 4 / 30

Page 5: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

8 SkalarproduktDas Skalarprodukt beschreibt, wie zwei Vektoren bezüglich Winkel und Länge zueinander stehen.

Eigenschaften, welche ein Skalarprodukt erfüllen muss:

1) ⟨ x , y (1 )+ y (2) ⟩= ⟨x , y (1) ⟩+ ⟨x , y (2) ⟩2) ⟨ x ,αy ⟩=α ⟨ x , y ⟩ , α∈R Linearität

3) ⟨ x , y ⟩=⟨ y , x ⟩ , x , y∈R Symmetrie

4) ⟨ x , y ⟩=⟨ y , x ⟩ , x , y∈C

5) ⟨ x , y ⟩≥0 positiv definit

6) ⟨ x , x ⟩=0⇔x=0

Standardskalarprodukt im Rn: ⟨ x , y ⟩≔ xT yStandardskalarprodukt im Cn: ⟨ x , y ⟩≔ xT y

Skalarprodukt (eine Variante) im C [a ,b ]: ∀ f , g∈C [a ,b ] : ⟨ f , g ⟩=∫a

b

f (t )g (t ) tⅆ

Bezüglich des Skalarprodukts mit zwei nicht-Nullvektoren a und b gilt:

1) ‖a‖=√ ⟨ a , a ⟩ Die Wurzel eines Skalarprodukts ist immer eine Norm in V.

2) cos φ=⟨ a ,b ⟩‖a‖⋅‖b‖

3) Stehen a und b senkrecht / orthogonal zueinander, verschwindet das Skalarprodukt:

a⊥ b⇔ ⟨a ,b ⟩=0

Geometrie:

1) Die orthogonale Projektion von x auf y ≠ 0 ist ⟨ x , y ⟩⟨ y , y ⟩

⋅ y

2) ∀ x , y∈V : ⟨ x , y ⟩2≤ ⟨ x , x ⟩⋅ ⟨ y , y ⟩ (Schwarz’sche Ungleichung)

3) Falls ⟨ x , y ⟩=0 ist, so gilt ‖x+ y‖2=‖x− y‖2=‖x‖2+‖y‖2 (Satz des Pythagoras)

9 Lineare (Un-)AbhängigkeitVektoren a (1) ,…,a(k ) heissen linear unabhängig, falls ∑

i=1

k

x i a( i)=0 , ∀ i : x i=0, falls keiner der Vektoren als

Linearkombination der anderen darfgestellt werden kann.

Sprich (a(1 ) , a( 2) ,…,a (k )) ⋅ x=(000).Der Nullvektor ist IMMER linear abhängig.

9.1.1 Aufgabenstellungen Sind Vektoren linear un-/abhängig?⇒ obige Definition überprüfen, d.h.: Vektoren a (1) ,…,a(k ) zu einer Matrix zusammenfassen und gaussen.

Falls r<k: linear abhängig. Falls r=k: linear unabhängig. Faktoren bestimmen, damit Vektor v als Kombination von a (1) ,…,a(k ) dargestellt werden kann:⇒ a’s zu einer Matrix zusammenfassen, gleich v setzen: (a(1 ) , a( 2) ,…,a (k )) ⋅ x= v

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 5 / 30

Page 6: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

10Vektorräume, Unterräume, Basis und Dimension10.1 VektorraumEin Vektorraum V ist eine Menge von Objekten (Vektoren) mit den folgenden Eigenschaften: Es ist eine Addition definiert, das heisst zwei Vektoren a, b aus V ist ein dritter Vektor aus V zugeordnet, der mit a+b bezeichnet wird. Es ist eine Multiplikation mit reellen Zahlen definiert, das heisst einer reellen Zahl α und einem Vektor a aus v ist ein Vektor aus V zugeordnet, der mit αa bezeichnet wird. Das Ergebnis aus der vektoriellen Addition oder Multiplikation mit reellen Zahlen ist wieder ein Vektor aus V.

Ausserdem gelten folgende Rechenregeln:1) a+b=b+a2) (a+b)+c=a+(b+c)3) Es gibt einen Nullvektor, der mit 0 bezeichnet wird, und für den gilt a+0=a4) Zu jedem Vektor a gibt es einen entgegengesetzten Vektor, der mit –a bezeichnet wird, und für den gilt:

a+(−a)=05) α (βa)=(αβ )a6) (α+β)a=αa+ βa7) α (a+b )=αa+αb8) 1a=a

Aus obigen Rechenregeln ergeben sich auch folgende Eigenschaften:1) b+a=0 , a ,b∈V⇒ b=02) a∈R ,0∈V ⇒ a0=0∈V3) 0∈R ,a∈V ⇒ 0a=0∈V4) a∈V⇒ (−1 )a=−a

Beispiele: Rn ,Cn

C [a ,b ]: die Menge aller Funktionen, welche in [a ,b ] definiert und stetig sind.

R [ t ]={ p (t )=a0+…antn│ai∈R ,n∈Z≥0 } (Polynome)

o z.B.: {a0+a1 x+a2 x2|a0 , a1, a2∈R }

10.2 UnterraumEine nichtleere Teilmenge U eines Vektorraumes V heisst Unterraum (auch: Untervektorraum), falls folgende Bedingungen erfüllt sind (Abgeschlossenheit bezüglich Addition und skalarer Multiplikation):

1) a ,b∈U⇒ (a+b )∈U2) a∈U ,α∈R⇒ (α ⋅ a )∈U

Beispiele: Jeder Unterraum ist selbst ein Vektorraum zu jedem VR ist stets der VR selbst und {0 }, also der Nullvektor, ein UVR

V=Rn, A (mxn) Matrix mit m≤n gegeben: Die Lösungsmenge U von Ax=0 ist ein Unterraum von V

Die Lösungsmengen von Ax=c≠0 bilden KEINEN UVR

C1 [a ,b ] (die Menge aller zwischen a und b 1x stetig differenzierbaren Funktionen) ist UVR von C [a ,b ] Der Durchschnitt U 1∩U 2 und die Summe U 1+U2 von UVR sind wieder UVR

Ebenen durch 0 und Geraden durch 0 sind UVR von R3

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 6 / 30

Page 7: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

10.2.1 BeispielSei U≔{( x , y−x ,2 x− y )T∈R4│ x , y∈R }. Zeige, dass U ein Unterraum ist.

a=(a1

a3−a1

a3

2a1−a3) , b=(

b1

b3−b1

b3

2b1−b3)

→α ⋅a=(α a1

α (a3−a1 )α a3

α (2a1−a3 )) mit {x=α a1

y=α a3

,a+b=(a1+b1

(a3+b3 )− (a1+b1 )a3+b3

2 (a1+b1 )−(a3+b3 )) mit {x=a1+b1

y=a3+b3

10.3 BasisU={x1a

(1 )+…+ xka(k )|x1 ,…,xk∈R }=span {a( 1) ,…,a (k ) } ist der von den Vektoren a (1) ,…,a(k )

aufgespannte / erzeugte Unterraum, die Menge der möglichen Linearkombinationen dieser Vektoren.

Erzeugendensystem:Kann jeder Vektor b eines VR V als Linearkombination von a (1) ,…,a(k ) dargestellt werden, so nennt man

a (1) ,…,a(k ) ein Erzeugendensystem von V.

Basis:Ein Erzeugendensystem aus linear unabhängigen Vektoren heisst Basis (von V).Verschiedene Basen für einen VR bestehen aus gleich vielen Vektoren.

Dimension:Besitzt der VR V ≠ {0 } eine Basis b (1) ,…,b(n ), so heisst n die Dimension von V, Notation: dimV=n.

Sei V ein VR der Dimension n. Dann gilt:1) mehr als n Vektoren in V sind zwingend voneinander linear abhängig2) weniger als n Vektoren in V können nicht erzeugend sein3) n Vektoren in V sind linear unabhängig ⇔ sind erzeugend ⇔ bilden eine Basis von V

Merke: 3 Vektoren im R10 können linear unabhängig sein, 10 Vektoren im R3 sind aber auf jeden Fall linear abhängig!

10.3.1 AufgabenstellungenWenn zu zeigen ist:

V ist Vektorraum:o ist V ein Untervektorraum eines bekannten VR? → wenn ja, dann muss nur noch gezeigt werden,

dass Addition / Multiplikation nicht aus dem UVR führen. ?o zeige, dass die Körpereigenschaften stimmen

V ist KEIN Vektorraum: ein geschickt gewähltes Gegenbeispiel reichto ist der Nullvektor enthalten? ist der VR abgeschlossen? etc.

U ist UVR von V: Bedingungen zeigen / überprüfen

Es soll eine Basis für R3 aus (123)(32

13)(246)(

142)(

62

29) ausgewählt werden.

⇒ Spaltenvektoren zu einer Matrix zusammenführen, gaussen (ohne Zeilen- und Spaltenvertauschungen!).

(1 3 2 1 62 2 4 4 23 13 6 2 29)Gauss

⇒ (1 3 2 1 60 −4 0 2 −100 0 0 1 1 )Pivotvektoren

⇒ (123) ,(32

13) ,(142) sind

eine mögliche Basis.

11Lineare Abbildungen / Verbindung zu MatrizenDefinition: Eine Abbildung ist linear, wenn sie folgende Bedingungen erfüllt:

F (x1+x2 )∧¿ F (x1 )+F (x2 )F (αx )∧¿αF ( x )

überprüfen: gilt F (αx+ y )=αF ( x )+F ( y )∀ x , y∈V ,a∈R ?

Jede (mxn)-Matrix beschreibt eine lineare Abbildung von einem n-dimensionalen in einen m-dimensionalen VR und jede lineare Abbildung lässt sich als Matrix schreiben.

11.1 BeispielBetrachte das Ableiten von Polynomen: F : p∈P2↦ p'∈P2 ist linear. Begründung:

Sei α∈ R , p ,q∈P beliebig. Es gilt F (αp+q )'=α p'+q '=α F (p )+F (q)

Stelle dies nun als Abbildung mittels einer Matrix dar. wähle die Monombasis {1 , x , x2}. Stelle p∈P2 als Vektor („Koordinaten“) dar:

a+bx+c x2⏟(abc)

F↦b+2c⏟( b2c0 )

Bestimme die Matrix M, sodass M (abc)=(b

2c0 )

1. puzzlemässig:(0 1 00 0 20 0 0)⏟

M

(abc)=(b

2c0 ) erfüllt diese Gleichung.

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 7 / 30

Page 8: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

Talte (z.B. Standard-)Basis

neue Basis

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

2. „Die Spalten der Matrix M sind die Bilder der Basisvektoren“:betrachte

(100)≙ 1F↦

0≙ (000) ,(010)≙ x F↦ 1≙ (100) ,(

001)≙ x2F

↦2 x ≙(020)⇒M=(0 1 0

0 0 20 0 0)

11.1.1 spezielle Abbildungen Orthogonale Abbildungen: Winkel bleiben erhalten: ⟨ x ' , y ' ⟩= ⟨ Ax , Ay ⟩=⟨ x , y ⟩ Längentreue Abbildungen: Längen bleiben erhalten: ‖x '‖=‖Ax‖=‖x‖ Orthonormale Abbildungen: Winkel und Längen bleiben erhalten: beide obigen Kriterien treffen zu. Die

Abbildungsmatrix wird dann auch Orthogonal genannt. Flächentreue Abbildungen: det A=1

12KoordinantentransformationEine Koordinatentransformation ist eine umkehrbare lineare Abbildung T : y∈W n↦ x=Ty∈V n, wobei T eine

Matrix ist, für die gilt: t (i )=neue Basis⇒ t ( i)=T e (i).

Sei F :V n→V n , x↦ x '=Ax linear und eine

Koordinatentransformation T : y∈W n↦ x=Ty∈V n gegeben.

Dann lässt sich F in den neuen Koordinaten darstellen als

F ∘T=G∘T⇔G=T−1∘F ∘T : y∈W n↦ y'=T−1 ATy∈W n

12.1.1 Beispiel 1

Sei A=(0 12 1) in der Standardbasis. Neue Basis: (12) ,(−1

1 )

Neue Basis in Standardbasis:

e1→(12)e2→(−1

1 )⇒T=(1 −1

2 1 )z.B. wird der Vektor (11) der neuen Basis zu (1 −1

2 1 )(11)=(03) in der alten Basis.

Berechnung von T−1:

(T|I2 )=(1 −12 1 |1 0

0 1) II−2 I→ (1 −1

0 3 | 1 0−2 1) I+ 1

3II , II

3→ (1 0

0 1| 13

13

−23

13)⇒T−1=(

13

13

−23

13)

⇒B=T−1 AT=(13

13

−23

13)(0 1

2 1)(1 −12 1 )=(

13

13

−23

13)(2 1

4 −1)=(2 00 −1)

In der neuen Basis entspricht die Abbildung A der Abbildung B, was einer Streckung in e1-Richtung mit Faktor 2 und

einer Streckung in e2-Richtung mit Faktor 1 entspricht. Achtung. Dies ist keine Spiegelung, da die neuen Koordinatenvektoren nicht senkrecht zueinander stehen!

12.1.2 Beispiel 2

Betrachte folgende lineare Abbildung F von R2 in sich: x=(x1

x2)F↦ x '=( x1+x2

−x1+x2)

Geometrische Interpretation:

‖x '‖2=√(x1+x2)2+( x2−x1 )

2=√2 ⋅√ x12+x2

2=√2 ⋅‖x‖2→Streckung um Faktor √2

cos φ=⟨x ' , x ⟩

‖x '‖⋅‖x‖=

‖x '‖2=√2 ⋅‖x‖2 x12+x2

2

√2 ⋅‖x‖22=

1√2

⇔φ=arccos 1√2=π

4

→ Drehung um π4

(um den Ursprung im Uhrzeigersinn)

⇒ Es handelt sich um eine Drehstreckung

Bestimmen der Matrix M, welche die Abbildung F beschreibt:

F (e (1 ) )=F ((10))=( 1−1)=a(1 )

F (e(2 ) )=F ((01))=(11)=a(2 ) }→A=(a (1) , a(2 ) )=( 1 1−1 1)

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 8 / 30

Standardbasis ≙ in neuer Basis

(12) (10)(−1

1 ) (01)

Page 9: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

12.2 Abbildungsgleichungen

Winkel: cos φ=⟨ a ,b ⟩

‖a‖⋅‖b‖( x

'

y '

z ' )=(1 0 00 1 00 0 −1)(

xyz ) Spiegelung an der xy-Ebene

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 9 / 30

Page 10: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

13Kern und Bild einer Matrix / AbbildungGegeben sei eine m x n Matrix A.Kern: Menge aller Vektoren x, welche auf den Ursprung abgebildet werden, also Ax=0

(Formell: Kern A≔ {x∈V n|Ax=0 })

Bild: Menge aller Vektoren y, welche in den Bildraum abgebildet werden, also Ax= y.

(Formell: Bild A≔ { y∈V m|∃ x∈V n : y=Ax })Diese Vektoren spannen also den Bildraum auf: Bild (A )=span {a (1) ,…,a(n ) }

Also beschreibt A eine Abbildung von V n nach V m .

Die Spaltenvektoren an den Stellen der Pivot-Elemente bilden eine Basis des Bildes.

Wichtigste Eigenschaften:1) b∈Bild ( A )⇔Ax=b hat mindestens eine Lösung2) x∈Kern (A )⇔x ist Lösung von Ax=0

Es gelten folgende Gesetzmässigkeiten:

dim (Bild ( A ) )∧¿ Rang ( A )=rdim (Kern (A ) )=n−Rang (A )∧¿n−rdim (Kern (A ) )+dim (Bild (A ) )∧¿ndim (Bild ( A ) )∧¿dim (Bild ( AT ))

AT ist eine Abbildung von V m nach V n

13.1 Beispiel

Betrachte im R3 die Projektion auf die xy-Ebenne: P :( xyz )↦(

xy0 )(¿ (1 0 0

0 1 00 0 0)⏟

M≔

(xyz ))Kern:

Ein beliebiger Vektor wird genau dann auf 0 abgebildet, wenn er die Form (00z ) hat. Das heisst,

Kern(M )={x∈Cn|x=λ (001) , λ∈ R} (dies entspricht einer zur xy-Ebene senkrechten Gerade).

Rechnung: (M|000) gaussen (hier schon fertig), freie Parameter setzen und die Lösungsmenge angeben.

Hier: z=λ∈ R beliebig, x=0 , y=0  ⇒   L={λ (001)|λ∈R}

Bild:Das Bild von P sind alle möglichen entstehenden Vektoren. Dies ist die gesamte xy-Ebene.

Das heisst, Bild(M )={μ (100)+η(010)|μ ,η∈R }=(¿ )

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 10 / 30

Page 11: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

Rechnung: Die Spalten von M sind (100) ,(010) ,(

000), davon sind (100) und (010) linear unabhängig.

Sie spannen das Bild von M auf: Bild (M )=span¿(100) ,(010)}=(¿ )¿

Sei A eine beliebige (mxn)-Matrix, B1 eine reguläre (mxm)-Matrix und B2 eine reguläre (nxn)-Matrix.

1) Rang A=Rang AT

2) RangB1 A=Rang A3) Rang A B2=Rang A

Die Zusammensetzung von linearen Abbildungen ist wieder linear. D.h.Sei F :V n→V m , x↦ y=Ax und G :V m→V p , y↦ z=By . Dann ist

H≔G∘ F :V n→V p , x↦ z=BAxZusammengefasst: V n F

→V mG

→V p

13.1.1 Weiteres1) Bild A und Kern AT spannen Rm auf: Bild A+Kern AT=Rm

2) Bild A⊥Kern AT : aus y∈Bild A und v∈Kern AT folgt ⟨ y , v ⟩= yT v=03) dim (Bild A )+dim (Kern AT )=dim Rm=m

Fredholmsche Alternative:

Ax=b ist lösbar⇔b⊥ {alle Lösungen von AT y=0 }13.1.2 Aufgabe: Kern von A bestimmen

Sei A=(1 2 32 4 63 6 9)Gauss

⇒ (1 2 30 0 00 0 0|

000)⇒ x3=α , x2=β , x1=−2α−3 β

⇒ (−2α−3 ββα )=α(−2

01 )+β (

−310 )⇒Kern A=span {(−2

01 ) ,(

−310 )}

14Gram-Schmidt-Orthogonalisierungs-VerfahrenGegeben: linear unabhängige Vektoren v1 ,…,vn (Basis von V)

Gesucht: Orthonormalbasis e1 ,…,en

14.1 Algorithmus

e1=v1

‖v1‖Normalisieren des ersten Vektors

e2'=v2−⟨e1 , v2 ⟩ ⋅ e1 Orthogonalisieren des zweiten Vektors

e2=e2'

‖e2'‖

Normalisieren des zweiten Vektors

e3'=v3−⟨e1 , v3 ⟩ ⋅e1−⟨e2 , v3 ⟩ ⋅ e2 Orthogonalisieren des dritten Vektors

e3=e3'

‖e3'‖

Normalisieren des dritten Vektors

en'=vn−∑

i=1

n−1

⟨e i , vn ⟩ ⋅e i Orthogonalisieren des n-ten Vektors

en=en'

‖en'‖Normalisieren des n-ten Vektors

15Eigenwerte und -vektoren, char. Polynom, Eigenwertproblem, algebraische und geometrische Vielfachheit, Eigenbasis, Diagonalisierung, Eigenbasis, symm. Matrizen, (halb-) einfach

Sei A eine (n×n)-Matrix, F :Cn→Cn , x↦ Ax die dazu gehörige Abbildung.Gibt es spezielle Vektoren, die unter A nur gestreckt werden?

λ∈C heisst Eigenwert der Matrix A, falls ∃ x∈Cn , x≠0, sodass Ax=λxZu λ∈C EW von A ist jeder Vektor x∈Cn , x≠0 mit Ax=λx ein Eigenvektor der Matrix A zum Eigenwert λ.

D.h. {Menge aller EV x }=Kern ( A−λ I n ) und dim (Kern ( A−λ I n ))≥1.

λ∈C ist EW von A ⇔det ( A−λ I n )=0

Das Polynom n-ten Grades, welches durch det (A− λ I n ) entsteht, heisst charakteristisches Polynom der Matrix A,

Notation PA( λ).

Eigenschaften von Eigenwerten:

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 11 / 30

Page 12: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

Jedes char. Polynom lässt sich schreiben als P ( λ )=cn ( λ−λ1 )⋅…⋅ (λ−λn ), wobei die λ i∈C die

(nicht unbedingt verschiedenen) EW von A sind. Jede quadratische Matrix hat mindestens einen, höchstens n Eigenwerte. Die Potenz, mit welcher ein EW in der Linearfaktorzerlegung vorkommt, heisst algebraische Vielfachheit und

ist stets Element von {1,2 ,…,n }.o Die Summe aller algebraischen Vfh aller EW ist gerade n.

Bei reellen Matrizen treten EW entweder reell oder in komplex konjugierten Paaren auf.

Zwei Matrizen sind ähnlich zueinander, wenn beide dasselbe char. Polynom und damit dieselben EW (mit den gleichen alg. Vfh) haben.Wenn B=T−1 AT gilt und x ein EV von A zum EW λ ist, dann ist y=T−1 x ein EV von B zum selben EW λ.

Ein Eigenraum zu einem Eigenwert λ ist definiert als E λ≔ {x∈Cn|( A−λ I n) x=0}. E λ ist ein Unterraum

von Cn, dim (E λ ) (immer ≥ 1) heisst geometrische Vielfachheit des EW λ.

Es gilt: 1≤ geometrische Vielfachheit ≤ algebraische VielfachheitFolge: Falls alg. Vfh eines EW λ = 1, dann muss die geom. Vfh. ebenfalls = 1 sein.

Die zu den EW gehörigen EV sind immer voneinander linear unabhängig. Auch die EV eines einzelnen Eigenraums sind linear unabhängig.Falls eine (n×n)-Matrix n Eigenvektoren besitzt, dann bilden diese eine so genannte Eigenbasis. Es muss gelten

dim A=dim (von EV aufgespannter Raum ).Formell: Eine Eigenbasis existiert genau dann, wenn für jeden Eigenwert die alg. Vfh. der geom. Vfh. entspricht.

Eine quadratische Matrix heisst einfach ⇔ jeder EW hat alg. Vfh. = 1 (= geom. Vfh.) (d.h. alle EW verschieden!)Eine quadratische Matrix heisst halbeinfach ⇔ ∀EW gilt: alg. Vfh. = geom. Vfh.Das impliziert: eine einfache Matrix ist immer halbeinfach, aber nicht umgekehrt.

Eine quadratische Matrix A heisst diagonalisierbar, falls es eine reguläre Matrix T gibt, so dass D≔T−1 AT eine Diagonalmatrix ist. Die Eigenwerte von A bilden dabei die Diagonalelemente von D, die Spaltenvektoren von T sind die zu den Eigenwerten zugehörigen Eigenvektoren.D.h. ∀ EW muss gelten: Geom. Vfh. = Alg. Vfh. ⇔ n verschiedene Eigenvektoren ⇔ A muss halbeinfach seinEs kann nicht von Diagonalisierbarkeit auf Invertierbarkeit und umgekehrt geschlossen werden!

Es gilt für A quadratisch: A ist halbeinfach ⇔ es existiert eine Eigenbasis zu A ⇔ A ist diagonalisierbar

weiteres:

Für jede diagonalisierbare Matrix A gilt: spur (A )=∑iλ i

Für jede quadratische Matrix A gilt: det (A )=∏i

λi

o Weil eine singuläre Matrix S det (S )=0 hat, muss mind. ein EW = 0 sein.

o Umgekehrt: Eine Matrix A ist genau dann invertierbar, wenn für alle EW λ i gilt: λ i≠015.1 Symmetrische Matrizen

Für eine reelle, symmetrische Matrix (d.h. AT=A) gilt: A ist halbeinfach und somit diagonalisierbar alle EW von A sind reell die Eigenvektoren zu verschiedenen Eigenwerten stehen senkrecht aufeinander es gibt eine orthonormale Eigenbasis zu A ∃T orthogonal, sodass T T AT=D diagonal mit EW auf der Diagonalen. Die Spalten von T sind die

dazugehörigen EV von A.

15.1.1 Aufgabenstellung: „Löse das Eigenwertproblem“⇒ bestimme alle Eigenwerte, deren algebraische Vielfachheit, sowie die zugehörigen Eigenvektoren und die geometrischen Vielfachheiten.

Bsp: Sei A=( 2 −3 13 1 3−5 2 −4). Löse das Eigenwertproblem.

Charakteristisches Polynom:

det (A− λ I 3 )=|2−λ −3 13 1− λ 3−5 2 −4−λ| =Sarrus

−λ3−λ2+2 λ =ev. Polynomdiv.

−λ ( λ−1 ) ( λ−2 )

Eigenwerte:

det (A−λ I 3)=! 0=- λ ( λ−1 ) ( λ+2 )⇔λ1=0 , λ2=1 , λ3=−2, jeweils alg. Vfh = 1

(Dies impliziert bereits geometrische Vielfachheit = 1, da 1≤geom. Vfh≤ alg. Vfh )

Eigenräume:

Löse Av i=λv i⇔ ( A−λ i I 3 )v i=0, denn der Eigenraum ist die Menge aller Eigenvektoren. Ein bisschen

Umstellen enthüllt auch ( A−λi I3 )=0, d.h. der Kern (A− λi I 3 ).

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 12 / 30

Page 13: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

λ1=0 :( 2 −3 13 1 3−5 2 −4|

000)⇝Gauss⇝(1 0 10

11

0 1 311

0 0 0|000)⇝ x1=

−1011

λ

x2=−311

λ

x3=λ

⇒L=E0={λ ⋅( 103−11)|λ∈R }

, geom. Vfh = 1

λ2=1:( 1 −3 13 0 3−5 2 −5|

000)⇝Gauss⇝(1 0 1

0 1 00 0 0|

000)⇝

x1=−λx2=0x3=λ

⇒L=E1={λ ⋅(−101 )|λ∈R}

, geom. Vfh = 1

λ2=−2 :( 4 −3 13 3 3−5 2 −2|

000)⇝Gauss⇝(1 0 4

7

0 1 37

0 0 0|000)⇝ x1=

−47

λ

x2=−37

λ

x3=λ

⇒L=E2={λ ⋅( 43−7)|λ∈R}

, geom. Vfh = 1

Hier ist z.B. v3=( 43−7) ein möglicher EV zum EW „-2“.

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 13 / 30

Page 14: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

15.1.2 Aufgabenstellung: „Diagonalisieren“Bsp: die obige Matrix ist einfach (also alle EW haben alg.Vfh = 1), damit auch insbesondere halbeinfach (alg. Vfh. von allen EW = geom. Vfh.). Satz 7.6 besagt: für A quadratisch gilt: halbeinfach ⇔ ∃ Eigenbasis ⇔ A ist diagonalisierbar.

⇒ Suche EW und EV wie oben. Bilde aus den Eigenvektoren die Matrix

T=(│ │ │v1 v2 v3

│ │ │ )=(10 −1 43 0 3

−11 1 −7) und berechne wenn nötig T−1=…=(12

12

12

2 133

3

−12

−16

−12)

Nun gilt: T−1 AT=D=(0 0 00 1 00 0 −2)=diag (λ1 , λ2 , λ3 ). (Testen, ob es wirklich stimmt!)

Achtung: da die Eigenvektoren nicht schon orthogonal sind, kann man T nicht orthogonal (d.h. als orthonormale Eigenbasis) wählen. Man weiss nur, dass das gehen würde (mit Gram-Schmidt), wenn die Matrix reell und symmetrisch ist.

15.1.3 Diagonalisieren von Matrizen mit Blöcken auf den DiagonalenEine Matrix A mit Blöcken auf den Diagonalen und sonst Nullen lässt sich folgendermassen diagonalisieren:

Sei A=(B 00 C) und T 1

−1D1T1=B sowie T 2−1D2T 2=C .

Dann gilt auch T 3−1D3T 3=A mit T 3=(T1 0

0 T 2) und D3=(D1 0

0 D2).

15.1.4 Anwendung: Berechnung von y=A k xGegeben: A diagonalisierbar, Vektor x . Gesucht: y=A k x für k gross.

1. Löse das Eigenwertproblem von A. Bestimme T und D so, dass T−1 AT=D gilt.

2. Berechne z=T−1 x , d.h. gausse Tz=x .

3. Berechne Dk , dann w≔D k z4. Berechne y=Tw

Idee: T−1 AT=D⇔A=TDT−1⇒ y=A k x=(TDT−1 )… (TDT−1 ) x=T D kT−1 x⏟z

⏞w

Falls A symmetrisch ⇒ T kann orthogonal gewählt werden, d.h. T T=T−1⇒2. Schritt wird zu: z=T T x

16DGL 1. Ordnung mit Transformationsmethode lösen, Verhalten t → ∞

Komplexe Eigenwerte: Solange A eine reelle Matrix ist, wird die Lösung eines rellen Anfangswertproblems ebenfalls reell, auch wenn komplexe Eigenwerte auftauchen.

Bsp: Sei folgende DGL gegeben: y=Ay , A=(40 −649 −12)⇔ y1 (t )=40 y1 (t )−64 y2 ( t )

y2 (t )=9 y1 ( t )−12 y2 (t )

16.1 allgemeine Lösung mit Transformationsmethode: EW und deren alg. Vfh. bestimmen: det (A−λ I n)=…=( λ−24 ) ( λ−4 )=! 0⇒ λ1=4 , λ2=24 ⇒ einfach ⇒ diagonalisierbar Eigenräume bestimmen:

E4=Kern ( A−4 I n )⇒(36 −649 −16|00)=Gauss=(1 −16

90 0 |00)⇒ x1=

16μ9

x2=μ⇒E4=span {(16

9 )}

E24=Kern ( A−24 I n )⇒(16 −649 −36|00)=Gauss=(1 −4

0 0 |00)⇒ x1=4 μx2=μ

⇒E4=span{(41)}

⇒ Dies ergibt T=(16 49 1) ,D=(4 0

0 24) ,(T−1= 120 (−1 4

9 −16)) Es ergeben sich die neuen Gleichungen:

y=Tx ⅆtⅆ

y=T x⇒ y=Ay→T x=Ay=ATx⇔ x=T−1 ATx⇔ x=Dx

⇒ ¿ x1 ( t )=4 x1 (t )∧⇒ x1 ( t )∧¿C1 e4 t

¿ x2 ( t )=24 x2 (t )∧⇒ x2 ( t )∧¿C 2 e24 t

Rücktransformation: y ( t )=Tx (t )

⇒ y (t )=(16 49 1)⏟

T

( C1ⅇ4 t

C 2ⅇ24 t)=(16C1ⅇ4 t+4C2ⅇ

24 t

9C1ⅇ4 t+C2ⅇ24 t ) Es gilt jetzt y ( t )=Ay ( t ). (testen!)

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 14 / 30

Page 15: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

16.2 Spezielle Lösung zu gegebenen Anfangsbedingungen y (0 )=(91): Weg 1 (in alten Koordinaten):

y (0 )=(16C1ⅇ4 t+4C 2ⅇ

24t

9C1ⅇ4 t+1C2ⅇ24 t )=t=0(16 49 1)(C1

C2)=! (91)=Gauss=(16 4

9 1|91)⇒C1=

−14

C2=134

Weg 2 (in neuen Koordinaten):

y (0 )=T ⋅ x (0 ) =x i (0 )=C1ⅇ 0=C1 (16 4

9 1)⏟T

(C1

C2)=! (91)=siehe oben

⇒ y (t )=−14 ⅇ4 t ⋅(16

9 )+ 134 ⅇ24 t ⋅(41)=(−4ⅇ4 t…

… )

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 15 / 30

Page 16: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

7 Stücke

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

16.3 Verhalten bei t → ∞Mögliche Aufgabenstellung: „Was müssen für Anfangsbedingungen gelten, damit y ( t ) t→∞

→0? Was ist dann y ( t )?

Weg 1:

y (t )=C1ⅇ4 t ⋅(16

9 )⏟t→ ∞

→ {∞,C1≠00 ,C1=0

+C2ⅇ24 t ⋅(41)⏟

t→∞→ {∞,C2≠0

0 , C2=0

⇒ y (0 )=(00) und C1=C2=0 ist die einzige Möglichkeit.

Weg 2:

Damit y i ( t )→0, muss x i (t )→0.

x1 (t )=C1ⅇ4 t t→∞→ {∞ ,C1≠0

0 ,C1=0⇒C1=

! 0

x2 ( t )=C2ⅇ24 t t→∞

→ {∞ ,C2≠00 ,C2=0

⇒C2=! 0

Transformation: y (0 )=Tx (0 )=(16 49 1)(00)⇒ y (t )=(00)

Aufgabenstellung (gleiche Frage) mit etwas anderen Zahlen:

Sei

y ( t )=C1ⅇ−4 t ⋅(16

9 )⏟t →∞

→0 ∀C1∈R

+C2ⅇ24 t ⋅(41 )⏟

t→∞→ {∞,C2≠ 0

0 ,C2=0

⇒ beliebiges

C1 ,aber C2=! 0⇒ y ( t )=C1ⅇ

−4 t ⋅(169 )(+0)

17DGL 2. OrdnungFalls y=Ay gegeben, dann macht man dasselbe wie oben, findet aber nun x=Dx , d.h. x i (t )= λi x i ( t )Ansatz: Cⅇ√−λ i t oder auch C1cos (√− λi t )+C2 sin (√−λi t ) (oft sinnvoller, wenn Anfangsbedingungen

geg. sind)

Bsp: drei Massenpunkte, Federverbindungen, Federkonstante = 1, Masse = 1

Physik: { ¿ y1=¿−2 y1∧+ y2

¿ y2=¿ y1∧−2 y2∧+ y3

¿ y3=¿ y2∧¿−2 y3

LA⇒ ( y1

y2

y3)=(−2 1 0

1 −2 10 1 −2)(

y1

y2

y3)

Vorgehen: Berechne Eigenwerte, zugehörige Eigenvektoren und Eigenräume (wenn möglich orthogonal) Transformiere die DGL mit x=Dy löse die einzelnen DGL x i=(…)

Rücktransformation mit y=Tx Anfangsbedingungen einsetzen

Also eigentlich wie oben bei DGL 1. Ordnung, einfach mit anderen Ansätzen.

17.1.1 Beispiel¿ y1 (t )=−6 y1 ( t )+4 y2 (t ) ,∧ y1 (0 )=3 , y1 (0 )=0¿ y2 (t )=2 y1 ( t )−4 y2 ( t ) ,∧ y2 (0 )=0 , y2 (0 )=0

→( y1

y2)=(−6 4

2 −4)( y1

y2)

⇒ λ1=−2 , λ2=−8 ,u (1)=(11), u(2)=(−21 )→T=(1 −2

1 1 ) Ansatz: x (t )=(x1 (t )

x2 (t ))=(a1cos (√2 t )+b1sin (√2 t )a2 cos (√8 t )+b2sin (√8 t ))

y (t )=Tx (t )=(a1 cos (√2t )+b1sin (√2t )−2a2cos (√8 t )−2b2sin (√8 t )a1 cos (√2 t )+b1sin (√2 t )+a2cos (√8 t )+b1sin (√8 t ) ), allgemeine Lösung

des Systems

Ta=( y1 (0 )y2 (0 ))=(30)→ a1=1

a2=−1, Tb=( y1 (0 )

y2 (0 ))=(00)→b1=0b2=0

→ y ( t )=(cos (√2 t )+2cos (√8 t )cos (√2 t )−cos (√8 t ) )

18inhomogene DGL (→ Slides)

19Vektor- und Matrixnormen19.1 Vektornormen1-Norm: ‖v‖1=|v1|+|v2|+|v3|Interpretation: Anzahl „Einheiten“ in den Koordinatenrichtungen, um zum Vektorendpunkt zu kommen:

2-Norm: ‖v‖2=√v12+v2

2+v32

Interpretation: räumliche Auslenkung, reale Distanz

unendlich-Norm: ‖v‖∞=max {|v1|,|v2|,|v3|}Interpretation: maximale Ausdehnung

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 16 / 30

Page 17: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

19.2 Matrixnormen

1-Norm: ‖A‖1=maxj∑i=1

n

|aij|=grösste Spaltensumme

unendlich-Norm: ‖A‖∞=maxi∑j=1

n

|a ij|=grösste Zeilensumme

Achtung: Beträge der Matrixeinträge addieren!

2-Norm:allgemein (‖A‖2 )

2= maxi=1,… ,n

{μ i }, wobei μi die Eigenwerte der (symmetrischen) Matrix AT A

sind.A quadratisch ‖A‖2=max

‖x‖2=1‖Ax‖2=√grösster Eigenwert von AT A

A orthogonal ‖A‖2=1

A symmetrisch ‖A‖2=maxi|λi|, wobei λ i die EW von A sind.

2-Norm der Inversen‖A−1‖2=

1√kleinster Eigenwert von AT A

2-Norm der Inversen einer symmetrischen Matrix A

‖A−1‖2=1

mini|λi|, wobei λ i die EW von A sind.

19.2.1 Anwendung: Kondition einer Matrix bzw. eines LGSnicht prüfungsrelevant

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 17 / 30

Page 18: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

20Matrixpotenz, Matrixexponential20.1 Matrixpotenz

Sei A=( 2 −3 13 1 3−5 2 −4) , diagonalisierbar, gegeben. Berechne A10.

1) Löse das Eigenwertproblem von A. Bestimme T und D so, dass T−1 AT=D⇔TDT−1=A gilt.

⇒T=( 10 −1 43 0 3

−11 1 −7) , D=(0 0 00 1 00 0 −2) , T−1=(

12

12

12

2 133

3

−12

−16

−12)

Bem: Falls A reell und symmetrisch wäre, könnte man T orthogonal wählen, sodass dann T−1=T T wäre.

2) Berechne Ak wie folgt:

Ak=A ⋅A ⋅… ⋅A⏟k mal

=TDT−1T⏟In

DT−1…T−1T⏟In

DT−1=T D kT−1

⇒ A10=T ⋅D10⋅T−1=T ⋅(0 0 00 1 00 0 1024)⋅T−1=(−2050 −687 −2051

−1536 −512 −15363586 1199 3587 )=A10

Dk=diag { λ1k ,…, λn

k }20.2 Matrixexponential

ⅇx=∑( k=0)

∞ xk

k !⇒ⅇA≔∑

( k=0)

∞ Ak

k !=I n+A+

12!

A2+ 13 !

A3+…

Wenn nun A halbeinfach (= diagonalisierbar):

ⅇ A=I n+A+12!

A2+…=T I nT−1+TDT−1+ 1

2!T D2T−1+…=T (I n+D+ 1

2 !D2+…)T−1=T ⅇDT−1

ⅇD=In+D+D2+…=diag (ⅇλ1 ,…,ⅇλn )

Im Allgemeinen gilt ⅇ AⅇB≠ⅇA+B, aber ⅇ AⅇB=ⅇA+B⇔ AB=BA

21SingulärwertzerlegungJede Matrix A kann in zwei orthonormale Matrizen U und V, sowie eine Diagonalmatrix S, welche die EW von AT A enthält, aufgespaltet werden.

A(m×n)

= U(m×m )

⋅ S(m×n )

⋅ V(n×n)

T

How-To:1) Berechne AT A . Dies ist eine symmetrische, positiv definite (nxn)-Matrix.

2) Berechne die Eigenwerte λ i von AT A (absteigend geordnet, alle sind nicht-negativ, der Rang von A ist die

Anzahl der nicht-null-Eigenwerte), dann dazu ein System orthonormaler Eigenvektoren vi (i=1 ,…,n , wichtig: normalisieren nicht vergessen). V ist die Matrix, welche als Spalten die vi hat. Sie ist orthogonal.

3) Berechne S wie folgt: Nimm eine (mxn)-Nullmatrix und setze auf die Diagonale die Singulärwerte, d.h. die

Wurzeln der Eigenwerte si=√λ i.4) Berechne die ersten Spalten der Matrix U als ui=

1√ λi

A vi , i=1 ,…,Rang A

5) Ergänze nun die schon vorhandenen ui zu einer Orthonormalbasis (d.h. berechne mit Gram-Schmidt dazu

orthonormale Vektoren bis um – man kann wirklich mit irgendeinem Vektor beginnen, Gram-Schmidt richtet’s!)

6) Überprüfe, ob alles stimmt, d.h. ob jetzt wirklich A=USV T gilt.

21.1 Beispiel SVD

Berechne die SVD der Matrix A=( 1 01 1−1 1). Merke: m=3 , n=2 ,Rang A=2

1) AT A=…=(3 00 2)

2) Eigenwerte von AT A sind λ1=3 , λ2=2. (absteigend geordnet: ✔, alle sind nicht-negativ: ✔,Rang(A) ist die Anzahl der nicht-null-Eigenwerte, hier also 2: ✔)

Eigenvektoren dazu sind z.B.: v1=(1,0 )T , v2= (0,1 )T. Diese sind bereits Orthogonal: ✔. Es muss nicht

normalisiert werden, da die Vektoren bereits Länge 1 haben. V=(1 00 1), orhogonal: ✔.

3) S=(√3 00 √20 0 )

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 18 / 30

Page 19: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

4) u1=1√3

⋅( 11−1), u2=

1√2 (011). Orthonormalsystem: ✔.

5) Beliebiger Vektor, dann Gram-Schmidt. Hier etwas einfacher, da im R3 das Kreuzprodukt gilt.

u3=1√6 ( 2

−11 ) (als Kreuzprodukt zweier Einheitsvektoren ist dieser neue Vektor ebenfalls bereits

normiert). U=(u1 ,u2 , u3 )6)

U ⋅S ⋅V T= 1√6 ( √2 0 2

√2 √3 −1−√2 √3 1 )(

√3 00 √20 0 )(1 0

0 1)T

= 1√6 ( √6 0

√6 √6−√6 √6)=(

1 01 1−1 1)=A

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 19 / 30

Page 20: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

22Normalformen1. Die Normalform einer allgemeinen m x n Matrix ist die Singulärwertzerlegung.

Vorgehen: siehe oben.

2. zu jeder rellen quadratischen n x n Matrix A existiert eine orthogonale Matrix U, sodass H≔UT AU eine obere Hessenbergmatrix ist.

H=(¿ ¿ ¿ ¿¿ ⋱ ⋱ ¿¿ ⋱ ⋱ ¿0 ¿ ¿ ¿

)3. Jede reelle quadratische n x n Matrix A ist ähnlich zu einer rellen oberen Blockdreieckmatrix~R=(~R11 ¿∗¿ ⋱ ¿0 ¿~Rkk )mit Matrizen

~R jj der Ordnung 1 (reelle Eigenwerte) oder

Ordnung 2 (komplexe Eigenwerte a j+ⅈb j) in der Form ~R kk=( a j b j

−b j a j).

4. man kann nicht nur Ähnlichkeit zu einer Blockdreieckmatrix finden, sondern Satz von Schur: Zu jeder reellen quadratischen n x n Matrix A existiert eine orthogonale Matrix U, sodass ~~R≔U T AU eine reelle obere Blockdreiecksmatrix ist: (reelle schursche Normalform)~~R=(~~R11 ¿∗¿ ⋱ ¿0 ¿

~~Rkk )mit Matrizen ~~R jj

der Ordnung 1 (reelle Eigenwerte) oder

Ordnung 2 (Die Eigenwerte von ~~R jj

entsprechen dem konjugiert komplexen Eigenwertpaar von A).

5. Jede reelle halbeinfache n x n Matrix A ist ähnlich zu einer reellen Blockdiagonalmatrix

~D=(~D11 ¿0¿⋱ ¿

¿~D kk¿)mit Matrizen ~D jj der Ordnung 1 (reelle Eigenwerte) oder Ordnung 2

(komplexe Eigenwerte a j+ⅈb j) in der Form ~Dkk=( a j b j

−b j a j).

Die reelle Transformationsmatrix ~T erhält man, indem man in T die zu den reellen EW gehörenden EV einsetzt und jedes konjugiert komplexe Eigenvektorpaar durch ihren Real- und Imaginärteil ersetzt.⇒ d.h.:a. EV der reellen EW bestimmenb. komplex konjugierte EW ⇒ nur einen von beiden EV berechnen (der andere ist einfach kompl.

konj.)c. ~T abfüllen nach obigem Schemad.

23Ausgleichsrechnung: kleinste Quadrate, Normalengleichungen

Die Normalengleichungen sind i.A. schlecht konditioniert ⇒ numerisch instabil!

Fehlergleichung: Ax−c=r

c ist der Vektor mit den ”Messwerten“ und r ist der ” Residuenvektor“, der minimiert werden soll.Der Fehler wird minimal, wenn r senkrecht auf den Spaltenvektoren von A steht.

a ( j )⋅r=0 ∀ j⇒r⊥a ( j )

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 20 / 30

Page 21: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

Normalgleichung: AT Ax=AT cDabei ist AT A eine symmetrische und quadratische Matrix. Dieses Gleichungsystem kann gelöst werden.

Ist x Lösung der Normalengleichungen, so minimiert x die Fehlergleichungen Ax−c=r im Sinne der kleinsten

Quadrate, d.h. ‖r‖2=√r12+…+rm

2 ist minimal.

24QR-ZerlegungAusgangslage: Normalengleichungen sind schlecht konditioniert: Verfahren ist instabil.⇒ „Behandlung“ mittels Orthogonaler Matrix (Längen- und Winkeltreu), hier Q.

Fehlergleichung: Ax−c=r

Substitution A=QR:(QR )⏟

A

x−c=r

Multiplikation von Links mit QT (¿Q−1):QT⏟Q−1

(QR )⏟A

x−QT c⏟d

=QT r⏟s

Transformierte Fehlergleichung: Rx−d= s

Zu jeder Matrix A (mit m≥n) existiert eine orthogonale m × m Matrix Q, so gewählt, dass A = Q · R, R=( R0

0 ) und

R0 n × n Rechtsdreiecksmatrix. Die Spaltenvektoren von Q sind eine orthonormale Basis der Spaltenvektoren von A.Vorgehensweise:

1. QR-Zerlegung von A: R=QT A2. Transformation von c : d=QT c3. Rückwärts Einsetzen: R0 x

¿=d0 (Nullzeilen von R wegschmeissen, entsprechende Zeilen von d ebenfalls)

(Konstruktion von R0/d0/Q mittels Gram-Schmidt’schem Orthogonalisierungsverfahren (numerisch instabil) oder Givens-Transformation (numerisch stabil), S.109-112)„Wende Gram-Schimdt auf die Spalten von A an und wende die selben Operationen mit denselben Faktoren wie bei A auf eine Einheitsmatrix gleicher Grösse wie A an“.

Bsp: Löse folgendes Ausgleichsproblem:

¿ 4 x∧+¿ y∧−¿9∧¿∧r1

¿7 x∧+¿ y∧−¿12∧¿ r3

¿4 x∧+¿4 y∧−¿15∧¿∧r3

 mit gegebenem Q=19 (4 −1 8

7 −4 −44 8 1 )

A=(4 17 14 4) , c=(

91215)→ 1

9 ( 4 7 4−1 −4 88 −4 −1)(

4 17 14 4)⏟

R

( xy )−19 ( 4 7 4−1 −4 88 −4 −1)(

91215)⏟

d

=19 (81 27

0 270 0 )( xy )−1

9 (180639 )=(s1

s2

s3)

⇒ (9 30 3)(xy)=(20

7 )⇒{x=139

y=73

Die Länge von r berechnet sich dann zu:

s=Rx− d= (… )⏟berechnen

,‖s‖2=‖QT r‖2 =QT längentreu, da orth. ‖r‖2

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 21 / 30

Page 22: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

25Matlab-Befehle

Matlab Befehl: Bedeutung: Matlab Befehl: Bedeutung:% Kommentar A+B Matrix-Addition A+B…; Semikolon unterdrückt

AusgabeA*B Matrix-Multiplikation

A ⋅Bhelp Befehl A.*B Elementweise MultiplikationCtrl-C aktuelle Operation abbrechen x=A\b Lösen des

Gleichungssystems

A ⋅ x=bformat long auf 14 Nachkommastellen

rundenx=R\b x bestimmen durch

Rückwärtseinsetzen der Rechtsdreiecksmatrix R

format short früher runden A./B Elementweise Divisionformat rat rational transpose(A)

A’Transponierte AT

clear alle Variablen löschen inv(A) Inverse A−1

clc Ein- / Ausgabefeld leeren det(A) Determinante von Arank(A) Rang von A

sqrt(x) √ x norm(A,2)norm(A) ‖A‖2 (2-Norm von A)

exp(x) ⅇx norm(A,1) ‖A‖1 (1-Norm von A)

v=[1 2 3];v=[1,2,3];w=[4;5;6];w=[4 (Shift-Enter)5 (Shift-Enter)6]

Vektoren

v=(123 ) ,w=(456)norm(A,‘inf‘) ‖A‖∞ (unendlich-Norm

von A)

A=[a,b;c,d]A=(a b

c d) [L,R,P]=lu(A) LR-Zerlegung von A

w(2)=3; w(3)

w=(438); 8; „Wert an der

Stelle (x)“

[Q,R]=qr(A) QR-Zerlegung von A

eye(n) Einheitsmatrix der Dimension n

orth(A) Gibt eine Matrix zurück, die denselben Raum aufspannt wie A, aber orthonormal ist.

zeroes(n) quadratische Nullmatrix [T,D]=eig(A) Die Matrix T hat dann die Eigenvektoren von A als Spaltenvektoren und D ist die Diagonalmatrix mit den Eigenwerten von A.

zeroes(m,n) Nullmatrix mit m Zeilen, n [U,S,V]=svd(A) Singulärwertzerlegung von A

Spaltenones(n)ones(m,n)

Matrix mit lauter Einsen

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 22 / 30

Page 23: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

diag(a,b) Diagonalmatrix mit a und b als

Elemente : (a 00 b)

B=A(1:3,1:3) B ist nun eine Matrix bestehend aus den ersten drei Zeilen und Spalten von A.

B=A(:,1)B=(ac )

sum(v)sum(A,1)

Einträge summieren (geht auch mit Zeilen / Spalten von Matrizen)

A(i,j) gibt das Element in der iten Zeile und der j-ten Spalte von A zurück

cumsum([2 3 4])

[2 5 9]: kumulative Summe [m,n]=size(A) gibt die Dimensionen von A zurück

dot(a,b) Skalarprodukt der Vektoren a und b

diag(w) gibt eine Diagonalmatrix mit den Komponenten des Vektors w in der Diagonalen.

cross(a,b) Vektorprodukt der Vektoren a und b

diag(A) gibt die Diagonale der Matrix A zurück

A.^a Elementweise hoch a rechnen

26Ergänzungen26.1 KoordinatentransformationenIch will im 1. Schritt wissen, wie die neuen Basisvektoren im alten System stehen (t (i )=T e (i ) ). Dann kann ich

„vergessen“, dass ich in einem neuen Bezugssystem bin und die neuen Koordinaten nur in dieser Art angeben ( y ).Relativ zum alten Koordinatensystem habe ich dann die Koordinaten

x=T y=¿ y1 t(1 )+ y2 t

(2)+…+ y nt(n )

¿=¿ y1 ( t 1(1) e (1)+t 2

(1) e (2)+…+t n(1 )e (n ) )

+¿ y2 ( t1( 2) e(1 )+ t2(2) e(2)+…+tn

(2 )e (n ))+¿…

+¿ yn (t1(n ) e(1 )+ t2

(n) e(2)+…+tn(n )e (n ) )

¿=¿e( 1) ( y1t 1(1 )+ y2 t1

(2)+…+ y nt 1(n ))⏟

x1

+¿e (2 ) ( y1 t2(1)+ y2 t2

(2)+…+ yn t2(n) )⏟

x2

+¿…+¿e (n ) ( y1tn

(1)+ y2 tn(2)+…+ yn tn

(n) )⏟xn

In einem Basisvektor ungleich der Form (100) ,(010) ,… steckt jetzt der Hinweis, dass wir uns in einem transformierten

Bezugssystem befinden.

Nochmal anders:Da durch eine Koordinatentransformation die neuen Basisvektoren in Relation zu den alten gestellt werden

(t (i )=T e (i ) ), kriegt man beim Anwenden der Transformationsmatrix auf die neuen Koordinaten deren Relation im

alten Koordinatensystem.

x=T y= y1t(1 )+ y2 t

(2)+…+ ynt(n )

26.2 Eigenwerte / EigenvekorenEigene Herleitung:

Die zentrale Frage ist: welche Vektoren werden unter der durch eine (n×n )-Matrix A gegebenen Abbildung bloss um einen Faktor gestreckt? Das lässt sich folgendermassen ausdrücken:

Av=λvwobei v ein Vektor im Cn, und λ der Streckfaktor ist.

Eine Umformung liefertA v∧¿ λ v

⇔A v−λ v∧¿0⇔A v−λI v∧¿0⇔ (A−λI ) v∧¿0 (1 )

Das letzte Gleichungssystem (1) liefert genau dann nicht-triviale Lösungen für den Vektor v, wenn ( A−λI ) singulär

ist, d.h. wir fordern einfach pA ( λ )≔ det(A−λI )=! 0.

Dies liefert ein Polynom vom Grad n, welches mit Hilfe einer Nullstellenanalyse in die Form

(λ−λ1) ( λ−λ2 )⋅…⋅ (λ−λn )=0gebracht werden kann (wobei mehrere Nullstellen, die Eigenwerte, gleich sein und auch Null sein können).

Nun müssen nur noch die zu den Eigenwerten λ i gehörenden Vektoren, die Eigenvektoren vi , bestimmt werden, indem

man im Gleichungssystem (1) die verschiedenen λ i einsetzt und nach v löst.

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 23 / 30

Page 24: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

n=0n=1n=2n=3n=4n=5n=6n=7

Kartesisches Produkt

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

27diverse nützliche Facts:27.1.1 Werte irrationaler Zahlenπ≅ 3.14159…ⅇ≅ 2.71828…√2≅ 1.41421…√3≅ 1.73205…√5≅ 2.23607…

27.1.2 Binomialkoeffizient

(nk)=n (n−1 )… (n−k+1 )k !

= n !k ! (n−k )!

(nk)=( nn−k ) ,(nk)+( n

k+1)=(n+1k+1)

27.1.3 allgemeine binomische Formel

(a+b )n=∑k=0

n

(nk)⋅an−k ⋅bk

27.1.4 Wichtige Winkel

α 0° 0° 30°

π6

45°π4

60°π3

90°π2

120°2π3

135° 3π4

150°5π6

180° π

sinα 0 1/2 √2/2 √3/2 1 √3/2 √2/2 1/2 0

cos α 1 √3/2 √2/2 1/2 0 −1/2 −√2/2 −√3/2 −1tan α 0 1/√3 1 √3 (∞ ) −√3 −1 −1/√3 0

27.1.5 Abschätzung Fakultät mit Stirling

limn→∞

n !

( ne )n

⋅√2πn=1

27.1.6 Determinante einer 3x3 Matrix

28Komplexe Zahlen:28.1.1 Nullstellen von

Polynomen finden:1. Nullstelle(n) λi erraten, falls keine

gegeben.2. Polynomdivision durch (x-λ).3. Von neuem Polynom Nullstellen

berechnen.Beachte: Nullstellen von reellen Polynomen kommen immer in komplex konjugiertem Paar.

28.1.2 n-te Wurzel einer komplexen Zahl bestimmen:

1. Zahl in Polarform umrechnen.

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 24 / 30

Darstellungsarten z=x+ yⅈ =r ⋅ⅇⅈ (φ+2πk )=r ⋅ (cos (φ+2πk )+ ⅈsin (φ+2πk ) )

n√ z=n√r ⋅ⅇφⅈ +2πkn zn=r n⋅ⅇ nφⅈ

Kartesisch → Polar r=|z|, φ={ arccos( xr ) für y ≥0

−arccos( xr ) für y<0

Polar → Kartesisch x=r cos φ y=rsin φ

|ⅇz|=ⅇℜ(z¿)¿ |z|2=z z=x2+ y2

ℑ ( z )= 12 ⅈ (z−z ) ℜ(z)=1

2(z+z )

Nützliche Gleichungen

1z= 1x+ yⅈ =

x− yⅈx2+ y2 ⅇ xⅈ =ⅇ- xⅈ , x∈R

zw=z ⋅w ( zw )= zw

|zw|=|z||w| 1i=−ⅈ , 1

− ⅈ=ⅈ

Logarithmus log( z)=ln(|z|)+ⅈarg(z ) , arg(z)∈R

log ( z )=ln¿¿

az={w=ⅇzu :u∈ log (a ) } p.v.az=ⅇz log (a )ⅇ log ( a)=a

Spezielle Zahlenmengen C−¿={z∈C :|z|>0 ,−π<Arg (z )<π }

Page 25: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

2. n√ z=n√r ⋅exp( ⅈ⋅ (φ+2kπ )n ) , k∈Z≥ 0

3. Lösung, falls gefordert, wieder in Normalform zurückwandeln.

28.1.3 Mengen beschreiben / skizzieren1. setze z=a+ bⅈ ein.2. (Un-)Gleichung für a und b lösen.

Beachte: |z−zm|=r beschreibt einen Kreis mit Mittelpunkt zm und Radius r.

Ausdrücke mit Beträgen eventuell quadrieren, um |z|2=x2+ y2 benutzen zu können.

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 25 / 30

Page 26: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

29Trigonometrische Funktionen29.1 Definitionen

ⅇ xⅈ =cos x+ ⅈsin x ex=∑k=0

∞ xk

k !=1+ x

1 !+ x2

2!+ x3

3 !+… , x∈R

sin x=ⅇ xⅈ −ⅇ− xⅈ

2 ⅈ =∑n=0

∞ (−1 )n

(2n+1 )!x2n+1=x− x3

3!+ x5

5 !− x7

7 !±… sin ( x+ yⅈ )=sin x cosh y+ ⅈcos x sinh y

cos x=ⅇ xⅈ +ⅇ− xⅈ

2=∑

n=0

∞ (−1 )n

(2n )!x2n=1− x2

2!+ x4

4 !− x6

6!±… cos ( x+ yⅈ )=cos x cosh y+ ⅈsin x sinh y

29.2 Gegenseitige Darstellung

tan x= sin xcos x

sec x= 1cos x

, csc x=cosec x= 1sin x

,cot x= 1tan x

= cos xsin x

sin2 x+cos2 x=1

1+ tan2 x= 1cos2x

=sec2 x sec2 x−tan2 x=1

1+cot2 x= 1sin2 x

=csc2 x csc2 x−cot2 x=1

29.3 Additionstheoremesin ( x± y )=sin x cos y ±cos x sin y

cos (x± y )=cos x cos y∓sin x sin y 2sin xsin y=cos (x− y )−cos (x+ y )

tan(x± y )= tan x± tan y1∓ tan x tan y

=sin ( x± y )cos ( x± y )

2cos xcos y=cos (x− y )+cos ( x+ y )

arctan (x± y )= arctan xarctan y∓1arctan x± arctan y

=cos ( x± y )sin ( x± y )

2sin xcos y=sin(x− y )+sin ( x+ y )

29.4 Summe zweier trigonometrischer Funktionen

sin x+sin y=2sin x+ y2

cos x− y2

cos x+cos y=2 cos x+ y2

cos x− y2

sin x−sin y=2sin x− y2

cos x+ y2

cos x−cos y=2sin y+x2

sin y−x2

29.5 Symmetriensin (−x )=−sin x tan(−x)=−tan x sec (−x)=+sec xcos (−x)=+cos x arctan (−x)=−arctan x csc(−x)=−csc x

29.6 Umrechnung in andere trigonometrische Funktionensin(arccos x )=cos (arcsin x )=√1−x2

sin(arctan x)= x√1+x2

cos (arctan x )= 1√1+x2

tan(arcsin x )= x√1−x2

tan (arccos x)=√1−x2

x

29.7 Doppelwinkel

sin (2 x )=2sin x cos x= 2 tan x1+ tan2 x

cos (2 x )=cos2x−sin 2x=1−2sin 2 x=2 cos2 x−1=1−tan2 x1+ tan2x

cos (2x )cos(x )+sin (2x ) sin (x )=cos ( x )

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 26 / 30

Sinussatz

asin α

= bsin β

= csin γ

=abc2 A

=2 r

α: Winkel gegenüber von aCosinussatz

c2=a2+b2−2abcos γ γ: Winkel zwischen a und b

Page 27: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

tan (2 x )= 2 tan x1−tan2 x

= 2arctan x−tan x

arctan (2 x )= arctan2 x−12 arctan x

= arctan x−tan x2

29.8 Quadrat von trigonometrischen Funktionen

sin2 x=12 (1−cos (2x ) )

cos2 x=12 (1+cos (2x ) )

tan2 x=1−cos (2x )1+cos (2 x )

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 27 / 30

Page 28: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

30Hyperbolische Funktionen30.1 Definitionen

sinh ( x )=ⅇx−ⅇ−x

2=∑

n=0

∞ 1(2n+1 )!

x2n+1=x+ x3

3 !+ x5

5 !+ x7

7 !+…, R→R

sinh ( x+ yⅈ )=sinh(x)cos ( y)+ ⅈcosh (x)sin ( y )

cosh ( x )=ⅇx+ⅇ− x

2=∑

n=0

∞ 1(2n ) !

x2n=1+ x2

2!+ x4

4 !+ x6

6 !±…,R→ [1 ,∞ )

cosh (x+ yⅈ )=cosh ( x )cos ( y )+ ⅈ sinh ( x )sin ( y )

tanh x= sinh xcosh x

=ⅇx−ⅇ− x

ⅇx+ⅇ−x ,R→ (−1,1 )

arsinh x=ln (x+√x2+1 ) , R→R

arcosh x=ln ( x+√x2−1) , [1,∞ )→R0+¿ ¿

artanh x=12

ln 1+x1−x

, R→ (−1,1 ) arcoth x=12

ln x+1x−1

30.2 Gegenseitige Darstellungcosh2 x−sinh2 x=1

arsinh x=sgn x arcosh (√ x2+1) arcosh x=arsinh (√|x|2−1) ,(x>1) sin( zⅈ )=ⅈ sinh z⇔ sinh ( zⅈ )=ⅈsin z

cos ( zⅈ )=cosh z⇔cosh ( zⅈ )=cos z

30.3 Additionstheoremesinh ( x± y )=sinh x cosh y ± cosh x sinh y

cosh ( x± y )=cosh xcosh y± sinh x sinh y

tanh(x± y )= tanh x± tanh y1± tanh x tanh y

30.4 Symmetriensinh(−x)=−sinh x

cosh (−x )=cosh x

31diverse nützliche Facts (2)31.1.1 Werte irrationaler Zahlenπ≅ 3.14159… ⅇ≅ 2.71828…√2≅ 1.41421… √3≅ 1.73205… √5≅ 2.23607…

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 28 / 30

Page 29: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis31.1.2 Wichtige Winkel

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 29 / 30

α tan α0°

00

30°

1/√3π6

45°

1π4

60°

√3π3

90°

(∞ )π2

120°

−√32π3

135° −13π4

150°

−1/√35π6

180°0π

Page 30: Persönliche Website – Services & Ressourcen | ETH Zürichricklis/blog/download... · Web viewAnstatt die Inverse von T zu berechnen, stellt man die Gl. um nach XT=BT und löst

Zusammenfassung Lineare Algebra Stefan Rickli http://blogs.ethz.ch/ricklis

1 Bemerkungen (V3.1)NotationIn einer späteren Revision sollten fett gedruckte Symbole Vektoren, evtl. auch Matrizen sein. Dies gilt bereits für neuere Zusammenfassungen.Gelbe Markierungen bezeichnen i.d.R. Abschnitte, welche eine Überarbeitung nötig haben, weitere Infos von den markierten Quellen nötig hätten oder unklar sind.

DisclaimerMeine Formelsammlungen entstehen und wachsen meist über eine längere Zeit. Es besteht immer ein gewisses Risiko, dass sich einige Fehler über zig Iterationen versteckt gehalten haben. Ich freue mich deshalb über jegliche (Fehler-) Verbesserungen, Anmerkungen, Lob, Dank oder auch Kritik.Meine Zusammenfassungen werden fortlaufend korrigiert und aktualisiert veröffentlicht.

Weiterverarbeitung:Weil ich es nicht ausstehen kann, dass ständig das Rad neu erfunden werden muss, habe ich das Originaldokument mit veröffentlicht mit der Einladung, sich hier für die eigene Formelsammlung zu bedienen. Ihr könnt diese Zusammenfassung also gerne weiterverarbeiten und / oder auch in überarbeiteter Form veröffentlichen.Haltet jedoch die Herkunft der kopierten/übernommenen Teile so gut wie möglich nachvollziehbar, falls ihr weiter veröffentlicht.Obiges gilt auch für alle anderen Formelsammlungen von mir, welche diesen Bemerkungstext (noch) nicht enthalten.

Quellenangaben:Aus Platz- und Zeitgründen (blame the 'Prüfungsstress') fehlen natürlich praktisch jegliche Quellenangaben (worüber ich auch schon ab und zu fluchen musste). Ich versuche jedoch in diesem Abschnitt die Arbeiten zu referenzieren, von denen ich wissentlich kopiert habe:

Wesentliche Bestandteile:allgemeines aus dem Buch "Lineare Algebra: Eine Einführung für Ingenieure"

von Kaspar Nipp / Daniel StofferGrundform Zusammenfassung Lineare Algebra von Hermann BlumErgänzungen und einige Beispiele Zusammenfassung Lineare Algebra von Marina DurrerVektorräume Rechenregeln Zusammenfassung Lineare Algebra von Fabian SchleissSeite zu "Abbildungsgleichungen" Zusammenfassung Lineare Algebra von Silvio BischofMatlab Zusammenfassung Lineare Algebra von Florian GublerAppendix eigene Zusammenfassung Analysis I/II

Revisionsverlauf:1.0 Sep 2014 erste Veröffentlichung Stefan Rickli1.5 02.10.2014 erste Fehlerkorrekturen Stefan Rickli2.0 14.03.2016 Fehlerkorrekturen: S.6, Kap 13: Typo in der formellen Definition des Kerns

Ergänzungen:S.2: Kap 5: unbestimmte Matrix berechnenS.7, Kap 15:- Eigenvektoren aus dem selben Eigenraum sind ebenfalls lin. unabhängig von den anderen Eigenvekoren.- Zusammenhang Spur(A) und Summe der EW- Zusammenhang Det(A) und Produkt der EW (aus SigSys II)- Zusammenhang EW und Invertierbarkeit einer Matrix

Stefan Rickli

2.1 02.01.2017 Ergänzung zu Koordinatentransformationen auf S.12Ergänzung zu Eigenwerten auf S. 13

Stefan Rickli

To Do: Anpassung Layout → 4 Spalten? Vektoren und Matrizen fett, gemäss neueren Zfsg? Notation von Räumen nicht einheitlich

2 Ressourcen zu „Word und Formeleditor“Es gibt ein paar Ressourcen, welche mir sehr geholfen haben, den Formeleditor in Word zu meistern:

- Microsoft Word formula editor: https://support.office.com/en-us/article/Linear-format-equations-and-Math-AutoCorrect-in-Word-2e00618d-b1fd-49d8-8cb4-8d17f25754f8?ui=en-US&rs=en-US&ad=US

- Unicode Nearly Plain-Text Encoding of Mathematics: http://www.unicode.org/notes/tn28/ o das ist der Standard, an den sich der Editor (fast vollständig) hält. Ist sehr gut beschrieben und dokumentiert.

Ausnahme sind Umrahmungen, welche nicht die ganze Funktionalität erhalten haben.- Die Zeichenübersicht des Editors selber: wenn man mit der Maus über ein Zeichen fährt, zeigt es einem den Tastatur-

Shortcut an, den man eingeben kann

Nice to know:- Alt + Shift + 0 erstellt eine neue Formel- der Leerschlag ist euer Freund! Er veranlasst den Formeleditor, die Syntax bis zum aktuellen Punkt zu überprüfen und das

Zeug fixfertig bis zu dem Punkt, wo ihr seid, darzustellen (ausser es gibt noch offene Klammern).o verhält sich der Editor mal komisch, liegt es zu 95% daran, dass etwas in der Syntax nicht stimmt. Hier hilft ab

und an mal, sich die Formel im linearen Modus anzuschauen, wo alles bis auf Sonderzeichen wieder auseinander genommen wird. Das einzige, mit dem der Editor Mühe hat, sind grosse Eq-Arrays und mehrzeiliges Zeug.

- Wenn die Formel auf einer eigenen Zeile steht, veranlasst ein Leerschlag ausserhalb nach der Formel (also AUSSERHALB des Formeleditorfelds) den Editor, die Formel im Inline-Modus darzustellen (Formel braucht weniger Platz)

o siehe Tabellen in dieser ZF, dort habe ich das konsequent benutzt. Löscht mal das Leerzeichen nach einer Formel, das ein Integral enthält

- benutzt die Backslash (\) Befehle! Wenn man sich die beiden Dokumente oben ausdruckt und zur Referenz hält, geht es nicht lange, bis man alles mit der Tastatur machen kann und nie absetzen muss, um was mit der Maus zu machen

- \ensp und \emsp können helfen, um grössere, gewollte Abstände zu realisieren- \\eqarray ordnet mit jedem & einmal links und dann wieder rechts an- bastelt euch eure eigenen Shortcuts

o zum Beispiel \La für ⇐ \Ra für ⇒ \Lra für ⇔ oder \to für ein → oder eine leere 4x4 Matrix als \4x4 mit (■(&&&@&&&@&&&@&&&)) und einem Leerschlag am

Ende (damit der Ausdruck gleich aufgebaut wird) etc

o dazu einfach das entsprechende Zeichen in die Zwischenablage kopieren und im Formeleditor unter „Formeloptionen“ (in den Tools als kleiner Pfeil unten rechts zu finden) und „Math. Autokorrektur“ einfügen und den entsprechenden Backslashbefehl definieren

o manchmal ist es sinnvoll, noch eigene Funktionsnamen zu definieren, welche der Editor erkennen soll, wenn man sie häufig benutzt. Z.B. Imag()

ansonsten Leerschlag funktionsname\funcapply Leerschlag- die mathematische Autokorrektur ist manchmal auch ausserhalb des Formeleditors nützlich. Ich hab das in den Optionen

auch aktiviert- Wenn Word langsam wird wegen vielen anzuzeigenden Formeln, hilft

o 1. die Entwurfsansicht (anstatt Seitenlayout). Wenn man sich damit abfindet, dass dann ab und zu das Layout (noch) nicht dargestellt oder updated wird (nicht beirren lassen), kann man gut die kritischen Abschnitte bearbeiten. Achtung: Bilder werden NICHT angezeigt, sondern einfach mit einem Leerschlag repräsentiert!

o 2. reinzoomen, bis weniger Formeln sichtbar sind.

zuletzt gespeichert: T.01.JJ 06:09:00 nachm., Version 66 30 / 30