37
Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 1 Inhaltsübersicht Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung Grundoperationen Die Inverse Berechnung der Inversen Lineare Unabhängigkeit und Dimension Die kleinsten Quadrate Tensoren

Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 1

Inhaltsübersicht

Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung

• Grundoperationen

• Die Inverse

• Berechnung der Inversen

• Lineare Unabhängigkeit und Dimension

• Die kleinsten Quadrate

• Tensoren

Page 2: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 2

Grundoperationen

Die Bezeichnung "Matrix" wurde 1850 von James Joseph Sylvester eingeführt.

Page 3: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 3

In der linearen Algebra ist eine Matrix (Plural: Matrizen) eine Anordnung von Zahlen (oder

anderen Objekten) in Tabellenform. Man spricht von den Spalten und Zeilen der Matrix; sie

bilden Zeilen- bzw. Spaltenvektoren. Die Elemente, die in der Matrix angeordnet sind, nennt

man Einträge oder Komponenten der Matrix. Als Notation hat sich die Aneinanderreihung der

Elemente in Zeilen und Spalten mit einer großen öffnenden und schließenden Klammer

durchgesetzt; z.B. steht die Notation:

für eine Matrix mit 2 Zeilen und 3 Spalten. Genauer spezifiziert spricht man von einer m x n-

Matrix mit m Zeilen und n Spalten. Deshalb nennt man auch m die Zeilendimension und n die

Spaltendimension der Matrix. Die Zuordnung eines Eintrages ai,j zu einem Indexpaar (i,j) ist eine

Funktion.

Grundoperationen

A =

Page 4: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 4

Grundoperationen

Dabei handelt es sich bei A, x, b um Matrizen: A ist m x n Matrix, x ist n x 1 und b ist eine m x 1 Matrix

Erinnerung an Kapitel 5, lineare Gleichungssysteme in Matrixdarstellung:

Page 5: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 5

Grundoperationen

Unter Verwendung des Produktes von Matrixproduktes, was man komponentenweise definieren

kann:

Um zwei Matrizen zu multiplizieren müssen die Spaltenanzahl der linken mit der

Zeilenanzahl der rechten Matrix übereinstimmen! Natürlich ist die Mehrfachmultiplikation

genauso möglich. Für diese gilt Assoziativität: A(BC)=(AB)C

Page 6: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 6

Grundoperationen

Entsprechend ist die Multiplikation mit einer “1x1 Matrix”, einem Skalar, immer möglich als:

Das 1 Element bezüglich der Multiplikation ist die Einheitsmatrix E :

Das 0 Element bezüglich der Multiplikation ist entsprechend leicht zu konstruieren...

Die Addition ist ebenso wie die Multiplikation komponentenweise definiert.

Page 7: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 7

Grundoperationen

Addition:

Mathematisch:

In der linearen Algebra sind die Einträge der Matrizen üblicherweise Elemente eines Körpers, wie

z.B. der reellen oder komplexen Zahlen. In diesem Fall ist die Matrixaddition assoziativ,

kommutativ und besitzt mit der Nullmatrix (eine Matrix deren sämtliche Einträge 0 sind) ein

neutrales Element. Im Allgemeinen besitzt die Matrixaddition diese Eigenschaften jedoch nur,

wenn die Einträge Elemente einer algebraischen Struktur sind, die diese Eigenschaften hat.

Page 8: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 8

Insgesamt gilt damit:

Grundoperationen

A + B = B + A

(A + B) + C = B+ (A + C)

A + O = A

Achtung i. A.: AB < > BA

A(BC) = (AB)C

AE = EA = A

OA = AO = O; Es existieren AB so dass: A B =O mit A,B <> O

(A + B)C = AC + BC; A(B + C) = AB + AC

l(A + B) = lA + lB = (A + B)l

A(lB) = lAB

Page 9: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 9

Inverse Matrix

Definition: Die Inverse Matrix zu A ist A-1 mit A A-1 = A-1 A = E

Die Einheitsmatrix E wird übrigends auch I genannt. Berechnung:

Jede Matrix, die eine Inverse hat, heißt invertierbar. Eine Inverse gibt es jedoch nur bei

quadratischen Matrizen, denn nichtquadratische erfüllen im Allgemeinen nicht: A A-1 = A-1 A

Es gibt Matrizen, die kein Inverses haben! Z. B.:

01

00A

Page 10: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 10

Inverse Matrix

Die Inverse Matrix kann auf verschiedene Arten berechnet werden, z. B. numerisch, also als

Geleichungssystem oder analytisch, also mit Hilfe einer Formel, gelößt werden.

Die analytische Lösung bewährt sich bei kleinen Matrizen:

2221

1211

aa

aaA

10

01

2221

1211

2221

12111

xx

xx

aa

aaEAA

1

0

0

1

22221221

21221121

22121211

21121111

xaxa

xaxa

xaxa

xaxa

212122111221

212211112111

21211221111121

)(

0

axaaaa

xaaxaa

axaaxaa

)(

22111221

21

21aaaa

ax

12212211aaaa

Δ

1121

12221 1

aa

aaA

Die Determinante ist sehr nutzlich für die Berechnung der Inversen

Ist sie 0, so existiert keine inverse Matrix!

Def.:

Also:

Page 11: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 11

Inverse Matrix

Determinante: In der Linearen Algebra ist die Determinante eine spezielle Funktion, die jeder

quadratischen Matrix eine Zahl zuordnet. Zum Beispiel hat die 2×2-Matrix:

die Determinante

Historisch gesehen wurden Determinanten bereits vor den Matrizen betrachtet. Ursprünglich war

eine Determinante definiert als eine Eigenschaft eines linearen Gleichungssystems. Die

Determinante "determiniert", ob das Gleichungssystem eine eindeutige Lösung besitzt (dies ist

genau dann der Fall, wenn die Determinante ungleich Null ist). In diesem Zusammenhang wurden

2×2-Matrizen von Cardano Ende des 16. Jahrhunderts und größere von Leibniz ungefähr 100

Jahre später behandelt.

Page 12: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 12

Inverse Matrix

Page 13: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 13

Inverse Matrix

Page 14: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 14

Inverse Matrix

Page 15: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 15

Inverse Matrix

Liegt bei einer quadratischen Matrix A unter Verwendung der Gaußschen Elimination mit

Vertauschungen eine Lösung vor, so ist A invertierbar.

Es gilt aber auch umgekehrt: Ist A invertierbar, so liegt bei der Gaußschen Elimination mit

Vertauschungen stets lösbar.

Page 16: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 16

Transponierte Matrix

Page 17: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 17

Skalar und Tensorprodukt

Page 18: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 18

Lineare Unabhängigkeit und Dimension

Wie oben und in Kapitel 5 beschrieben, kann ein LGS (Lineares Gleichungssystem als

Matrixgleichung geschrieben werden:

Ax = b

Lösbarkeit:

Page 19: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 19

Lineare Unabhängigkeit und Dimension

Erinnerung (vergl. Kapitel 5) In der linearen Algebra wird eine Menge von Vektoren eines Vektorraums

linear unabhängig genannt, wenn sich keiner dieser Vektoren als Linearkombination aus den anderen

zusammensetzen lässt. Anders ausgedrückt, sind Vektoren genau dann linear voneinander

unabhängig, wenn sich der Nullvektor allein durch die Linearkombination der Vektoren erzeugen lässt,

indem alle Koeffizienten der Kombination auf den Wert Null gesetzt werden.

Page 20: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 20

Lineare Unabhängigkeit und Dimension

Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0), (0,1,0) und (0,0,1) linear

unabhängig. Die Vektoren (2, - 1,1), (1,0,1) und (3, - 1,2) sind hingegen nicht linear unabhängig, denn der dritte

Vektor lässt sich aus der Summe der beiden ersten zusammensetzen. Sind Vektoren nicht linear unabhängig,

dann werden sie auch linear abhängig genannt.

3

Definition:

Page 21: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 21

Zeilen und Spalten einer Matrix

Interessant ist auch die Frage, ob die Zeilen einer Matrix linear unabhängig sind oder nicht.

Dabei werden die Zeilen als Vektoren betrachtet. Falls die Zeilen einer quadratischen Matrix

linear unabhängig sind, so nennt man die Matrix regulär, andernfalls singulär. Die Spalten sind

genau dann linear unabhängig, wenn die Zeilen linear unabhängig sind. Daher ist die Matrix

genau dann invertierbar, wenn die Determinante ungleich 0 ist!

Satz:

Eine quadratische Matrix ist genau dann invertierbar, wenn ihre Spalten (oder auch ihre Zeilen)

linear unabhängig sind.

Lineare Unabhängigkeit und Dimension

Page 22: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 22

Ist im Gleichungssystem n>m, so ist das System überbestimmt, oft ergibt sich dadurch keine Lösung.

z.B.: bx A

3

2

1

2

1

1

1

1

1

2

1

b

b

b

x

xxA

321

221

121

2

bxx

bxx

bxx

2

3

31

1

321

21

1

bbx

bbx

bbx

23

3121

321

bbbbbbx

032321

bbb

D.h. nur unter dieser Bedingung hat das System eine Lösung!

Überbestimmte Systeme sind allerdings häufig Gegenstand von Messungen. So kann eine Funktion häufig aus

Messwerten bestimmet werden, die einen Fehler enthalten, dazu ist es notwendig eine Interpolation

durchzuführen. Aber welches ist eine gute Interpolation? Genauer: Bei einer Messwertverteilung, welche Fehler

(Abweichungen) sollen berücksichtigt werden? Dieses Problem ist erstmals mathematisch richtig bewusst

geworden als am Neujahrstag des Jahres 1801...

Methode der kleinsten Quadrate

Page 23: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 23

...entdeckte der italienische Astronom Giuseppe Piazzi den Asteroiden Ceres. 40 Tage konnte er

die Bahn verfolgen, dann verschwand Ceres hinter der Sonne. Im Laufe des Jahres versuchten

viele Wissenschaftler anhand von Piazzis Beobachtungen die Bahn zu schätzen (die Lösung

der nichtlinearen Kepler-Gleichungen ist sehr schwierig). Die meisten Rechnungen waren

unbrauchbar; als einzige war diejenige des 24jährigen Carl Friedrich Gauß genau genug (die

Grundlagen schuf er schon 1795 mit 18 Jahren), um dem deutschen Astronomen von Zach zu

ermöglichen, im darauffolgenden Dezember den Asteroiden wiederzufinden. Gauß erlangte

dadurch Weltruhm. Sein Verfahren, die Methode der kleinsten Quadrate, publizierte er erst 1809

im zweiten Band seines himmelsmechanischen Werkes Theoria Motus Corporum Coelestium in

sectionibus conicis solem ambientium. Unabhängig davon entwickelte der Franzose Adrien-

Marie Legendre 1806 dieselbe Methode. 1829 konnte Gauß eine Begründung liefern, wieso

sein Verfahren im Vergleich zu den anderen so erfolgreich war: Die Methode der kleinsten

Quadrate ist in einer breiten Hinsicht optimal, also besser als andere Methoden. Die genaue

Aussage ist als der Satz von Gauß-Markov bekannt.

Methode der kleinsten Quadrate

Page 24: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 24

Die Methode der kleinsten Quadrate ist

das mathematische Standardverfahren zur

Ausgleichungsrechnung: Es ist eine Wolke

aus Datenpunkten gegeben, die

physikalische Messwerte, wirtschaftliche

Größen usw. repräsentieren können. In

diese Punktwolke soll eine möglichst

genau passende parameterabhängige

Modellkurve gelegt werden. Dazu

bestimmt man die Parameter dieser Kurve

numerisch, indem die Summe der

quadratischen Abweichungen der Kurve

von den beobachteten Punkten minimiert

wird. In der Grafik sind die (t;y)-Paare als

Datenpunkte zu erkennen. Es wurde hier

eine logistische Funktion in die Punktwolke

gelegt. Die Parameter dieser Funktion

werden so bestimmt, dass die

Quadratsumme der senkrechten

Abweichungen e der Beobachtungen y von

der Kurve minimiert wird.

Methode der kleinsten Quadrate

Eine Modelfunktion:

ist optimal wenn: ym = x0 + x1t z.B. t ist Element t1, t2, ...

,

Page 25: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 25

Lineare Modellfunktion Ein Spezialfall der Modellfunktion ist die lineare Form. Der einfachste lineare Ansatz ist ym = x0 + x1t. Man

erhält in allgemeiner Matrixschreibweise

Für die resultierende Ausgleichsgerade dieses einfachen (aber durchaus relevanten) Beispiels lassen sich

die Lösungen für die Parameter direkt angeben als

und

mit als arithmetischem Mittel der t-Werte, entsprechend.

Die Lösung für x1 kann mit Hilfe des Verschiebungssatzes auch als angegeben werden.

Methode der kleinsten Quadrate

|| ||2 = 2 Norm

Page 26: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 26

Methode der kleinsten Quadrate

Man erhält nun analog zum oben angegebenen Fall zunächst

und entsprechend

Damit bestimmt man x1 als

Beispiel:

Verteilung Länge zu Breite bestimmter Objekte

Page 27: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 27

Die Begriffe Eigenwert und Eigenvektor treten immer gemeinsam in der Linearen Algebra auf.

Die im Folgenden beschriebene mathematische Problemstellung nennt sich spezielles

Eigenwertproblem. Eigenvektoren eines linearen Operators (etwa durch eine Matrix dargestellt)

sind Vektoren, auf welche die Anwendung des Operators (etwa die Multiplikation mit der Matrix)

ein skalares Vielfaches ihrer selbst ergeben. Den entsprechenden Skalar nennt man Eigenwert.

Der Nullvektor wird nicht als Eigenvektor bezeichnet, obwohl er diese Eigenschaft für jeden

Skalar erfüllt.

Eigenwerte / Eigenvektoren

Formal ausgedrückt heißt das:

Ist A eine (n x n)-Matrix, so heißt ein Eigenvektor zum Eigenwert l, wenn gilt:

welches wir mittels der Determinante auf eine Lösung überprüfen können.

Was tut eigentlich eine Matrix A mit einem Vektor x? Allgemein wird der Vektor in einen anderen

transformiert. Aufgrund der Allgemeinheit der Matrix wird klar, das Abbildungen wie Streckungen,

Drehungen, Streckdrehungen und Spiegelungen möglich sind.

Ein Streckung kann auch als Multiplikation eines Vektors mit einem Skalar dargestellt werden.

Vektoren, die von einer Matrix lediglich gestreckt werden, werden als “Eigenvektoren” der Matrix

bezeichnet .

Page 28: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 28

Eigenwerte / Eigenvektoren

Zahlenbeispiel:

Der Eigenwert 2 hat algebraische Vielfachheit 2, da er doppelte

Nullstelle des charakteristischen Polynoms ist.

Page 29: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 29

Eigenwerte / Eigenvektoren

Berechnung der Eigenvektoren:

Die geometrische Vielfachheit eines Eigenwertes kann man also auch als die maximale Anzahl linear

unabhängiger Eigenvektoren zu diesem Eigenwert definieren. Die geometrische Vielfachheit ist immer kleiner

oder gleich der algebraischen Vielfachheit.

Zahlenbeispiel: Gegeben ist die quadratische Matrix A:

Zweiter Eigenwert "2" mit der algebraischen Vielfachheit "2", der geometrischen Vielfachheit

"d2=n-Rang(A-2E)" und dem Eigenvektor v2 = [1,0,–2].

Erster Eigenwert "–2" mit der algebraischen Vielfachheit "1", der geometrischen Vielfachheit

"d1=n-Rang(A+2E)" und dem Eigenvektor v1 = [–3/2,2,1].

Page 30: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 30

xxEA

2312

1212

1220

)( l 0

512

112

122

3

2

1

x

x

x

052

02

022

321

321

321

xxx

xxx

xxx

12

122

;1

21

21

3

xx

xx

x

224

122

;1

21

21

3

xx

xx

x

2;2

321

xx

Eigenwerte / Eigenvektoren (Lösungen)

Z. B. l = -2

Eigenvektoren haben die Eigenschaft das sie mit ihrer Matrix multipliziert eine Streckung um ihren Eigenwert

erfahren, D.h. natürlich die Eigenvektoren zu einem Eigenwert sind linear abhängig.

Die Matrix kann als “Operator” aufgefasst werden, die den Vektor streckt, im Beispiel l = 2

2

0

1

2

4

0

2

2

0

1

312

112

120

2 xAx

Achtung, die Matrix streckt nur die Eigenvektoren, andere Vektoren können durch die Matrix z. B. auch

gedreht und gestreckt werden. (Eine Matrix die jeden Vektor streckt kann man sich leicht selbst überlegen...)

Page 31: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 31

Matrix Eigenschaften / Drehmatrix

Außer der Streckung gibt es noch andere Eigenschaften, z. B. die Drehung. In 2D dreht die Matrix R einen

Vektor um den Winkel a. In der euklidischen Ebene wird die Drehung um den Ursprung um den Winkel a

entgegen dem Uhrzeigersinn realisiert durch die Matrix:

Die Drehung selbst wird durch die Multiplikation eines Vektors mit der Matrix durchgeführt:

Wichtige Drehmatrizen für Drehungen um den Ursprung um den Winkel a im sind:

Drehung mit x-Achse als Drehachse: Drehung mit y-Achse als Drehachse: Drehung mit z-Achse als Drehachse:

Diese Matrizen gelten sowohl für Rechts- als auch für Linkssysteme. Drehungen mit positiven Drehwinkeln sind

im Rechtssystem Drehungen entgegen dem Uhrzeigersinn. Im Linkssystem wird bei positiven Winkeln mit dem

Uhrzeigersinn gedreht. Der Drehsinn ergibt sich, wenn man entlang der positiven Drehachse auf den Ursprung

sieht.

Page 32: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 32

Drehung mit beliebigem Einheitsvektor v = (v1,v2,v3)T als Drehachse:

Diese beliebige Drehung lässt sich auch über drei aufeinanderfolgende Drehungen mit den eulerschen

Winkeln um bestimmte Koordinatenachsen erzielen, so dass sich diese Matrix auch mit diesen Winkeln

formulieren lässt.

Drehmatrix

Page 33: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 33

Tensoren

Erste Annäherung: Tensoren als Verallgemeinerung von Skalar, Vektor, Matrix

Für manche Anwendungen, zum Beispiel in der Elastizitätstheorie und fast überall in den

Ingenieurwissenschaften, ist es vollkommen ausreichend, sich Tensoren als eine Fortsetzung der Reihe

Skalar, Vektor, Matrix vorzustellen. Dabei unterscheidet man Tensoren verschiedener Stufe (auch Rang

genannt):

• Ein Tensor nullter Stufe ist eine Zahl, auch Skalar genannt.

• Ein Tensor erster Stufe wird durch einen Spaltenvektor dargestellt. Im n-dimensionalen Raum hat ein solcher

Tensor genau n Koeffizienten.

• Ein Tensor zweiter Stufe wird durch eine quadratische Matrix dargestellt, also ein Zahlenschema, in dem

jeder der n2 Koffizienten des Tensors durch zwei Indizes bezeichnet ist (Beispiele: Arbeitsblatt in einem

Tabellenkalkulationsprogramm; zweidimensionales Pixelbild)

• Ein Tensor dritter Stufe ließe sich durch eine würfelförmige Anordnung seiner n3 Koeffizienten darstellen, die

durch je drei Indizes "adressiert" werden (Arbeitsmappe in der Tabellenkalkulation; Videosequenz

[Pixelbilder mit zusätzlicher Zeitkoordinate]).

• Ein Tensor m-ter Stufe hat dementsprechend nm Koeffizienten, die mit Hilfe von m Indizes auseinander

gehalten werden.

Für diese Objekte sind zwei Operationen definiert, die Verjüngung und die Überschiebung, wobei die

Verjüngung als Überschiebung mit der Einheitsmatrix gesehen werden kann. Die Überschiebung eines Tensors

a der Stufe 2 mit einem Tensor b der Stufe 1 ist die normale Matrix-Vektor-Multiplikation:

Überschiebt man 2 Tensoren 3. Stufe in einem Index, so entsteht ein Tensor 4. Stufe.

Page 34: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 34

Tensoren

Der vollständig antisymmetrische Tensor 3. Stufe (Epsilon Tensor, Levi-Civita Symbol):

Das Levi-Civita-Symbol hat im allgemeinen n Dimensionen und hat demnach n Indizes, ist ein

Tensor n-ter Stufe. Man kann ihn über seine Eigenschaften definieren oder über folgende

Fallunterscheidung:

Im 3- dimensionalen Beispiel ergibt sich also:

0 sonst

Der Epsilontensor beschreibt so z. B. das Spatprodukt von Einheitsvektoren:

1

0

0

;

0

1

0

;

0

0

1

321eee );();();(;1)(

322221231321eeeeeeeeeeee Allgemein: ijkkji

eee )(

j

i

k

Page 35: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 35

Tensoren

Das Levi-Civita-Symbol mit drei Indizes erweist sich in der Vektorrechnung als nützlich, um die

Komponenten des Kreuzproduktes zweier Vektoren zu schreiben. Es gilt:

Mit der Einsteinschen Summenkonvention:

Die Konvention wurde 1916 von Albert Einstein eingeführt. Man lässt die Summenzeichen weg,

statt dessen wird über doppelt auftretende Indizes summiert.

z.B. Matrixprodukt: =>

Zwischen dem Epsilon-Tensor und dem Kronecker-Delta gilt die Beziehung:

Daraus folgt (mit Einstein): Der Determinantenentwicklungssatz lässt sich nun schreiben:

n x n - Matrix:

Page 36: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 36

Beispiele

Das hookesche Gesetz (nach Sir Robert Hooke) beschreibt das elastische Verhalten von

Festkörpern, deren elastische Verformung linear proportional zur anliegenden Spannung s ist,

Dieses Verhalten ist z.B. für Metalle typisch. Für einen prismatischen Körper der Länge L und

dem Querschnitt A unter einachsiger Zugbelastung gilt demzufolge:

mit und folgt:

Exkurs: Spannungs-Dehnungs-Tensor

http://www.lrz-muenchen.de/~a231202/webserver/webdata/Skripten/Physik1/Gross_Physik_I_Kap_3.pdf

Page 37: Kapitel 6: Der Vektor ist breit: Matrix und Tensorrechnung · Lineare Unabhängigkeit und Dimension Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0),

Notizen zur Vorlesung Mathematik für Materialwissenschaftler I 37

Trägheitstensor: Ist eine Gesamtmasse gegeben durch einzelne Massenpunkte, so ist der Trägheitstensor I

gegeben durch:

Der Energie-Impuls-Tensor wird in seiner allgemeinsten Form folgendermaßen angegeben:

• w ist eine Energiedichte (Energie pro Volumen)

• (Sx,Sy,Sz) ist eine Energie-Strom-Dichte

• Gik wird als Spannungs-Tensor bezeichnet, er beinhaltet den räumlichen Impulstransport, z.B. in

den Diagonaltermen den Druck, den ein Strahlungsfeld ausüben kann. Die Nichtdiagonalterme

des Spannungstensors beschreiben Scherspannungen.