11. Matrizen Eine m n-Matrix ist ein Raster aus m n Koeffizienten, die in m Zeilen und n Spalten...

Preview:

Citation preview

11. Matrizen

Eine mn-Matrix ist ein Raster aus mn Koeffizienten, die in m Zeilen und n Spalten angeordnet sind.

= (aij)1 i m, 1 j n

mnmm

n

n

aaa

aaa

a...aa

...

...

21

22221

11211

............

Eine mn-Matrix ist ein Raster aus mn Koeffizienten, die in m Zeilen und n Spalten angeordnet sind.

= (aij)

mnmm

n

n

aaa

aaa

a...aa

...

...

21

22221

11211

............

11.1 Addition und Multiplikation von Matrizen

A = (aij) und B = (bij) seien zwei mn-Matrizen.

A + B = C mit cij = aij + bij

A - B = C mit cij = aij – bij

elementweise

Man kann nur solche Matrizen addieren und subtrahieren, die gleiche Zeilenzahl m und gleiche Spaltenzahl n besitzen.

Matrixaddition ist assoziativ und kommutativ.

65

43

21

7-1-

00

21

1-4

43

42

= +

Das Produkt der Matrizen A und B A B = C

Das Produkt der Matrizen A und B A B = C ist eine Matrix C = (cij) mit den Elementen

cij =

n

kkjikba

1

Das Produkt der Matrizen A und B A B = C ist eine Matrix C = (cij) mit den Elementen

cij =

n

kkjikba

1

c21 = a21b11 + a22b21 + ... + a2nbn1

11 12 13

21 22 23

11 12 13

21 22 23

31 32 33

( )

() A B

cij =

n

kkjikba

1

Da der zweite Index des ersten Faktors ebenso wie der erste Index des zweiten Faktors bis n läuft, kann man nur solche Matrizen A und B miteinander multiplizieren, für die gilt:

A = mn-Matrix, B = np-Matrix

=

Das Ergebnis ist eine mp-Matrix.

A B C

1 2 3

4 5 6

a b

c d

e f

1a + 2c + 3e

a b

c d

e f

1a + 2c + 3e

, 1b + 2d + 3f

a b

c d

e f

1a + 2c + 3e

, 1b + 2d + 3f4a + 5c +

6e

a b

c d

e f

1a + 2c + 3e

, 1b + 2d + 3f4a + 5c +

6e , 4b + 5d + 6f

( )

1 2 3

4 5 6

a b

c d

e f1a+2c+3e

1b+2d+3f

4a+5c+6e

4b+5d+6f

cij =

n

kkjikba

1

Der zweite Index des ersten Faktors und der erste Index des zweiten Faktors laufen bis n.

mn-Matrix np-Matrix = mp-Matrix

=

cij =

n

kkjikba

1

Der zweite Index des ersten Faktors und der erste Index des zweiten Faktors laufen bis n.

mn-Matrix np-Matrix = mp-Matrix

=

Die Operation ist nicht kommutativ; im Allgemeinen ist selbst für quadratische Matrizen, also solche mit m = n, die sich überhaupt nur in beiden Fällen als Faktoren eignen

A B ≠ B A

00

01

00

10 =

00

10

cij =

n

kkjikba

1

Der zweite Index des ersten Faktors und der erste Index des zweiten Faktors laufen bis n.

mn-Matrix np-Matrix = mp-Matrix

=

Die Operation ist nicht kommutativ; im Allgemeinen ist selbst für quadratische Matrizen, also solche mit m = n, die sich überhaupt nur in beiden Fällen als Faktoren eignen

A B ≠ B A

00

01

00

10 =

00

10 aber

00

10

00

01 =

00

00

210

321

23

10

21

=

210

321

23

10

21

=

410600

622901 =

36

610

210

321

23

10

21

=

410600

622901 =

36

610

(a1, a2)

2

1

b

b = (a1b1 + a2b2)

210

321

23

10

21

=

410600

622901 =

36

610

(a1, a2)

2

1

b

b = (a1b1 + a2b2)

11.1 Erklären Sie folgendes Schema:

2 2 3 5 2 1 1 2 3 14 15 4 5 6 35 39 1 1 2 9 9

Sei A eine mn-Matrix, B eine np-Matrix und C eine pq-Matrix, so gilt A (B C) = (A B) C Die Matrixmultiplikation ist also assoziativ, und sie ist auch distributiv über die Matrixaddition +: A (B + C) = (A B) + (A C)

Sei A eine mn-Matrix, B eine np-Matrix und C eine pq-Matrix, so gilt A (B C) = (A B) C Die Matrixmultiplikation ist also assoziativ, und sie ist auch distributiv über die Matrixaddition +: A (B + C) = (A B) + (A C) Es gibt eine nn-Matrix I, die nn-Einheitsmatrix,

I =

1...00

............

0...10

0...01

= (ij) (11.4)

so dass für jede nn-Matrix A gilt A I = A = I A.

Sei A eine mn-Matrix, B eine np-Matrix und C eine pq-Matrix, so gilt A (B C) = (A B) C Die Matrixmultiplikation ist also assoziativ, und sie ist auch distributiv über die Matrixaddition +: A (B + C) = (A B) + (A C) Es gibt eine nn-Matrix I, die nn-Einheitsmatrix,

I =

1...00

............

0...10

0...01

= (ij) (11.4)

so dass für jede nn-Matrix A gilt A I = A = I A. Eine 11 Matrix ist eine Zahl. Eine 1n Matrix heißt Zeilenvektor. Eine n1 Matrix heißt Spaltenvektor oder einfach Vektor.

11.2 Die transponierte Matrix Wie Beispiel (11.3) verdeutlicht, kann man das Skalarprodukt (8.8) zwei-er Vektoren auch als Matrixprodukt schreiben:

3

2

1

a

a

a

3

2

1

b

b

b

= a1b1 + a2b2 + a3b3 = (a1, a2, a3)

3

2

1

b

b

b

11.2 Die transponierte Matrix Wie Beispiel (11.3) verdeutlicht, kann man das Skalarprodukt (8.8) zwei-er Vektoren auch als Matrixprodukt schreiben:

3

2

1

a

a

a

3

2

1

b

b

b

= a1b1 + a2b2 + a3b3 = (a1, a2, a3)

3

2

1

b

b

b

Dafür ist es allerdings erforderlich, den linken Vektor als Zeilenvektor statt, wie bisher durchweg geschehen, als Spaltenvektoren aufzufassen. Zukünftig wollen wir den Zeilenvektor als den transponierten Vektor AT von A bezeichnen.

11.2 Die transponierte Matrix Wie Beispiel (11.3) verdeutlicht, kann man das Skalarprodukt (8.8) zwei-er Vektoren auch als Matrixprodukt schreiben:

3

2

1

a

a

a

3

2

1

b

b

b

= a1b1 + a2b2 + a3b3 = (a1, a2, a3)

3

2

1

b

b

b

Dafür ist es allerdings erforderlich, den linken Vektor als Zeilenvektor statt, wie bisher durchweg geschehen, als Spaltenvektoren aufzufassen. Zukünftig wollen wir den Zeilenvektor als den transponierten Vektor AT von A bezeichnen.

A =

na

a

a

...2

1

1

21

11

na

a

a

... ; AT = (a1, a2,... , an) (a11, a12,..., a1n)

11.2 Die transponierte Matrix Wie Beispiel (11.3) verdeutlicht, kann man das Skalarprodukt (8.8) zwei-er Vektoren auch als Matrixprodukt schreiben:

3

2

1

a

a

a

3

2

1

b

b

b

= a1b1 + a2b2 + a3b3 = (a1, a2, a3)

3

2

1

b

b

b

Dafür ist es allerdings erforderlich, den linken Vektor als Zeilenvektor statt, wie bisher durchweg geschehen, als Spaltenvektoren aufzufassen. Zukünftig wollen wir den Zeilenvektor als den transponierten Vektor AT von A bezeichnen.

A =

na

a

a

...2

1

1

21

11

na

a

a

... ; AT = (a1, a2,... , an) (a11, a12,..., a1n)

Damit ergibt sich das Skalarprodukt nach dem Matrixformalismus AT A = |A|2.

AT A = (a1, a2,..., an)

na

a

a

...2

1

= |A|2

A AT =

na

a

a

...2

1

(a1, a2,..., an) =

nnnn

n

n

aaaaaa

aaaaaa

aaaaaa

21

22212

12111

......... ...

...

...

ist eine nn-Matrix symmetrisch zur Hauptdiagonale.

AT A = (a1, a2,..., an)

na

a

a

...2

1

= |A|2

A AT =

na

a

a

...2

1

(a1, a2,..., an) =

nnnn

n

n

aaaaaa

aaaaaa

aaaaaa

21

22212

12111

......... ...

...

...

ist eine nn-Matrix symmetrisch zur Hauptdiagonale. Eine Matrix A = (aij) wird transponiert, also an der Hauptdiagonale ge-spiegelt, indem Zeilen- und Spaltenindizes vertauscht werden: AT = (aji).

Beispiel: A =

ihg

fed

cba

, AT =

ifc

heb

gda

AT A = (a1, a2,..., an)

na

a

a

...2

1

= |A|2

A AT =

na

a

a

...2

1

(a1, a2,..., an) =

nnnn

n

n

aaaaaa

aaaaaa

aaaaaa

21

22212

12111

......... ...

...

...

ist eine nn-Matrix symmetrisch zur Hauptdiagonale. Eine Matrix A = (aij) wird transponiert, also an der Hauptdiagonale ge-spiegelt, indem Zeilen- und Spaltenindizes vertauscht werden: AT = (aji).

Beispiel: A =

ihg

fed

cba

, AT =

ifc

heb

gda

AT A = (a1, a2,..., an)

na

a

a

...2

1

= |A|2

Sei die Matrix C als Produkt von A und B gegeben, C = A B, d. h.

cij = k aikbkj . (11.2)

Sei die Matrix C als Produkt von A und B gegeben, C = A B, d. h.

cij = k aikbkj . (11.2) Um die transponierte Matrix CT direkt aus den transponierten Faktoren auszurechnen, vertauschen wir in (11.2) alle Spalten- und Zeilenindizes mit dem Ergebnis

cji = k akibjk .

Sei die Matrix C als Produkt von A und B gegeben, C = A B, d. h.

cij = k aikbkj . (11.2) Um die transponierte Matrix CT direkt aus den transponierten Faktoren auszurechnen, vertauschen wir in (11.2) alle Spalten- und Zeilenindizes mit dem Ergebnis

cji = k akibjk . Vertauschen wir überdies noch die Reihenfolge

cji = k bjkaki , (11.5) so besitzt (11.5) dieselbe Struktur wie die Definition des Produktes (11.2).

Sei die Matrix C als Produkt von A und B gegeben, C = A B, d. h.

cij = k aikbkj . (11.2) Um die transponierte Matrix CT direkt aus den transponierten Faktoren auszurechnen, vertauschen wir in (11.2) alle Spalten- und Zeilenindizes mit dem Ergebnis

cji = k akibjk . Vertauschen wir überdies noch die Reihenfolge

cji = k bjkaki , (11.5) so besitzt (11.5) dieselbe Struktur wie die Definition des Produktes (11.2). Lediglich die Indizes i und j sind vertauscht. Transposition eines Produktes bedeutet also Transposition und Vertauschung der Faktoren CT = (A B)T = BT A T .

00

01

00

10 =

00

10 transponiert:

01

00

00

01=

01

00

00

01

00

10 =

00

10 transponiert:

01

00

00

01=

01

00

0

0

1

(0 0 1) =

000

000

100

transponiert:

1

0

0

(1 0 0) =

001

000

000

00

01

00

10 =

00

10 transponiert:

01

00

00

01=

01

00

0

0

1

(0 0 1) =

000

000

100

transponiert:

1

0

0

(1 0 0) =

001

000

000

Ein Gleichungssystem wird transponiert, indem die Faktoren in Matrixprodukten vertauscht und einzeln transponiert werden (A X)T = XT AT = BT.

00

01

00

10 =

00

10 transponiert:

01

00

00

01=

01

00

0

0

1

(0 0 1) =

000

000

100

transponiert:

1

0

0

(1 0 0) =

001

000

000

Ein Gleichungssystem wird transponiert, indem die Faktoren in Matrixprodukten vertauscht und einzeln transponiert werden (A X)T = XT AT = BT.

Transponiert man eine transponierte Matrix AT, so erhält man wegen doppelter Indexvertauschung wieder die Ausgangsmatrix (AT)T = A.

11.2 A =

987

654

321

, B =

65

43

21

, C =

03-2-

1-01-

A A

CT + BT

A (B + CT)

11.2 A =

987

654

321

, B =

65

43

21

, C =

03-2-

1-01-

A A

CT + BT

A (B + CT) C A B C C B BT CT

11.2 A =

987

654

321

, B =

65

43

21

, C =

03-2-

1-01-

A A

CT + BT

A (B + CT) C A B C C B BT CT 11.3 Zeigen Sie (A B C)T = CT BT AT.

11.3 Elementarmatrizen Zur Erinnerung: Die Einheitsmatrix I3 lässt jede 33-Matrix A bei Multipli-kation unverändert. Sie bewirkt also nichts und es gilt I3 A = A.

100

010

001

ihg

fed

cba

=

ihg

fed

cba

11.3 Elementarmatrizen Zur Erinnerung: Die Einheitsmatrix I3 lässt jede 33-Matrix A bei Multipli-kation unverändert. Sie bewirkt also nichts und es gilt I3 A = A.

100

010

001

ihg

fed

cba

=

ihg

fed

cba

Die Elementarmatrix E(12) entsteht durch Vertauschung der ersten und zweiten Zeile von I3; E(12) vertauscht die erste und zweite Zeile von A:

100

001

010

ihg

fed

cba

=

ihg

cba

fed

E(3 3) entsteht durch Multiplikation der dritten Zeile von I3 mit der reel-len Zahl ; E(3 3) multipliziert die dritte Zeile von A mit :

00

010

001

ihg

fed

cba

=

ihg

fed

cba

E(3 3) entsteht durch Multiplikation der dritten Zeile von I3 mit der reel-len Zahl ; E(3 3) multipliziert die dritte Zeile von A mit :

00

010

001

ihg

fed

cba

=

ihg

fed

cba

E(2 2+3) entsteht durch Addition der mit multiplizierten dritten Zeile von I3 zur zweiten Zeile von I3; E(2 2+3) addiert die mit multiplizierte dritte Zeile von A zur zweiten Zeile von A:

100

10

001

ihg

fed

cba

=

ihg

ifhegd

cba

11.4 Geben Sie die Matrix an, die in A =

94-1

63-4

026-

zuerst die erste mit der dritten Zeile vertauscht, anschließend die mit 4 multiplizierte erste Zeile von der zweiten Zeile subtrahiert und endlich die mit 6 multiplizierte erste Zeile zur dritten addiert. [Hinweis: Die gesuchte Matrix ist das Produkt von drei Elementarmatrizen. Anwendungsreihenfolge beachten: Die zuerst anzuwen-dende Elementarmatrix steht direkt links von A.]

11.4 Geben Sie die Matrix an, die in A =

94-1

63-4

026-

zuerst die erste mit der dritten Zeile vertauscht, anschließend die mit 4 multiplizierte erste Zeile von der zweiten Zeile subtrahiert und endlich die mit 6 multiplizierte erste Zeile zur dritten addiert. [Hinweis: Die gesuchte Matrix ist das Produkt von drei Elementarmatrizen. Anwendungsreihenfolge beachten: Die zuerst anzuwen-dende Elementarmatrix steht direkt links von A.]

106

010

001

100

014-

001

001

010

100

=

601

4-10

100

11.4 Inversion von Matrizen Mit Hilfe von Elementaroperationen kann man bestimmte lineare Glei-chungssysteme auf die reduzierte Normalform (10.9) bringen. Durch Multiplikation der entsprechenden Koeffizientenmatrix A mit Elementar-matrizen Ei kann man A auf die analoge Form (11.4) bringen. Da dies aber nur für quadratische Matrizen gelingen kann, wollen wir in diesem Abschnitt nur noch quadratische Matrizen betrachten.

11.4 Inversion von Matrizen Mit Hilfe von Elementaroperationen kann man bestimmte lineare Glei-chungssysteme auf die reduzierte Normalform (10.9) bringen. Durch Multiplikation der entsprechenden Koeffizientenmatrix A mit Elementar-matrizen Ei kann man A auf die analoge Form (11.4) bringen. Da dies aber nur für quadratische Matrizen gelingen kann, wollen wir in diesem Abschnitt nur noch quadratische Matrizen betrachten.

I =

1...00

............

0...10

0...01

= (ij) (11.4)

Wenn A B = I gilt, so nennt man B die inverse Matrix von A und bezeichnet B mit A-1.

Wenn A B = I gilt, so nennt man B die inverse Matrix von A und bezeichnet B mit A-1. Da die Matrixmultiplikation nicht kommutativ ist, muss man im Allgemeinen zwischen dem Linksinversen und dem Rechtsinversen unterscheiden. Für eine quadratische Matrix sind die beiden Inversen jedoch identisch. Sei L das Linksinverse zu A, d.h. L A = I und R das Rechtsinverse A R = I.

Wenn A B = I gilt, so nennt man B die inverse Matrix von A und bezeichnet B mit A-1. Da die Matrixmultiplikation nicht kommutativ ist, muss man im Allgemeinen zwischen dem Linksinversen und dem Rechtsinversen unterscheiden. Für eine quadratische Matrix sind die beiden Inversen jedoch identisch. Sei L das Linksinverse zu A, d.h. L A = I und R das Rechtsinverse A R = I.

Eine Matrix heißt umkehrbar, wenn ein Linksinverses L und ein Rechts-inverses R existieren. In diesem Falle gilt L = R, denn R = I R = (L A) R = L (A R) = L I = L.

Berechnung der Inversen A-1 von A.

(En (...(E3 (E2 (E1 A))))) = I

(En ... E3 E2 E1) A = I

(En ... E3 E2 E1 I) A = I

= A-1 A

Werden also die Elementarmatrizen in derselben Reihen-folge auf die Einheitsmatrix angewandt, so entsteht daraus die zu A inverse Matrix

A-1 = En ... E3 E2 E1 I

A =

1-56

1-34

021

I =

100

010

001

1-7-0

1-5-0

021

106-

014-

001

1-7-0

1/510

021

106-

01/5-4/5

001

2/500

1/510

021

17/5-2/5-

01/5-4/5

001

A =

1-56

1-34

021

I =

100

010

001

1-7-0

1-5-0

021

106-

014-

001

1-7-0

1/510

021

106-

01/5-4/5

001

2/500

1/510

021

17/5-2/5-

01/5-4/5

001

A =

1-56

1-34

021

I =

100

010

001

1-7-0

1-5-0

021

106-

014-

001

1-7-0

1/510

021

106-

01/5-4/5

001

2/500

1/510

021

17/5-2/5-

01/5-4/5

001

A =

1-56

1-34

021

I =

100

010

001

1-7-0

1-5-0

021

106-

014-

001

1-7-0

1/510

021

106-

01/5-4/5

001

2/500

1/510

021

17/5-2/5-

01/5-4/5

001

2/500

1/510

021

17/5-2/5-

01/5-4/5

001

100

1/510

021

5/27/2-1-

01/5-4/5

001

100

010

021

5/27/2-1-

1/2-1/21

001

Ergebnis:

I =

100

010

001

A-1 =

5/27/2-1-

1/2-1/21

11-1-

Probe: A A-1 = I = A-1 A.

2/500

1/510

021

17/5-2/5-

01/5-4/5

001

100

1/510

021

5/27/2-1-

01/5-4/5

001

100

010

021

5/27/2-1-

1/2-1/21

001

Ergebnis:

I =

100

010

001

A-1 =

5/27/2-1-

1/2-1/21

11-1-

Probe: A A-1 = I = A-1 A.

2/500

1/510

021

17/5-2/5-

01/5-4/5

001

100

1/510

021

5/27/2-1-

01/5-4/5

001

100

010

021

5/27/2-1-

1/2-1/21

001

Ergebnis:

I =

100

010

001

A-1 =

5/27/2-1-

1/2-1/21

11-1-

Probe: A A-1 = I = A-1 A.

2/500

1/510

021

17/5-2/5-

01/5-4/5

001

100

1/510

021

5/27/2-1-

01/5-4/5

001

100

010

021

5/27/2-1-

1/2-1/21

001

Ergebnis:

I =

100

010

001

A-1 =

5/27/2-1-

1/2-1/21

11-1-

Probe: A A-1 = I = A-1 A

1-56

1-34

021

11.5 Das Matrixinversionsverfahren Jedes System von m linearen Gleichungen mit n Unbekannten lässt sich als Matrix-Gleichung schreiben A X = B , (11.6) wobei A eine mn-Matrix (11.1), X die n1-Matrix (der Vektor) der Unbe-kannten und B die m1-Matrix (der Vektor) der Konstanten ist. Solch eine einfache Gleichung löst man durch A-1 A X = X = A-1 B . (11.7) Deshalb lässt sich die Lösungsprozedur für lineare Gleichungssysteme vereinfachen, wenn es gelingt, die inverse Matrix A-1 zu A zu finden. Dies ist nicht in jedem Falle möglich. Doch existiert eine eindeutige Lösung für alle linearen Gleichungssysteme mit r = m = n, d. h. für alle eindeutig lösbaren linearen Gleichungssysteme. Wir wollen uns daher im Folgenden auf die entsprechenden Matrizen A beschränken. Die dazu notwendige Rechentechnik wurde bereits in Abschnitt 11.4 dargelegt. Dieses Verfahren bietet den Vorteil, dass das Gleichungssystem bei einem Wechsel des Konstantenvektors B weiterhin mit derselben inver-sen Matrix gelöst werden kann.

11.5 Das Matrixinversionsverfahren Jedes System von m linearen Gleichungen mit n Unbekannten lässt sich als Matrix-Gleichung schreiben A X = B , (11.6) wobei A eine mn-Matrix (11.1), X die n1-Matrix (der Vektor) der Unbe-kannten und B die m1-Matrix (der Vektor) der Konstanten ist. Solch eine einfache Gleichung löst man durch A-1 A X = X = A-1 B . (11.7) Deshalb lässt sich die Lösungsprozedur für lineare Gleichungssysteme vereinfachen, wenn es gelingt, die inverse Matrix A-1 zu A zu finden. Dies ist nicht in jedem Falle möglich. Doch existiert eine eindeutige Lösung für alle linearen Gleichungssysteme mit r = m = n, d. h. für alle eindeutig lösbaren linearen Gleichungssysteme. Wir wollen uns daher im Folgenden auf die entsprechenden Matrizen A beschränken. Die dazu notwendige Rechentechnik wurde bereits in Abschnitt 11.4 dargelegt. Dieses Verfahren bietet den Vorteil, dass das Gleichungssystem bei einem Wechsel des Konstantenvektors B weiterhin mit derselben inver-sen Matrix gelöst werden kann.

11.5 Das Matrixinversionsverfahren Jedes System von m linearen Gleichungen mit n Unbekannten lässt sich als Matrix-Gleichung schreiben A X = B , (11.6) wobei A eine mn-Matrix (11.1), X die n1-Matrix (der Vektor) der Unbe-kannten und B die m1-Matrix (der Vektor) der Konstanten ist. Solch eine einfache Gleichung löst man durch A-1 A X = X = A-1 B . (11.7) Deshalb lässt sich die Lösungsprozedur für lineare Gleichungssysteme vereinfachen, wenn es gelingt, die inverse Matrix A-1 zu A zu finden. Dies ist nicht in jedem Falle möglich. Doch existiert eine eindeutige Lösung für alle linearen Gleichungssysteme mit r = m = n, d. h. für alle eindeutig lösbaren linearen Gleichungssysteme. Wir wollen uns daher im Folgenden auf die entsprechenden Matrizen A beschränken. Die dazu notwendige Rechentechnik wurde bereits in Abschnitt 11.4 dargelegt. Dieses Verfahren bietet den Vorteil, dass das Gleichungssystem bei einem Wechsel des Konstantenvektors B weiterhin mit derselben inver-sen Matrix gelöst werden kann.

11.5 Das Matrixinversionsverfahren Jedes System von m linearen Gleichungen mit n Unbekannten lässt sich als Matrix-Gleichung schreiben A X = B , (11.6) wobei A eine mn-Matrix (11.1), X die n1-Matrix (der Vektor) der Unbe-kannten und B die m1-Matrix (der Vektor) der Konstanten ist. Solch eine einfache Gleichung löst man durch A-1 A X = X = A-1 B . (11.7) Deshalb lässt sich die Lösungsprozedur für lineare Gleichungssysteme vereinfachen, wenn es gelingt, die inverse Matrix A-1 zu A zu finden. Dies ist nicht in jedem Falle möglich. Doch existiert eine eindeutige Lösung für alle linearen Gleichungssysteme mit r = m = n, d. h. für alle eindeutig lösbaren linearen Gleichungssysteme. Wir wollen uns daher im Folgenden auf die entsprechenden Matrizen A beschränken. Die dazu notwendige Rechentechnik wurde bereits in Abschnitt 11.4 dargelegt. Dieses Verfahren bietet den Vorteil, dass das Gleichungssystem bei einem Wechsel des Konstantenvektors B weiterhin mit derselben inver-sen Matrix gelöst werden kann.

11.5 Das Matrixinversionsverfahren Jedes System von m linearen Gleichungen mit n Unbekannten lässt sich als Matrix-Gleichung schreiben A X = B , (11.6) wobei A eine mn-Matrix (11.1), X die n1-Matrix (der Vektor) der Unbe-kannten und B die m1-Matrix (der Vektor) der Konstanten ist. Solch eine einfache Gleichung löst man durch A-1 A X = X = A-1 B . (11.7) Deshalb lässt sich die Lösungsprozedur für lineare Gleichungssysteme vereinfachen, wenn es gelingt, die inverse Matrix A-1 zu A zu finden. Dies ist nicht in jedem Falle möglich. Doch existiert eine eindeutige Lösung für alle linearen Gleichungssysteme mit r = m = n, d. h. für alle eindeutig lösbaren linearen Gleichungssysteme. Wir wollen uns daher im Folgenden auf die entsprechenden Matrizen A beschränken. Die dazu notwendige Rechentechnik wurde bereits in Abschnitt 11.4 dargelegt. Dieses Verfahren bietet den Vorteil, dass das Gleichungssystem bei einem Wechsel des Konstantenvektors B weiterhin mit derselben inver-sen Matrix gelöst werden kann.

Beispiel: x1 + 2x2 = 1 4x1 + 3x2 - x3 = 2 6x1 + 5x2 - x3 = 3 Mit der in Abschnitt 11.4 berechneten Inversen A-1 ergibt sich

3

2

1

x

x

x

=

5/27/2-1-

1/2-1/21

11-1-

3

2

1

=

1/2-

1/2

0

d. h. die Unbekannten sind x1 = 0, x2 = 1/2 und x3 = -1/2.

Bei einem Wechsel von B =

3

2

1

zu B' =

0

0

1

kann die neue Lösung

mit Hilfe der davon unabhängigen und deshalb unveränderten Inversen A-1

schnell gefunden werden: A-1 B' =

1-

1

1-

. Das in Abschnitt 10 vorgestellte Verfahren

hätte dagegen nochmals gänzlich durchlaufen werden müssen.

Beispiel: x1 + 2x2 = 1 4x1 + 3x2 - x3 = 2 6x1 + 5x2 - x3 = 3 Mit der in Abschnitt 11.4 berechneten Inversen A-1 ergibt sich

3

2

1

x

x

x

=

5/27/2-1-

1/2-1/21

11-1-

3

2

1

=

1/2-

1/2

0

d. h. die Unbekannten sind x1 = 0, x2 = 1/2 und x3 = -1/2.

Bei einem Wechsel von B =

3

2

1

zu B' =

0

0

1

kann die neue Lösung

mit Hilfe der davon unabhängigen und deshalb unveränderten Inversen A-1

schnell gefunden werden: A-1 B' =

1-

1

1-

. Das in Abschnitt 10 vorgestellte Verfahren

hätte dagegen nochmals gänzlich durchlaufen werden müssen.

1-56

1-34

021

3

2

1

x

x

x

=

3

2

1

Beispiel: x1 + 2x2 = 1 4x1 + 3x2 - x3 = 2 6x1 + 5x2 - x3 = 3 Mit der in Abschnitt 11.4 berechneten Inversen A-1 ergibt sich

3

2

1

x

x

x

=

5/27/2-1-

1/2-1/21

11-1-

3

2

1

=

1/2-

1/2

0

d. h. die Unbekannten sind x1 = 0, x2 = 1/2 und x3 = -1/2.

Bei einem Wechsel von B =

3

2

1

zu B' =

0

0

1

kann die neue Lösung

mit Hilfe der davon unabhängigen und deshalb unveränderten Inversen A-1

schnell gefunden werden: A-1 B' =

1-

1

1-

. Das in Abschnitt 10 vorgestellte Verfahren

hätte dagegen nochmals gänzlich durchlaufen werden müssen.

1-56

1-34

021

3

2

1

x

x

x

=

3

2

1

Beispiel: x1 + 2x2 = 1 4x1 + 3x2 - x3 = 2 6x1 + 5x2 - x3 = 3 Mit der in Abschnitt 11.4 berechneten Inversen A-1 ergibt sich

3

2

1

x

x

x

=

5/27/2-1-

1/2-1/21

11-1-

3

2

1

=

1/2-

1/2

0

d. h. die Unbekannten sind x1 = 0, x2 = 1/2 und x3 = -1/2.

Bei einem Wechsel von B =

3

2

1

zu B' =

0

0

1

kann die neue Lösung

mit Hilfe der davon unabhängigen und deshalb unveränderten Inversen A-1

schnell gefunden werden: A-1 B' =

1-

1

1-

. Das in Abschnitt 10 vorgestellte Verfahren

hätte dagegen nochmals gänzlich durchlaufen werden müssen.

1-56

1-34

021

3

2

1

x

x

x

=

3

2

1

Beispiel: x1 + 2x2 = 1 4x1 + 3x2 - x3 = 2 6x1 + 5x2 - x3 = 3 Mit der in Abschnitt 11.4 berechneten Inversen A-1 ergibt sich

3

2

1

x

x

x

=

5/27/2-1-

1/2-1/21

11-1-

3

2

1

=

1/2-

1/2

0

d. h. die Unbekannten sind x1 = 0, x2 = 1/2 und x3 = -1/2.

Bei einem Wechsel von B =

3

2

1

zu B' =

0

0

1

kann die neue Lösung

mit Hilfe der davon unabhängigen und deshalb unveränderten Inversen A-1

schnell gefunden werden: A-1 B' =

1-

1

1-

. Das in Abschnitt 10 vorgestellte Verfahren

hätte dagegen nochmals gänzlich durchlaufen werden müssen.

1-56

1-34

021

3

2

1

x

x

x

=

3

2

1

Beispiel: x1 + 2x2 = 1 4x1 + 3x2 - x3 = 2 6x1 + 5x2 - x3 = 3 Mit der in Abschnitt 11.4 berechneten Inversen A-1 ergibt sich

3

2

1

x

x

x

=

5/27/2-1-

1/2-1/21

11-1-

3

2

1

=

1/2-

1/2

0

d. h. die Unbekannten sind x1 = 0, x2 = 1/2 und x3 = -1/2.

Bei einem Wechsel von B =

3

2

1

zu B' =

0

0

1

kann die neue Lösung

mit Hilfe der davon unabhängigen und deshalb unveränderten Inversen A-1

schnell gefunden werden: A-1 B' =

1-

1

1-

. Das in Abschnitt 10 vorgestellte Verfahren

hätte dagegen nochmals gänzlich durchlaufen werden müssen.

1-56

1-34

021

3

2

1

x

x

x

=

3

2

1

Bemerkungen: Ein Gleichungssystem heißt homogen, wenn B = 0. Die Lösung X = 0 des homogenen Systems heißt triviale Lösung. Eine Matrix mit maximalem Rang r = n heißt regulär, eine Matrix mit Rang r < n heißt irregulär (oder singulär). Eine Matrix A heißt symmetrisch, wenn AT = A.

Bemerkungen: Ein Gleichungssystem heißt homogen, wenn B = 0. Die Lösung X = 0 des homogenen Systems heißt triviale Lösung. Eine Matrix mit maximalem Rang r = n heißt regulär, eine Matrix mit Rang r < n heißt irregulär (oder singulär). Eine Matrix A heißt symmetrisch, wenn AT = A.

Bemerkungen: Ein Gleichungssystem heißt homogen, wenn B = 0. Die Lösung X = 0 des homogenen Systems heißt triviale Lösung. Eine Matrix mit maximalem Rang r = n heißt regulär, eine Matrix mit Rang r < n heißt irregulär (oder singulär). Eine Matrix A heißt symmetrisch, wenn AT = A.

11.5 Invertieren Sie die Matrix

42

13.

11.6 Versuchen Sie, die Matrix

26

13 zu invertieren.

11.7 Stellen Sie die Ergebnisse von Übung 5.1 durch Matrizen dar.

III IX XI X // \\

11.5 Invertieren Sie die Matrix

42

13.

11.6 Versuchen Sie, die Matrix

26

13 zu invertieren.

11.7 Stellen Sie die Ergebnisse von Übung 5.1 durch Matrizen dar.

III IX XI X // \\

11.5 Invertieren Sie die Matrix

42

13.

11.6 Versuchen Sie, die Matrix

26

13 zu invertieren.

11.7 Stellen Sie die Ergebnisse von Übung 5.1 durch Matrizen dar.

III IX XI X // \\

Recommended