29
Anhang A 235 werte direkt geliefert werden und somit nicht mehr einer Stellenauslöschung unterliegen. Aus diesem Grund ist die simultane inverse Vektoriteration trotz des komplizierteren Aufbaus und des bedeutend größeren Rechenaufwandes pro Iterationsschritt zu empfehlen, da die raschere Konvergenz den Gesamtrechen- aufwand doch nicht zu sehr anwachsen läßt. AnhangA Die Methode der konjugierten Gradienten in der Ausgleichsrechnung A. 1. Vermittelnde Ausgleichung nach der Methode der konjugierten Gradienten. Sowohl im Zusammenhang mit den Relaxationsverfahren als auch mit den Fehler- gleichungen wurde der Begriff der Residuen verwendet. Um in der momentanen Verknüpfung der beiden Sachgebiete den Namenkonflikt zu vermeiden, wird folgende Bezeichnung benutzt werden: Es sei V(k) ein Näherungsvektor der ge- suchten Lösung x. Unter!(k) verstehen wir den zugehörigen Fehlervektor bezüg- lich der Fehlergleichungen CV(k) + d = !(k), während r(k) den Residuenvektor bezüglich der Normalgleichungen CT CV(k) + CT d = r(k) (A.l) (A. 2) im üblichen Sinn der Relaxationsrechnung bedeutet. Dann gilt offenbar die Be- ziehung (A.3) Die Elimination der Normalgleichungsmatrix A = C T C im Nenner von qk der Rechenvorschrift (2.96) erfolgt durch die Umformung (A. 4) Aus der Rekursionsformel für die Residuenvektoren r(k) in (2.96) wird A eliminiert, indem man zu den Fehlervektoren übergeht. Zu diesem Zweck wird die Rekur- sionsformel für die Näherungsvektoren in (2.96), das ist V(k) = V(k - 1) + q k p(k), mit C multipliziert. (A. 5) Addiert man in (A. 5) auf beiden Seiten den Konstantenvektor d, ergibt sich unter Beachtung von (A. 1) die Rekursionsformel für die Fehlervektoren (A. 6) Die Beziehung (A. 3) stellt schließlich den Zusammenhang zwischen den Fehler- vektoren und den Residuenvektoren her. Die Residuenvektoren sind ebenfalls mitzuführen, da sie zur Berechnung von ek-l, p(k) und qk benötigt werden.

AnhangA Die Methode der konjugierten Gradienten in der ...978-3-663-11341-6/1.pdf · mitzuführen, da sie zur Berechnung von ek-l, p(k) und qk benötigt werden. 236 Anhang A ... Bedingte

  • Upload
    vanthuy

  • View
    217

  • Download
    2

Embed Size (px)

Citation preview

Anhang A 235

werte direkt geliefert werden und somit nicht mehr einer Stellenauslöschung unterliegen. Aus diesem Grund ist die simultane inverse Vektoriteration trotz des komplizierteren Aufbaus und des bedeutend größeren Rechenaufwandes pro Iterationsschritt zu empfehlen, da die raschere Konvergenz den Gesamtrechen­aufwand doch nicht zu sehr anwachsen läßt.

AnhangA

Die Methode der konjugierten Gradienten in der Ausgleichsrechnung

A. 1. Vermittelnde Ausgleichung nach der Methode der konjugierten Gradienten. Sowohl im Zusammenhang mit den Relaxationsverfahren als auch mit den Fehler­gleichungen wurde der Begriff der Residuen verwendet. Um in der momentanen Verknüpfung der beiden Sachgebiete den Namenkonflikt zu vermeiden, wird folgende Bezeichnung benutzt werden: Es sei V(k) ein Näherungsvektor der ge­suchten Lösung x. Unter!(k) verstehen wir den zugehörigen Fehlervektor bezüg­lich der Fehlergleichungen

CV(k) + d = !(k),

während r(k) den Residuenvektor bezüglich der Normalgleichungen

CT CV(k) + CT d = r(k)

(A.l)

(A. 2)

im üblichen Sinn der Relaxationsrechnung bedeutet. Dann gilt offenbar die Be­ziehung

(A.3)

Die Elimination der Normalgleichungsmatrix A = CT C im Nenner von qk der Rechenvorschrift (2.96) erfolgt durch die Umformung

(A. 4)

Aus der Rekursionsformel für die Residuenvektoren r(k) in (2.96) wird A eliminiert, indem man zu den Fehlervektoren übergeht. Zu diesem Zweck wird die Rekur­sionsformel für die Näherungsvektoren in (2.96), das ist V(k) = V(k - 1) + q k p(k),

mit C multipliziert. (A. 5)

Addiert man in (A. 5) auf beiden Seiten den Konstantenvektor d, ergibt sich unter Beachtung von (A. 1) die Rekursionsformel für die Fehlervektoren

(A. 6)

Die Beziehung (A. 3) stellt schließlich den Zusammenhang zwischen den Fehler­vektoren und den Residuenvektoren her. Die Residuenvektoren sind ebenfalls mitzuführen, da sie zur Berechnung von ek-l, p(k) und qk benötigt werden.

236 Anhang A

Aus (2.95) und (2.96) resultiert damit der folgende Algorithmus zur Auflösung der Fehlergleichungen Cx + d = fmit Hilfe der Methode der konjugierten Gradienten.

Start: I Wahl von v(o); f(O) = Cv(O) + d

Relaxionsschritt (k = 1,2, ... ):

,(le-l) = C T f(k-l)

(,(k-1), ,(k-l»)

ek-l = (,(k-2), ,(k-2»)

{ _,(k-l)

p(k) _ - _,(k-1) + ek-l p(k-1)

(r(k-1), ,(k-1))

qk = (Cp(k), Cp(k»)

V(k) = V(k-l) + qkP(k)

f(k) =j<k-l) + qk(Cp(k»)

(k ~ 2)

(k = 1)

(k ~ 2)

(A. 7)

(A.8)

In der Rechenvorschrift (A. 7) und (A. 8) sind j<k), d und C p(k) je n-dimensionale Vektoren, ,(k - 1), p(k) und V(k) sind je rn-dimensional.

Man stellt fest, daß pro Relaxationsschritt zwei Operationen Matrix mal Vektor erforderlich sind. Die in der Methode der konjugierten Gradienten benötigte Multiplikation mit A wird jetzt in zwei Teilschritten ausgeführt. Dadurch wird der Rechenaufwand pro Iterationsschritt sogar erhöht, doch muß die Matrix Ader Normalgleichungen nicht explizit berechnet werden. Von Bedeutung sind die Eigenschaften des Rechenprozesses, die sich aus den­jenigen der Methode der konjugierten Gradienten ergeben. Eine unmittelbare Folge von Satz 2.13 ist

Satz A. 1. Der Algorithmus (A. 7) und (A. 8) liefert die Lösung der Fehlergleichungen nach höchstens m Schritten.

Ferner gilt

Satz A. 2. Bei Auflösung der Fehlergleichungen der vermittelnden Ausgleichung nach der Methode der konjugierten Gradienten nimmt der Betrag der Fehlervektoren f(k) im strengen Sinn monoton ab.

Beweis: Löst man die Rekursionsformel für die Fehlervektoren j<k) in (A. 8) nachj<k - 1) auf, folgt für das Skalarprodukt

(j(k-1),/(k-ll) = (j(k),j(k») _ 2qk (j(k), Cp(k») + q~ (Cp(k), Cp(k»). (A.9)

Die Methode der konjugierten Gradienten in der Ausgleichsrechnung 237

Da aber nach (A. 3) und weiter nach (2.87)

(f(k), Cp(k») = (cT /(k), p(k») = (,(k), p(k») = 0

ist, verschwindet in (A. 9) das mittlere Glied, und es folgt aus (A. 9)

(f(k),j(k») = (f(k-l),j(k-l)) - tll(Cp(k), Cp(k»). (A. 10)

Solange der Näherungsvektor V(k - 1) =F x ist, ist auch der Residuenvektor ,(k - 1) =F o. Damit ist auch der Relaxationsvektor p(k) =F O. Folglich ist wegen des Maximalrangs von C der Vektor C p(k) =F 0, und da auch qk =F 0 ist, ergibt sich aus (A. 10) die strenge Monotonie von (f(k),j(k») mit zunehmendem k. Die Bedeutung des Satzes A.2 besteht darin, daß der iterative Prozeß auf Grund des Fehlerquadrates (f(k),/(k») eventuell schon vor Ausführung von m Schritten abgebrochen werden kann. Dies ist dann angezeigt, wenn man nur verlangt, daß der Wert von (f(k),j(k») eine gegebene Schranke unterschreitet und man sich mit einer entsprechenden Näherung V(k) für die gesuchte Lösung x zufrieden gibt. Bei der Lösung von größeren Fehlergleichungssystemen der Geodäsie konnte be­obachtet werden, daß der minimal mögliche Wert von (/(k), j<k») oft schon nach verhältnismäßig wenig Schritten erreicht wurde, und daß die zugehörige Näherung V(k) die Lösung auch mit hinreichender Genauigkeit darstellte. Diese Tatsache reduziert den totalen Rechenaufwand. Abschließend soll noch auf die praktische Durchführung und die sich daraus er­gebenden Konsequenzen eingegangen werden. Es ist nur sinnvoll, die Methode der konjugierten Gradienten zur Lösung der Fehlergleichungen anzuwenden, falls die Matrix C sehr schwach besetzt ist. Dies trifft in den meisten Anwendungen der Geodäsie zu, indem jede Fehlergleichung nur eine sehr beschränkte Anzahl von Unbekannten verknüpft. Um die vielen Nullelemente bei der Berechnung von C p(k) berücksichtigen zu können, ist es vorteilhaft, anstelle der Matrix C beispielsweise zwei Referenzmatrizen zu verwenden, die die Information enthalten, welche Elemente von Null verschieden sind und ihre tatsächlichen Werte. Analog kann man verfahren zur ökonomischen Berechnung von CT j<k - 1). Sind beispielsweise nur 2 % der Elemente von C von Null verschieden, so benötigt die skizzierte kom­pakte Darstellung von C und CT nur rund 10% des Speicherbedarfs im Vergleich zur vollständigen Matrix C. Durch weitergehende computerorientierte Verfeine­rungen läßt sich der Speicherbedarf noch stärker herabsetzen. Unter der Annahme, daß die Anzahl der Fehlergleichungen ungefähr doppelt so groß ist wie die Zahl der Unbekannten, ergibt die Auszählung der multiplikativen Rechenoperationen unter Berücksichtigung der schwachen Besetzung von C einen totalen Aufwand, der nur proportional zu m2 ist. Im Vergleich dazu sind die Methode der Normalgleichungen und die Methode der Orthogonalisierung je m3-Prozesse.

Numerisch vorteilhaft ist zudem die Tatsache, daß die Methode stets mit den ge­gebenen Zahlwerten der Fehlergleichungen arbeitet. Dadurch werden Rundungs­fehler, wie sie bei der Bildung der Normalgleichungen oder im Verlauf der Ortho­gonalisierung entstehen, vermieden.

238 Anhang A

Schlußfolgerung: Zur Lösung von Fehlergleichungssystemen mit vielen Unbe­kannten und mit schwach besetzter Matrix C ist die Methode der konjugierten Gradienten den andern Verfahren vorzuziehen.

A. 2. Bedingte Ausgleichung nach der Methode der konjugierten Gradienten. Es ist zweckmäßig, zur Behandlung der bedingten Ausgleichung anstelle des Lösungs­vektors x den Korrekturvektor oder Verbesserungsvektor v = x-I als unbekannt zu betrachten. Für diesen Vektor v lauten die Bedingungsgleichungen (3.25)

Pv+w=O, mit w=Pl+q.

Die Korrelatengleichungen (3.27) werden damit

v = pT t,

und die Normalgleichungen für den Korrelatenvektor t lauten

ppT t + w = 0.

(A. 11)

(A. 12)

(A. 13)

Die Methode der konjugierten Gradienten zur Lösung der Normalgleichungen (A. 13) liefert einen Prozeß zur iterativen Berechnung von Näherungen t(k) des Korrelatenvektors t und über die Korrelatengleichungen (A. 12) zur Berechnung von Näherungen V(k) des Korrekturvektors v. Man beachte, daß jetzt V(k) eine Näherung für v bedeutet! Der Residuenvektor ,(k) ist gegeben durch

,(k) = P pT t(k) + w.

Mit Hilfe des Zusammenhangs

ergibt sich aus (A. 14) und (A. 15) die Relation

,(k) = PV(k) + w

zwischen der Näherung V(k) und dem Residuenvektor ,(k).

(A. 14)

(A. 15)

(A. 16)

Die Elimination der Normalgleichungsmatrix A = P pT aus dem Nenner von qk der Rechenvorschrift (2.96) erfolgt analog wie oben. Weiter folgt aus der jetzt für t(k) zu formulierenden Rekursionsformel

(A. 17)

nach Multiplikation mit pT gemäß (A. 15) die zugehörige Rekursionsformel für die Näherungen V(k)

(A. 18)

Zusammenfassend ergibt sich zur Lösung der bedingten Ausgleichung P v + w = 0, (v, v) = Minimum nach der Methode der konjugierten Gradienten der nachfol­gende Algorithmus.

Die Methode der konjugierten Gradienten in der Ausgleichsrechnung 239

Start: Wahl von t(o) = 0; 1)(0) = 0

Relaxationsschritt (k = 1,2, ... ):

,(k-l) = PV(k-l) + W

(,("-0, ,(k-O)

ek-l = (,(k-2), ,(1' 2»

{ _ ,(k-O

p(k) _ - _,(k-O + e,,_IP(k-O

(,(1<-0, ,(1<-1»

qk = (pT p(k), pT p(k»

t(k) = t(k-l) + qkP(k)

V(k) = V(k-O + qk(pT p(k»

(k ~ 2)

(k = 1)

(k ~ 2)

(A.19)

(A.20)

Im Algorithmus (A. 19) und (A. 20) wird die spezielle Wahl des Startvektors t(o) = 0 getroffen, wodurch sich vereinfachend 1)(0) = 0 ergibt. Dies ist sicher eine ver­nünftige Wahl, da der Korrekturvektor I) im allgemeinen klein sein wird. Die Rekursionsformel für die Vektoren t(k) wurde nur der Vollständigkeit halber aufgeführt, um die Dualität der Algorithmen (A. 8) und (A. 20) deutlich hervor­treten zu lassen. Die Folge von Näherungsvektoren t(k) kann jedoch weggelassen werden, ohne am Prozeß etwas zu ändern. Es resultiert so ein Algorithmus zur Lösung der Aufgabe der bedingten Ausgleichung, in welchem nicht nur die Nor­malgleichungsmatrix, sondern auch der meistens nicht interessierende Korrelaten­vektor eliminiert sind. Als Folge von Satz 2.13 gilt

Satz A. 3. De, Algorithmus (A. 19) und (A. 20) liefert den Korrekturvektor v der bedingten Ausgleichung nach höchstens m Schritten. Ferner gilt

Satz A. 4. Bei Auflösung der Aufgabe der bedingten Ausgleichung nach der Methode der konjugierten Gradienten nimmt der Betrag der Korrekturvektoren V(k) im strengen Sinn monoton zu.

Beweis: Wir betrachten die Änderung des Korrekturvektors im i-ten Relaxations­schritt

(A. 21)

240 Anhang B

Da die Relaxations vektoren p(i) paarweise konjugiert sind, sind also die Ände­rungen ßv(i) gemäß

(ßv(i), ßv(j») = q! qj (pT p(i), pT p(j») = qi qj (p(i), ppT p(j)) = 0 (A. 22)

für i =1= j

paarweise orthogonal. Die k-te Näherung V(k) läßt sich aber formal als endliche Summe aus v(o) = 0 und den k Änderungsvektoren ßv(l), ßV(2), •.. , ßV(k)

darstellen als k k

V(k) = v(o) + L ßv(i) = L ßv(i). (A. 23) ;=1 ;=1

Infolge der paarweisen Orthogonalität (A. 22) ist deshalb

(V(k), V(k») = (tl ßv(i), ;tl ßV(i))

k k (A. 24) = L (ßv(i), ßv(i)) = L q~ (pT pm, pT p(i)).

;=1 ;=1

Der Wert von (V(kl, V(k») ist in der Tat mit wachsendem k streng zunehmend, da die Summanden in (A. 24) nach analoger Schlußweise wie oben wesentlich positive Größen sind, solange die Lösung v noch nicht erreicht ist. Die in A. 1 gemachten Feststellungen und Bemerkungen zum Verfahren übertragen sich sinngemäß.

Anhang B

Aufgaben

Aufgabe 1.1. [zu 1.1] Sind die drei Vektoren des vierdimensionalen Vektorraums linear unabhängig?

Aufgabe 1.2. [zu 1.1] Welches sind die Winkel 'P zwischen den Vektoren von Auf­gabe 1.1?

Aufgabe 1.3. [zu 1.1] Es seien b l , b2 , ... , b. orthonormierte Vektoren in Vn . Man zeige, daß die Koordinaten eines beliebigen Vektors x aus Vn bezüglich der Basis der bi gegeben sind durch

Ci = (bi' x).

Aufgaben 241

Aufgabe 1.4. [zu 1.1] Wie lautet die Matrix der linearen Transformation, die der Drehung des V3 um die y-Achse um den Winkel !p entspricht?

Aufgabe 1.5. [zu 1.1] Man beweise die Invarianz der Eigenwerte einer Matrix bei einer Ähnlichkeitstransformation. Wie transformieren sich die Eigenvektoren ?

Aufgabe 1.6. [zu 1.2] Man zeige, daß die Matrixnormen (1.43) und (1.44) die Eigenschaft (1.41) besitzen.

Aufgabe 1.7. [zu 1.2] Welches sind die den Vektornormen (1.34) und (1.35) unter­geordneten Matrixnormen ?

Aufgabe 1.8. [zu 1.2] Wie groß sind die Konditionszahlen der Matrizen

[

1 0 0

) A=0250 a 1 0 0 64

000

~] , 100

[ 2 -1 0 0] -1 3 -1 0

b) A 2 = 0 -1 3 -1 '

o 0 -1 2

_1234? [1 1 1 1]

c) A 3 - 1 3 6 10 .

1 4 10 20

Ist im Fall a) die Konditionszahl vernünftig? Wie groß sind die numerischen Fehler bei der Auflösung eines Gleichungssystems mit einer Diagonalmatrix?

Aufgabe 1.9. [zu 1.2] Unter dem Skalieren einer symmetrischen Matrix A ver­steht man speziell den Übergang zu B = D . A . D, worin Deine Diagonalmatrix bedeutet. Die i-te Zeile und i-te Kolonne von A werden je mit dem i-ten Diagonal­element d, multipliziert. Man verifiziere: Ist A symmetrisch, dann ist es auch B, aber A und B sind nicht ähnlich! Wie ändert sich die Konditionszahl für Al aus Auf­gabe 1.8 mit der Skaliermatrix

[0 0 0 0]

D = 0 0.2 0 O? o 0 0.125 0 .

o 0 0 0.1

Aufgabe 1.10. [zu 1.2] Welche naheliegende Skalierung verkleinert die Konditions­zahl der Matrix

[ 1 10] A = 10 101

wesentlich? Kann eine zweireihige symmetrische Matrix auf einfache Weise so skaliert werden, daß ihre Konditionszahl minimal wird?

242 Anhang B

Aufgabe 1.11. [zu 1.3] Warum sind die folgenden Matrizen offensichtlich nicht positiv definit?

[11

a) Al = ; 7 1]

-2 3 ,

3 10

b) A 2 = [_! : -; -11, c) A, - [_~ ~ -~ -:].

6 -5 4 3J 0 -4 3 5

Aufgabe 1.12. [zu 1.3] Durch systematische Reduktion der quadratischen Formen auf eine Summe von Quadraten prüfe man, ob die Matrizen positiv definit sind.

[1 2 3] a) Al = 2 4 6 ,

369

[1 4 2] b) A 2 = 4 25 2 ,

2 2 7

[

81 -27 18 -9

J -27 45 18 21 c) A 3 = 18 18 45 0 .

-9 21 0 63

Aufgabe 1.13. [zu 1.3] Es seien A und B zwei positiv definite Matrizen. Man zeige, daß auch die Summe C = A + B eine positiv definite Matrix ist.

Aufgabe 1.14. [zu 1.3] Man zeige, daß die (n x n)-Matrix A mit den Elementen aik = 1/(i + k - 1) positiv definit ist.

Anleitung: Es ist 1

aik = S X i + k - 2 dx, o

und die zu A gehörende quadratische Form soll ebenfalls durch ein Integral ausgedrückt werden.

Aufgabe 1.15. [zu 1.4] Wie lautet formelmäßig die Inverse der speziellen Links­dreiecksmatrix

al 0 0 0 0

bl a2 0 0 0

0 b2 a3 0 0 L= 0 0 b3 a4 0 ?

o 0 0 0 an-l 0 o 0 0 0 bn - l an

Aufgabe 1.16. [zu 1.4] Zur Inversion einer regulären Rechtsdreiecksmatrix ist ein Rechenprogramm zu entwickeln. Zuerst sollen die expliziten Formeln zur suk­zessiven Berechnung der Elemente der Inversen aufgestellt werden.

Aufgabe 1.17. [zu 1.4] Man löse das System Ax + b = 0

4Xl - 2X2 + 6X3 - 10 = 0

-2Xl + 17x2 + X3 - 39 = 0

6Xl + X2 + 19x3 - 53 = 0

Aufgaben 243

nach der Methode von Cholesky. Anschließend berechne man die Diagonal­elemente der Inversen A - 1.

Aufgabe 1.18. [zu 1.4] Lösung der Bandgleichungen nach Cholesky:

Xl + 2x2 - X3 + 2=0

2xl + 8X2 + 4X3 - 2X4 + 10 = 0

-Xl + 4x2 + 19x3 + 9X4 - 3xs - 35 = 0

- 2X2 + 9X3 + 26x4 + 5xs - 3X6 - 47 = 0

- 3X3 + 5X4 + 14xs + X6 + 34 = 0

- 3X4 + Xs + 6X6 + 3 = 0

Aufgabe 2.1. [zu 2.1] Zu den symmetrisch-definiten Gleichungssystemen

a) 9Xl - X2 - 7 = 0 b) 31xl + 29x2 - 33 = 0

-Xl + 9X2 - 17 = 0 29x l + 31x2 - 27 = 0

konstruiere man die zugehörigen quadratischen Funktionen, deren Minima die Lösungen der Systeme sind. Man bestimme einige Niveaulinien der quadratischen Funktionen. Worin unterscheiden sich die bei den Systeme? Man bringe die geo­metrische Tatsache mit den Konditionszah1en in Verbindung.

Aufgabe 2.2. [zu 2.2] Für das Gleichungssystem A x + b = 0 mit

A = -1 4 -1 0 r 2 -1 0 01 o -1 4 -1 ' o 0 -1 2

führe man einige Schritte sowohl nach der Methode der Handrelaxation wie nach dem Einzelschrittverfahren durch und achte auf die Konvergenzeigenschaften. Wie groß ist die Konvergenzziffer des Einzelschrittverfahrens?

Aufgabe 2.3. [zu 2.2] Zu den beiden Matrizen von Aufgabe 2.1

Al = [_~ -~] und A 2 = [~~ ~~] bestimme man die Konvergenzziffern des Einzelschrittverfahrens.

Aufgabe 2.4. [zu 2.2] Wie groß sind die optimalen Überrelaxationsfaktoren für die drei Matrizen der Aufgaben 2.2 und 2.3 und die zugehörigen Konvergenzziffern der Überrelaxation ?

244 Anhang B

Aufgabe 2.5. [zu 2.2] Für das Gleichungssystem

31 Xl + 29x2 - 33 = 0

29xI + 31x2 - 27 = 0

studiere man numerisch das Konvergenzverhalten für verschiedene Überrelaxa­tionsfaktoren in der Nähe des optimalen Wertes, und man berechne die zugehöri­gen Konvergenzradien. Vergleich der numerisch festgestellten Konvergenz­geschwindigkeit mit den theoretisch erwarteten Werten.

Aufgabe 2.6. [zu 2.3] Die beiden symmetrisch-definiten Gleichungssysteme von Aufgabe 2.1 löse man sowohl nach der Methode des stärksten Abstiegs als auch nach dem Gesamtschrittverfahren. Durch graphische Darstellung der Näherungs­punkte und der Relaxationsrichtungen mache man sich ein anschauliches Bild vom Konvergenzverhalten der beiden Verfahren.

Aufgabe 2.7. [zu 2.3] Man beweise auf Grund des Spektralradius, daß das Gesamt­schrittverfahren für ein symmetrisch-definites Gleichungssystem in zwei Unbe­kannten immer konvergiert. Diese Aussage gilt für Systeme in mehr Variablen nicht!

Aufgabe 2.8. [zu 2.3] Man zeige, daß das Gesamtschrittverfahren für alle Werte von a, für welche die Matrix

../2 2

a

A= ../2

1 ../2

2 2 ../2

a 2

positiv definit ist, divergiert.

Aufgabe 2.9. [zu 2.4] Die Gleichungssysteme der Aufgaben 2.2 und 2.5 sind nach der Methode der konjugierten Gradienten zu lösen. Man prüfe die Orthogonalitäts­eigenschaften der Residuenvektoren (Rechenkontrolle!).

Aufgabe 2.10. [zu 2.4] Im Fall des Systems der Aufgabe 2.5 führe man die Rechnung konsequent mit vier wesentlichen Dezimalstellen durch. Welches ist die Näherung nach zwei Schritten, falls man vom Nullpunkt ausgeht? Wie groß ist die Ab­weichung von der exakten Lösung und wie groß ist der Residuenvektor?

Aufgabe 3.1. [zu 3.1] In einem rechtwinkligen Trapez wurden folgende Elemente gemessen: Längere parallele Seite 6 cm, kürzere parallele Seite 4 cm, dazu senk­rechte Seite 2.5 cm, längere Diagonale 6.5 cm und kürzere Diagonale 4.7 cm. Die Aufgabe ist sowohl in der Form der vermittelnden wie der bedingten Ausgleichung

Aufgaben 245

zu formulieren. Beide Formulierungen sind mit Hilfe des Korrekturansatzes zu linearisieren. Hinweis: Im Fall der vermittelnden Ausgleichung ist zu beachten, daß das Pro­blem nur drei Unbekannte aufweist, für die fünf Messungen vorliegen, während im andern Fall zwei Bedingungsgleichungen für fünf Unbekannte zu formulieren sind.

A

B

Fig. 39 Ausgleichung am Trapez Fig. 40 Turmvermessung

Aufgabe 3.2. [zu 3.1] Um die Höhe x eines Turmes zu bestimmen, der auf einem vollkommen ebenen Gelände steht, wurden von drei Punkten A, Bund C aus, deren Abstände a, bund c vom Fuß des Turmes exakt bekannt seien, die Win­kel oe, ß und y gemessen. Wie lauten die Problemformulierungen in der Form der vermittelnden und bedingten Ausgleichung? Anleitung: Im ersten Fall sind drei Fehlergleichungen bezüglich der gemessenen Winkel aufzustellen, im zweiten Fall sind zwei Bedingungen für die drei ausge­glichenen Winkel zu finden.

Aufgabe 3.3. [zu 3.2] Das System der Fehlergleichungen

Xl + X2 - 1 = rl

Xl + 2X2 - 3 = r2

Xl + 3X2 - 6 = r3

Xl+ 4x2- 10 =r4

Xl + 5X2 - 15 = rs

ist mit Normalgleichungen aufzulösen. Kondition der Normalgleichungsmatrix?

Aufgabe 3.4. [zu 3.2] Zur Bestimmung der Koeffizienten einer quadratischen Funk­tion Y = ax2 + bx + ewerden n Ordinaten YI an den äquidistanten Stütz­steIlen XI = i (i = 1,2, ... , n) gemessen. Wie wächst die Konditionszahl der zu­gehörigen Normalgleichungsmatrix mindestens in Funktion von n? Wie lautet die Abschätzung allgemeiner für ein Polynom p-ten Grades (p ~ n)?

Aufgabe 3.5. [zu 3.3] Von einer Funktion Y = f(x) sind an den fünf äquidistanten Stützstellen Xl = 1, X2 = 2, ... , X5 = 5 die Werte Yl = 270, Y2 = 260, Y3 = 248, Y4 = 235, Y5 = 213 gemessen. Die Stützwerte Yi sollen im Sinn der kleinsten Quadrate möglichst wenig geändert werden, so daß sie exakt auf eine Parabel zweiten Grades zu liegen kommen.

246 Anhang B

Anleitung: Für je vier aufeinanderfolgende Stützwerte muß die dritte Diffe­renz Yi - 3 Y t - 1 + 3 Yi - 2 - Yi _ 3 = 0 sein. Dies liefert zwei Bedingungsglei­chungen.

Wie lautet das dazu duale Problem?

Aufgabe 3.6. [zu 3.4] Das Fehlergleichungssystem von Aufgabe 3.3 ist nach der Methode der Orthogonalisierung zu lösen.

Aufgabe 3.7. [zu 3.4] Das Problem der bedingten Ausgleichung von Aufgabe 3.5 ist mit der Orthogonalisierungsmethode zu behandeln.

Aufgabe 3.8. [zu 3.4] Das Fehlergleichungssystem

1.07Xl + 1.10X2 - 2.80 = rl

1.07x1 + 1.11x2 - 2.70 = r2

1.07x1 + 1.15X2 - 2.50 = r3

ist unter Verwendung einer dreisteIligen Genauigkeit sowohl nach der Methode der Normalgleichungen als auch nach der Orthogonalisierung zu lösen. Alle auf­tretenden Zahl werte sind auf drei wesentliche Ziffern zu runden.

Beispiel: 1.072 + 1.072 + 1.072 = 1.14 + 1.14 + 1.14 = 3.42. Man zeige, daß die so entstehende Normalgleichungsmatrix numerisch indefinit ist! Die Ortho­gonalisierung liefert dagegen ein brauchbares Resultat.

Aufgabe 3.9. [zu 3.4] Die Lösung x der Fehlergleichungen Cx + d = r kann auf Grund der Methode der Orthogonalisierung nach (3.51) und (3.48) direkt durch den Konstantenvektor d ausgedrückt werden als

x = _R- 1 -/= _R- 1 'ST ·d.

Die Matrix C+ = R- 1 • ST heißt Pseudoin verse von C, indem sie ja formal die Lösung der Fehlergleichungen liefert. Man verifiziere, daß C+ C = I (Einheits­matrix der Ordnung m) ist. Wie lautet die Pseudoinverse C+ für das Fehler­gleichungssystem von Aufgabe 3.3? Mit ihr ist die Lösung x zu berechnen.

Aufgabe 3.10. [zu 3.5] Das System von Fehlergleichungen, das typisch ist für eine Ausgleichung der Geodäsie, ist nach der Methode der konjugierten Gradienten zu behandeln.

Xl - 0.1 =/1 Xl - X 2 + 0.2 = 12

X2 - X3 - 0.3 = 13

X3 - X4 + 0.4 = 14

X3 + 0.1 =/5 X4 - 0.2 =/6

+ X4 - 0.3 =/7

Aufgaben 247

Man achte auf die Monotonieeigenschaft des Betrages der Fehlervektoren. Was für eine Beobachtung in Bezug auf die Residuenvektoren kann dabei gemacht werden? Wieviele Schritte führen praktisch zum Resultat?

Aufgabe 3.11. [zu 3.5] Die Ausgleichung des Gravitationsfeldes der Erde in seiner einfachsten Form führt auf das folgende Problem: Um die Gravitation an einer Reihe von m Punkten zu bestimmen, werden n Dif-ferenzen der Erdanziehung zwischen je zwei Punkte­paaren gemessen. In einem Punkt A des Netzes ist die Erdanziehung als bekannt vorauszusetzen. Für die gemessenen Differenzwerte soHen zufäHig gewählte Zahlen zwischen -1 und + 1 verwendet werden. Für das Netz der Figur 41 sind die Fehlergleichungen (29 Gleichungen in 15 Unbekannten) aufzusteHen und dieselben sollen mit Hilfe eines Computers nach der Methode der konjugierten Gradienten gelöst werden, wobei die vielen NuHe1emente mit Referenzmatrizen berücksichtigt werden soHen. Die Iteration ist abzubre­chen, sobald der Wert von (fk,j~) über drei Iterationen nicht mehr abnimmt. Zahl der benötigten Iterationen?

8 13

14

Fig.41 Netz des Gravitationsfeldes

Aufgabe 4.1. [zu 4.1] Wie lautet das Eigenwertproblem eines Systems mit drei Freiheitsgraden, dessen potentieHe und kinetische Energie durch folgende Aus­drücke der Lagekoordinaten qk gegeben sind:

U = 9qr + 6q1 q2 + 6q1 q3 + 17q~ + lOq2 q3 + 27qL

T = 4q1 + 9q~ + 16qi.

Aufgabe 4.2. [zu 4.1] Desgleichen für

U = 8qr + 2q1 q2 - 4q1 q3 + 20q~ + 6q2 q3 + 15qi,

T = 4qr + 2q1 q2 + lOq~ + 4q2 q3 + 15qi·

Aufgabe 4.3. [zu 4.2] Man bestimme in erster Näherung die Änderung der Nu II­stellen des Polynoms Z4 - 130z3 + 3129z2 - 13100z + 10000 (NuHstellen z 1 = 1, z 2 = 4, z 3 = 25, Z4 = 100), falls ein einziger Koeffizient eine relative Änderung um 10- 5 erfährt. WeIche Nullstelle ist am empfindlichsten?

Aufgabe 4.4. [zu 4.2] Gleiches Problem wie in Aufgabe 4.3 für das Polynom Z8 - 130z6 + 3129z4 - 13100z2 + 10000, falls einer der von Null verschie­denen Koeffizienten relativ um 10- 5 geändert wird.

Aufgabe 4.5. [zu 4.4] Wie lautet die zu

[-; -2 1 -:] 10 -3 A=

1 -3 20 -1 4 9 30

248 Anhang B

ähnliche Matrix, falls A einer (2, 4)-Drehung mit dem Winkel Cf! = rr/2 unterworfen wird? Wirkung dieser Transformation?

Aufgabe 4.6. [zu 4.4] Die Matrizen

sind nach der Methode von Jacobi auf Diagonalform zu transformieren. Wie lauten die Transformationsmatrizen und welches sind die Eigenwerte und Eigen­vektoren?

Aufgabe 4.7. [zu 4.4] Um den Suchprozeß des klassischen Jacobi-Verfahrens ab­zukürzen, kann die Methode wie folgt modifiziert werden: Man bildet die Sum­men Si der Quadrate der Elemente jeder Zeile je ohne das Diagonalelement

n

Si = L a'b, (i = 1,2, ... , n). j~l

Hi n

Offenbar gilt S(A) = L SI' Auf welche einfache Art transformieren sich die i~l

Zeilensummen Si bei einer (p, q)-Rotation? Zur Bestimmung des Pivotelementes der Rotation wird nun das absolut größte Außendiagonalelement apq (= aqp !) aus jener Zeile p mit dem größten Wert sp bestimmt, wozu nur etwa 2n Vergleiche nötig sind. Man verzichtet also darauf, in jedem Schritt das wirklich absolut größte Außendiagonalelement zu ermitteln. Man beweise die Konvergenz dieses modifizierten Jacobi-Verfahrens. Zu diesem Verfahren soll ein Rechenprogramm erstellt werden.

Aufgabe 4.8. [zu 4.4] Mit weIcher Genauigkeit stellen die Diagonalelemente von

[

5 10- 4

A-- 2.10- 4

2.10- 4

10- 4 2.10- 4 2.10- 4 ]

-9 10- 5 10- 5

10- 5 10 10- 6

10- 5 10- 6 8

die Eigenwerte dar? Welches sind die Abschätzungen mit Hilfe des Gerschgorin­sehen Kreisesatzes (siehe 4.5.4)?

Aufgabe 4.9. [zu 4.5] Die Matrix

A~n 4 3] 15 10 10 20

ist sowohl nach der Methode von Givens als auch von Householder auf tridiago­nale Form zu transformieren. Wie lauten die Transformationsmatrizen U und die

Aufgaben 249

tridiagonalen Matrizen? Man verifiziere an diesem Beispiel, daß die resultierenden Matrizen im wesentlichen übereinstimmen.

Aufgabe 4.10. [zu 4.5] Man zeige, daß jede tridiagonale Matrix der Ordnung n

J=

al b1

Cl a2 b2

C2 a3 b3

Cn - 2 an - 1 bn - 1

Cn -1 an

mit der Eigenschaft bl • CI > 0 (i = 1,2, '" ,n - 1) reelle Eigenwerte besitzt. Hinweis: J ist ähnlich zu einer symmetrischen tridiagonalen Matrix, d. h. J ist symmetrisierbar.

Aufgabe 4.11. [zu 4.5] Im Zusammenhang mit der Latteninterpolation treten tridiagonale Matrizen der Form

J=

2 1 4 1

4

4 2

von hoher Ordnung n auf. Welches sind die unteren und oberen Schranken der Eigenwerte auf Grund des Gerschgorinschen Kreisesatzes ? Wie groß ist demnach unabhängig von der Ordnung n die Konditionszahl der Matrix J höchstens? Im Fall n = 4 führe man nach dem Verfahren der Bisection fünf Schritte zur Ein­grenzung des kleinsten Eigenwertes durch.

Aufgabe 4.12. [zu 4.5] Sollen alle Eigenwerte einer tridiagonalen Matrix nach der Methode der Bisection berechnet werden, kann die totale Zahl der Intervall­halbierungen verkleinert werden, indem die Information über die Lage der noch nicht bestimmten Eigenwerte auf Grund der Zahl der Vorzeichenwechsel laufend verarbeitet wird, so daß als Startwerte für die Eigenwerte bei fortschreitender Rechnung engere Grenzen verwendet werden können. Man entwickle ein Rechen­programm, welches die laufend anfallende Information zur Eingrenzung der Eigenwerte auswertet und die Schranken ständig verbessert. Die Intervallhalbie­rungen sind zu stoppen, sobald die Schranken absolut genommen eng genug sind.

Aufgabe 4.13. [zu 4.5] Für tridiagonale Matrizen sehr hoher Ordnung können die Werte der Rekursionspolynome fk (A) entweder sehr groß oder auch sehr klein

250 Anhang B

werden, so daß im Rechenautomaten Überfluß oder Unterfluß möglich ist. Um dies einzusehen studiere man das Verhalten der Reursionspolynome für eine Matrix J der Ordnung n = 50 aus Aufgabe 4.11 für A = 1 und A = 6. Durch welche Modifikation des Verfahrens kann diese Schwierigkeit behoben werden (vgI. dazu [88])?

Aufgabe 4.14. [zu 4.6] Für die Matrix

A~H führe man mindestens zwei Schritte des LR-Cholesky-Verfahrens durch.

Aufgabe 4.15. [zu 4.6] Der kleinste Eigenwert der Matrix A von Aufgabe 4.14 ist A3 (A) = 1.5762. Was passiert, falls vor der ersten Zerlegung eine Koordinaten­verschiebung um y = 1.55, resp. um y = 1.60 ausgeführt wird? Im ersten Fall führe man zwei bis drei LR-Cholesky-Schritte durch. Man vergleiche mit den ent­sprechenden Resultaten von Aufgabe 4.14 und man achte insbesondere auf das Element aW (Rechenschiebergenauigkeit genügt). Welches ist der Konvergenz­quotient, mit welchem das Element aW gegen Null konvergiert (A 2 (A) ~ 17.30)?

Aufgabe 4.16. [zu 4.6] Zur Bestimmung des kleinsten Eigenwertes von

führe man einige QD-Schritte a) ohne Koordinatenverschiebung, b) mit einer einzigen ersten Koordinatenverschiebung mit der in Aufgabe 4.11 gefundenen unteren Schranke y = 1.3125, c) mit versuchsweisen Koordinatenverschiebungen auf Grund von q"4) nach einem selbst gewählten Schema durch. Wie ist das Konvergenzverhalten in den drei Fällen?

Aufgabe 4.17. [zu 4.6] Die Nullstellen des Polynoms P4(X) = x4 - 12x3 + 49x2

- 80x + 45 sind mit Hilfe des QD-Algorithmus zu berechnen.

Aufgabe 4.18. [zu 4.6] Auf Grund der in Aufgabe 2.9 erhaltenen Zahlwerte der qk

und ek bei der Auflösung des linearen Gleichungssystems von Aufgabe 2.2 be­stimme man den kleinsten Eigenwert der Koeffizientenmatrix A der Aufgabe 4.16. Wie gut ist die Übereinstimmung mit dem in Aufgabe 4.16 gefundenen Wert, falls die Methode der konjugierten Gradienten mit einer kleinen Stellenzahl (z. B. 5 bis 6 wesentlichen Ziffern) durchgeführt wird?

Aufgaben 251

Aufgabe 4.19. [zu 4.7] Zur Matrix J von Aufgabe 4.16 bestimme man

a) den größten Eigenwert und den zugehörigen Eigenvektor durch klassische Vektoriteration ; b) den kleinsten Eigenwert und den zugehörigen Eigenvektor einmal durch eine Spektraltransformation und nachfolgende klassische Vektoriteration und einmal durch inverse Vektoriteration. Vergleich der Konvergenzgeschwindigkeit.

Aufgabe 4.20. [zu 4.8] Im allgemeinen Eigenwertproblem (A - Ä B) x = 0 seien A und B symmetrische und positive definite Bandmatrizen hoher Ordnung n und von relativ kleiner Bandbreite m. Bei Rückführung auf das spezielle Eigenwertpro­blem (C - Ä I) y = 0 mit symmetrischer Matrix C geht die Bandgestalt verloren! Auf das spezielle Eigenwertproblem (C - Ä I) y = 0 soll die inverse Vektor­iteration zur Bestimmung der kleinsten Eigenwerte und der zugehörigen Eigen­vektoren so angewendet werden, daß von der BandgestaIt der Matrizen A und B wesentlichen Gebrauch gemacht wird.

Hinweis: Die Matrix C darf nur formal verwendet werden, jedoch sollen die Cholesky-Zerlegungen von A und B geeignet benützt werden.

Aufgabe 5.1. [zu 5.1] Wie lautet das Randwert­problem zum Variationsintegral

D

J = t H (grad U)2 dx dy - S U· ds G C

mit den Randbedingungen

U = 0 auf BC,

U = 1 auf DEund EA,

worin G das Gebiet der Figur 42 bedeutet. Die Seite AE habe die Länge 1.

Aufgabe 5.2. [zu 5.1] Man konstruiere das Variations­integral zur Randwertaufgabe des Gebietes von Fig.43:

llu + 2 = 0 in G,

u = 0 auf AB, CD und DA,

OU - = 0 auf Be. an

E D I I I I

_...L_...! __ I-_-j_

: : I I I

- ,- - L- + - -1- - +- - C I I I I I

_..L_~_+_.l_.J_ I I I : :

ß

Fig.42 Grundgebiet der Variationsaufgabe

Fig.43 Grundgebiet der Randwertaufgabe

Aufgabe 5.3. [zu 5.1] Man bestimme das Variationsintegral zum Randwertproblem bezüglich des Gebietes von Fig. 43:

llu = 1 in G,

B

252 Anhang B

U = 1 auf AB,

ou - = 0 auf BC, on u = 0 auf CD,

ou 2 u + - = 1 auf DA. on

Aufgabe 5.4. [zu 5.1] Für die Randwertprobleme der Aufgaben 5.1 bis 5.3 sind die Operatorgleichungen für die verschiedenen Gitterpunkte der eingezeichneten Netze auf Grund der Variationsintegrale herzuleiten (Energiemethode). Die auftretenden Integrale sind auf möglichst einfache Art (Trapezregel) zu approximieren. Zur Approximation eines Integrals

für eine dreieckige Masche sind sowohl u" wie auch uy durch je einen einzigen Differenzenquotienten anzunähern.

Aufgabe 5.5. [zu 5.1] Zu den Aufgaben 5.1 und 5.3 sind auf Grund der Operator­gleichungen aus Aufgabe 5.4 die Gleichungssysteme bei verschiedenen Arten der Numerierung der Gitterpunkte (zeilenweise, kolonnenweise, diagonalweise) auf­zustellen und die Strukturen der Systeme zu studieren. Sind die Systeme auch symmetrisch-definit?

Aufgabe 5.6. [zu 5.2] Man löse das Randwertproblem von Aufgabe 5.2 unter Ver­wendung einer konsistenten Reihenfolge der Gitterpunkte nach der Methode der Überrelaxation. Wie groß sind Konvergenzradius und Konvergenzziffer für das Einzelschrittverfahren und für die optimale Überrelaxation? (Rechenautomat er­forderlich).

Aufgabe 5.7. [zu 5.2] Das Randwertproblem von Aufgabe 5.2 soll mit doppelt und viermal feinerer Netzeinteilung (h = 1/8, resp. h = 1/16) gelöst werden, wobei der optimale Überrelaxationsfaktor experimentell auf Grund des Residuenvektors beim Einzelschrittverfahren, bzw. bei Überrelaxation mit einem gewählten Faktor, bestimmt werde. (Rechenautomat)

Aufgabe 5.8. [zu 5.2] Für das Randwertproblem von Aufgabe 5.2 bestimme man den Konvergenzradius der impliziten Blockrelaxation und der optimalen block­weisen Überrelaxation, falls die Gitterpunkte zeilenweise zu Gruppen zusammen­gefaßt werden. (Rechenautomat).

Aufgabe 5.9. [zu 5.2] Man bestimme die Matrixoperatoren H, Vund I: der Methode der alternierenden Richtungen im Fall des Randwertproblems von Aufgabe 5.2. Sind die Operatoren H und V vertauschbar?

Literatur 253

Literatur

[I] Ai t k e n, A.: Studies in practical mathematics 11. The evaluation of the latent roots and vectors of a matrix. Proc. Roy. Soc. Edinburgh, A 57 (1937) 269-304.

[2] Bauer, F. L.; Heinhold, J.; Samelson, K.; Sauer, R.: Moderne Rechenanlagen. Stuttgart 1965.

[3] Baumann, R.; Feliciano, M.; Bauer, F. L.; Samelson, K.: Introduction to ALGOL. Englewood Cliffs, N. J. 1964.

[4] Bau man n, R.: ALGOL-Manual der ALCOR-Gruppe. Elektronische Re­chenanlagen 5/6 (1961) und 2 (1962), sowie München 1967.

[5] Ben 0 i t: Note sur une methode de resolution des equations normales etc. (Procede du commandant C hol e s k y). BuH. geodesique 3 (1924) 67-77.

[6] Bi r k hof f, G.; Va r g a, R. S.: Implicit alternating direction methods. Trans. Amer. Math. Soc. 92 (1959) 13-24.

[7] Bi r k hof f, G.; Va r g a, R. S.; Y 0 u n g, D.: Alternating direction impli­cit methods. Advances in computers, 3 (1962) 189-273.

x-rj [8] d e B 0 0 r, C. M.; R i c e, J. R.: Chebyshev approximation by a TI -­

x+Sj and application to ADI iteration. J. Soc. Industr. Appl. Math. 11 (1963) 159-169.

[9] Co ll atz, L.: Über die Konvergenzkriterien bei Iterationsverfahren für lineare Gleichungssysteme. Math. Z. 53 (1950) 149-161.

[10] Co ll atz, L.: Numerische Behandlung von Differentialgleichungen. 2. Auf!. Berlin 1955; 3. Auf!. in englischer Sprache. Berlin·Göttingen·Heidelberg 1959.

[lI] Co u r a n t, R.; H i I b e r t, D.: Methoden der mathematischen Physik. Berlin 1931.

[12] D ij k s t r a, E. W.: A primer to ALGOL 60 programming. London-New York 1962.

[13] Engeli, M.; Ginsburg, Th.; Rutishauser, H.; Stiefel, E.: Refined iterative methods for the computation of the solution and the eigenvalues of selfadjoint boundary value problems. Basel·Stuttgart 1959. Mitt. lost. f. angew. Math. ETH Zürich, Nr. 8.

[14] Eng e I i, M.: Automatisierte Behandlung elliptischer Randwertprobleme. Dis­sertation. Zürich 1962.

[15] Fad d e eva, V. N.: Computational methods of linear algebra. New York 1959.

[16] Faddejew, D. K.; Faddejewa, W. N.: Numerische Methoden der linearen Algebra, München-Wien 1964.

[17] Forsythe, G. E.; Wasow, W. R: Finite·difference methods for partial differential equations. New York 1960.

[18] F 0 r s y t h e, G. E.; He n r i c i, P.: The cyclic Jacobi method for computing the principal values of a complex matrix. Trans. Amer. Math. Soc. 94 (1960) 1-23.

[19] Fox, L.: Numerical methods in linear algebra. Oxford 1964. [20] Fra n cis, J. F. G.: The QR transformation. A unitary analogue to the LR

transformation, Parts land 11. Computer J. 4 (1961/62) 265-271; 332-345. [21] Ger s c h gor i n, S.: Abgrenzung der Eigenwerte einer Matrix. Bul. Acad. Sci.

USSR, Leningrad, classe math. 7 (1931) 749-754. [22] Gin s bur g, T h.: The conjugate gradient method, Numer. Math. 5 (1963)

191-200.

254 Literatur

[23] Gi v e n s, W.: Numerical computation of the characteristic values of areal symmetric matrix. Oak Ridge Nat. Lab. Report ORNL-1574 (1954).

[24] G 0 0 d w i n, E. T.: Modern computing methods, London 1961. [25] G r ö b n e r, W.: Matrizenrechnung. München 1956. [26] G r 0 s s man n, W.: Grundzüge der Ausgleichsrechnung. Berlin 1961. [27] Ha n sen, E. R.: On cyclic Jacobi methods. J. Soc. Industr. Appl. Math. 11

(1963) 448-459. [28] He n r i c i, P.: The quotient-difference algorithm. Nat. Bur. Standards Appl.

Math. Sero 49, 1958,23-46. [29] He n r i c i, P.: On the speed of convergence of cyclic and quasicyclic Jacobi

methods for computing eigenvalues of Hermitian matrices. J. Soc. Industr. Appl. Math. 6 (1958) 144-162.

[30] H e n r i c i, P.: So me applications of the quotient-difference algorithm. Proc. Symposia in Appl. Math., 1S (1963) 159-183.

[31] H e s t e n e s, M.; S t i e fe I, E.: Methods of conjugate gradients for solving linear systems. J. Res. Nat. Bur. Standards 49 (1952) 409-436.

[32] Ho u s e hol der, A. S.: Principles of numerical analysis. New York 1953. [33] Ho u s e hol der, A. S.: The theory of matrices in numerical analysis. New

York-Toronto-London 1964. [34] Ja co b i, C. G. J.: Über ein leichtes Verfahren, die in der Theorie der Säkular­

störungen vorkommenden Gleichungen numerisch aufzulösen. Crelle's J. 30 (1846) 51-94.

{35] K aha n, W.: Gauß-Seidel methods for solving large systems of linear equa­tions. Dissertation. Toronto 1958.

{36] L ä u chI i, P.: Iterative Lösung und Fehlerabschätzung in der Ausgleichsrech­nung. Z. f. angew. Math. u. Phys. 10 (1959) 245-280.

[37] Müll e r, D.: Programmierung elektronischer Rechenanlagen. 2. Aufl., Mann­heim 1965.

{38] Mur d 0 c h, D. C.: Linear algebra for undergraduates. New York-London 1957.

[39] Na u r, P.: ed., Revised report on the algorithmic language ALGOL 60. Numer. Math. 4 (1963) 420-453; Commun. Ass. Comp. Mach. 6 (1963) 1-17.

[40] 0 s t r 0 w ski, A.: Über das Nichtverschwinden einer Klasse von Determinan­ten und die Lokalisierung der charakteristischen Wurzeln von Matrizen. Co m­positio Math. 9 (1951) 209-226.

[41] Pe ace man, D. W.; R ach f 0 r d, H. H.: The numerical solution of para­bolic and elliptic differential equations. J. Soc. Industr. Appl. Math. 3 (1955) 28-41.

[42] Ru t i s hau s e r, H.: Der Quotienten-Differenzen-Algorithmus. Z. f. angew. Math. u. Phys. S (1954) 233-25l.

[43] Ru t i s hau s e r, H.: Der Quotienten-Differenzen-Algorithmus. Basel-Stutt­gart 1957. Mitt. Inst. f. angew. Math. ETH Zürich, Nr. 7.

[44] Ru t i s hau s e r, H.: Solution of eigenvalue problems with the LR-transforma­tion. Nat. Bur. Standards Appl. Math. Sero 49, 1958,47-81.

[45] Ru t i s hau s e r, H.: Über eine kubisch konvergente Variante der LR-Trans­formation. Z. f. angew. Math. u. Mech. 40 (1960) 49-54.

[46] Ru t i s hau s e r, H.: Stabile Sonderfälle des Quotienten-Differenzen-Algorith· mus. Numer. Math. S (1963) 95-112.

Literatur 255

[47] Ru t i s hau s e r, H.: On Jacobi rotation patterns. Proc. Symposia in Appl. Math. 15 (1963) 219-239.

[48] Ru t i s hau s e r, H.; Sc h war z, H. R.: The LR-transformation method for symmetric matrices. Numer. Math. 5 (1963) 273-289.

[49] Ru t i s hau s e r, H.: The Jacobi method for real symmetric matrices. Numer. Math. 9 (1966) 1-10.

[50] Sc h 1 end e r, B.: Grundzüge der algorithmischen Formelsprache ALGOL. Der math. u. naturwiss. Unterricht 13 (1961) 451-458.

[51] Sc h m eid 1 e r, W.: Vorträge über Determinanten und Matrizen. Berlin 1949. [52] Schönhage, A.: Zur Konvergenz des Jacobi-Verfahrens. Numer. Math. 3

(1961) 374-380. [53] Sc h r öde r, G.: Über die Konvergenz einiger Jacobi-Verfahren zur Bestim­

mung der Eigenwerte symmetrischer Matrizen. Schriften d. Rheinisch-Westfäli­schen Inst. f. instr. Math. Universität Bonn. Sero A. Nr. 5 (1964).

[54] Sc h war z, H. A.: Gesammelte mathematische Abhandlungen. Bd. 1. Berlin 1890,241-265.

[55] Sc h war z, H. R.: An introduction to ALGOL. Comm. Ass. Comp. Mach. 5, 1962, S. 82-95.

[56] Sc h war z, H. R.: Die Reduktion einer symmetrischen Bandmatrix auf tridia­gonale Form. Z. f. angew. Math. U. Mech. (Sonderheft) 45 (1965) T76-T77.

[57] S ha w, F. S.: Relaxation methods. New York 1953. [58] S hel don, J. W.: On the numerical solution of eIIiptic difference equations.

Math. Tables and Other Aids to Comp. 9 (1955) 101-112. [59] Sou t h weil, R. V.: Relaxation methods in engineering science. London 1940. [60] Sou t h weil, R. V.: Relaxation methods in theoretical Physics. Oxford 1956. [61] S t i e fe I, E.: Über einige Methoden der Relaxationsrechnung. Z. f. angew.

Math. U. Phys. 3 (1952) 1-33. [62] S t i e f e 1, E.: Ausgleichung ohne Aufstellung der Gaußschen Normalgleichun­

gen. Wiss. Z. Technische Hochschule Dresden 2 (1952/53) 441-442. [63] S t i e fe I, E.: Relaxationsmethoden bester Strategie zur Lösung linearer Glei­

chungssysteme. Comment. Math. Helv. 29 (1955) 157-179. [64] Stiefel, E.: Einführung in die numerische Mathematik. 4. Auflage. Stuttgart

1969. [65] S y n g e, J. L.: The hypercirc1e in mathematical physics, Cambridge 1957. [66] Tod d, J.: A survey of numerical analysis. New York-Toronto-London 1962. [67] U n ger, H.: Nichtlineare Behandlung von Eigenwertaufgaben, Z. f. angew.

Math. U. Mech. 30 (1950) 281-282. (68) Varga, R. S.: Matrix iterative analysis. Englewood Cliffs, N. J. 1962. (69) W ach s p r e ß, E. L.: CURE: A generalized two-space-dimension multigroup

coding for the IBM-704, Report KAPL-I724 (Knolls Atomic Power Laboratory) Schenectady, New York 1957.

[70] W ach s p r e ß, E. L.: Optimum alternating-direction implicit iteration para­meters for a model problem, J. SOC. Industr. Appl. Math. 10 (1962) 339-350.

[71] W ach s p re ß, E. L.: Iterative solution of elliptic systems and applications to the neutron diffusion equations of reactor physics. Englewood Cliffs 1966.

[72J Wie I a n d t, H.: Bestimmung höherer Eigenwerte durch gebrochene Iteration. Bericht der aerodynamischen Versuchsanstalt Göttingen. 44/J /37 (1944).

[73J W i I kin s 0 n, J. H.: Note on the quadratic convergence of the cyclic Jacobi process. Numer. Math. 4 (1962) 296-300.

256 Literatur

[74] W i I kin s 0 n, J. H.: Rounding errors in algebraic processes. London 1963. [75] W i I kin so n, J. H.: The algebraic eigenvalue problem. Oxford 1965. [76] W i I kin s 0 n, J. H.: Convergence of the LR, QR, and related algorithms.

Computer J. 8 (1965) 77-84. [77] W i I kin s 0 n, J. H.: The QR algorithm for real symmetrie matrices with

multiple eigenvalues. Computer J. 8 (1965) 85-87. [78] W y n n, P.: Acceleration techniques for iterated vectors and matrix problems.

Math. Comput. 16 (1962) 301-322. [79] Y 0 u n g, D.: Iterative methods for solving partial differential equations of

elliptic type. Trans. Amer. Math. Soc. 76 (1954) 92-111. [80] Zur m ü h I, R.: Matrizen. 4. Auflage. Berlin 1964. [81] Bayer, G.: Einführung in das Programmieren. 1. Programmieren in ALGOL.

Berlin 1969. [82] Forsythe, G.; Moler, C. B.: Computer solution of linear algebraic systems.

Englewood Cliffs, N. J. 1967. [83] Heinrich, W.; Stucky, W.: Programmierung mit ALGOL 60. Stuttgart 1971. [84] Rutishauser, H.: Description of ALGOL 60. Handbook for automatie computa­

tion, vol. 1. Part a. Berlin-Heidelberg-New York 1967. [85] Schwarz, H. R.: Die Methode der konjugierten Gradienten in der Ausgleichs­

rechnung. Z. für Vermessungswesen 95 (1970) 130-140. [86] Schwarz, H. R.; Rutishauser, H.; Stiefel, E.: Numerical analysis ofsymmetric

matrices. Englewood Cliffs, N. J. 1972. [87] Stummel, F.; Hainer, K.: Praktische Mathematik. Stuttgart 1971. [88] Wilkinson, J. H.; Reinsch, C.: Handbook for automatie computation, vol. II,

Linear algebra. Berlin-Heidelberg-New York 1971.

Namen- und Sachverzeichnis

Abbrechkriterium 76, 120, 158 adjungierter Operator 16 adjungierte Transformation 16 ähnliche Matrizen 15 f., 148 ff. Ähnlichkeitstransformation 15 f., 112 f.,

126, 131 -, orthogonale 113, 126 Aitken, /52-Prozeß 178 ALGOL-Prozeduren

bisection 141 cg76 cholesky 36 choleskyband 43 choleskysol 38 fehlerorth 98 givens 129 householder 133 jacobi 1 121 jacobi 2 125 /inverse 34 lrcholband 162 op 231 orth 96 rotation 115 ueberrelax 213

allgemeines Eigenwertproblem 106, 187 ff. - Iterationsverfahren 52 ff. Ausgleichsrechnung 78 ff. - vermittelnder Beobachtungen 41 Ausgleichung, bedingte 81 f., 87 ff. -, direkter Beobachtungen 81 -, Dualität der 90 ff., 103 -, vermittelnde 41,79 f., 82 ff.

Balkenschwingung 41 Bandbreite 41 ff., 204 Bandmatrix 41 ff., 129, 191, 204 f. -, symmetrisch-definite 41,160 ff., 204 f -, Cholesky-Zerlegung einer 42 Basis 12 ff. bedingte Ausgleichung 81 f., 87 ff.

bedingte Ausgleichung, Methode der konjugierten Gradienten 103

- -, - der Orthogonalisierung 99 f. Bedingungsgleichungen 81 Betrag eines Vektors 12 Bisection 141, 191,229 Blockrelaxation 216 ff., 224 -, 'symmetrische 222 blockweise tridiagonal 60, 208, 219

charakteristisches Polynom 106 ff., 137 Cholesky, Methode von 34 ff., 84, 90,

100 ff., 146, 181, 188, 204, 217 Cholesky-Zerlegung 37, 42, 70, 147, 149,

187

Darstellung eines Operators 14 f. Definitheit, positive 23 ff. diagonal block weise tridiagonal 60, 70,

208 ff. - dominante Matrix 25 ff., 49, 55, 69,

224,229 Diagonalmatrix 41, 116, 120, 150, 188 f.,

205 Differentialgleichung, elliptische 193 ff. -, Eulersche 194 -, parabolische 223 Differentialoperator 196 Dirichlet-Problem 192 ff. Diskretisation 28, 41, 44, 192, 197 ff.,

216 dominanter Eigenwert 53 Drehung, zweidimensionale, orthogonale

113 Dreiecksmatrix 31 -, Inverse einer 33 Dreieckslungleichung 17 f. - zerlegung von Matrizen 31, 146 ff. Dualität der Ausgleichung 90 ff., 103 - der Rhombenregeln 166 dyadisches Produkt 130

258 Namen- und Sachverzeichnis

Eigenlfrequenz 106 - schwingungsform 106 - vektor 15 f., 106, 120, 144 ff., 175 ff.,

191 f., 233 f. - vektoren von tridiagonalen Matrizen

144 ff. - wert 15 f., 21 ff. 53, 60 ff., 106 ff. - -, dominanter 53 - -, mehrfacher 112 - -problem 103 ff., 191,232 ff. - - -, allgemeines 106, 187 ff. - -probleme der Physik 103 ff. - -problem, spezielles 106, 187 ff. - - -, symmetrisches 103 ff. Einheits I matrix 16

- vektor 12 Einschneideverfahren 80 Einzelschrittverfahren 48 ff., 214 Elastizitätstheorie 211 Eliminationspunkt 203 elliptische Differentialgleichung 193 ff. Energiemethode 44, 187, 192 ff. Epsilon-Algorithmus von Wynn 178 euklidische Norm 18 euklidischer Algorithmus 172 - Vektorraum 13 euklidisches inneres Produkt 13, 16 euklidische Vektornorm 18 Euler, Differentialgleichung von 194 Extremallaufgabe 82, 87, 109 -prinzip 198

Fehlerlgleichungen 80 ff. -vektor 52 ff., 214, 225 Fermatsches Prinzip 197 Frobeniussche Norm 18

Gauß 79, 103 Gaußsche Normalgleichungen 82 ff.

- Transformierte 186 Gaußscher Algorithmus 37 Gaußsches Prinzip 78 f., 85 Gauß-Seidel, Methode von 50 ff., 208 gebrochene Iteration 144 ff., 181 Geodäsie 80, 82 Gerschgorin, Kreisesatz von 140 f., 229 Gesamtschrittverfahren 68 ff. Gewichtsmatrix 101 Gitterpunkt 197

Givens, Methode von 127 ff., 134, 160, 191

Gleichungssystem, symmetrisch-definites 36, 44 ff., 84, 200, 203 ff.

Gradient 48, 66, 72 Gradientenmethode 66 ff. Greensche Formel 193, 196 f.

Hamiltonsches Prinzip 105, 196 Handrelaxation 48 ff., 207 Hauptachsentheorem 109 ff. Hauptminor 24, 137, 147, 149, 152, 157,

167 Hestenes-Stiefel, Methode von 71 ff. Hilfspunkt 203 Höldersche Norm 17 Householder, Methode von 129 ff., 160,

191 Hyperkreis 92

inneres Produkt 12 f. - -, euklidisches 13, 16 invariant 15 f., 111, 180 Invariante 151, 167 inverse Matrix 14 - Transformation 14 - Vektoriteration 180 f., 234 - -, simultane 187 Inversion einer Dreiecksmatrix 33 - - positiv definiten Matrix 40 f. involutorische Matrix 130 irreduzible Matrix 26 ff., 163 Iterationslmatrix 52 ff., 218 ff. - parameter 225 ff. - - von Wachspreß 227 ff. - verfahren, allgemeines 52 ff. - zyklus 50, 212, 215

Jacobi 69, 114 -, klassische Methode von 116 ff. -, Methode von 116 ff., 186, 188, 191 - -Rotation 114 ff., 127, 190 -, zyklische Methode von 123 ff. Iacobisches Iterationsverfahren 69

Kette, Sturmsehe 126, 134 ff. klassische Vektoriteration 176 ff. kompatible Normen 19 ff. Komponenten eines Vektors 11 f.

Kondition einer Matrix 21 f., 46 - von Normalgleichungen 84 ff. Konditionszahl 22 f., 40, 84 ff., 102 konjugierte Richtungen 71 ff. konsistent 211 Konvergenz - der Handrelaxation 49 - - LR-Transformation 148 f. - - Methode von Peaceman-Rachford

225 f. - - Potenzmethode 178 - - simultanen Vektoriteration 182 ff. - - überrelaxation 56 ff. - - Vektoriteration 178 - des Einzelschrittverfahrens 50 ff. - - Gauß-Seidelschen Verfahrens 50 ff. - - Gesamtschrittverfahrens 69 f. - - klassischen Jacobi-Verfahrens 117 ff. - - LR-Cholesky-Verfahrens 150 ff. - - QD-Algorithmus 167 ff. - - zyklischen Jacobi-Verfahrens 124 - einer Matrixfolge 19, 120 - - Vektorfolge 18 - eines Iterationsverfahrens 52 ff. -, lineare 119, 153 f., 168, 178, 214 -, quadratische 119, 123 ff. -radius 54, 211 f., 225 ff. -ziffer 54, 69 f., 211 f. Koordinaten!verschiebung 149, 152 ff.,

168 - eines Vektors 12, 14 f. Korrektur 79, 82, 87, 207 Korrelaten 87 - gleichungen 87 ff. - vektor 87 ff. Kreisesatz von Gerschgorin 140 f., 229

Länge eines Vektors 12, 17 Laplace-Gleichung 192, 195 Laplacescher Differentialoperator 194 f. lineare Gleichungen 36 - Transformation 13 linearer Operator 14 ff. Linearisierung 79 ff. Linearkombination 11 Linksdreiecksmatrix 31 ff., 147 ff. LR-Cholesky 150 ff. LR-Transformation 146 ff., 176, 191,233

Namen- und Sachverzeichnis 259

Matrix 14 ff. -, ähnlich 15 f. 148 ff. -, blockweise tridiagonale 60, 208 -, diagonal blockweise tridiagonale 60,

70,208 ff. -, - dominante 25 ff., 49, 55, 69, 224,

229 -, inverse 14 -, involutorische 130 -, irreduzible 26 ff., 163 -folge 19 - -, konvergente 19 -norm 18 ff. - -, kompatible 19 ff. - -, multiplikative 18 - -, untergeordnete 20 f. -operator 197, 223 -, orthogonale 95, 112 f., 120, 130, 188 f. -, Pascalsche 24 -, positiv definite 17, 21 ff., 104 ff., 149,

182, 187, 224 ff. -, quadratische 14 -, reduzible 25 ff., 152 -, reguläre 14 -, symmetrische 16, 104 ff. -, transponierte 16 -, tridiagonale 41, 127 ff., 137 ff., 163 ff.

175, 205, 217 -, vertauschbare 187, 226 Maximum-Minimum-Prinzip 119 mehrfacher Eigenwert 112 Mehrstellenoperator 202, 216 Methode der alternierenden Richtungen

224 ff. - - Blockrelaxation 216 ff. - - blockweisen überrelaxation 218ff. - - fortgesetzten Intervallhalbierung 139

ff., 192 - - kleinsten Quadrate 79, 83 - - konjugierten Gradienten 71 ff., 103,

173 ff., 231 ff. - - Orthogonalisierung 93 ff., 182, 185 - - punktweisen überrelaxation 218 ff.,

227 - - Relaxation 44 ff., 84, 192, 205 ff.,

234 - - symmetrischen Blockrelaxation

222 f. - - überrelaxation 55 ff., 208

260 Namen- und Sachverzeichnis

Methode der Vektoriteration 175 ff., 190 - des stärksten Abstiegs 67 f. - von Cholesky 34 ff., 84, 90, 100 ff.,

146, 181, 187,204 f., 217 - - Gauß-Seidel 50, 56, 208 - - Givens 127 ff., 134, 160, 191 - - Hestenes-Stiefel 71 ff. - - Householder 129 ff., 160, 191 - - Jacobi 116 ff., 186, 188, 191 - - -, klassische 116 ff. - - -, zyklische 123 ff. - - Rachford und Peaceman 223 ff. - - Peaceman-Rachford 223 ff. Minimalpunkt 47 ff., 71 f. Minimumpunkt 45

Nachiteration einer Lösung 39 f. natürliche Randbedingung 194 ff., 202 Norm einer Matrix 18 ff. - eines Vektors 12, 17 ff. -, euklidische 18 -, Frobeniussche 18 -, Höldersche 17 -, Schursche 18 -, spektrale 21 -, untergeordnete 20 Normallfall 152 ff. -gleichungen 41,83 ff. - -, Kondition von 84 ff. -schwingungen 105 normiert 12 -er Vektorraum 12, 17 Nullmatrix 16 Nullvektor 11

Operator 13 !f., 173, 200 ff., 223, 234 -, adjungierter 16 -, linearer 14 ff. -, selbstadjungierter 16 f. -gleichung 75, 200 ff., 233 optimaler Überrelaxationsfaktor 59 ff.,

208 ff. orthogonale Ähnlichkeitstransformation

113, 126 - Drehung 113 - Matrix 95, 112 f., 120, 130, 188 f. orthogonales System 13, 73 orthogonale Vektoren 13

Orthogonalisierungsverfahren 93 ff. orthonormiert 13, 93 ff., 109 ff. Orthonormierungsverfahren 95 ff. Ostrowski 28

parabolische Differentialgleichung 223 Pascalsche Matrix 24 Peaceman-Rachford,

223 ff. Pivotelement 114, 124

Methode von

Poisson, Differentialgleichung von 193 ff., 216

positiv definite Matrix 17, 21 ff., 104 ff., 149, 182, 187,224 ff.

- - quadratische Form 17, 23 ff., 44 ff., 104 ff., 192 ff.

positives.QD-Schema 167 ff.,175 positiv semidefinite Matrix 21, 222 Potenzmethode 176, 182, 190 Prinzip der Korrektur 79, 82 - des direkten Angriffs 192, 198 - - stärksten Abstiegs 67 Property A 208 ff.

QD-Algorithmus 163 ff., 176, 191, 229, 233

QR-Transformation 160 quadratische Form 16 f., 23 !f., 192, 199 - -, positiv definite 17, 23 !f., 44 ff.,

104 ff., 192 ff. - -, Reduktion auf eine Summe von

Quadraten 28 !f. - -, semidefinite 24 Quotienten-Differenzen-Algorithmus

163 ff., 176, 191, 229, 233

Rachford und Peaceman, Methode von 223 !f.

Randbedingungen 193 !f. Randwertproblem 44, 192 ff. -, selbstadjungiertes 196 f. Rayleighscher Quotient 68, 84, 112, 178 Rayleighsches Prinzip 197 Rechtsdreiecksmatrix 31 ff., 94, 147 ff.,

183 Reduktion einer quadratischen Form 28 ff. reduzible Matrix 25 ff., 152 reguläre Transformation 14 Rekursionspolynome 137 !f.

Relaxationslmethode 44 ff., 84, 192,205 ff. - -, blockweise 217 ff. - -, explizite 217 - -, implizite 217,224 -prinzip 46 ff. -richtung 47 ff., 66, 71 Residuenloperator 207 - vektor 39, 45 ff" 66 ff., 83, 214 Residuum 48, 79 ff. Rhombenregel166 ff. Rotation, Jacobi- 114, ff., 127, 190 Rotationsindexpaar 113, 127 Rückwärtseinsetzen 37 f., 97, 181

Schmidtsches Orthogonalisierungsverfah-ren 93 ff., 182, 185

Schursche Norm 18 Schwarzsehe Konstanten 177 ff. - Ungleichung 13 Schwingungen 103 ff. Schwingungsgleichung 195 Seidel 50 selbstadjungiert 16 f., 192, 195 ff. selbstadjungierter Operator 16 f. semidefinite quadratische Form 24 simultane Vektoriteration 182 ff. Southwellsche Relaxationsmethode 207 Spektral!norm 21 f. -radius 53 ff., 64 ff., 215 ff., 222, 225 ff. -transformation 149, 159, 234 Spurenabschnitt 150 f. Stiefel-Hestenes, Methode von 71 ff. Sturmsche Kette 126, 134 ff. symmetrisch-definite Bandmatrix 41 ff.,

160 ff. - Gleichungen 36, 44 ff., 84, 200, 203 ff. symmetrische Blockrelaxation 222 - Matrix 16, IM ff.

Transformation, adjungierte 16 - auf Diagonalform 113 ff. - - tridiagonale Form 126 ff. - des Vektorraums 13 -, lineare 13 transponierte Matrix 16 tridiagonale Matrix 41, 127 ff., 137 ff.,

163 ff., 175,205,217

Namen- und Sachverzeichnis 261

Tschebyscheffsche Methode 222 Tschebyscheffsches Approximationsprob­

lern 227 - - Prinzip 78

überrelaxation 55 ff., 208 -, blockweise 218 - .. punktweise 218, 227 Überrelaxationsfaktor 56, 208 ff. -, optimale Wahl des 59 ff., 208 ff. untergeordnete Matrixnorm 20 f. - - zur euklidischen Vektornorm 20 f.

Variation 105 Variations I integral 192 ff. - problem 44, 192 Vektor 11 -folge 18, 176, 180 -iteration 175 ff., 190,234 - -, gebrochene 144 ff., 181 - -, inverse 180, 234 - -, klassische 176 - -, simultane 182 ff., 192 - -, -inverse 187 -komponenten 11 -koordinaten 12 -norm 17 ff. -raum 11 ff. - -, euklidiscAer 13 - -, normierter 12, 17 Verfahren, s. Methode vermittelnde Ausgleichung 41,79 f., 82 If. - -, Methode der konjugierten Gradien-

ten 103 - -, Methode der Orthogonalisierung

96 ff. Versuchsvektor 45 ff., 71 ff. vertauschbare Matrizen 187, 226 ff. Vorwärtseinsetzen 35 f., 181

Wachspreß, Iterationsparameter von 227 Wielandt, Vektoriteration von 144, 181

234 • Wynn, Epsilon-Algorithmus von 178, 214

Zwangsbedingung 194 ff. zyklisches Iterationsverfahren 50, 123

Leitfäden der angewandten Mathematik und Mechanik Herausgegeben von Prof. Dr. Dr. h. c. H. GörtIer, Freiburg i. Br.

Bauer /Heinhold/Samelson/Sauer Modeme RechenanIagen 357 Seiten mit 193 Bildern. Ln. DM 49,-

Becker Gasdynamik 248 Seiten mit 117 Bildern. Ln. DM 43,-

Collatz Differentialgleichungen 4. Auflage. 226 Seiten mit 136 Bildern. Kart. DM 16,80 (Teubner Studienbücher)

Hotz Informatik: Rechenanlagen 136 Seiten, 55 Bilder, 56 Aufgaben. Kart. DM 12,80 (Teubner Studienbücher)

Jaeger/Wenke Lineare WirtschaftsaIgebra Band 1: XVI, 174 S. Kart. DM 14,- Band 2: IV, 160 S. Kart. DM 14,-Mit insgesamt 45 Bildern, 136 Aufgaben, 32 Tabellen und zahlreichen Beispielen (Teubner Studienbücher)

Künzi/Tzschach/Zehnder Numerische Methoden der mathematischen Optimierung mit ALGOL- und FORTRAN-Programmen 151 Seiten mit 16 Bildern und 15 Beispielen. Ln. DM 33,-

Leipholz Stabilitätstheorie 245 Seiten mit 87 Bildern, 63 Beispielen und 1 Tafel. Ln. DM 44,-

Magnus Schwingungen 2. Auflage. 251 Seiten mit 197 Bildern. Kart. DM 16,80 (Teubner Studienbücher)

Martensen Potentialtheorie 266 Seiten mit 57 Bildern, 89 Aufgaben und zahlreichen Beispielen. Ln. DM 37,-

Rotta Turbulente Strömungen. 267 Seiten mit 104 Bildern. Ln. DM 68,-

Schwarz/Rutishauser/Stiefel Numerik symmetrischer Matrizen 2. Auflage, 261 Seiten, 43 Bilder, 49 Beispiele, 68 Aufgaben. Ln. DM 36,-

Stiefel Einführung in die numerische Mathematik 4. Auflage. 257 Seiten mit 44 Bildern, 9 Tabellen, 36 Aufgaben und zahlreichen Beispielen. Kart. DM 16,80 (Teubner Studienbücher)

Uhlmann

Statistische QualitätskontroUe 220 Seiten mit 31 Bildern, 8 Tabellen und 91 Aufgaben. Ln. DM 39,-

Wieghardt

Theoretische Strömungslehre 226 Seiten mit 98 Bildern. Ln. DM 39,-

Wirth Systematisches Programmieren 160 Seiten, 60 Bilder, 64 Übungen und zahlreiche Beispiele. Kart. DM 14,80 (Teubner Studienbücher)

Witting

Mathematische Statistik 223 Seiten mit 7 Bildern, 82 Beispielen und 126 Aufgaben sowie einem Tabellen­anhang. Ln. DM 46,-

Witting/Nölle

Angewandte Mathematische Statistik 194 Seiten mit 97 Beispielen und 123 Aufgaben sowie einem Anhang "Grundlagen und Hilfsmittel". Ln. DM 68,-

Preisänderungen vorbehalten

B. G. Teubner Stuttgart