21
Lineare Abbildungen Vorlesung 1 5. April + 8. April Basiswechsel Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 1 / 84 Lineare Abbildungen Wiederholung: Matrixdarstellung, Rotkäppchens Diätplan Ananas Wein Orangen Sahne Preis 2.00 8 0.50 1.39 Fett 0.02 0.01 0.05 30 Zucker 200 30 15 1 Korb mit: Ananas Wein Orangen Sahne 2 1 3 2 -→ 2 · 2.00 + 1 · 8 + 3 · 0.5 + 2 · 1.39 P 2 · 0.02 + 1 · 0.01 + 3 · 0.05 + 2 · 30 F 2 · 200 + 1 · 30 + 3 · 15 + 2 · 1 Z Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 2 / 84 Lineare Abbildungen Seite 125 Vektorraum lin. Abbildung Vektorraum V A -→ W {v 1 , ··· , v n } {w 1 , ··· , w m } Basis von V Basis von W Aus Av j = m i =1 a ij w i mit A = a 11 ··· a 1n . . . . . . a m1 a mn R (m,n) und v = n j =1 x j v j ∈V folgt für die y i ’s in A(v )= m i =1 y i w i A(v )= A n j =1 x j v j = n j =1 x j A(v j )= n j =1 x j m i =1 a ij w i = m i =1 y i n j =1 a ij x j w i Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 3 / 84 Lineare Abbildungen Seite 125 A(v )= A n j =1 x j v j = n j =1 x j A(v j )= n j =1 x j m i =1 a ij w i = m i =1 n j =1 a ij x j w i Also kann die Abbildung v = n j =1 x j v j A -→ w := A(v )= m i =1 y i w i in den Koeffizientenvektoren x = x 1 . . . x n und y = y 1 . . . y m einfach geschrieben werden als y = Ax . Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 4 / 84

Wiederholung: Matrixdarstellung, Rotkäppchens Diätplan · Matrix A 2 R (n ;n ) Normal: Bei Basis-Wechsel wird man im Bild- und Urbildraum wieder die gleiche Basis wollen. Übergang:

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

  • Lineare Abbildungen

    Vorlesung 1

    5. April + 8. April

    Basiswechsel

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 1 / 84

    Lineare Abbildungen

    Wiederholung: Matrixdarstellung,

    Rotkäppchens Diätplan

    Ananas Wein Orangen SahnePreis 2.00 8 0.50 1.39Fett 0.02 0.01 0.05 30

    Zucker 200 30 15 1

    Korb mit:

    AnanasWein

    OrangenSahne

    2132

    −→

    2 · 2.00 + 1 · 8 + 3 · 0.5 + 2 · 1.39 P2 · 0.02 + 1 · 0.01 + 3 · 0.05 + 2 · 30 F2 · 200 + 1 · 30 + 3 · 15 + 2 · 1 Z

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 2 / 84

    Lineare Abbildungen

    Seite 125Vektorraum lin. Abbildung Vektorraum

    V A−→ W{v1, · · · , vn} {w1, · · · ,wm}Basis von V Basis von W

    Aus Av j =m∑

    i=1

    aij w i mit A =

    a11 · · · a1n...

    ...am1 amn

    ∈ R(m,n)

    und v =n∑

    j=1

    xjv j ∈ V folgt für die yi ’s in A(v) =m∑

    i=1

    yiw i

    A(v) = A( n∑

    j=1

    xjv j)

    =n∑

    j=1

    xj A(v j ) =n∑

    j=1

    xjm∑

    i=1

    aij w i =m∑

    i=1

    (yi︷ ︸︸ ︷

    n∑

    j=1

    aijxj)

    w i

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 3 / 84

    Lineare Abbildungen

    Seite 125

    A(v) = A( n∑

    j=1

    xjv j)

    =n∑

    j=1

    xj A(v j ) =n∑

    j=1

    xjm∑

    i=1

    aij w i =m∑

    i=1

    ( n∑

    j=1

    aijxj)

    w i

    Also kann die Abbildung

    v =n∑

    j=1

    xjv jA−→ w := A(v) =

    m∑

    i=1

    yiw i

    in den Koeffizientenvektoren x =

    x1...

    xn

    und y =

    y1...

    ym

    einfach geschrieben

    werden als

    y = Ax .

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 4 / 84

  • Lineare Abbildungen

    A. Matrixdarstellung & BasiswechselSeite 189

    Vektorraum lin. Abbildung VektorraumV A−→ W

    {v1, · · · , vn} {w1, · · · ,wm}Basis von V Basis vonW

    Av j =m∑

    i=1

    aij w i mit A =

    a11 · · · a1n...

    ...am1 amn

    ∈ R(m,n)

    Neue Basen{ṽ1, · · · , ṽn} {w̃1, · · · , w̃m}

    Aṽ j = ∑mi=1 ãij w̃ i

    Ã berechenbar aus A?

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 5 / 84

    Lineare Abbildungen

    Einfachster Fall

    V = Rn W = Rm

    V :=(v1, . . . , vn

    )∈ R(n,n), regulär W :=

    (w1, . . . ,wm

    )∈ R(m,m), regulär

    Ṽ :=(ṽ1, . . . , ṽn

    )∈ R(n,n), regulär W̃ :=

    (w̃1, . . . , w̃m

    )∈ R(m,m), regulär

    Vx = v = Ṽ x̃ Wy = w = W̃ ỹ

    y = Ax bekannt.

    ỹ = Ãx̃ gesucht.

    ỹ = W̃−1

    w︷ ︸︸ ︷

    W A

    x︷ ︸︸ ︷V−1 Ṽ x̃︸︷︷︸

    v︸ ︷︷ ︸y

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 6 / 84

    Lineare Abbildungen

    Beispiel

    V :=

    1 1 11 1 00 1 0

    ∈ R(3,3) W :=

    (1 12 1

    )∈ R(2,2)

    Ṽ :=

    1 0 00 1 00 0 1

    ∈ R(3,3) W̃ :=

    (1 00 1

    )∈ R(2,2)

    Vx = v = Ṽ x̃ Wy = w = W̃ ỹ

    y = Ax =(

    1 0 −10 1 0

    )x .

    Ã = W̃−1WAV−1Ṽ =(

    1 12 1

    )(1 0 −10 1 0

    )

    1 1 11 1 00 1 0

    −1

    =

    (−1 2 0−2 4 −1

    )

    Test: Ãv1 =(−1 2 0−2 4 −1

    )

    110

    =

    (12

    )= 1 · w1

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 7 / 84

    Lineare Abbildungen

    Nächst schwierigerer FallEben hatten wir

    Ãx̃ =

    ỹ←y︷ ︸︸ ︷W̃−1W A V−1Ṽ︸ ︷︷ ︸

    x←x̃

    Nun nehmen wir an:

    V ⊂ Rp, p ≥ n W ⊂ Rq , q ≥ mV :=

    (v1, . . . , vn

    )∈ R(p,n), Rang n W :=

    (w1, . . . ,wm

    )∈ R(q,m), Rang m

    Ṽ :=(ṽ1, . . . , ṽn

    )∈ R(p,n), Rang n W̃ :=

    (w̃1, . . . , w̃m

    )∈ R(q,m), Rang m

    Vx = v = Ṽ x̃ Wy = w = W̃ ỹ

    y = Ax bekannt. ỹ = Ãx̃ gesucht.

    Achtung: V , Ṽ ,W , W̃ sind nicht mehr invertierbar. Obige Formel tut’s nichtmehr.

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 8 / 84

  • Lineare Abbildungen

    Aber in

    Ãx̃ =

    ỹ←y︷ ︸︸ ︷W̃−1W A V−1Ṽ︸ ︷︷ ︸

    x←x̃

    brauchen wir ja auch nur Operatoren, die x̃ in x transformieren und y in ỹ .

    Und die erhalten wir so:

    Weil die Spalten von V und die Spalten von Ṽ Basisvektoren von V enthalten,gibt es eine reguläre (m,m)-Matrix S mit

    Ṽ = VS.

    Indem wir x̃ dahinter schreiben

    Ṽ x̃ = VSx̃ (= Vx),

    sehen wir, dassx = Sx̃ .

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 9 / 84

    Lineare Abbildungen

    Analog zu

    Ṽ = VS ⇒ x = Sx̃gilt

    W̃ = WR ⇒ y = RỹUnd damit erhalten wir nun

    Ãx̃ = ỹ = [ỹ ← y ] A [x ← x̃ ] x̃ = R−1ASx̃ .

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 10 / 84

    Lineare Abbildungen

    Beispiel

    V =

    1 12 13 1

    W =

    (1 12 1

    )

    A =(

    1 00 1

    )

    Ṽ =

    −1 10 11 1

    W̃ =

    (1 00 1

    )

    Ṽ = V(

    1 0−2 1

    )

    ︸ ︷︷ ︸S

    W̃ = WR; also R = W−1.

    Ã = R−1AS = WAS =(

    1 12 1

    )(1 00 1

    )(1 0−2 1

    )=

    (−1 1−3 2

    ).

    Probe:

    123

    = Ṽ

    (12

    ), und Ã

    (12

    )=

    (−1 1−3 2

    )(12

    )=

    (11

    ). - OK

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 11 / 84

    Lineare Abbildungen

    FrageWie berechnt man S in VS = Ṽ?Antwort: Notfalls mit Gauß-Elimination. (Demonstration an letztem Beispiel.)

    1 12 13 1

    S =

    −1 10 11 1

    Löse zwei Gleichungssysteme (für die erste und zweite Spalte von S)simultan:

    1 1 −1 12 1 0 13 1 1 1

    1 1 −1 10 −1 2 −10 −2 4 −2

    1 1 −1 10 −1 2 −10 0 0 0

    Löse nun (1 10 1

    )(s11s21

    )=

    (−12

    )und

    (1 10 1

    )(s12s22

    )=

    (1−1

    )

    auf zu

    S =(

    1 0−2 1

    ).

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 12 / 84

  • Lineare Abbildungen

    Allgemeiner FallVektorraum lin. Abbildung Vektorraum

    V A−→ W{v1, · · · , vn} {w1, · · · ,wm}{ṽ1, · · · , ṽn} {w̃1, · · · , w̃m}Basen von V Basen vonW

    Die Beziehungen

    Vx = v = Ṽ x̃ Wy = w = W̃ ỹund

    Ṽ = VS W̃ = WRmüssten eigentlich anders geschrieben werden.Die beiden letzten lauten z.B.

    ṽj =∑n

    i=1 visij , j = 1, . . . ,n w̃j =

    ∑mi=1 w

    i rij , j = 1, . . . ,m.Die Matrizen S und R gehen aber wie oben in die Transformation ein:

    Ã = R−1AS.Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 13 / 84

    Lineare Abbildungen

    Beispiel: V ⊂ Π2,W = T1v1(x) = x + x2

    v2(x) = x + 2x2w1(x) = sin(x) + cos(x)w2(x) = 2 sin(x)− cos(x) + 1w3(x) = 2 + sin(x)

    ,

    A =

    1 00 10 0

    ṽ1(x) = x ,ṽ2(x) = x2

    w̃1(x) = 1,w̃2(x) = sin(x),

    w̃3(x) = cos(x).

    Praktische Schlamp-Schreibweise:

    (v1, v2

    )=(ṽ1, ṽ2

    )(1 11 2

    )

    ︸ ︷︷ ︸S−1

    ,(w1,w2,w3

    )=(w̃1, w̃2, w̃3

    )

    0 1 21 2 11 −1 0

    ︸ ︷︷ ︸R−1

    .

    Ã = R−1AS =

    0 1 21 2 11 −1 0

    1 00 10 0

    (

    2 −1−1 1

    )=

    −1 10 13 −2

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 14 / 84

    Lineare Abbildungen

    Abschließendes BeispielFür

    R3 T−→ R2

    ist bekannt

    T

    110

    =

    (11

    ),T

    101

    =

    (12

    ),T

    111

    =

    (01

    )

    V =

    1 1 11 0 10 1 1

    W =

    (1 11 2

    )

    ⇒A =

    (1 0 −10 1 1

    )

    VS = Ṽ = E3 E2 = W̃ = WR⇒ S = V−1 ⇒ R = W−1

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 15 / 84

    Lineare Abbildungen

    Ã = R−1AS = WAV−1

    =

    (1 11 2

    )(1 0 −10 1 1

    )

    1 1 11 0 10 1 1

    −1

    =

    (2 −1 −12 −1 0

    )

    (Test!)

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 16 / 84

  • Lineare Abbildungen

    Äquivalente MatrizenSeite 199

    B R−1 AS

    m

    n

    m n

    n=

    Basiswechsel imBildraum

    Basiswechsel imUrbildraum

    Definition 6.6A,B ∈ R(m,n) sind äquivalent, wenn ∃

    R ∈ R(m,m),S ∈ R(n,n)︸ ︷︷ ︸beide regulär

    so dass B = R−1 A S

    Beschreiben dieselbe Abbildung bzgl. verschiedener Basen.Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 17 / 84

    Lineare Abbildungen

    NormalformSeite 200

    FrageGibt es eine besonders einfache äquivalente Matrix zu A ∈ R(m,n)?

    Ja

    A ∈ R(m,n) habe Rang r(r ≤ min(m,n))

    A äquivalent zu

    Dr : =(

    Er 00 0

    )

    ︸ ︷︷ ︸Normalform von A

    ∈ R(m,n)

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 18 / 84

    Lineare Abbildungen

    Folgerung

    AB

    }∈ R(m,n) äquivalent ⇔ Rang A = Rang B

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 19 / 84

    Lineare Abbildungen

    Wichtiger Spezialfall: ÄhnlicheMatrizen

    Seite 201

    V T−→ V dim V = n

    Normal: Verwende in Urbild- und Bildraum gleiche Basis. Darstellung durchMatrix A ∈ R(n,n)

    Normal: Bei Basis-Wechsel wird man im Bild- und Urbildraum wieder diegleiche Basis wollen.

    Übergang:

    B = S−1 A S︸ ︷︷ ︸Definition 6.7: A und B heißen ähnlich. (Wichtig!)

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 20 / 84

  • Lineare Abbildungen

    Ende der 1. Vorlesung

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 21 / 84

    Lineare Abbildungen Die orthogonale Projektion

    Vorlesung 2

    12. April + 16. April

    Orthogonale Projektionen

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 23 / 84

    Lineare Abbildungen Die orthogonale Projektion

    Wiederholung /Fourierentwicklung:

    Folie zum Übers-Bett-Hängen

    a

    b

    α

    Projektion von b auf a-Richtung

    = a · 〈a,b〉|a| · |a| = a ·〈a,b〉〈a,a〉 =

    aaT

    aT ab

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 24 / 84

    Lineare Abbildungen Die orthogonale Projektion

    Seite 86

    Orthonormalbasen sind schön!{v1, · · · , vn} ONB von (V , 〈, 〉).

    v1, · · · , vn Basis⇒ ∀ x ∃

    x1...

    xn

    ∈ Rn : x =

    ∑ni=1 xi v

    i .

    Wie berechnet man xi ?

    〈v j , x〉 = 〈v j ,n∑

    i=1

    xi v i〉

    =n∑

    i=1

    xi 〈v j , v i〉︸ ︷︷ ︸=δij

    =n∑

    i=1

    xi · δij = xj

    xj = 〈v j , x〉 Satz 2.58Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 25 / 84

  • Lineare Abbildungen Die orthogonale Projektion

    Seite 86

    v = α1 v1 + α2 v2 + · · · + αn vn〈v1, v〉 = 〈v1, α1 v1 + α2 v2 + · · · + αn vn〉

    〈v1, v〉 = α1〈v1, v1〉 + α2〈v1, v2〉 + . . . + αn〈v1, vn〉= 1 = 0 = 0

    also 〈v1, v〉 = α1.

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 26 / 84

    Lineare Abbildungen Die orthogonale Projektion

    Seite 86

    Satz 2.58v1, ..., vn Orthonormalbasis.

    v =n∑

    i=1

    αi vi , αj = 〈vj , v〉

    also

    v =n∑

    i=1

    vi〈vi , v〉︸ ︷︷ ︸

    „Fourierentwicklung“

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 27 / 84

    Lineare Abbildungen Die orthogonale Projektion

    v1, ..., vn Orthonormalbasis, m < n

    v =m∑

    i=1

    vi〈vi , v〉︸ ︷︷ ︸

    ∈W :=span{v1,...,vm}

    +n∑

    i=m+1

    vi〈vi , v〉︸ ︷︷ ︸

    span{vm+1,...,vn}⊥W

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 28 / 84

    Lineare Abbildungen Die orthogonale Projektion

    Orthogonale Projektion und besteApproximation im

    unendlichdimensionalen Raum

    Seite 202

    (V , ) sei euklidischer Vektorraum.

    ApproximationsproblemSei W endlichdimensionaler Teilraum von V . Sei v ∈ V gegeben.Bestimme ṽ ∈ W mit

    ||ṽ − v || ≤ ||w − v || ∀w ∈ W

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 29 / 84

  • Lineare Abbildungen Die orthogonale Projektion

    Wie man vermutet, ist

    ṽ = P(v) die orthogonale Projektion von v auf W .

    Das soll jetzt festgemacht werden.

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 30 / 84

    Lineare Abbildungen Die orthogonale Projektion

    Ablauf der heutigen Vorlesung:

    - Definiere Projektion auf endlichdimensionalen Teilraum W .

    - Zeige Projektion = Beste Approximation

    - Berechnung der Projektion

    • Orthonormalisiere Basis• Gramsches System• Normalgleichungen

    - Zwei Anwendungen

    - Projektoren

    - Orthogonalraum

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 31 / 84

    Lineare Abbildungen Die orthogonale Projektion

    Seite 202

    Satz 6.10 (Projektionssatz)

    0

    W

    v

    (V , ) sei euklidischer Vektorraum, W endlichdimensionaler Teilraum.Dann hat jedes v ∈ V eine eindeutige Zerlegung

    v = w + u mit w ∈ W & u ⊥W

    BeweisSei {w1, · · · ,wm} Orthonormalbasis von W . Wir versuchen unser Glück mit

    w : =m∑

    j=1

    < v ,w j > w j und u : = v − w

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 32 / 84

    Lineare Abbildungen Die orthogonale Projektion

    Dann ist sicher w =∑m

    j=1 < v ,wj > w j ∈ W klar.

    Es ist aber auch u := v − w senkrecht zu W , denn für k = 1, . . . ,m ist

    < u,wk > = < v − w ,wk >=< v ,wk > − < w ,wk >

    = < v ,wk > −m∑

    j=1

    < v ,w j >< wk ,w j︸ ︷︷ ︸δkj

    >

    = < v ,wk > − < v ,wk >= 0

    Also ist v = u + w eine Zerlegung wie gewünscht. Fehlt noch Eindeutigkeit.Sei v = w̃ + ũ, w̃ ∈ W , ũ ⊥W

    w̃ + ũ = w + u ⇒ w̃ − w︸ ︷︷ ︸∈ w

    = u − ũ︸ ︷︷ ︸⊥W

    ||w − w̃ ||2 =< w − w̃ ,w − w̃ >=< w − w̃ , ũ − u >= 0⇒ w = w̃

    ⇒ u = ũ �

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 33 / 84

  • Lineare Abbildungen Die orthogonale Projektion

    Seite 203

    v = w + u,w ∈W ,u ⊥W Zerlegung eindeutig!

    Definition 6.11w Def .= Orthogonale Projektion P(v) von v auf W .

    P(v) ist das eindeutige Element in W , mit dem v − P(v) senkrecht auf Wsteht.

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 34 / 84

    Lineare Abbildungen Die orthogonale Projektion

    Seite 204Damit ist die Geometrie in

    gesichert, und wir haben somit gezeigt, den

    Satz 6.16 (Approximationssatz)Sei (V , ) eukl. Vektorraum, W endlichdimensionaler Teilraum und P dieorthogonale Projektion auf W . Dann ist P(v) für alle v ∈ V die eindeutigbeste Approximation von v aus W :

    ||v − P(v)|| < ||v − w ||∀ w ∈ W ,w 6= P(v)

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 35 / 84

    Lineare Abbildungen Die orthogonale Projektion

    Weitere WiederholungSeite 204

    Satz von PythagorasFür alle u,w ∈ V mit < u,w >= 0 gilt

    ‖u‖2 = ‖u‖2 + ‖w‖2

    BeweisGanz einfach:

    ||u + w ||2 =< u + w ,u + w >=< u,u > + 2 < u,w >︸ ︷︷ ︸=0

    + < w ,w >

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 36 / 84

    Lineare Abbildungen Die orthogonale Projektion

    Zusammenfassung:

    PythagorasPythagoras

    ‖u + w‖2 = ‖u‖2 + ‖w‖2

    gilt, wenn die Norm über‖x‖2 = 〈x , x〉,

    mit dem innerem Produkt verbunden ist.

    Beste Approximation mit Pythagoras

    „Beste Approximation„ = „Projektion“

    wenn Pythagoras gilt.

    Beste Approximation ohne PythagorasSchnellster Weg in Unterraum ohne Pythagoras ist schwieriger zu finden.

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 37 / 84

  • Lineare Abbildungen Die orthogonale Projektion

    Seite 205

    Bemerkung 6.17Approximationsproblem

    w∗ ?= arg min {||v − w ||∣∣w ∈ W}

    ist auch sinnvoll im allgemeinen normierten Raum.Eine beste Approximation existiert für endlichdim. W (⇐ Analysis)Aber die Lösung ist oft nicht eindeutig und i.A. keine Projektion.

    w0

    v

    alles Lösungen

    max-Norm

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 38 / 84

    Lineare Abbildungen Die orthogonale Projektion

    Berechnung von P(v):Seite 203

    Anmerkung 6.12Ist {w1, · · · ,wm} irgendeine Orthonormalbasis von W , so ist

    P(v) =m∑

    j=1

    < v ,w j > w j .

    Bemerkung 6.14Sei {w1, · · · ,wm} beliebige Basis von W . Dann hat P(v) eine eindeutigeDarstellung

    P(v) =m∑

    j=1

    ζj w j

    und P(v) erfüllt

    v − P(v) ⊥ w ∀ w in W

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 39 / 84

    Lineare Abbildungen Die orthogonale Projektion

    v − P(v) ⊥ w ∀ w in W

    ⇔ 〈w i , v − P(v)〉 = 0 i = 1, · · · ,m

    ⇔ < w i , v −m∑

    j=1

    ζj w j >= 0 , i = 1, · · · ,m

    ⇔m∑

    j=1

    ζj < w i ,w j >=< w i , v >, i = 1, · · · ,m

    < w1,w1 > · · · < w1,wm >

    ...< wm,w1 > · · · < wm,wm >

    ︸ ︷︷ ︸regulär, wenn w1, . . . ,wm linear unabhängig.

    ζ =

    < w1, v >

    ...< wm, v >

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 40 / 84

    Lineare Abbildungen Die orthogonale Projektion

    Seite 204

    Definition 6.15Sei (V , ) eukl. Vektorraum und w1, · · · ,wm ∈ V Dann heißt

    G(w1, · · · ,wm) : =

    < w1,w1 > · · · < w1,wm >

    ...< wm,w1 > · · · < wm,wm >

    Gramsche Matrix zu w1, · · · ,wm

    LEMMA:

    G(w1, · · · ,wm) ist regulär⇔ {w1, · · · ,wm} sind linear unabhängig.

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 41 / 84

  • Lineare Abbildungen Die orthogonale Projektion

    LEMMA:

    G(w1, · · · ,wm) ist regulär⇔ {w1, · · · ,wm} sind linear unabhängig.

    Beweis:Sei G regulär. Ist dann

    ∑ζiw i = 0, so ist

    0 =

    〈w1,∑ ζiw i〉〈w2,∑ ζiw i〉

    ...〈wm,∑ ζiw i〉

    = G

    ζ1ζ2...ζm

    also (ζ1, .., ζm)T = 0, mithin w1, . . . ,wm l.u..Sei umgekehrt G singulär. Dann gibt es ζ := (ζ1, . . . , ζm)T 6= 0 mit Gζ = 0.Daher ist ∥∥∥

    ∑ζiw i

    ∥∥∥2

    = 〈∑

    ζiw i ,∑

    ζjw j〉 = ζT Gζ = 0,

    also∑ζiw i = 0, so dass die w i -Vektoren linear abhängig sind. �

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 42 / 84

    Lineare Abbildungen Die orthogonale Projektion

    Spezialfall 1:w1, ...,wm, v ∈ Rn; (w1, . . . ,wm) =: A ∈ R(n,m), inneres Produkt =euklidisches Produkt.Dann schreibt sich das Approximationsproblem so:

    Minimiere ‖Aζ − v‖2 bezüglich ζ.

    Das Gramsche System< w1,w1 > · · · < w1,wm >

    ...< wm,w1 > · · · < wm,wm >

    ζ =

    < w1, v >

    ...< wm, v >

    wird zuAT Aζ = AT v (Sogenannte Normalgleichungen),

    und die Projektion P(v) =∑

    w iζi = Aζ hat die Form

    P(v) = A(AT A)−1AT v .

    (Dies ist im Skript als Satz 6.20 aufgeschrieben.)Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 43 / 84

    Lineare Abbildungen Die orthogonale Projektion

    Spezialfall 2:

    w1, ...,wm orthogonal.

    Dann wird die Gramsche Matrix im System< w1,w1 > · · · < w1,wm >

    ...< wm,w1 > · · · < wm,wm >

    ζ =

    < w1, v >

    ...< wm, v >

    zur Diagonalmatrix.Es werden

    ζi =< w i , v >< w i ,w i >

    und

    P(v) =∑

    w iζi = w1< w1, v >< w1,w1 >

    + . . .+ wm< wm, v >< wm,wm >

    .

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 44 / 84

    Lineare Abbildungen Die orthogonale Projektion

    Spezialfall 3:Seite 204

    In

    P(v) = w1< w1, v >< w1,w1 >

    + . . .+ wm< wm, v >< wm,wm >

    .

    seien

    w1, ...,wm ∈ Rn orthogonal bezüglich euklid. Produkt 〈w i ,w j〉 = (w i )T w j .

    Dann wird

    P(v) =(

    w1(w1)T

    (w1)T w1+ . . .+

    wm(wm)T

    (wm)T wm

    )

    ︸ ︷︷ ︸Summe dyadischer Produkte

    v

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 45 / 84

  • Lineare Abbildungen Die orthogonale Projektion

    Beispiel 6.18Seite 205

    Betrachte Πn mit < p,q >: =∫ 1

    0 p(x) q(x) dxFinde Gerade g(x) = ζ0 · 1 + ζ1 x , die u(x) : = x3 bestmöglich nähert.

    ‖u − g‖ =< u − g,u − g >1/2 != min.

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 46 / 84

    Lineare Abbildungen Die orthogonale Projektion

    Beispiel 6.18

    Lösung mit Gram-System

    w1(x) = 1,w2(x) = x , v(x) = x3

    (< w1,w1 > < w1,w2 >< w2,w1 > < w2,w2 >

    )(ζ0ζ1

    )=

    (< w1, v >< w2, v >

    )

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 47 / 84

    Lineare Abbildungen Die orthogonale Projektion

    < w1,w1 > =∫ 1

    01 · 1 dx = 1

    < w1,w2 > = < w2,w1 >=∫ 1

    01 · x dx = 1/2

    < w2,w2 > =∫ 1

    0x · x dx = 1/3

    < w1, v > =∫ 1

    01 · x3 dx = 1/4

    < w2, v > =∫ 1

    0x · x3 dx = 1/5

    Aus (1 1/2

    1/2 1/3

    )(ζ0ζ1

    )=

    (1/41/5

    )⇒ g(x) = −1

    5+

    910

    x

    fertig!

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 48 / 84

    Lineare Abbildungen Die orthogonale Projektion

    Ergebnis

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 49 / 84

  • Lineare Abbildungen Die orthogonale Projektion

    ProjektionsmatrizenSeite 206

    Die Projektion ist lineare Abbildung, also im endlichdimensionalen Fall durchMatrizen darstellbar.

    Für den Fall V = Rn mit dem euklidischen inneren Produkt hatten wir dieseschon für zwei Fälle aufgeschrieben.

    Spezialfall 3: Bei gegebener Orthonormalbasis w1, · · · ,wm von W ist:

    P =

    (m∑

    i=1

    w i (w i )T)

    ︸ ︷︷ ︸Summe dyadischer Produkte

    Spezialfall 1: Bei spaltenweisem Eintrag der linear unabhängigenBasisvektoren w1, ...,wm ∈ Rn von V in eine MatrixA := (w1, . . . ,wm) ∈ R(n,m) ist

    P = A(AT A)−1AT .

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 50 / 84

    Lineare Abbildungen Die orthogonale Projektion

    Seite 208

    Satz 6.22 (Charakterisierungssatz)P ∈ R(n,n) beschreibt (bzgl. Standardbasis) genau dann ProjektorP : Rn −→W ,

    W : = {Px : x ∈ Rn},bzgl. eukl. inneren Produktes, wenn

    P = P2 = PT .

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 51 / 84

    Lineare Abbildungen Die orthogonale Projektion

    BeweisSei P =

    ∑mi=1 w

    i w iT ,w i ONS von WDann ist

    P2 =m∑

    i=1

    w i w iTm∑

    j=1

    w j w jT

    =m∑

    i=1

    m∑

    j=1

    w i (w iT w i )︸ ︷︷ ︸δij

    w iT

    =m∑

    i=1

    w i w iT

    PT =m∑

    i=1

    (w i w iT )T = P

    Sei P = P2 = PTDann ∀ v ∈ V : P(v) ∈ WAußerdem gilt v − Pv ⊥ W wegen

    (v − Pv)T Pz = vT (E − P)T Pz= vT (P − P2)z = 0 ∀ z ∈ Rn �

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 52 / 84

    Lineare Abbildungen Die orthogonale Projektion

    OrthogonalräumeSeite 208

    Definition 6.23Sei W Teilraum von (V , )W⊥ : = {v ∈ V :< v ,w >= 0 ∀ w ∈ W}heißt bekanntlich Orthogonalraum von W in V .

    Bemerkung 6.25V endlichdimensional, W Teilraum von V

    ONB von W︷ ︸︸ ︷v1, · · · vm,⇒

    ONB von W⊥︷ ︸︸ ︷vm+1, · · · , vn︸ ︷︷ ︸

    ON-Basis von V

    Hier (W⊥)⊥ = W

    Im unendlichdimensionalen Fall nur nochW ⊂ (W⊥)⊥W 6= (W⊥)⊥ möglich.

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 53 / 84

  • Lineare Abbildungen Die orthogonale Projektion

    Ende der 2. Vorlesung

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 54 / 84

    Lineare Abbildungen Orthogonaltransformationen

    Vorlesung 3

    19. April + 22. AprilOrthogonaltransformationen

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 56 / 84

    Lineare Abbildungen Orthogonaltransformationen

    Wiederholung:(Kongruenztransformationen des R2)

    Seite 153

    Ansatz: Q =(

    a bc d

    )Q−1 = 1ad−bc

    (d −b−c a

    )

    ⇒ QT = Q−1 bei

    (i) a = dad−bc(ii) d = aad−bc

    }a = (ad − bc)2a

    (iii) c = −bad−bc(iv) b = −cad−bc

    }b = (ad − bc)2b

    |a|+|b|6=0

    =⇒ ad − bc = ±1

    folglich zwei Fälle

    α) ad − bc = 1, a = d , b = −cβ) ad − bc = −1, a = −d , b = c

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 57 / 84

    Lineare Abbildungen Orthogonaltransformationen

    ALSO:

    Q =(

    a bc d

    )orthogonal wenn

    α) a = d , b = c ad − bc = det Q = 1oderβ) a = −d , b = c ad − bc = det Q = −1

    In beiden Fällen a2 + b2 = 1 , also a = cosφ b = ± sinφDamit entweder

    Q =(

    cosφ − sinφsinφ cosφ

    )φ ∈ [0,2π)

    oder

    Q̃ =(

    cosφ − sinφ− sinφ − cosφ

    )φ ∈ [0,2π)

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 58 / 84

  • Lineare Abbildungen Orthogonaltransformationen

    OrthogonaltransformationenSeite 209

    A ∈ R(n,n) AT A = E

    1 = det(E) = det(AT A) = det(AT ) · det(A)= (det(A))2

    Definition 6.27 (verallgemeinerte)

    ⇒ det A = 1︸ ︷︷ ︸„Drehung“

    det A = −1︸ ︷︷ ︸„Spiegelung“

    dim = 2, dann(

    cosφ − sinφsinφ cosφ

    )(cosφ − sinφ− sinφ − cosφ

    )

    dim = 2: Namen korrektdim = 3: Namen fast korrekt, tatsächliche Drehung oder (Drehung nach) Spiegelung

    dim > 3: Namen entsprechen nicht mehr der AnschauungMackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 59 / 84

    Lineare Abbildungen Orthogonaltransformationen

    Seite 210

    Satz 6.28Für A ∈ R(3,3), AT A = E gelten

    (i) det A = 1⇒ A ∼ Drehung um eine Achse durch Null.

    (ii) det A = −1⇒ A ∼ Drehung hinter Spiegelung

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 60 / 84

    Lineare Abbildungen Orthogonaltransformationen

    Beweis(ii) det A = −1⇒

    det

    (A ·

    11−1

    )

    ︸ ︷︷ ︸⇒Ã= Drehung

    = 1

    A = A

    11−1

    11−1

    = Ã︸︷︷︸Drehung nach (i)

    11−1

    ︸ ︷︷ ︸Spiegelung

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 61 / 84

    Lineare Abbildungen Orthogonaltransformationen

    (i) (tricky)

    Struktur:a) Finde Drehachse v1

    b) Stelle A dar bzgl. ONB v1

    ||v1|| = w1,w2,w3 und zeige

    Ã =

    1 0 00 cosα − sinα0 sinα cosα

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 62 / 84

  • Lineare Abbildungen Orthogonaltransformationen

    a) Drehachse bleibt fest unter AAv = v⇒ Drehachse löst (A− E)︸ ︷︷ ︸

    muss singulär sein, damit es v gibt

    v = 0 (natürlich v 6= 0).

    det(A− E) = det(A · (E − AT ))= det(A) det((E − AT )T )= det(E − A)= det((−1) · (A− E))= (−1)3det(A− E)

    ⇒ det(A− E) = 0⇒ A− E singulär⇒ ∃ v : Av = v ,o.E. ||v || = 1

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 63 / 84

    Lineare Abbildungen Orthogonaltransformationen

    Ergänze Drehachse v zu ONB (w1,w2,w3) und stelle A dar bzgl. dieser Basis

    Übergangsmatrix:

    Basisneu = Basisalt · S(w1,w2,w3) = (e1,e2,e3) · S

    ⇒ S = (w1,w2,w3) ST = S−1

    Ã = S−1 AS = ST AS

    Ã orthogonal als Produkt orthogonaler Matrizen.

    Aw1 = w1 ∼ Ãe1 = e1

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 64 / 84

    Lineare Abbildungen Orthogonaltransformationen

    ⇒ Ã =

    1 ∗ ∗0 ∗ ∗0 ∗ ∗

    E = ÃT Ã =

    1 0 0⊗ ∗ ∗⊗ ∗ ∗

    1 ⊗ ⊗0 ∗ ∗0 ∗ ∗

    =

    1 0 0

    ⇒ Ã =

    1 0 00 B0

    E3 = ÃT Ã =

    1 0 00 BT B0

    ⇒ BT B = E2,det à = 1 · det B ⇒ det B = 1

    Ã =

    1 0 00 c −s0 s c

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 65 / 84

    Lineare Abbildungen Orthogonaltransformationen

    Beispiel (Drehachse und Drehwinkel)

    A =

    910 −

    √2·3

    101

    10√2·3

    108

    10 −√

    2·310

    110

    √2·3

    109

    10

    ist orthogonal und hat Determinante = 1

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 66 / 84

  • Lineare Abbildungen Orthogonaltransformationen

    Bestimmung der Drehachse aus (A− E)v = 0

    10(A− E)v = 0⇔

    −1 −

    √2 · 3 1√

    2 · 3 −2 −√

    2 · 31

    √2 · 3 −1

    v1v2v3

    = 0

    v = λ

    101

    , λ ∈ R

    Bestimmung des Drehwinkels:

    Wähle z ⊥ v (also in Drehebene), z.B. z =

    010

    Drehe:

    Az =

    −√

    2·310

    810√2·3

    10

    cosα =< z,Az >||z|| ||Az|| =

    8/101 · 1 = 0.8

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 67 / 84

    Lineare Abbildungen Orthogonaltransformationen

    Achtung: Mit cos(α) ist α noch nichtbekannt!

    cos(−t) cos(t)=

    arc cos

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 68 / 84

    Lineare Abbildungen Orthogonaltransformationen

    Achtung: Mit cos(α) ist α noch nichtbekannt!

    Drehachse v

    Az

    z

    Az

    ϕ

    −ϕ

    (z, Az, v)= RECHTSSYSTEM

    det(z, Az, v) > 0(= det(v , z, Az))

    (z, Az, v) Linkssystemdet(z, Az, v) < 0

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 69 / 84

    Lineare Abbildungen Orthogonaltransformationen

    Seite 212Wegen

    det

    vz

    Az

    =

    ∣∣∣∣∣∣

    1 0 10 1 0

    −√

    2·310

    810

    √2·3

    10

    ∣∣∣∣∣∣=

    √2 · 35

    > 0

    liegt ein Rechtssystem vor und aus

    cosα = 0.8

    folgtα = +arc cos 0.8 ≈ 36,87o �

    Nun noch Bestimmung von Drehachse & Drehwinkel direkt aus Matrix!Dazu zunächst die

    Definition 6.31Zu A ∈ R(n,n) heißt

    Spur(A) : =n∑

    j=1

    ajj Spur von A

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 70 / 84

  • Lineare Abbildungen Orthogonaltransformationen

    Seite 212

    Lemma 6.32Die Spuren ähnlicher Matrizen sind gleich:Also

    A ∈ R(n,n),T ∈ R(n,n) regulär=⇒

    Spur(A) = Spur(T−1AT )

    Bemerkung: Es ist immer nützlich Invarianten von Transformationen zukennen. (vgl. Drehachse von Drehung)

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 71 / 84

    Lineare Abbildungen Orthogonaltransformationen

    BeweisSei B ∈ R(n,n) beliebig. Dann ist

    Spur(AB) =n∑

    j=1

    (AB)jj =n∑

    j=1

    n∑

    k=1

    ajk bkj

    =n∑

    k=1

    n∑

    j=1

    bkj ajk =n∑

    k=1

    (BA)kk

    = Spur(BA) Daher istSpur(T−1AT ) = Spur(TT−1A) = Spur(A) � (1)

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 72 / 84

    Lineare Abbildungen Orthogonaltransformationen

    Seite 213

    Satz 6.33Sei A ∈ R(3,3) orthogonal mit det(A) = 1Dann gilt für den Drehwinkel von A

    cosϕ =12

    (Spur(A)− 1)

    und bei (cos(ϕ) 6= 1, ϕ 6= 0) gilt für die Drehachse v :

    span{v} = Bild(A + AT − (Spur(A)− 1)E)

    Anmerkung: Bild (b1, · · · ,bn) = span{b1, · · · ,bn}

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 73 / 84

    Lineare Abbildungen Orthogonaltransformationen

    Vor dem Beweis eine Anwendung:

    A =

    1 0 00 cosϕ − sinϕ0 sinϕ cosϕ

    ; cosϕ = 1

    2(Spur(A)− 1) = 1

    2(1 + 2 cosϕ− 1)

    A + AT − (Spur(A)− 1)E

    =

    2 0 00 2 cosϕ 00 0 2 cosϕ

    − (1 + 2 cosϕ− 1)E

    =

    2− 2 cosϕ 0 00 0 00 0 0

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 74 / 84

  • Lineare Abbildungen Orthogonaltransformationen

    BeweisSei

    ST AS =

    1 0 00 cosϕ − sinϕ0 sinϕ cosϕ

    =: Ã,

    S orthogonal, S = (Drehachse w1,w2,w3)Dann gilt

    Spur(A) = Spur(ST AS) = Spur(Ã)= 1 + 2 cosϕ

    also12

    (Spur(A)− 1) = cosϕ

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 75 / 84

    Lineare Abbildungen Orthogonaltransformationen

    Es ist

    Ã + ÃT − (Spur(A)− 1)︸ ︷︷ ︸2 cosϕ

    E =

    2− 2 cosϕ 0 00 0 00 0 0

    Damit

    A + AT − (Spur(A)− 1)E = S(Ã + ÃT − (Spur(A)− 1)E)ST

    = (2− 2 cosϕ)S

    1 0 00 0 00 0 0

    ST

    = (2− 2 cosϕ) S

    S11 S21 S310 0 00 0 0

    = const(S11w1,S21w1,S31w1)�

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 76 / 84

    Lineare Abbildungen Orthogonaltransformationen

    Seite 214Householder-Matrizen

    w ∈ Rn,w 6= 0 definiert W := {x ∈ Rn|wT x = 0}

    Ziel: Hx := {an W gespiegeltes x}

    W

    w x

    P(x)

    H(x)

    wwTwT w x

    wwTwT w x

    Hx = x − 2 wwT

    wT wx

    ︸ ︷︷ ︸Householder-Matrix mal x

    Zweimal w − Anteil abziehen Def. 6.35

    H = E − 2 wwT

    wT w

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 77 / 84

    Lineare Abbildungen Orthogonaltransformationen

    Beispiel 6.36Seite 215

    E = {x ∈ R3|x1 + x2 + x3 = 0}

    w = (1,1,1)T

    H = E − 213

    111

    (1,1,1)

    = 13

    1 −2 −2−2 1 −2−2 −2 1

    ↗Um Gottes Willen nicht ausmultiplizieren.↖Schon gar nicht in höheren Dimensionen.

    Dyadische Produkte sind wunderschön einfach anzuwenden!

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 78 / 84

  • Lineare Abbildungen Orthogonaltransformationen

    Seite 215

    Bemerkungen 6.37Bei Handrechnung verwende E − 2 wwTwT w .Bei Computerrechnung setze w̃ := w‖w‖2 und benutze

    Hy = (E − 2w̃w̃T )y = y −︸︷︷︸n+

    [2 ·︸︷︷︸1+

    ( w̃T y︸︷︷︸(2n−1)+

    )] ·︸︷︷︸n Operationen

    w̃ .

    Das sind 4n Operationen.w oder w̃ in H = E − 2 wwTwT w = E − 2w̃w̃T brauchen nur n Speicher.Multipliziert man hingegen wwT aus, so ist Hy i.A. vollbesetzt.Dann braucht Hy bei Standardausführung n(2n − 1) Operationen.

    HT = (E − 2wwT )T = E − 2wwT = H; HHT = HT H = H2 = E

    H also symmetrisch & orthogonal.Lösung von Hx = b ist x = Hb �

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 79 / 84

    Lineare Abbildungen Orthogonaltransformationen

    Wichtige Anwendung vonHouseholder-Matrizen

    Seite 216

    FrageGibt es eine Householder-Matrix H = E − 2 wwTwT w , die x ∈ Rn auf λe1 abbildet?

    Zwischenüberlegung:Wenn das geht, so muss λ = ±||x || sein. (Länge bleibt erhalten)

    Endüberlegung:w zeigt vom Ergebnisvektor Hx nach x .Also

    w = +||x ||e1 − x oder w = −||x ||e1 − x .Zack! FERTIG!

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 80 / 84

    Lineare Abbildungen Orthogonaltransformationen

    Welchen wählen?Den

    w̃ = x + sign(x1)||x ||e1

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 81 / 84

    Lineare Abbildungen Orthogonaltransformationen

    Beispiel

    Bilde

    H = E − 2 wwT

    wT wmit Hx = y ,

    wobeix = (3,4,0,0)T , y = (0,0,0,5)T

    FrageGeht das überhaupt?

    Antwort: Ja, ||x || = ||y ||.

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 82 / 84

  • Lineare Abbildungen Orthogonaltransformationen

    Konstruktion:

    w hat Richtung von x − y oder y − x . (Ist egal. Wieso?)Also

    w = x − y = (3,4,0,−5)T

    H = E − 2 wwT

    wT w= E − 1

    25

    340−5

    (3,4,0,−5)

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 83 / 84

    Lineare Abbildungen Orthogonaltransformationen

    Ende der 3. Vorlesung

    Mackens (Technische Universität Hamburg-Harburg) Lineare Algebra II SoSe 13 84 / 84