27
Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing. Gerd Ehret Physikalisch-Technische Bundesanstalt 29. Okt. 2018 Zweite Vorlesung zu Messdatenauswertung und Messunsicherheit (MDA) Modulverantwortlicher: Prof. Dr.-Ing. R. Tutsch, iprom, TU Braunschweig 1 Korrelation und Kovarianz ur eine Bewertung von Wechselwirkungen zwischen Effekten werden in der Statistik Maße definiert, die die St¨ arke und eventuell auch Richtung eines Zusammenhangs zwischen dem Auftreten zuf¨ alliger Ereignisse quantifizieren sollen. Ein solches Maß f¨ ur die Charakterisierung linearer Zusammenh¨ ange ist der Korrelations- koeffizient ρ, der so definiert ist, dass er Werte zwischen -1 und 1 annehmen kann. Gibt es einen direkten linearen Zusammenhang zwischen zwei Zufallsgr¨ oßen X 1 und X 2 , so wird man zu einer Beobachtung der einen Gr¨ oße mit kleinem Wert auch einen kleinen Wert bei der anderen Gr¨ oße beobachten und wenn die eine Gr¨ oße einen großen Wert annimmt, so wird die andere auch einen großen Wert annehmen, und ρ wird in der N¨ ahe von 1 liegen. Haben zwei Zufallsgr¨ oßen einen ebenso direkten Zusammenhang, aber in umgekehrter Weise, dass zu kleinen Werten von der ersten Gr¨ oße große Werte zur zweiten Gr¨ oße auftreten und umgekehrt, so liegt ρ in der N¨ ahe von -1. In beiden F¨ allen sagt man, dass die Gr¨ oßen korreliert seien. 1

Kovarianz, Korrelation und lineare Regressioniprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2018... · Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing

  • Upload
    others

  • View
    21

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Kovarianz, Korrelation und lineare Regressioniprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2018... · Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing

Kovarianz, Korrelation und lineare

Regression

Dozent: Dr.-Ing. Gerd Ehret

Physikalisch-Technische Bundesanstalt

29. Okt. 2018

Zweite Vorlesung zu

Messdatenauswertung und Messunsicherheit (MDA)

Modulverantwortlicher:

Prof. Dr.-Ing. R. Tutsch, iprom, TU Braunschweig

1 Korrelation und Kovarianz

Fur eine Bewertung von Wechselwirkungen zwischen Effekten werden in der Statistik Maße

definiert, die die Starke und eventuell auch Richtung eines Zusammenhangs zwischen dem

Auftreten zufalliger Ereignisse quantifizieren sollen.

Ein solches Maß fur die Charakterisierung linearer Zusammenhange ist der Korrelations-

koeffizient ρ, der so definiert ist, dass er Werte zwischen −1 und 1 annehmen kann. Gibt

es einen direkten linearen Zusammenhang zwischen zwei Zufallsgroßen X1 und X2, so wird

man zu einer Beobachtung der einen Große mit kleinem Wert auch einen kleinen Wert bei

der anderen Große beobachten und wenn die eine Große einen großen Wert annimmt, so wird

die andere auch einen großen Wert annehmen, und ρ wird in der Nahe von 1 liegen. Haben

zwei Zufallsgroßen einen ebenso direkten Zusammenhang, aber in umgekehrter Weise, dass zu

kleinen Werten von der ersten Große große Werte zur zweiten Große auftreten und umgekehrt,

so liegt ρ in der Nahe von −1. In beiden Fallen sagt man, dass die Großen korreliert seien.

1

Page 2: Kovarianz, Korrelation und lineare Regressioniprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2018... · Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing

0 5 10 15 20 25 300

5

10

15

20

25

30

35

X1

X2

= 0.99

-40 -20 0 20 40 60-20

0

20

40

60

X1

X2 = -0.22

Abbildung 1: Wenn es einen linearen Zusammenhang zwischen zwei Zufallsgroßen X1 und X2

gibt, so sagt man, dass sie korreliert sind und der Korrelationskoeffizient ρ liegtbei Eins (links) oder bei minus Eins. Wenn es keinen Zusammenhang zwischenzwei Zufallsgroßen X1 und X2 gibt, so sagt man, dass sie unkorreliert sind undder Korrelationskoeffizient ρ liegt bei Null (rechts).

Gibt es uberhaupt gar keinen Zusammenhang zwischen dem, was an Werten zu der einen

Große beobachtet wird mit dem, was an Werten zu der anderen Große beobachtet wird, so ist

ρ = 0 und man sagt die beiden Großen seien unkorreliert.

Die Erwartungswerte zu jeder der Großen X1 und X2 sind jeweils E(X1) und E(X2). Sie werden

aus den Mittelwerten der jeweiligen Stichproben geschatzt

x1 =1

J

J∑j=1

X1,j x2 =1

J

J∑j=1

X2,j (1)

Dann ist

X =

(x1

x2

)(2)

der Schwerpunkt der Beobachtungen der Großen. Sind die Entfernungen der Beobachtungs-

parchen (X1,j, X2,j) vom Schwerpunkt so, dass die Richtungskomponente der Große X1 in die

gleiche Richtung weist und auch in proportionale Entfernung wie die Richtungskomponente

der Große X2, so liefern die Produkte (X1,j − x1)(X2,j − x2) gleiche Vorzeichen. Streuen diese

aber unzusammenhangend, so mitteln sich die unterschiedlichen Terme (X1,j − x1)(X2,j − x2)

bei Summation weg.

MDA, 2.V, iprom, Version: 26.10.2018 2 [email protected]

Page 3: Kovarianz, Korrelation und lineare Regressioniprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2018... · Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing

Wir definieren die Große

s1,2 :=1

J − 1

J∑j=1

(X1,j − x1)(X2,j − x2) (3)

und nennen sie die empirische Kovarianz. Allgemein ist die Kovarianz fur Zufallsgroßen,

deren gemeinsame Verteilung ihre Wahrscheinlichkeitsdichte p(X1, X2) sei, wie folgt definiert

Cov(X1, X2) :=

∞∫−∞

∞∫−∞

(X ′1 − E(X1))(X ′2 − E(X2)) p(X ′1, X′2) dX ′1 dX ′2. (4)

Wir sehen hier, dass die Kovarianz einer Zufallsgroße mit sich selbst die Varianz ist

Var(X1) := Cov(X1, X1) =

∞∫−∞

(X ′1 − E(X1))2 p(X ′1) dX ′1 (5)

und fur die empirsche Varianz und Kovarianz gilt entsprechend

s21 := s1,1 =

1

J − 1

J∑j=1

(X1,j − x1)2. (6)

Wir haben bereits in der 2. Vorlesung gesehen, dass bei der Steigung der Regressionsgraden

(Aufgabe 1) genau so ein Term∑J

j=1(X1,j − x1)(X2,j − x2) im Zahler steht.

Fur das Verstandnis der Gesamtzusammenhange ist der Sprachgebrauch fur Zufallsgroßen

sowie der Sprachgebrauch des Erwartungswertes von Zufallgroßen von Bedeutung.

Verknupfungen von Zufallsgroßen sind ihrerseits wieder Zufallsgroßen. Betrachten wir eine

Große X, die ganz abstrakt und allgemein eine Zufallsgroße ist, und p(X) die Wahrscheinlich-

keitsdichteverteilung dazu, so heißt

E(X) :=

∞∫−∞

X ′ p(X ′) dX ′ (7)

Erwartungswert der Zufallsgroße X. Ist diese Zufallsgroße eine Verknupfung von anderen Zu-

fallsgroßen und setzen wir die Verknupfung ein, so wird der Erwartungwert mit derselben

Verknupfung gebildet. Betrachten wir zum Beispiel die Verknupfung Addition X = X1 +X2

E(X1 +X2) :=

∞∫−∞

∞∫−∞

(X ′1 +X ′2) p(X ′1, X′2) dX ′1 dX ′2 (8)

MDA, 2.V, iprom, Version: 26.10.2018 3 [email protected]

Page 4: Kovarianz, Korrelation und lineare Regressioniprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2018... · Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing

d.h.

E(X1 +X2) =∞∫−∞

∞∫−∞

X ′1 p(X′1, X

′2) dX ′1 dX ′2

+∞∫−∞

∞∫−∞

X ′2 p(X′1, X

′2) dX ′1 dX ′2

(9)

und mit der Randverteilung (engl. marginal distribution)

p(X2) =

∞∫−∞

p(X ′1, X2) dX ′1 (10)

erhalten wir

E(X1 +X2) =

∞∫−∞

X ′1 p(X′1) dX ′1 +

∞∫−∞

X ′2 p(X′2) dX ′2 (11)

also

E(X1 +X2) = E(X1) + E(X2). (12)

In Worten heißt dies: Der Erwartungswert einer Summe von Zufallsgroßen ist die Summe der

Erwartungswerte der Zufallsgroßen.

Als nachstes betrachten wir das Produkt zweier Zufallsgroßen X = X1 ·X2

E(X1 ·X2) :=

∞∫−∞

∞∫−∞

X ′1X′2 p(X

′1, X

′2) dX ′2 dX ′1. (13)

Die Kovarianz ist der Erwartungswert folgenden Produktes (X1 − E(X1)) · (X2 − E(X2))

E((X1−E(X1))·(X2−E(X2))) =

∞∫−∞

∞∫−∞

(X ′1−E(X1))·(X ′2−E(X2)) p(X ′1, X′2) dX ′1 dX ′2 (14)

also

Cov(X1, X2) = E ((X1 − E(X1)) · (X2 − E(X2))) . (15)

Ferner ist zu bemerken, dass sich aus diesen Beziehungen fur die Kovarianz ergibt

Cov(X1, X2) = E (X1X2 −X2 E(X1)−X1 E(X2) + E(X1) E(X2))

= E(X1X2)− E(X2) E(X1)− E(X1) E(X2) + E(X1) E(X2))

= E(X1X2)− E(X1) E(X2).

(16)

Per Definitionem gilt

Var(X) := Cov(X,X). (17)

MDA, 2.V, iprom, Version: 26.10.2018 4 [email protected]

Page 5: Kovarianz, Korrelation und lineare Regressioniprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2018... · Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing

Daraus folgt, dass fur die Varianz einer Zufallsgroße, die das Produkt einer Zufallsgroße X

mit einem konstanten, festen reellen Faktor b ist, gilt

Var(bX) := b2 Var(X) (18)

Eine weitere wichtige Beziehung ist folgende zur Varianz einer Summe von Zufallsgroßen:

Var

(N∑i=1

Xi

)=

N∑i,j=1

Cov(Xi, Xj) (19)

Die Varianz ist nach Definition

Var

(N∑i=1

Xi

)=

∞∫−∞

. . .

∞∫−∞

[(N∑i=1

Xi

)− E(

N∑i=1

Xi)

]2

p(X1, . . . , X2) dX1 . . . dXN . (20)

Da der Erwartungswert einer Summe von Zufallsgroßen gleich der Summe der Erwartungswerte

jeder einzelnen dieser Zufallsgroßen ist, siehe Gl. (12), gilt(N∑i=1

Xi

)− E(

N∑i=1

Xi) =

(N∑i=1

Xi

)−

N∑i=1

E(Xi)

so dass gilt

Var

(N∑i=1

Xi

)=

∞∫−∞

. . .

∞∫−∞

[N∑i=1

(Xi − E(Xi))

]2

p(X1, . . . , X2) dX1 . . . dXN . (21)

Mit Anwendung des Assoziativgesetzes

[N∑i=1

(Xi − E(Xi))

]2

=

[N∑i=1

(Xi − E(Xi))

] [N∑k=1

(Xk − E(Xk))

]=

N∑i=1

N∑k=1

(Xi − E(Xi)) (Xk − E(Xk))

gilt

Var

(N∑i=1

Xi

)=

∞∫−∞

. . .

∞∫−∞

N∑i=1

N∑k=1

(Xi − E(Xi)) (Xk − E(Xk)) p(X1, . . . , X2) dX1 . . . dXN .

(22)

Durch Berechnung der Marginalverteilungen und weil∫p(Xj) dXj = 1 fur alle j, die weder i

MDA, 2.V, iprom, Version: 26.10.2018 5 [email protected]

Page 6: Kovarianz, Korrelation und lineare Regressioniprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2018... · Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing

noch k sind, erhalten wir

Var

(N∑i=1

Xi

)=

N∑i=1

N∑k=1

∞∫−∞

∞∫−∞

(Xi − E(Xi)) (Xk − E(Xk)) p(Xi, Xk) dXi dXk. (23)

Der Term auf der rechten Seite ist genau die Kovarianz der beiden Großen Xi und Xk.

Die Beziehung Gl. (19), dass die Varianz der Summe von Zufallsgroßen gleich der Summe der

paarweisen Kovarianzen ist, werden wir im Laufe dieser Vorlesungsreihe haufig verwenden:

Var

(N∑i=1

Xi

)=

N∑i=1

N∑k=1

Cov(Xi, Xk)

=N∑i=1

Var(Xi) +N∑

i,k=1,i 6=k

Cov(Xi, Xk)

=N∑i=1

Var(Xi) + 2N−1∑i=1

N∑k=i+1

Cov(Xi, Xk),

(24)

Dies lasst sich fur den Fall erweitern, dass die summierten Zufallsgroßen mit jeweils einem

reellen, konstanten Faktor multipliziert werden:

Var

(N∑i=1

ciXi

)=

N∑i=1

N∑k=1

Cov(ciXi, ckXk)

=N∑i=1

c2i Var(Xi) +

N∑i,k=1,i 6=k

cick Cov(Xi, Xk)

=N∑i=1

c2i Var(Xi) + 2

N−1∑i=1

N∑k=i+1

cick Cov(Xi, Xk).

(25)

Auf Gleichung (25) werden wir in den nachsten Vorlesungen zuruck kommen, denn diese ist

die Grundlage fur das Gesetz zur Fortpflanzung von Messunsicherheiten.

Fur standardnormalverteilte Zufallsgroßen Zi mit Z ∼ N (0, 1) und i = 1, 2 in die sich die

Großen Xi wie folgt umrechnen lassen

Zi =Xi − E(Xi)√

Var(Xi)(26)

ist die Kovarianz gleich dem Korrelationskoeffizienten

ρi,k = Cov(Zi, Zk) (27)

MDA, 2.V, iprom, Version: 26.10.2018 6 [email protected]

Page 7: Kovarianz, Korrelation und lineare Regressioniprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2018... · Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing

was aquivalent ist zu

ρi,k =Cov(Xi, Xk)√

Var(Xi)√

Var(Xk). (28)

Mit diesem Rustzeug an Rechenregeln und Definitionen sind wir jetzt ausgestattet, Varian-

zen fortzupflanzen (engl. propagate). Zentrales Thema dieser Vorlesungsreihe neben dem

Schatzen von Modellparametern ist das Schatzen der Kovarianzen der Modellparameter. Die

Kovarianzen der Modellparameter zusammen mit der Streuung der Datenpunkte um das Mo-

dell reprasentieren ihre Messunsicherheit.

2 Regression (Ausgleichsrechnung)

2.1 Lineare Regression als Beispiel zur Methode der kleinsten

Abweichungsquadrate

Ziel der Regression ist es, den funktionalen Zusammenhang Y = f(X1, X2, ..., XN) zwischen

den Eingangs-Messgroßen Xj (Regressor) und der Ausgangsgroße Y (Regressanden) moglichst

gut zu charakterisieren.

Der allgemeinste Fall der Regressionsrechnung ist der mit sowohl mehreren Regressoren als

auch mehreren Regressanden. Regressionsrechnung mit einem Regressanden, wird univariate

Regression, oder oft einfach nur lineare Regression genannt. Wenn es mehrere abhangige

Großen, also mehrere Regressanden gibt, spricht man von multivariater Regression. Die

Regressoren mussen voneinander linear unabhangig sein. Sie konnen aber eine Potenzbe-

ziehung zueinander haben, also quadratisch, kubisch etc.

Wir werden, um das Prinzip der Regressionsrechnung besser zu verstehen, zunachst jeweils

eine Eingangsgroße und eine Ausgangsgroße betrachten, d. h. Y = f(X).

Bei der Regressionsrechnung wird vorausgesetzt, dass der Regressor X eine Große ist, die

voreingestellt ist und keiner Streuung unterliegt, und nur der Regressand Y streut und deshalb

als Zufallsgroße betrachtet wird. Die Streuung kann verschiedene Ursachen haben

• Die indirekten Messgroßen, hier die Großen, die durch die Modellparameter beschrieben

werden, streuen aufgrund von nicht im Modell enthaltenden Einflussen. Das bedeutet,

dass das Modell eine Approximation des physikalischen Sachverhalts ist.

• Der Messvorgang des Regressanden fuhrt zu Streuungen.

MDA, 2.V, iprom, Version: 26.10.2018 7 [email protected]

Page 8: Kovarianz, Korrelation und lineare Regressioniprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2018... · Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing

Die Modellparameter sind also wie die Regressanden als Zufallsvariablen zu betrachten. Die

Regression soll nun Schatzwerte fur die Modellparameter liefern. Das Modell wird uber einen

funktionalen Zusammenhang zwischen Regressor und Regressand Y = f(X) beschrieben.

Um eine Schatzung fur die Parameter des funktionalen Zusammenhangs Y = f(X) zu erhalten,

wird die Eingangsgroße in einem bestimmten Bereich variiert. Man misst J Messwertpaare

(Xj, Yj) mit j = 1, . . . , J , die sich als Punktwolke in einem Diagramm darstellen lassen. Auf

Grund der Streuungen werden die Wertepaare (Xj, Yj) die Gleichung Yj = f(Xj) nicht exakt

erfullen, sondern etwas abweichen εj, d. h.

Yj = f(Xj) + εj mit j = 1, 2, . . . , J (29)

Bei der Regressionsrechnung gibt es also folgende Typen von Großen:

• Die unabhangigen Großen X werden vorgegeben. Sie haben genau bekannte Werte (engl.

exactly known values) und sind somit keine Zufallsgroßen. Sie sind unabhangig und

heißen Regressoren.

• Die abhangigen Großen Y , d.h. die Regressanden streuen und ihre Residuen sind

normalverteilt mit Erwartungswert E(ε) = 0 und Varianz Var(ε) = σ2.

Die Residuen sind unabhangig und identisch verteilt, kurz u.i.v.

εu.i.v.∼ N (0, σε). (30)

Zu den Regressanden werden auf Grund ihrer Streuung als Zufallsgroßen betrachtet.

Zu jedem beobachteten Wert des Regressanden wird jeweils ein Regressorwert zugeord-

net (engl. observed data corresponding to the known values). Sie sind abhangig vom

Regressor und werden deshalb auch dependent or response variable genannt.

• Modellparameter, die unbekannt sind unknown parameters, sind Zufallsgoßen. Sie wer-

den auch Regressionsparameter (regression parameters) genannt.

• Ferner gibt es zusatzliche unbekannte Parameter, und zwar die Varianzen der beteiligten

Zufallsgroßen, unknown additional parameters.

Abb. 2 veranschaulicht, dass die Residuen normalverteilt sind, wobei die vertikale Achse die

Wahrscheinlichkeitsdichte der Residuen darstellt. Der englische Begriff fur Wahrscheinlich-

keitsdichteverteilung ist probability density function, kurz pdf. Die unterschiedlichen Farben

und Symbole sollen unterschiedliche Durchlaufe gleicher Messvorgange darstellen.

MDA, 2.V, iprom, Version: 26.10.2018 8 [email protected]

Page 9: Kovarianz, Korrelation und lineare Regressioniprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2018... · Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing

YX

0

0.2

0.4

0.6

0.8

810

02

46

1

-2 02

46

810

1214

pdf

der

Resid

uen

Abbildung 2: Lineare Regression fur unabhangig und identisch verteilte Residuen.

Man bestimmt die Parameter der Regressionsfunktion Y = f(X) nun so, dass die Summe

der Quadrate der Abweichungen der Datenpunkte vom Modell (Residuen) εj moglichst klein

wird (Methode der kleinsten Abweichungsquadrate nach C. F. Gauß), d.h. das Qualitatsmaß

Q muss minimal werden:

Q :=J∑j=1

ε2j =

J∑j=1

(Yj − f(Xj))2 → min (31)

Als Modellfunktion wahlen wir einen Polynomansatz

Y = f(X) ≡ pm = θmXm + θm−1X

m−1 + · · · θ1X + θ0

m bezeichnet den Grad des Polynoms. Die Anzahl der Regressionsparameter bezeichen wir

mit M = m+ 1.

Die Minimumbedingung lautet dann:

Q = Q(θm, θm−1, . . . , θ1, θ0) =J∑j=1

(Yj − pm(Xj))2 → min

Die Konstanten θk, die die Funktion Q minimieren, stellen dann die beste Schatzung der

Parameter θk dar. Die Konstanten θk ergeben sich aus der Berechnung der Nullstellen der

MDA, 2.V, iprom, Version: 26.10.2018 9 [email protected]

Page 10: Kovarianz, Korrelation und lineare Regressioniprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2018... · Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing

partiellen Ableitungen von Q:

∂Q

∂θk

∣∣∣∣θk=θk

= 0, k = 0, 1, . . . ,m

Als Losung erhalt man die gesuchte Modellgleichung mit den Regressionsparametern (hier den

Polynomkoeffizienten) θk:

Y = f(X) ≡ pm = θmXm + θm−1X

m−1 + · · · θ1X + θ0 (32)

Ein Schatzwert fur die Varianz der Residuen, d.h. Var(ε), ergibt sich durch die empirische

Varianz:

Var(ε) = s2 = (θm, θm−1, . . . , θ1, θ0) =Q(θm, θm−1, . . . , θ1, θ0)

J − 1−m(33)

Wir betrachten zunachst den einfacheren Fall der linearen Regression, bei dem eine empi-

rische Regressionsgerade gesucht wird, d. h. es gibt nur zwei Modellparameter θ0 und θ1:

Y = θ0 + θ1 ·X (34)

Die beste Schatzung fur die Parameter θ0und θ1 findet man durch Minimierung gemaß Gl. (31),

d. h.

Q(θ0, θ1) =J∑j=1

(Yj − (θ0 + θ1 ·Xj))2 → min (35)

Fur jedes vorgegebene Messwertpaar-Ensemble (Xj, Yj), j = 1, 2, . . . J existiert eine eindeutige

Losung der Gl. (35).

Zum Auffinden des Minimums der Gl.(35), bildet man die partiellen Ableitungen und setzt

diese gleich Null:∂Q(θ0, θ1)

∂θ0

∣∣∣∣θ0=θ0, θ1=θ1

=∂Q(θ0, θ1)

∂θ1

∣∣∣∣θ0=θ0, θ1=θ1

= 0

mit∂2Q(θ0, θ1)

∂θ20

∣∣∣∣θ0=θ0, θ1=θ1

> 0 ;∂2Q(θ0, θ1)

∂θ21

∣∣∣∣θ0=θ0, θ1=θ1

> 0

Daraus folgt:J∑j=1

Yj − J · θ0 − θ1

J∑j=1

Xj = 0

J∑j=1

YjXj − a0

N∑j=1

Xj − a1

J∑j=1

X2j = 0

MDA, 2.V, iprom, Version: 26.10.2018 10 [email protected]

Page 11: Kovarianz, Korrelation und lineare Regressioniprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2018... · Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing

MitJ∑j=1

Xj = J · X undJ∑j=1

Yj = J · Y folgt:

J · Y − J · θ0 − J · θ1 · X = 0 bzw. θ0 = Y − θ1 · X

J∑j=1

Xj · Yj − θ0 · n · X − θ1

J∑j=1

X2j = 0

Diese beiden Gleichungen ineinander eingesetzt, ergibt sich dann:

θ0 = Y − θ1X und θ1 =

J∑j=1

(XjYj − XY )

J∑j=1

(Xj − X)2

Durch Verwendung der empirischen Varianz

s2X =

1

J − 1

J∑j=1

(Xj − X)2

und der empirischen Kovarianz:

sXY =1

J − 1

J∑j=1

(Xj − X)(Yj − Y )

ergibt sich fur die gesuchten Regressionsparameter θ0 und θ1:

θ0 = Y − θ1X und θ1 =sXYs2X

(36)

An dieser Gleichung sieht man, dass der Punkt (X, Y ), den man auch als Schwerpunkt bezeich-

net, stets auf der Regressionsgeraden liegt. Hier wurde angenommen, dass X als unabhangige

und Y als abhangige Zufallsvariable betrachtet wird. Oft ist es jedoch inhaltlich nicht klar,

welche der beiden Zufallsvariablen die abhangige ist. In solch einem Fall kann man zusatzlich

die Regression von X auf Y durchfuhren. Tragt man beide Regressionsgeraden in das gleiche

Koordinatensystem ein, so schneiden sich diese stets im Schwerpunkt (X, Y ).

Fur den Schatzwert der Varianz der Residuen ergibt sich, siehe Gl.(33)

MDA, 2.V, iprom, Version: 26.10.2018 11 [email protected]

Page 12: Kovarianz, Korrelation und lineare Regressioniprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2018... · Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing

s2(θ0, θ1) =Q(θ0, θ1)

J − 1−m=Q(θ0, θ1)

J − 2(37)

2.2 Beispiele zur linearen Regression

Beispiel: Vergleich der Modellierung mit Gerade und mit Polynom 6. Grades

Gegeben sei ein Ensemble von Werte (Xj, Yj), j = 1, 2, . . . , J einer Eingangsgroße (Regressor)

X und einer Zufallsgroßen, der abhangigen Ausgangsgroße (Regressand) Y . Beispielhaft ist in

Abb. 3 eine entsprechende Punktwolke dargestellt: Bevor man mit der Regressionsrechnung

Abbildung 3: Beispiel fur mogliche Fits, linearer Fit und Polynomfit vom Grade 6

anfangt, muss man sich im vorhinein sehr sorgfaltig uberlegen, in welchem physikalischen Zu-

sammenhang die Großen stehen, also welcher Ansatz fur das Messsystem als Modellgleichung

sinnvoll ist. In einigen Fallen ist dies auch eine Frage, welche Naherung fur welchen Messbe-

reich ausreicht. Abb. 3 illustriert die Abweichung der Wertepaare von den unterschiedlichen

Modellen und damit wie gut verschiedene Modelle die Daten approximieren.

Beispiel: Bestimmung des Widerstandes R durch lineare Regression

Wir erinnern uns wieder an das Beispiel aus der 1. Vorlesung (siehe z. B. dort Abb. 1) und

bestimmen den Ohmschen Widerstand R sowie eine Offsetspannung U0 bei gegebenen Werten

einer Prazisionsstromquelle (Regressor, genau bekannt, d.h. keine Zufallsgroße) und beobach-

teten Werten eines Voltmeters (Regressand, Zufallsgroße). Der Ohmsche Widerstand R und

die Offsetspannung U0 sind die zu bestimmenden Modellparameter (Zufallsgroßen)

MDA, 2.V, iprom, Version: 26.10.2018 12 [email protected]

Page 13: Kovarianz, Korrelation und lineare Regressioniprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2018... · Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing

I in mA 4.0 6.0 8.0 10.0 12.0 14.0 16.0 18.0 20.0

U in mV 62.5 51.5 96.0 140.2 138.9 195.1 225.8 207.8 223.7

Die Modellgleichung lautet mit den beiden Modellparametern θ0 := U0 und θ1 := R

U = U0 +R · I (38)

Die beiden Modellparameter konnen wir mit den beiden Gleichungen (siehe Gl. (36)) bestimmt

werden.

U0 = U − RI und R =sIUs2I

(39)

Zunachst bestimmen wir die beiden Mittelwerte (Einheiten lassen wir einfachheitshalber zunachst

weg):

I :=1

J

J∑j=1

Ij = 12 U :=1

J

J∑j=1

Uj = 149.0556 (40)

Die empirische Kovarianz mit den J = 9 Stichproben ergibt sich zu:

sIU =1

J − 1

J∑j=1

(Ij − R)(Uj − U) = 357.0500

Die Varianz ergibt sich zu:

s2I =

1

J − 1

J∑j=1

(Ij − I)2 = 30

Somit erhalten wir als Schatzwert fur R

R =sIUs2I

= 357.050/30 = 11.9017

und als Schatzwert fur U0:

U0 = U − RI = 149.0556− 11.9017 · 12 = 6.2356

Das Ergebnis fur die Regressionsgerade lautet somit und ist in Abb. 4 visualisiert.

U = 6.2356 + 11.9017 · I (41)

MDA, 2.V, iprom, Version: 26.10.2018 13 [email protected]

Page 14: Kovarianz, Korrelation und lineare Regressioniprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2018... · Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing

Abbildung 4: Beispiel: Bestimmung des Ohmschen Widerstand und einer Offset-Spannungdurch lineare Regression

2.3 Varianz der Regressionsparameter

Es konnen aus den Messreihen die Varianzen der geschatzten Regressionsparameter ermittelt

werden. Das Verfahren zeigen wir hier anhand der Regressionsgeraden mit den geschatzten

Parametern Achsenabschnitt θ0 und Steigung θ1. Damit hat man ein Maß fur die statistische

Sicherheit der Schatzung der Parameter θ0 und θ1. Fur die Varianz des Regressionsparameters

θ1 gilt:

σ2θ1

=σ2ε

s2X · (J − 1)

(42)

Fur die Varianz des Regressionsparameters θ0 gilt:

σ2θ0

= σ2ε ·(

1

J+

X2

(J − 1)s2X

)2

(43)

Die Varianz des Achsenabschnittes wird weiter unten in der Gl.(83) hergeleitet. Dort ergibt

sich (Hinweis: Wir haben dort den Achsenabschnitt mit θ0 bezeichnet und nicht wie hier mit

θ1 )

σ2θ0

= σ2ε

∑(X2

j )/(J∑

(X2j )− (

∑(Xj))

2) (44)

MDA, 2.V, iprom, Version: 26.10.2018 14 [email protected]

Page 15: Kovarianz, Korrelation und lineare Regressioniprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2018... · Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing

Wir bezeichnen nun das σ2ε hier mit s2

ε und erhalten:

σ2θ0

= s2ε

∑(X2

j )/(J∑

(X2j )− (

∑(Xj))

2) (45)

σ2θ0

= s2ε

1

J

∑(X2

j )/(∑

(X2j )− 1

J(∑

(Xj))2) (46)

Mit der folgenden Null-Identitat

0 = − 1

J(∑

(Xj))2 +

1

J(∑

(Xj))2 (47)

gilt

(1/J)∑

(X2j )/(

∑(X2

j )− 1

J(∑

(Xj))2) =

(1/J)[∑

(X2j )− (1/J)(

∑(Xj))

2 +1

J(∑

(Xj))2]/(∑

(X2j )− (1/J)(

∑(Xj))

2)

das heisst1

J

∑(X2

j )/(∑

(X2j )− 1

J(∑

(Xj))2) =

(1/J)[1 +1

J(∑

(Xj))2/(∑

(X2j )− 1

J(∑

(Xj))2)]

und mit (∑

(X2j )− 1

J(∑

(Xj))2) = (J − 1)s2

X gilt dann

σ2θ0

=s2ε

1

J

∑(X2

j )/(∑

(X2j )− 1

J(∑

(Xj))2) (48)

=s2ε

1

J

∑(X2

j )/(J − 1)s2X (49)

und mit der Umformung der Null-Identitat gilt dann

σ2θ0

=s2ε

1

J

∑(X2

j )/(∑

(X2j )− 1

J(∑

(Xj))2) (50)

=s2ε

1

J

[1 +

1

J(∑

(Xj))2/(∑

(X2j )− 1

J(∑

(Xj))2)

](51)

=s2ε

1

J

[1 +

1

J(J − 1)s2X

(∑(Xj)

)2]

(52)

MDA, 2.V, iprom, Version: 26.10.2018 15 [email protected]

Page 16: Kovarianz, Korrelation und lineare Regressioniprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2018... · Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing

mit 1J

(∑

(Xj)) = X gilt 1J

(∑

(Xj))2 = JX2 so dass

σ2θ0

=sε1

J

[1 +

1

J(J − 1)s2X

(∑(Xj)

)2]

(53)

=s2ε

1

J(J − 1)s2X

[1 + (JX2)

](54)

=s2ε

[1

J+

X2

(J − 1)s2X

](55)

Damit erhalten wir fur die Varianz bzw. die Unsicherheit des Achsenabschnittes:

σ2θ0

= s2ε

[1

J+

X2

(J − 1)s2X

](56)

2.4 Regression mit mehr als zwei Modellparametern

Die beiden Modellparameter der linearen Regression benennen wir hier um und heißen hier θ1

fur den Achsenabschnitt (vorher θ0 ) und θ2 fur die Geradensteigung (bisher θ1). Als Regres-

sormatrix verwenden wir jetzt

X =

1 X1,1

......

1 X1,J

(57)

Die Residuen berechnen sich wie folgt:ε1

...

εJ

=

Y1 − (1 θ1 + X1,1 θ2)

...

YJ − (1 θ1 + X1,J θ2)

=

Y1

...

YJ

1 X1,1

......

1 X1,J

(θ1

θ2

)(58)

Die Summe der Quadrate der Residuen∑J

j=1 ε2j lasst sich ebenso mit der Rechenregel Zeile

mal Spalte schreiben, als Zeilenvektor mal Spaltenvektor

J∑j=1

ε2j =

(ε1 . . . εJ

)ε1

...

εJ

(59)

MDA, 2.V, iprom, Version: 26.10.2018 16 [email protected]

Page 17: Kovarianz, Korrelation und lineare Regressioniprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2018... · Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing

Dabei heißt der Zeilenvektor der transponierte Vektor, also

εT =(ε1 . . . εJ

)und ε =

ε1

...

εJ

(60)

und ferner fuhren wir ein

θ =

(θ1

θ2

)und Y =

Y1

...

YJ

(61)

und Gl. (58) sieht in transponierter Schreibweise wie folgt aus

εT = YT − θT

1 X1,1

......

1 X1,J

T

(62)

d.h.

εT = YT −(θ1 θ2

)( 1 . . . 1

X1,1 . . . X1,J

). (63)

Die Summe der Quadrate der Residuen∑J

j=1 ε2j sieht damit wie folgt aus

εTε =(YT − θTXT

)(Y − Xθ) (64)

d.h.

εTε = YTY − θTXTY − YTXθ + θTXTXθ (65)

Fur die Ableitungen nach den θ1, θ2 gilt

∂θl

J∑j=1

ε2j = 2

J∑j=1

εj∂

∂θlεj = 2

J∑j=1

εj(−1)∂

∂θl(1 θ1 + X1,j θ2) = 0 (66)

wobei l = 1, 2 ist also

J∑j=1

εj∂

∂θ1

(1 θ1 + X1,j θ2) = 0 undJ∑j=1

εj∂

∂θ2

(1 θ1 + X1,j θ2) = 0 (67)

alsoJ∑j=1

εj(1) = 0 undJ∑j=1

εj(X1,j) = 0 (68)

MDA, 2.V, iprom, Version: 26.10.2018 17 [email protected]

Page 18: Kovarianz, Korrelation und lineare Regressioniprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2018... · Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing

Dies sieht in Matrixschreibweise als 2× 2-Gleichungssystem wie folgt aus

εT X =

(0

0

)(69)

d.h. (YT − θTXT

)X =

(0

0

)(70)

d.h.

θT XT X = YT X (71)

das ist aquivalent zu

XT Xθ = XT Y. (72)

Die numerische Losung des Gleichungssystems liefert dann die Schatzwerte zu den Regres-

sionparametern θ. Ein mogliches Verfahren zum Losen des linearen Gleichungssystems ist das

Gauß-Jordan-Eliminationsverfahren, zu dem im Anhang dieses Skripts der Quellcode gemaß

den Numerical Recipes [Fla02] abgedruckt ist. Formal notieren wir die Schatzer (als solche

kenntlich durch das Dach) wie folgt

θ =(XT X

)−1XT Y (73)

wobei hoch minus Eins soviel bedeutet wie die Inverse der Matrix.

Als nachstes ermitteln wir, um das vollstandige Messergebnis zu erhalten, auch die Schatz-

werte der Kovarianzen. Die Hauptdiagonale der Kovarianzmatrix sind die Varianzen.

Cov(θ,θ) = Cov((

XT X)−1

XT Y,(XT X

)−1XT Y

)(74)

das ist

Cov(θ,θ) =(XT X

)−1XT Cov(Y,Y)

((XT X

)−1XT)T

(75)

und mit Einsetzen der aus den Schatzern θ erhaltenen empirischen Varianz der Residuen

Cov(Y,Y) = Var(ε) = σ2ε bekommen wir die empirische Kovarianzmatrix

Σθ = σ2ε

(XT X

)−1XT

((XT X

)−1XT)T

(76)

mit

Var(ε) = σ2ε =

1

J −MεTε

wobei M die Anzahl der Regressionsparameter ist, also M = 2 im Fall der Geraden, fur die

MDA, 2.V, iprom, Version: 26.10.2018 18 [email protected]

Page 19: Kovarianz, Korrelation und lineare Regressioniprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2018... · Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing

beiden Parameter Achsenabschnitt und Steigung und

ε = Y − Xθ.

Ferner gilt mit((

XT X)−1

XT)T

= X(XT X

)−1

Σθ = σ2ε

(XT X

)−1XT X

(XT X

)−1(77)

und mit(XT X

)−1XT X = 1I Einheitsmatrix

Σθ = σ2ε

(XT X

)−1(78)

Gleichung (78) liefert die Unsicherheit fur die Regressionsparameter θ. Setzen wir dies nun

fur die Regressionsgerade ein, also setzen wir

X =

1 X1,1

......

1 X1,J

ein, so erhalten wir fur

(XT X

)−1=

(

1 · · · 1

X1,1 · · · X1,J

) 1 X1,1

......

1 X1,J

−1

(79)

d.h.

(XT X

)−1=

JJ∑j=1

X1,j

J∑j=1

X1,j

J∑j=1

X21,j

−1

(80)

d.h.

(XT X

)−1=

1

JJ∑j=1

X21,j −

(J∑j=1

X1,j

)2

J∑j=1

X21,j −

J∑j=1

X1,j

−J∑j=1

X1,j J

(81)

so dass wir fur den Achsenabschnitt θ1 und die Steigung θ2 folgende empirische Varianzen und

MDA, 2.V, iprom, Version: 26.10.2018 19 [email protected]

Page 20: Kovarianz, Korrelation und lineare Regressioniprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2018... · Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing

Kovarianzen erhalten

(σ2θ1

σθ1,θ2

σθ1,θ2 σ2θ2

)=

σ2ε

JJ∑j=1

X21,j −

(J∑j=1

X1,j

)2

J∑j=1

X21,j −

J∑j=1

X1,j

−J∑j=1

X1,j J

(82)

oder einzeln aufgeschrieben, die Varianz des Achsenabschnitts

σ2θ1

=

σ2ε

J∑j=1

X21,j

JJ∑j=1

X21,j −

(J∑j=1

X1,j

)2 (83)

die Kovarianz fur Achsenabschnitt und Steigung

σθ1,θ2 =

−σ2ε

J∑j=1

X1,j

J∑J

j=1 X21,j −

(J∑j=1

X1,j

)2 (84)

und die Varianz der Steigung

σ2θ2

=σ2ε

J∑j=1

X21,j − 1

J

(J∑j=1

X1,j

)2 . (85)

Die Standardabweichungen zu jedem Regressionsparameter θl mit l = 1, . . . ,M sind die Wur-

zel aus den Varianzen, die auf der Hauptdiagonalen der Kovarianzmatrix(XT X

)−1σ2ε stehen.

In der ublichen englischsprachigen Literatur zur Regressionrechnung wird die Standardabwei-

chung der Regressionsparameter Standard Error genannt.

Wir definieren folgende M -dimensionale Einheitsvektoren

el =

0...

0

1

0...

0

(86)

MDA, 2.V, iprom, Version: 26.10.2018 20 [email protected]

Page 21: Kovarianz, Korrelation und lineare Regressioniprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2018... · Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing

bei dem die ersten l − 1 Vektorkomponenten Nullen sind, an der l-ten Stelle eine Eins steht

und die l+1-te Komponente bis zur M -ten wieder Nullen sind. Dann lasst sich durch folgende

Multiplikation die l-te Varianz, d.h. das l-te Element der Hautpdiagonalen aus der Kovarianz-

matrix herausholen

σ2l = eTl

(XT X

)−1el σ

2ε . (87)

Die Standardabweichung (Standard Error) wird daraus durch Ziehen der Wurzel gewonnen

σl =√σ2l . (88)

In einer der nachsten Vorlesungen werden wir dann sehen, wie man mit Hilfe der Varian-

zen bzw. Standardabweichungen Vertrauensintervalle fur die geschatzten Modellparameter

bestimmt.

2.5 Bestimmtheitsmaß, empirischer Korrelationskoeffizient

Die Gute des gewahlten linearen Ansatzes kann mit dem Bestimmtheitsmaß ρ2XY bzw. dem

empirischen Korrelationskoeffizienten ρXY beurteilt werden, aber nur dann wenn ein

solcher Zusammenhang auch existiert. Der empirische Korrelationskoeffizienten gibt den Grad

der linearen Abhangigkeit zwischen den Messwerten (X1, . . . , XJ) und (Y1, . . . , YJ) an.

Fur den empirischen Korrelationskoeffizienten ρXY gilt folgendes:

ρXY = ±1 100% lineare Abhangigkeit

ρXY = 0 keine lineare Abhangigkeit

ρXY > bzw. < 0 gleich-/gegenlaufige lineare Abhangigkeit

Fur die Bestimmung des Bestimmtheitsmaßes oder des empirischen Korrelationskoeffizient

fuhrt man eine Streuungs- bzw. Varianzanalyse durch. Man kann bei der linearen Regression

3 Arten von Streuungen unterscheiden:

s2T : die totale empirische Varianz

s2M : die empirische Varianz auf Grund des Modells

s2R : die restliche empirische Varianz

Die totale Streuung ist bei unabhangigen direkten Messgroßen Xj gegeben durch:

s2T =

1

J − 1

J∑j=1

(Yj − Y )2 mit Yj : Messwert zu Xj (89)

MDA, 2.V, iprom, Version: 26.10.2018 21 [email protected]

Page 22: Kovarianz, Korrelation und lineare Regressioniprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2018... · Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing

Die empirische Varianz auf Grund des Modells beschreibt die Streuung der Y-Werte auf der

Regressionsgeraden in Bezug zum Mittelwert Y , d. h.

s2M =

1

J − 1

n∑j=1

(θ0 + θ1Xj − Y )2 (90)

Die Differenz zwischen Yj und θ0 + θ1Xj bleiben im Modell unerklart, sie wird als restliche

Streuung bezeichnet:

s2R =

1

J − 1

J∑j=1

(Yj − (θ0 + θ1Xj))2 (91)

Man kann nun folgendes Bemerkenswerte zeigen:

s2T = s2

M + s2R (92)

Das Bestimmtheitsmaß ist definiert als das Verhaltnis von empirischer Varianz des Modells zu

der totalen Varianz:

ρ2XY =

s2M

s2T

=

J∑j=1

(θ0 + θ1Xj − Y )2

J∑j=1

(Yj − Y )2

Mit dem Schwerpunkt Y = θ0 + θ1X ergibt sich:

ρ2XY =

θ21 ·

J∑j=1

(Xj − X)2

J∑j=1

(Yj − Y )2

Mit den Regressionsparametern θ1 =

J∑j=1

(Xj−X)(Yj−Y )

J∑j=1

(Xj−X)2(siehe Gl.(36)) erhalt man fur das Be-

stimmtheitsmaß:

ρ2XY =

[J∑j=1

(Xj − X)(Yj − Y )

]2

J∑j=1

(Xj − X)2 ·J∑j=1

(Yj − Y )2

=s2XY

s2X · s2

Y

mit 0 ≤ ρ2XY ≤ 1 (93)

MDA, 2.V, iprom, Version: 26.10.2018 22 [email protected]

Page 23: Kovarianz, Korrelation und lineare Regressioniprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2018... · Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing

Den empirischen Korrelationskoeffizienten kann man somit wie folgt berechnen:

ρXY =sXYsX · sY

mit − 1 ≤ ρXY ≤ 1 (94)

Literatur

[Fla02] B. P. Flannery, W. H. Press, S. A. Teukolsky, and W. T. Vetterling. Numerical Recipes

in C. Cambridge University Press, 2. edition (1992-2002)

MDA, 2.V, iprom, Version: 26.10.2018 23 [email protected]

Page 24: Kovarianz, Korrelation und lineare Regressioniprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2018... · Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing

Ubungsaufgaben

Aufgabe 2-1: Lineare Regression

Gegeben sind 5 Messpunkte

Xi 1 2 3 4 5Yi 0.4 0.55 0.70 0.75 0.8

(a) Fuhren Sie eine lineare Regression durch, indem Sie den y-Abschnitt θ0 und die Steigung

θ1 bestimmen. Geben Sie das Bestimmtheitsmaß ρ2XY an.

(b) Bestimmen Sie die Residuen εj und das Qualitatsmaß Q(θ0, θ1) der Regression. Geben

Sie die Varianz der Residuen s2(θ0, θ1) an?

(c) Geben Sie den Standardabweichung (standard error) der beiden Regressionsparameter

θ0 und θ1 an?

Losung zu 2-1(a)

Gesucht:

Y = θ1 ·X + θ0

Mittelwert von X: X = 3; Mittelwert von Y : Y = 0.64;

Empirische Standardabeichung von X: sX = 1.5811;

Empirische Standardabeichung von Y : sY = 0.1636;

Empirische Kovarianz: sXY = 0.25

Schatzwerte θ1 und θ0:

θ1 =sXYs2X

= 0.100

θ0 = Y − θ1X = 0.340

Bestimmtheitsmaß:

ρ2XY =

s2XY

s2X · s2

Y

= 0.9346

Losung zu 2-1(b)

Residuen: εj = Yj − (θ0 + θ1 ·Xj) mit j = 1, . . . , 5

ε1 = −0.0400; ε2 = 0.0100; ε3 = 0.0600; ε4 = 0.0100; ε5 = −0.0400

Qualitatsmaß:

Q(θ0, θ1) =J∑j=1

ε2j = 0.0070

MDA, 2.V, iprom, Version: 26.10.2018 24 [email protected]

Page 25: Kovarianz, Korrelation und lineare Regressioniprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2018... · Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing

Varianz der Residuen:

s2(θ0, θ1) =Q(θ0, θ1)

J − 2= 0.0023 bzw. s(θ0, θ1) = 0.048

Losung zu 2-1(c)

Die Standardabweichung fur X berechnet sich zu sX = 1.5811.

Fur die Varianz des y-Abschnitt θ0 ergibt sich:

σ2θ0

= s2(θ0, θ1)

[1

J+

X2

(J − 1)s2x

]= 0.0023

[1

5+

32

(5− 1) · 1.58112

]= 0.00253

Damit ergibt sich die Standardabweichung fur θ0:

sθ0 =√σ2θ0

= 0.0503

Fur die Varianz der Steigung θ1 ergibt sich:

σ2θ1

=s2(θ0, θ1)

s2X · (J − 1)

=0.0023

1.58112 · (5− 1)

= 0.00023 (95)

Damit ergibt sich die Standardabweichung fur θ1

sθ1 =√σ2θ1

= 0.01517

MDA, 2.V, iprom, Version: 26.10.2018 25 [email protected]

Page 26: Kovarianz, Korrelation und lineare Regressioniprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2018... · Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing

Anmerkung: Losung mit Matlab/Octave Bei Matlab gibt es den Befehl”polyfit“ mit

dem Polynomfits durchgefuhrt werden konnen. Matlab liefert hier dasselbe Ergebnis, auch fur

die Vertrauensbereiche, das Qualitatsmaß Q (engl. SSE: Sum sqared error) oder das Bestimm-

heitsmaß ρ2XY (R-square), siehe Abb.5:

Abbildung 5: Losung der Aufgabe mit dem polyfit Befehl von Matlab/Octave. Es wird hieru. a. der 95%ige Vertrauensbereich berechnet und angezeigt (siehe Mitte linksin der Abbildung).

Hinweis: Vertrauensbereich

In einer der nachsten Vorlesungen werden wir sehen wie man Vertrauensbereiche mit Hilfe der

Varianzen bzw. Standardabweichungen berechnet. Dazu benotigt man noch die t-Verteilung.

Da man hier 5 Messpunkte und 2 Modellparameter hat, wird die t-Verteilung mit dem Frei-

heitsgrad 5-2 = 3 benotigt. 95%iger Vertrauensbereich fur θ1 mit t3 = 3.182:

εθ1 = t3 · σθ1 =t3 · s(θ0, θ1)

sX ·√J − 1

= 0.0486

MDA, 2.V, iprom, Version: 26.10.2018 26 [email protected]

Page 27: Kovarianz, Korrelation und lineare Regressioniprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2018... · Kovarianz, Korrelation und lineare Regression Dozent: Dr.-Ing

95%iger Vertrauensbereich fur θ0 errechnet sich durch:

εθ0 = t3 · σθ0 = t3 · s(θ0, θ1) ·

√1

J+

X2

(J − 1)s2X

= 0.1612

Ergebnis:

Der 95% Vertrauensbereich des Schatzwertes θ1 ist somit gegeben durch:

θ1 = 0.1000± 0.0486 bzw. [0.0514; 0.1486] (96)

Der 95% Vertrauensbereich des Schatzwertes θ0 ist somit gegeben durch:

θ1 = 0.3400± 0.1612 bzw. [0.1788; 0.5012] (97)

MDA, 2.V, iprom, Version: 26.10.2018 27 [email protected]