86
Methodenlehre II, SoSe 2015 Holger Dette 1. Grundlegende Prinzipien der schließenden Statistik am Beispiel des t-Tests 2. Korrelation, Lineare Regression und multiple Regression 3. Das allgemeine lineare Modell 3.1 Matrizen und Vektoren, Kodierung 3.2 Addition und Multiplikation von Matrizen 3.3 Das Allgemeine Lineare Modell, Methode der kleinsten Quadrate 3.4 Der F-Test im ALM 3.5 Zweifaktorielle Varianzanalyse 3.6 Kovarianzanalyse 3.7 Modelle mit Messwiederholungen 3.4 Der F -Test im ALM 326 / 411

Kodierung 3.4 Der F-Test im ALM - Ruhr-Universität … · Methodenlehre II, SoSe 2015 Holger Dette 1. Grundlegende Prinzipien der schließenden Statistik am Beispiel des t-Tests

Embed Size (px)

Citation preview

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

3.4 Der F -Test im ALM

326 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Formulierung von Hypothesen im ALM

I Y = Xb + ε

I b sei r -dimensionaler VektorI K sei s × r Matrix

I NullhypotheseH0 : Kb = 0

I Beachte: Kb ist ein s-dimensionaler Vektor; 0 ist eins-dimensionaler Vektor (alle Eintrage 0)

327 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Beispiel 3.10(a): Fortsetzung von Beispiel3.8(a) (Einfaktorielle Varianzanalyse)

I Untersuche den Einfluss eines Faktors (z. B. Behandlungsform)auf die abhangige Variable (z. B. Depressivitat).

I Daten

X =

1 1 · · · 1 0 · · · 0 0 · · · 0 00 0 · · · 0 1 · · · 1 0 · · · 0 00 0 · · · 0 0 · · · 0 1 · · · 1 1

T

y = (22, 25, . . . , 19, 16, . . . , 16, 13, . . . , 14)T

b = (µ1, µ2, µ3)T

I Mathematisches Modell Y = Xb + ε (n1 = n2 = n3 = 10).Zeilenweise gelesen ergibt das

Yij = µi + εij j = 1, . . . , n1 ; i = 1, 2, 3

I µi Einfluss der i-ten FaktorstufeI εij Storgroßen

328 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Formulierung der Hypothese in Beispiel 3.8(a)

I

b =

µ1µ2µ3

I Mit

K =

(1 −1 01 0 −1

)kann die Nullhypothese

H0 : µ1 = µ2 = µ3

geschrieben werden als

H0 : Kb =

(µ1 − µ2µ1 − µ3

)=

(00

)

329 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Beispiel 3.10(b): Fortsetzung von Beispiel3.8(a) (Einfaktorielle Varianzanalyse)

I Untersuche den Einfluss eines Faktors (z. B. Behandlungsform)auf die abhangige Variable (z. B. Depressivitat)

I Daten

X =

1 1 · · · 1 1 · · · 1 1 · · · 1 11 1 · · · 1 0 · · · 0 0 · · · 0 00 0 · · · 0 1 · · · 1 0 · · · 0 00 0 · · · 0 0 · · · 0 1 · · · 1 1

T

y = (22, 25, . . . , 19, 16, . . . , 16, 13, . . . , 14)T

b = (µ, α1, α2, α3)T

I Mathematisches Modell (n1 = n2 = n3 = 10)

Yij = µ+ αi + εij j = 1, . . . , ni ; i = 1, 2, 3

I µ = (µ1 + µ2 + µ3)/3 GesamtmittelwertI αi Einfluss der i-ten FaktorstufeI εij Storgroßen

I Beachte: α1 + α2 + α3 = 0; µi = µ+ αi (i = 1, 2, 3)330 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Formulierung der Hypothese in Beispiel 3.8(b)I

b =

µα1α2α3

I Mit

K =

0 1 0 00 0 1 00 0 0 1

kann die Nullhypothese

H0 : αi = 0 i = 1, 2, 3

geschrieben werden als

H0 : Kb =

α1α2α3

=

000

331 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

3.11 Beispiel: Fortsetzung von Beispiel 3.6 (multiple lineareRegression)

Y =

Y1Y2Y3...

Yn

=

1 x11 x21 · · · xk11 x12 x22 · · · xk21 x13 x23 · · · xk3...

......

. . ....

1 x1n x2n · · · xkn

︸ ︷︷ ︸

X

·

b0b1......

bk

︸ ︷︷ ︸

b

+

ε1ε2ε3...εn

︸ ︷︷ ︸

ε

Beachte: Y = Xb + ε

I X hat n Zeilen und k + 1 SpaltenI Die i-te Zeile von Y liefert die Gleichung (der Fall i = 3 in blau)

Yi = b0 + b1x1i + b2x2i + . . .+ bkxki + εi i = 1, . . . , n

332 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Formulierung der Nullhypothesen in Beispiel 3.6:Testen von allen Koeffizienten

I

b =

b0...

bk

I Mit der k × (k + 1)-Matrix

K =

0 1 0 0 · · · 0 00 0 1 0 · · · 0 0...

.

.

....

.

.

.. . .

.

.

....

0 0 0 0 · · · 0 1

kann man die Nullhypothese

H0 : bj = 0 fur alle j = 1, . . . , k

schreiben als

H0 : Kb =

b1...

bk

=

0...0

333 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Formulierung der Nullhypothesen in Beispiel 3.6:Testen von einzelnen Koeffizienten

I

b =

b0b1...

bk

I Mit der 1× (k + 1)-Matrix [beachte: die ”1” steht an der Stelle

(1, j + 1)]K = (0, 0, . . . , 0, 1, 0, . . . , 0)

kann man die Hypothese

H0 : bj = 0

schreiben alsH0 : Kb = 0

334 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

3.12 F -Test fur lineare Hypothesen im ALM

I Modell: Y = Xb + ε

I Nullhypothese: H0 : Kb = 0; H1 : Kb 6= 0I Voraussetzungen (sind zu prufen): Die Komponenten des

Vektors ε (zufallige Fehler) sindI unabhangigI normalverteilt mit Erwartungswert 0 und derselben Varianzσ2 > 0

I Mathematische Statistik: Die Designmatrix X und dieHypothesenmatrix K definieren eine Statistik Fs,n−r(n: Stichprobenumfang)

I Die Nullhypothese H0 wird zu Gunsten der Alternative H1abgelehnt, falls Fs,n−r großer als das entsprechende Quantil derF -Verteilung ist bzw. der p-Wert < α ist:

335 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Die Statistik Fs,n−rI

Fs,n−r =1s (Kb)T (K (X T X )−1K T )−1(Kb)

1n−r yT (I − X (X T X )−1X T )y

I b = (X T X )−1X T Y ist der Kleinste-Quadrate-Schatzer fur bI r ist die Anzahl der Parameter im ALMI Die Nullhypothese: H0 : Kb = 0 wird verworfen, falls

Fs,n−r > Fs,n−r ,1−α

gilt (bzw. der p-Wert < α ist). Dabei ist Fs,n−r ,1−α das(1− α)-Quantil der F -Verteilung mit (s, r) Freiheitsgraden

I Beachte: Die Statistik Fs,n−r kann man aus X (Designmatrix),K (Hypothesenmatrix) und y (Datenvektor) berechnen (⇒Software wie z. B. SPSS).

s2 =1

n − r yT (I − X (X T X )−1X T )y

ist die Schatzung fur die Varianz der zufalligen Fehler im Modell.336 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Eine anschauliche Interpretation der StatistikFs,n−r

I

s2 =1

n − r yT (I − X (X T X )−1X T )y

ist die Schatzung fur die Varianz der zufalligen Fehler im ModellY = Xb + ε

I s2K sei die Schatzung fur die Varianz der zufalligen Fehler im

Modell Y = Xb + ε und der zusatzlichen Annahme, dass dieNullhypothese gilt.

I Es gilt

Fs,n−r =n − r

s

((n − r + s)s2

K − (n − r)s2

(n − r)s2

)I Beachte: Der F -Test vergleicht also die Schatzung der Varianz

unter Modellannahme des ALM mit der Schatzung der Varianzunter der Modellannahme des ALM und der Annahme, dass dieNullhypothese gilt!

337 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Beispiel 3.13(a): Fortsetzung von Beispiel3.8(a) (F -Test in einfaktorieller Varianzanalyse)

I Untersuche den Einfluss eines Faktors (z. B. Behandlungsform)auf die abhangige Variable (z. B. Depressivitat).

I Daten

X =

1 1 · · · 1 0 · · · 0 0 · · · 0 00 0 · · · 0 1 · · · 1 0 · · · 0 00 0 · · · 0 0 · · · 0 1 · · · 1 1

T

y = (22, 25, . . . , 19, 16, . . . , 16, 13, . . . , 14)T

b = (µ1, µ2, µ3)T

I Mathematisches Modell Y = Xb + ε (n1 = n2 = n3 = 10).Zeilenweise gelesen ergibt das

Yij = µi + εij j = 1, . . . , n1 ; i = 1, 2, 3

I µi Einfluss der i-ten FaktorstufeI εij Storgroßen

338 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Formulierung der Hypothese in Beispiel 3.8(a)

I b = (µ1, µ2, µ3)T

I H0 : µ1 = µ2 = µ3

I MitK =

(1 −1 01 0 −1

)kann die Nullhypothese geschrieben werden als

H0 : Kb =

(µ1 − µ2µ1 − µ3

)=

(00

)I Diese Designmatrix X , die Hypothesenmatrix K und der

Datenvektor y werden in die allgemeine Formel eingesetzt undman erhalt die Statistik fur den F -Test (in Softwareimplementiert).

339 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

SPSS-Output fur die Daten aus Beispiel 3.8:Oneway ANOVA (Modell 3.8(a))

SignifikanzFMittel der Quadratedf

Quadratsumme

Zwischen den Gruppen

Innerhalb der Gruppen

Gesamt 29348,700

3,5302795,300

,00035,896126,7002253,400

ONEWAY ANOVA

Beobachtung

340 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Zerlegung der Summe der Quadrate (vgl. Beispiel1.14):

k∑i=1

ni∑j=1

(yij − y ··)2

︸ ︷︷ ︸Gesamtvarianz

=k∑

i=1

ni∑j=1

(yij − µi )2

︸ ︷︷ ︸Fehler

+k∑

i=1ni (y ·· − µi )

2

︸ ︷︷ ︸Varianz zwischen Gruppen

Beachte:

I Gesamtstichprobenumfang: n =∑k

i=1 ni

I”Gesamtmittelwert”

y ·· =1n

k∑i=1

ni∑j=1

yij

I Mittelwert der Gruppe i : µi = y i· = 1ni

∑nij=1 yij

341 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Zerlegung der Summe der Quadrate:k∑

i=1

ni (y ·· − y i·)2 = RSSH0 − RSS

mit

RSSH0 =

k∑i=1

ni∑j=1

(yij − y ··)2 (Summe der quadrierten Residuen unter H0)

RSS =

k∑i=1

ni∑j=1

(yij − y i·)2

(Summe der quadrierten Residuen im Modell der einfaktoriellenVarainzanalyse)Deutung der Statistik des F -Tests (vgl. Seite 337):

Fk−1,n−k =1

k−1∑k

i=1 ni (y ·· − y i·)2

1n−k∑k

i=1

∑nij=1(yij − y i·)

2=

n − kk − 1

RSSH0 − RSSRSS

Man vergleicht die Summe der quadrierten Residuen unter Modellannahme(RSS) mit der Summe der quadrierten Residuen unter Modellannahme undder Annahme der Nullhypothese (RSSH0 ).

342 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Statistische Tests im Modell 3.8(a) (einfaktorielleVarianzanalyse)

I H0 : µ1 = µ2 = µ3 (der Faktor ”Dosierung” hat keinen Einfluss)

Fµ =12 253.41

27 95.3=

126.73.53 = 35.89 =⇒ p-Wert ≈ 0.000

D. h. die Nullhypothese wird zum Niveau 5% verworfen

I R2µ =

227 Fµ

1+ 227 Fµ

= 0.727

c. a. 72.7% der Variation in der Variablen ”Depression” sind aufden Faktor ”Dosierung” zuruckfuhrbar.

343 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Beispiel 3.13(b): Fortsetzung von Beispiel3.8(b) (F -Test in einfaktorieller Varianzanalyse)

I Untersuche den Einfluss eines Faktors (z. B. Behandlungsform)auf die abhangige Variable (z. B. Depressivitat)

I Daten

X =

1 1 · · · 1 1 · · · 1 1 · · · 1 11 1 · · · 1 0 · · · 0 0 · · · 0 00 0 · · · 0 1 · · · 1 0 · · · 0 00 0 · · · 0 0 · · · 0 1 · · · 1 1

T

y = (22, 25, . . . , 19, 16, . . . , 16, 13, . . . , 14)T

b = (µ, α1, α2, α3)T

I Mathematisches Modell (n1 = n2 = n3 = 10)

Yij = µ+ αi + εij j = 1, . . . , ni ; i = 1, 2, 3

I µ = (µ1 + µ2 + µ3)/3 GesamtmittelwertI αi Einfluss der i-ten FaktorstufeI εij Storgroßen

I Beachte: α1 + α2 + α3 = 0; µi = µ+ αi (i = 1, 2, 3)344 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Formulierung der Hypothese in Beispiel 3.8(b)I b = (µ, α1, α2, α3)T

I H0 : αi = 0 i = 1, 2, 3I Mit

K =

0 1 0 00 0 1 00 0 0 1

kann die Nullhypothese geschrieben werden als

H0 : Kb =

α1α2α3

=

000

I Weitere Hypothese H0 : µ = 0 ⇒ verwende die

HypothesenmatrixK = (1, 0, 0, 0),

dann erhalt man: H0 : Kb = µ = 0

345 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

SPSS-Output fur die Daten aus Beispiel 3.8:Allgemeines lineares Modell, univariat (Modell3.8(b))

SignifikanzFMittel der Quadratedf

Quadratsummevom Typ III

Korrigiertes Modell

Konstanter Term

A

Fehler

Gesamt

KorrigierteGesamtvariation 29348,700

308917,000

3,5302795,300

,00035,896126,7002253,400

,0002427,5358568,30018568,300

,00035,896126,7002253,400a

QuelleQuelle

Tests der Zwischensubjekteffekte

Abhängige Variable:Beobachtung

a. R-Quadrat = ,727 (korrigiertes R-Quadrat = ,706)

346 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Zerlegung der Summe der quadriertenBeobachtungen in Beispiel 3.8(b):

k∑i=1

ni∑j=1

y 2ij︸ ︷︷ ︸

Gesamt

=k∑

i=1

ni∑j=1

(yij − y ··)2

︸ ︷︷ ︸korrigierte Gesamtvarianz

+ (n y ··)2︸ ︷︷ ︸konstanterTerm

=k∑

i=1

ni∑j=1

(yij − µ− αi )2

︸ ︷︷ ︸Fehler

+k∑

i=1ni (y ·· − µ− αi )

2

︸ ︷︷ ︸Varianz zwischen Gruppen

+ (n y ··)2︸ ︷︷ ︸konstanterTerm

Beachte: µ = y ··, µ+ αi = µi

347 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Statistische Tests im Modell 3.8(b) (einfaktorielleVarianzanalyse)

I H0 : µ = 0 (Gesamtmittelwert = 0)

Fµ =11 8568.3

127 95.3

=8568.3

3.53 = 2427.535 =⇒ p-Wert ≈ 0.000

D. h. die Hypothese wird zum Niveau 5% verworfen.I H0 : αi = 0 (i = 1, 2, 3) (der Faktor ”Dosierung” hat keinen

Einfluss)

Fα =12 253.41

27 95.3=

126.73.53 = 35.89 =⇒ p-Wert ≈ 0.000

D. h. die Nullhypothese wird zum Niveau 5% verworfen

I R2α =

227 Fα

1+ 227 Fα

= 0.727

c. a. 72.7% der Variation in der Variablen ”Depression” sind aufden Faktor ”Dosierung” zuruckfuhrbar.

348 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

3.5 Zweifaktorielle Varianzanalyse

349 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

3.14 Beispiel Fortsetzung von Beispiel 3.8I Arzneimittelstudie zur Behandlung einer depressiven Erkrankung

mit Unterscheidung des GeschlechtsI Drei Behandlungsformen der Depression (Placebo, einfache

Dosis, doppelte Dosis)I Je 5 weibliche und je 5 mannliche Patienten werden mit der

jeweiligen Dosierung behandelt (insgesamt 30 Probanden)I Es gibt zwei (kontrollierbare) Faktoren, die einen Einfluß auf

das Ergebnis der Therapie haben. Faktor A: Behandlungsform;Faktor: B Geschlecht

Faktor AFaktor B Placebo einfache Dosis doppelte Dosis

(1) (2) (3)mannlich 22 16 13(1) 25 16 12

22 16 1221 15 1322 15 12

weiblich 18 19 16(2) 19 20 14

17 17 1621 16 1319 16 14

350 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

3.15 Modell der zweifaktoriellen VarianzanalyseI Untersuche den Einfluß von zwei Faktoren (z.B. “Dosierung” und

“Geschlecht”) auf die abhangige Variable (z.B. “Depression”)I Mathematisches Modell

Yij` = µ+ αi + βj + (αβ)ij + εij`

(i = 1, . . . , kα; j = 1, . . . , kβ , ` = 1, . . . , nij)

I µ: GesamtmittelwertI αi : Einfluß der i-ten Stufe des Faktors A (Haupteffekt)I βj : Einfluß der j-ten Stufe des Faktors B (Haupteffekt)I (αβ)ij : Wechselwirkung oder Interaktion der i-ten Stufe des

Faktors A mit der j-ten Stufe des Faktors BI εij`: Storgroße (fur den `-ten Probanden und der i-ten Stufe des

Faktors A und der j-ten Stufe des Faktors B). Modellannahmen:Unabhangigkeit, Normalverteilung mit derselben Varianz

I Beachte: In Beispiel 3.14 ist kα = 3 (Behandlungsform), kβ = 2(Geschlecht) and nij = 5 (je 5 Patienten pro Faktorkombination)

351 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Kodierungsmatrix fur zweifaktorielle Varianzana-lyse am Beispiel der depressiven Erkrankung

Xb =

1 1 0 0 1 0 1 0 0 0 0 01 1 0 0 1 0 1 0 0 0 0 01 1 0 0 1 0 1 0 0 0 0 01 1 0 0 1 0 1 0 0 0 0 01 1 0 0 1 0 1 0 0 0 0 01 1 0 0 0 1 0 1 0 0 0 01 1 0 0 0 1 0 1 0 0 0 01 1 0 0 0 1 0 1 0 0 0 01 1 0 0 0 1 0 1 0 0 0 01 1 0 0 0 1 0 1 0 0 0 01 0 1 0 1 0 0 0 1 0 0 01 0 1 0 1 0 0 0 1 0 0 01 0 1 0 1 0 0 0 1 0 0 01 0 1 0 1 0 0 0 1 0 0 01 0 1 0 1 0 0 0 1 0 0 01 0 1 0 0 1 0 0 0 1 0 01 0 1 0 0 1 0 0 0 1 0 01 0 1 0 0 1 0 0 0 1 0 01 0 1 0 0 1 0 0 0 1 0 01 0 1 0 0 1 0 0 0 1 0 01 0 0 1 1 0 0 0 0 0 1 01 0 0 1 1 0 0 0 0 0 1 01 0 0 1 1 0 0 0 0 0 1 01 0 0 1 1 0 0 0 0 0 1 01 0 0 1 1 0 0 0 0 0 1 01 0 0 1 0 1 0 0 0 0 0 11 0 0 1 0 1 0 0 0 0 0 11 0 0 1 0 1 0 0 0 0 0 11 0 0 1 1 0 0 0 0 0 1 01 0 0 1 0 1 0 0 0 0 0 1

µα1α2α3β1β2

(αβ)11(αβ)12(αβ)21(αβ)22(αβ)31(αβ)32

352 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Mittelwerte fur die verschiedenen Faktorstufen inBeispiel 3.14 (Methode der kleinsten Quadrate)

a1 a2 a3b1 22.4 15.6 12.4 16.8b2 18.8 17.6 14.6 17.0

20.6 16.6 13.5 16.9

Beispiele:I 22.4 ist der Mittelwert der Beobachtungen unter Stufe 1 des

Faktors A und Stufe 1 des Faktors B (Schatzung furµ+ α1 + β1 + (αβ)11)

I 14.6 ist der Mittelwert der Beobachtungen unter Stufe 3 desFaktors A und Stufe 2 des Faktors B (Schatzung furµ+ α3 + β2 + (αβ)23)

I 17.0 ist der Mittelwert der Beobachtungen unter Stufe 2 desFaktors B (Schatzung fur µ+ β2)

I 16.6 ist der Mittelwert der Beobachtungen unter Stufe 2 desFaktors A (Schatzung fur µ+ α2)

I 16.9 ist der Mittelwert aller Beobachtungen (Schatzung fur µ)353 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Beispiel 3.16(a): Hypothesenmatrix fur Test aufWechselwirkungen in der zweifaktoriellenVarianzanalyse

I Vektor der Parameterb = ( µ, α1, α2, α3, β1, β2, (αβ)11, (αβ)12, (αβ)21, (αβ)22, (αβ)31, (αβ)32 )T

I Mit der Matrix

Kαβ =

0 0 0 0 0 0 1 0 0 0 0 00 0 0 0 0 0 0 1 0 0 0 00 0 0 0 0 0 0 0 1 0 0 00 0 0 0 0 0 0 0 0 1 0 00 0 0 0 0 0 0 0 0 0 1 00 0 0 0 0 0 0 0 0 0 0 1

kann man die HypotheseH0 : (αβ)ij = 0; i = 1, 2, 3; j = 1, 2 schreiben als

H0 : Kαβb =

(αβ)11(αβ)12(αβ)21(αβ)22(αβ)31(αβ)32

= 0

354 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Beispiel 3.16(a): Hypothesenmatrix fur Test desFaktors A in der zweifaktoriellen Varianzanalyse

I Vektor der Parameter

b = ( µ, α1, α2, α3, β1, β2, (αβ)11, (αβ)12, (αβ)21, (αβ)22, (αβ)31, (αβ)32 )T

I Mit der Matrix

Kα =

(0 1 0 0 0 0 0 0 0 0 0 00 0 1 0 0 0 0 0 0 0 0 00 0 0 1 0 0 0 0 0 0 0 0

)

kann man die Hypothese H0 : αi = 0; i = 1, 2, 3 schreiben als

H0 : Kαb =

(α1α2α3

)= 0

355 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Beispiel 3.16(b): Hypothesenmatrix fur Test desFaktors B in der zweifaktoriellen Varianzanalyse

I Vektor der Parameter

b = ( µ, α1, α2, α3, β1, β2, (αβ)11, (αβ)12, (αβ)21, (αβ)22, (αβ)31, (αβ)32 )T

I Mit der Matrix

Kβ =

(0 0 0 0 1 0 0 0 0 0 0 00 0 0 0 0 1 0 0 0 0 0 0

)kann man die Hypothese H0 : βj = 0; j = 1, 2 schreiben als

H0 : Kβb =

(β1β2

)= 0

356 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

SPSS-Output: Zweifaktorielle Varianzanalyse furdie Daten aus Beispiel 3.14

SignifikanzFMittel der Quadratedf

Quadratsummevom Typ III

Korrigiertes Modell

Konstanter Term

A

B

A * B

Fehler

Gesamt

KorrigierteGesamtvariation 29348,700

308917,000

1,7002440,800

,00015,94127,100254,200

,678,176,3001,300

,00074,529126,7002253,400

,0005040,1768568,30018568,300

,00036,22461,5805307,900a

QuelleQuelle

Tests der Zwischensubjekteffekte

Abhängige Variable:Beobachtung

a. R-Quadrat = ,883 (korrigiertes R-Quadrat = ,859)

357 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

SPSS-Output: Vergleich von Ein - undZweifaktorielle Varianzanalyse

SignifikanzFMittel der Quadratedf

Quadratsummevom Typ III

Korrigiertes Modell

Konstanter Term

A

B

A * B

Fehler

Gesamt

KorrigierteGesamtvariation 29348,700

308917,000

1,7002440,800

,00015,94127,100254,200

,678,176,3001,300

,00074,529126,7002253,400

,0005040,1768568,30018568,300

,00036,22461,5805307,900a

QuelleQuelle

Tests der Zwischensubjekteffekte

Abhängige Variable:Beobachtung

a. R-Quadrat = ,883 (korrigiertes R-Quadrat = ,859)

SignifikanzFMittel der Quadratedf

Quadratsummevom Typ III

Korrigiertes Modell

Konstanter Term

A

Fehler

Gesamt

KorrigierteGesamtvariation 29348,700

308917,000

3,5302795,300

,00035,896126,7002253,400

,0002427,5358568,30018568,300

,00035,896126,7002253,400a

QuelleQuelle

Tests der Zwischensubjekteffekte

Abhängige Variable:Beobachtung

a. R-Quadrat = ,727 (korrigiertes R-Quadrat = ,706)

358 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Beispiel 3.17: Hypothesentests fur das Beispielder Depressiven Erkrankung

I H0 : αi = 0 (i = 1, 2, 3) (“der Faktor Dosierung hat keinenEinfluß”)

Fα = 74.53 =⇒ p-Wert ≈ 0.000D.h. die Nullhypothese wird zum Niveau 5% verworfen (72.7%der Variation der Variablen “Depression” konnen durch dieVariable “Behandlungsform” erklart werden)

I H0 : βj = 0 (i = 1, 2) (der Faktor “Geschlecht” hat keinenEinfluß)

Fβ = 0.176 =⇒ p-Wert ≈ 0.678D.h. die Nullhypothese kann zum Niveau 5% nicht verworfenwerden (der Faktor “Geschlecht” erklart nur 0.09% derVariation).

I H0 : (αβ)ij = 0 (i = 1, 2, 3; j = 1, 2)

Fαβ = 15.94 =⇒ p-Wert ≈ 0.000

D.h. die Nullhypothese wird zum Niveau 5% verworfen (15, 5%der Variation konnen durch die Wechselwirkung erklart werden)

359 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Beispiel 3.18: Erklarung der Varianz durch dieFaktoren und Interaktion fur das Beispiel derDepressiven ErkrankungBilde den Quotienten aus der Quadratsumme des Faktors (bzw.Interaktion) mit der korrigierten Gesamtvariation

I Faktor A:253.4348.7 = 0.727

d.h. 72.7% der Variation der Variablen “Depression” konnendurch die Variable “Behandlungsform” erklart werden

I Faktor B:0.30

348.7 = 0.0009

der Faktor “Geschlecht” erklart nur 0.09% der Variation.I Interaktion AB:

54.2348.7 = 0.155

d.h. 15.5% der Variation konnen durch die Wechselwirkungerklart werden

360 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Die Zerlegung der Quadratsumme im Beispiel

8917.0︸ ︷︷ ︸gesamt

= 8568.3︸ ︷︷ ︸konstanterTerm

+ 348.7︸ ︷︷ ︸korrigiert

348.7︸ ︷︷ ︸korrigiert

= 253.4︸ ︷︷ ︸Faktor A

+ 0.3︸︷︷︸Faktor B

+ 54.2︸︷︷︸Interaktion

+ 40.8︸︷︷︸Fehler

361 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Die Zerlegung der Quadratsumme (fur Experten)kα∑i=1

kβ∑j=1

nij∑=1

Y 2ij`︸ ︷︷ ︸

gesamt

=kα∑i=1

kβ∑j=1

nij∑=1

(yij`−y ···)2︸ ︷︷ ︸

korrigierteGesamtvariation

+ n y2···︸︷︷︸

konst. Term

=kα∑i=1

kβ∑j=1

nij∑=1

(yij`−y ij·−y ·j·+y ···)2︸ ︷︷ ︸

Fehler

+ n y2···︸︷︷︸

konst. Term

+kα∑i=1

ni·(y i··−y ···)2︸ ︷︷ ︸

Faktor A

+kβ∑j=1

n·j (y ·j·−y ···)2︸ ︷︷ ︸

Faktor B

+kα∑i=1

kβ∑j=1

nij∑=1

nij (yij`−y i··−y ·j·+y ···)2︸ ︷︷ ︸

WechselwirkungBezeichnungen:

y ··· = 1n

kα∑i=1

kβ∑j=1

nij∑=1

yij`; y i·· = 1ni·

kβ∑j=1

nij∑=1

yij`; y ·j· = 1n·j

kα∑i=1

nij∑=1

yij`

y ij· = 1nij

∑nij`=1

yij`; ni· =kβ∑j=1

nij ; n·j=kα∑i=1

nij ; n=kα∑i=1

kβ∑j=1

nij

362 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Zur Interpretation der Wechselwirkung

I Die Wechselwirkung (αβ)ij beschreibt einen Effekt, der nurauftritt, wenn die Faktorstufenkombination (i , j) vorliegt

I Interaktionsdiagramm (graphisches Hilfsmittel zurInterpretation)

I Auf der Abzisse wird der Faktor mit der großeren Stufenzahlabgetragen

I Die Ordinate bezeichnet die abhangige Variable (Mittelwerte derjeweiligen Stufenkombinationen)

363 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

I Bei signifikanten Interaktionen ist die Interpretation derHaupteffekte zu relativierenBeispiel (Depressive Erkrankung)

I Richtige Interpretation: es existiert kein Unterschied zwischenmannlichen und weiblichen Patienten (Faktor B nichtsignifikant)

I Aber: Signifikante Interaktion erfordert hier eine weitergehendeInterpretation

I Placebo-Behandlung ist bei weiblichen Patienten starkerdepressionsreduzierend als bei mannlichen

I Behandlung mit einfacher und doppelter Dosis wirkt beimannlichen Patienten starker

364 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Klassifikation von Interaktionen

I Ziel: Identifikation der interpretierbaren HaupteffekteI Ordinale Interaktion (die Rangfolge der Mittelwerte der

A-Stufen ist fur b1 und b2 identisch, und die Rangfolge derMittelwerte B-Stufen ist fur a1 und a2 identisch)

a1 a2

b1

b2

b1 b2

a2

a1

In diesem Fall sind beide Haupteffekte eindeutig interpretierbar

365 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

I Hybride Interaktion (die Rangfolge der Mittelwerte derB-Stufen gilt fur beide Stufen von A; aber die Rangfolge derMittelwerte der A-Stufen gilt nicht fur beide Stufen von B)

a1 a2

b1

b2

b1 b2

a1

a2

In diesem Fall ist nur der Faktor B eindeutig interpretierbar

366 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

I Disordinale Interaktion (die Rangfolge der Mittelwerte derB-Stufen gilt nicht fur beide Stufen von A; und die Rangfolgeder Mittelwerte der A-Stufen gilt nicht fur beide Stufen von B)

a1 a2

b1

b2

b1 b2

a1

a2

I In diesem Fall sind die Haupteffekte nicht interpretierbarI Unterschiede zwischen a1 und a2 sind nur in Verbindung mit den

Stufen von B und Unterschiede zwischen den Stufen b1 und b2sind nur in Verbindung mit den Stufen von A interpretierbar

367 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Interpretation der Haupteffekte im Beispiel der“Depression”

a1 a2 a3

b1

b2

22.4

18.8

17.6

15.6

14.6

12.4 12

14

16

18

20

22

I Die Rangfolge der Mittelwerte der A-Stufen andert sich nicht.(sowohl fur b1 als auch fur b2 gilt a1 > a2 > a3; hier:18.8 > 17.6 > 14.6 und 22.4 > 15.6 > 12.4)=⇒ Faktor A ist eindeutig interpretierbar

368 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Interpretation der Haupteffekte im Beispiel der“Depression”

b1 b2

12

14

16

18

20

22

a1

a2

a3

12.4

15.6

22.7

18.8

17.6

14.6

I Die Rangfolge der Mittelwerte der B-Stufen andert sich.(fur a1 gilt b1 > b2, aber fur a2 und a3 gilt b1 < b2)=⇒ Faktor B ware – auch wenn er signifikant ware – nichtinterpretierbar

369 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

3.6 Kovarianzanalyse

370 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Beispiel 3.19: Therapieerfolg bei Verhaltens-storungen

I Wie wirkt sich eine psychotherapeutische Behandlung aufverschiedene Verhaltensstorungen aus

I Es werden 3 Gruppen untersucht

I Konzentrationsstorung (5 Patienten)I Schlafstorung (5 Patienten)I Hysterische Verhaltensstorung (5 Patienten)

I Gemessen wird der Therapieerfolg y (durch Expertenteameingestuft)

371 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

DatenI K: KonzentrationsstorungI S: SchlafstorungI H: Hysterische Verhaltensstorung

n K S H1 5 5 22 6 4 13 6 2 14 4 1 15 5 3 2

Beachte: Es liegt hier das Modell der einfaktoriellen Varianzanalysevor (vgl. Methodenlehre II, Beispiel 3.8(a)). Es gibt zweiDarstellungen des Modells

Yij = µi + εij

= µ+ αi + εij i = 1, 2, 3; j = 1, 2, . . . , 5

372 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

SPSS-Output (einfaktorielle Varianzanalyse furBeispiel 3.18 ohne Berucksichtigung vonKovariablen)

Sig.FMittel der Quadratedf

Quadratsummevom Typ III

Korrigiertes Modell

Konstanter Term

GRUPPE

Fehler

Gesamt

KorrigierteGesamtvariation

1450,400

15204,000

1,1671214,000

,00015,60018,200236,400

,000131,657153,6001153,600

,00015,60018,200236,400a

QuelleQuelle

Tests der Zwischensubjekteffekte

Abhängige Variable:Therapieerfolg

a. R-Quadrat = ,722 (korrigiertes R-Quadrat = ,676)

Man beachte:I Die drei behandelten Gruppen unterscheiden sich signifikantI Die Ergebnisse lassen vermuten, dass die Therapie bei

Konzentrationsstorungen zum großten Erfolg fuhrt(y 1· = 5.2; y 2· = 3; y 3· = 1.4)

373 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Vermutung: Therapieerfolg hangt auch von der Verbalisationsfahig-keit (verbale Intelligenz x) der Patienten ab. Diese Eigenschaft wirdaus diesem Grund mit gemessen

K S Hn x y x y x y1 7 5 11 5 12 22 9 6 12 4 10 13 8 6 8 2 9 14 5 4 7 1 10 14 5 5 9 3 13 2

Frage: Andert sich das Ergebnis der Varianzanalyse, falls die verbaleIntelligenz in die Untersuchungen mit einbezogen wird?

374 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Streudiagramm und lineare Regressionsgeraden

Verbale Intelligenz

14,0012,0010,008,006,004,00

Th

erap

ieer

folg

6,00

5,00

4,00

3,00

2,00

1,00

Anpassungslinie für Gesamtsumme

Hysterische VerhaltsstörungSchlafstörungKonzentrationsstörung

Verhaltensstörung

R2 Linear = 0,078

Konzentrationsstörung: R 2 Linear = 0,754

Schlafstörung: R 2 Linear = 0,837Hysterische Verhaltsstörung: R 2

Linear = 0,892

Beachte: Die Korrelation in der Gesamtgruppe ist negativ, aber inden einzelnen Gruppen positiv!

375 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

3.20 Das Modell der einfaktoriellen Kovarianz-analyse

I Wie bei der einfaktoriellen Varianzanalyse gibt es zweiDarstellungen:

Yij = µ+ αi + γxij + εij

= µi + γxij + εij i = 1, . . . , k ; j = 1, . . . , ni

(µi = µ+ αi , α1 + . . .+ αk = 0)I yij : Testergebnis des j-ten Patienten in der i-ten Gruppe (im

Beispiel ist k = 3; n1 = n2 = n3 = 5)

I µi : Einfluss der Verhaltensstorung auf Therapieerfolg

I xij : Kovariable (Verbalisationsfahigkeit) des j-ten Patienten derGruppe i . γxij ist dann der Einfluss der Kovariablen (Verbali-sationsfahigkeit) des Patienten j in Gruppe i auf den Therapie-erfolg

376 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

3.20 Das Modell der einfaktoriellen Kovarianz-analyse

I Zwei Darstellungen:

Yij = µ+ αi + γxij + εij

= µi + γxij + εij i = 1, . . . , k ; j = 1, . . . , ni

(µi = µ+ αi , α1 + . . .+ αk = 0)

I Der Parameter γ bemisst den Einfluss der Kovariablen(Verbalisationsfahigkeit) auf den Therapieerfolg.

I γ = 0 bedeutet: die Kovariable (Verbalisationsfahigkeit) hatkeinen Einfluss auf den Therapieerfolg.

I Beachte: der Faktor γ ist fur jede Gruppe derselbe (d.h. erhangt nicht von dem Index ”i” ab!)

377 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Beachte: Dieses Modell ist ein Spezialfall des ALMY = Xb + ε

Wobei

b =

(µ1µ2µ3γ

)ε =

ε11

...

...ε35

X =

1 0 0 71 0 0 91 0 0 81 0 0 51 0 0 50 1 0 110 1 0 120 1 0 80 1 0 70 1 0 90 0 1 120 0 1 100 0 1 90 0 1 100 0 1 13

Y =

566455421321112

378 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

3.21 Das Modell der einfaktoriellen Kovarianz-analyse im ALM Y = Xb + ε

I Daten- und Fehlervektor

Y =

y11...

y1n1...

yk1...

yknk

; ε =

ε11...

ε1n1...εk1

.

.

.εknk

I Parametervektor und Designmatrix

b =

µ1...µkγ

X =

1 0 0 · · · 0 x11...

.

.

....

. . ....

.

.

.1 0 0 · · · 0 x1n10 1 0 · · · 0 x21...

.

.

....

. . ....

.

.

.0 1 0 · · · 0 x2n2...

.

.

....

. . ....

.

.

.0 0 0 · · · 1 xk1...

.

.

....

. . ....

.

.

.0 0 0 · · · 1 xknk

379 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

3.22(A) Schatzer fur γ (Methode der kleinstenQuadrate)

I

γ =

∑ki=1∑ni

j=1(yij − y i·)(xij − x i·)∑ki=1∑ni

j=1(xij − x i·)2

I Beachte: γ ist ein gewichtetes Mittel der Schatzer fur dieSteigungen der Regressionsgeraden in den einzelen Gruppen.D.h.

I Schatzer fur die Steigung in Gruppe i (vgl. 2.11):

γi =

∑nij=1(yij − y i·)(xij − x i·)∑ni

j=1(xij − x i·)2

I Anteil der Varianz der Kovariablen in Gruppe i an derGesamtvarianz

αi =

∑nij=1(xij − x i·)

2∑ki=1

∑nij=1(xij − x i·)2

I Es gilt (α1 + . . .+ αk = 1):

γ =

k∑i=0

αi γi380 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

3.22(B) Schatzer fur µi (Methode der kleinstenQuadrate)

I Beachte: als Schatzer fur die Parameter µi verwendet man dieGruppenmittelwerte, wobei die Daten vorher um den Einfluss derKovariablen korrigiert werden

µi = 1ni

∑nij=1 (yij − γxij) = y i· − γx i·

I Schatzer fur die Varianz der zufalligen Fehler (Residualvarianz)

s2y |x =

1n − k − 1

k∑i=1

ni∑j=1

(yij − µi − γxij)2

(dabei bezeichnet n = n1 + · · ·+ nk den Gesamtstichproben-umfang)

381 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Mathematische Formulierung der Hypothesen(im Beispiel 3.19): kein Einfluss der Kovariable

I Die Kovariable hat keinen Einfluss auf den Therapieerfolg:

H0 : γ = 0

Mit der Matrix K = (0, 0, 0, 1) und dem Parametervektorb = (µ1, µ2, µ3, γ)T kann man diese Nullhypothese schreiben als

H0 : Kb = (0, 0, 0, 1) ·

µ1µ2µ3γ

= γ = 0

382 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Mathematische Formulierung der Hypothesen(im Beispiel 3.19): kein Unterschied zwischenden Gruppen

I Zwischen den verschiedenen Verhaltensstorungen besteht keinUnterschied hinsichtlich des Therapieerfolgs:

H0 : µ1 = µ2 = µ3

Mit der Matrix

K =

(1 −1 0 00 1 −1 0

)und dem Parametervektor b = (µ1, µ2, µ3, γ)T kann man dieseHypothese schreiben als

H0 : Kb =

(1 −1 0 00 1 −1 0

)µ1µ2µ3γ

=

(µ1 − µ2µ2 − µ3

)=

(00

)

383 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

3.23(A) F -Test auf Signifikanz des Regressions-koeffizientenMan beachte: Alle Hypothesen konnen mit dem F -Test im ALM(vgl. 3.12) getestet werden. Die Anwendung der allgemeinen Theorieliefert:

I Die Hypothese H0 : γ = 0 (Kovariable hat keinen Einfluss) wirdzum Niveau α abgelehnt, falls

Fγ =11 γ

2 ns2xx

s2y |x

> F1,n−k−1,1−α

gilt (oder der p-Wert < α ist). Dabei ist F1,n−k−1,1−α das(1− α)-Quantil der F -Verteilung und

s2xx =

1n

k∑i=1

ni∑j=1

(xij − x ··)2

die Summe der quadrierten Abweichungen der Kovariablen vonihrem Mittelwert

384 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Alternative Interpretation der Teststatistik aus3.23(A): Differenz von Summen aus quadriertenResiduen

I Trifft die Hypothese H0 : γ = 0 (die Kovariable hat keinenEinfluss auf den Therapieerfolg) zu, so liegt das Modell dereinfaktoriellen Varianzanalyse vor:

yij = µi + εij ; i = 1, . . . , k; j = 1, . . . , ni

Bezeichnet

y i· =1n

ni∑j=1

yij i = 1, . . . , k

den Mittelwert in Gruppe i (nicht bzgl. der Kovariablenkorrigiert), dann ist

s2H0

=1

n − k

k∑i=1

ni∑j=1

(yij − y i·)2

die Residualvarianz der einfaktoriellen Varianzanalyse (Varianzunter der Nullhypothese)

385 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Allgemeines Prinzip: Differenz von Summenaus quadrierten Residuen

I Nach 3.22(B) ist

s2y |x =

1n − k − 1

k∑i=1

ni∑j=1

(yij − µi − γxij)2

die Residualvarianz im Modell der einfaktoriellenKovarianzanalyse (Varianz unter der Alternative)

I Die Statistik des F -Tests hat die Darstellung

Fγ =(n − k) s2

H0− (n − k − 1) s2

y |x

s2y |x

Man vergleicht also die Summen der quadrierten Residuen indem Modell der einfaktoriellen Varianzanalyse [(n − k)s2

H0] und

unter der Einbeziehung der Kovariablen [(n − k − 1)s2y |x ]

I Kurz: Differenz der Summe der quadrierten Residuen unterNullhypothese und Alternative dividiert durch die Summe derquadrierten Residuen unter Alternative

386 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Beispiel: Test auf Einfluss der Kovariablen fur die Daten aus Beispiel3.19

I RSSγH0= (n − k) s2

H0= 14.0

I RSS = (n − k − 1) s2y |x = 3.6

I Fγ = 14.0−3.61

11 3.6 = 10.40.327 = 31.78

Fur α = 5% ist F1,11,0.95 = 4.844, also wird die Nullhypothese

H0 : γ = 0

(kein Einfluss der Kovariablen) zum Niveau 5% verworfen (p-Wert:0.0001)

387 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

3.23(B) F -Test auf Unterschiede zwischen denGruppen

I Die HypotheseH0 : µ1 = · · · = µk

wird zum Niveau α abgelehnt, falls

Fµ =1

k−1∑k

i=1 ni (y∗i· − y∗··)2

1n−k−1

∑ki=1∑ni

j=1 (y∗ij − y∗i·)2> Fk−1,n−k−1,1−α

gilt. Dabei istI Fk−1,n−k−1,1−α das (1− α)-Quantil der F -Verteilung mit

(k − 1, n − k − 1) FreiheitsgradenI y∗ij = yij − γxij (die um den Einfluss der Kovariablen bereinigten

Daten)I y∗i· = 1

ni

∑nij=1 y∗ij der Gruppenmittelwert in Gruppe i

I y∗·· = 1n∑k

i=1

∑n1j=1 y∗ij der Gesamtmittelwert

I Beachte: es wird eine einfaktorielle Varianzanalyse mit den“korrigierten” Daten y∗ij = yij − γxij durchgefuhrt

388 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Alternative Interpretation der Teststatistik aus3.23(A): Differenz von Summen aus quadriertenResiduen

Fµ =1

k−1 (RSSµH0− RSS)

1n−k−1 RSS

I Residuensumme unter der Nullhypothese H0 : µ1 = · · · = µk

RSSµH0=

k∑i=1

ni∑j=1

(y∗ij − y∗··)2

I Residensumme im Modell der Kovarianzanalyse(µi = 1

ni

∑nij=1(yij − γxij) = y∗i· beachten!)

RSS =k∑

i=1

ni∑j=1

(yij − µi−γxij)2 =

k∑i=1

ni∑j=1

(y∗ij − y∗i·)2

389 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Beispiel: Test auf Gruppenunterschiede fur die Daten aus Beispiel3.19

I RSSµH0= 46.45

I RSS = 3.6

I Fµ =12 (46.45−3.6)

111 3.6 =

12 42.85

111 3.6 = 65.48

Fur α = 5% ist F2,11,0.95 = 3.982, also wird die Nullhypothese (keineGruppenunterschiede)

H0 : µ1 = µ2 = µ3

zum Niveau 5% verworfen (p-Wert: 0.000001)

390 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

SPSS-Output: einfaktorielle Kovarianzanalyse

Sig.FMittel der Quadratedf

Quadratsummevom Typ III

Korrigiertes Modell

Konstanter Term

GRUPPE

VERBALE_INTELLIGENZ

Fehler

Gesamt

KorrigierteGesamtvariation

1450,400

15204,000

,327113,599

,00031,78910,401110,401

,00065,48321,425242,850

,1292,691,8801,880

,00047,68115,600346,801a

QuelleQuelle

Tests der Zwischensubjekteffekte

Abhängige Variable:Therapieerfolg

a. R-Quadrat = ,929 (korrigiertes R-Quadrat = ,909)

Man Beachte: Durch Einbeziehung der Kovarariablen verkleinertsich die Summe der quadrierten Residuen von 14.00 (im Modell derein-faktoriellen Varianzanalyse) auf 3.6 (im Modell der einfaktoriellenKovarianzanalyse).D.h. statt 72.22% werden 92.86% der Varianz erklart!

391 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

3.24 Voraussetzungen fur die Kovarianzanalyse

I Modell der einfaktoriellen Kovarianzanalyse

yij = µi + γxij + εij

= µ+ αi + γxij + εij i = 1, . . . , k; j = 1, . . . , ni

I µi reprasentiert den Einfluss der Gruppe i auf die abhangigeVariable yij

I γxij reprasentiert den Einfluss der Kovariablen xij auf dieabhangige Variable yij

I Die zufalligen Fehler εij sind unabhangig und normalverteilt mitErwartungswert 0 und Varianz σ2

I Der Faktor γ is unabhangig von der Gruppe (d.h. hangt nichtvon i ab): Homogenitat der Regressionskoeffizienten

392 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

3.25 Uberprufung der Annahme der Homogenitatder Regressionskoeffizienten

I Modell

yij = µi + γi xij + εij ; i = 1, . . . , k; j = 1, . . . , ni

I Nullhypothese: Der Einfluss der Kovariablen andert sich nichtmit der Gruppenzugehorigkeit

H0 : γ1 = γ2 = · · · = γk

I Beachte:- Das Modell hat 2k Parameter µ1, . . . , µk , γ1, . . . , γk (imBeispiel 6)- Das Modell der einfaktoriellen Kovarianzanalyse hat k + 1Parameter µ1, . . . , µk , γ (im Beispiel 4)

393 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Design- und Hypothesenmatrix fur Beispiel 3.19

b =

µ1µ2µ3γ1γ2γ3

X =

1 0 0 7 0 01 0 0 9 0 01 0 0 8 0 01 0 0 5 0 01 0 0 5 0 00 1 0 0 11 00 1 0 0 12 00 1 0 0 8 00 1 0 0 7 00 1 0 0 9 00 0 1 0 0 120 0 1 0 0 100 0 1 0 0 90 0 1 0 0 100 0 1 0 0 13

K =

(0 0 0 1 −1 00 0 0 0 1 −1

)Kb =

(γ1 − γ2γ2 − γ3

)

394 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

3.26 F -Test fur die Hypothese der Homogenitatder Regressionskoeffizienten

I Die HypotheseH0 : γ1 = · · · = γk

wird zum Niveau α abgelehnt, falls

F γ =1

k−1 (RSSH0− RSS)

1n−2k RSS

> Fk−1,n−2k,1−α

Dabei sindI RSSH0

=∑k

i=1

∑nij=1(yij − µi − γxij )

2 die Summe derquadrierten Residuen unter der Nullyhpothese

I µi , γ die kleinsten Quadrate Schatzer unter der Annahme derHomogenitat der Regressionskoeffizienten (vgl. Bemerkung 3.22)

I RSS =∑k

i=1

∑nij=1(yij − µi − γixij )

2 die Summe der quadriertenResiduen in der einfaktoriellen Kovarianzanalyse

I (µi , γi ) die kleinsten Quadrate Schatzungen, unter der Annahme,dass keine Homogenitat der Regressionskoeffizienten vorliegt

395 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Beispiel: F -Test fur die Hypothese der Homogenitat derRegressionskoeffizienten fur die Daten aus Beispiel 3.19

I RSSH0= 3.6

I RSS = 2.445

I F γ =12 (3.6−2.445)

115−6 2.445 = 0.5775

0.2717 = 2.125

Fur α = 5% ist F2,9,0.95 = 4.256, also wird die Nullhypothese derHomogenitat der Regressionskoeffizienten

H0 : γ1 = γ2 = γ3

zum Niveau 5% nicht verworfen

396 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

SPSS Output: Uberprufung der Annahme derHomogenitat in der einfaktoriellenKovarianzanalyse

Sig.FMittel der Quadratedf

Quadratsummevom Typ III

Korrigiertes Modell

Konstanter Term

GRUPPE

VERBALE_INTELLIGENZ

GRUPPE * VERBALE_INTELLIGENZ

Fehler

Gesamt

KorrigierteGesamtvariation

1450,400

15204,000

,27292,445

,1762,124,57721,154

,00032,3748,79518,795

,0117,7542,10724,213

,2151,779,4831,483

,00035,3049,591547,955a

QuelleQuelle

Tests der Zwischensubjekteffekte

Abhängige Variable:Therapieerfolg

a. R-Quadrat = ,951 (korrigiertes R-Quadrat = ,925)

397 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

3.27 Bemerkungen zur Kovarianzanalyse

I Mit der Kovarianzanalyse uberpruft man, wie “bedeutsam” derEinfluss der Kovariablen ist

I Der Einfluss der Kovariablen wird durch die Kovarianzanalyseneutralisiert

I Durch die Beachtung der Kovariablen wird im Modell derVarianzanalyse die Residualvarianz reduziert.

I Beachte: liegt keine Homogenitat der Regessionskoeffizientenvor, so ist eine Durchfuhrung der Kovarianzanalyse wie in3.23(A) und 3.23(B) beschrieben nicht sinnvoll.

398 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

3.27 Bemerkungen zur Kovarianzanalyse

I Eine Kovarianzanalyse ist eine Varianzanalyse “bereinigt” umden Einfluss der Kovariablen. D.h. Eine Kovarianzanalyse ist eineVarianzanalyse der Regressionsresiduen y∗ij = yij − γxij

I Das Modell der Kovarianzanalyse kann in verschiedeneRichtungen erweitert werden:

I Mehrere Faktoren. Z.B. Zweifaktorielle Kovarianzanalyse

yijk = µ+ αi + βj + αβij + γxijk + εijk

I Modelle mit Messwiederholungen (vgl. Kapitel 3.7)I Mehrdimensionale Kovariablen

399 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

3.7 Modelle mit Messwiederholungen

400 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

3.28 Beispiel: Tagesschwankungen desHautwiderstands

I Bei 10 Versuchspersonen wird morgens, mittags und abends derHautwiderstand (physiologischer Indikator der psychischenAktivierung) gemessen

I Es soll uberpruft werden, ob der HautwiderstandTagesschwankungen unterliegt (α = 0.01) oder zu den dreiZeiten im Mittel gleich ist

I Idee: Einfaktorielle Varianzanalyse, Faktor: Tageszeit

yij = µi + εij j = 1, . . . , 10 i = 1, 2, 3

I Problem: Die Annahme der Unabhangigkeit von yij und ykj istnicht gerechtfertig (Beobachtungen gehoren zu derselbenPerson)!

401 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

3.28 Beispiel: Tagesschwankungen desHautwiderstands

I Losung: Modelliere einen personenindividuellen Mittelwerteexplizit (zweifaktorielle Varianzanalyse)

yij` = µi + pj + (µp)ij + εij` i = 1, 2, 3 j = 1, . . . , 10 ` = 1

I Neues Problem: 3 + 10 + 30 = 43 zu schatzende Parameter, bei30 Beobachtungen Das geht nicht!

I Pragmatische Losung: Es wird angenommen, dass keineWechselwirkungen vorliegen (d.h.(µp)ij = 0, i = 1, 2, 3 j = 1, . . . , 10)

I Unter dieser Annahme kann der allgemeine F -Test durchgefuhrtwerden!

I Die zu prufende Hypothese lautet:

H0 :

{µ1 = µ2µ2 = µ3

K =

(1 −1 0 0 · · · 00 1 −1 0 · · · 0

)402 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

3.28 Beispiel: Datensatz Hautwiderstand

Vpn morgens mittags abends1 7 7 62 5 6 83 8 9 54 6 8 65 7 7 56 7 9 77 5 10 68 6 7 49 7 8 6

10 5 7 5

403 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

SPSS-Output: Varianzanalyse fur die Daten ausBsp. 3.28

Sig.FMittel der Quadratedf

Quadratsummevom Typ III

Modell

VPN

TAGESZEIT

Fehler

Gesamt 301377,000

1,3151823,667

,0038,23910,833221,667

,486,9831,293911,633

,00085,775112,778121353,333a

QuelleQuelle

Tests der Zwischensubjekteffekte

Abhängige Variable:HAUTWIDERSTAND

a. R-Quadrat = ,983 (korrigiertes R-Quadrat = ,971)

Der Hautwiderstand schwankt im Tagesverlauf signifikant (α = 0.01)(8.239 > 6.012 = F2,18,0.99)

404 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Die Zirkularitatsannahme: Valide F -Tests beiAutokorrelation zwischen den Messzeitpunkten

I Haufig sind die Fehler auch im Modell mit personenindividuellenMittelwerten noch abhangig

I Dann ist die Theorie des ALM nicht anwendbar!I Die bei der Varianzanalyse verwendete Teststatistik besitzt

genau dann F3−1,(3−1)(10−1)=F2,18–Verteilung, wenn fur dieVarianz-Kovarianz-Matrix Σ der Beobachtungen y1j , y2j , y3j zuden 3 Messzeitpunkten gilt:

Σ = a · at + λ · I3 a = (a1, a2, a3)t , λ > 0

Diese Bedingung wird als Zirkularitatsannahme (ZA) bezeichnet.I Die ZA ist genau dann erfullt, wenn

Var(y1j−y2j) = Var(y2j−y3j) = Var(y1j−y3j), fur j = 1, . . . , 10.

I Die ZA ist auch im Fall homogener Varianzen und Kovarianzenerfullt, insbesondere also auch bei unkorrelierten Merkmalen. Indiesem Fall wird von Spharizitat gesprochen.

405 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

3.29 Modell der einfaktoriellen Varianzanalysemit Messwiederholungen

I Untersuche den Einfluss eines Faktors (z.B. “Tageszeit”) auf dieabhangige Variable (z.B. “Hautwiderstand”) in dem Fall, wenndie abhangige Variable fur jeweils alle k Faktorstufen andenselben p Untersuchungsobjekten beobachtet werden

I Mathematisches Modell (im Beispiel ist k = 3 und p = 10)

Yij = µi + pj + εij i = 1, . . . , k j = 1, . . . , p

mitI µi : Mittelwert der i-ten FaktorstufeI pj : individuelle Abweichung von Person jI εij : Storgroße (fur die Messung von Faktorstufe i bei Person j).

I ModellannahmenI Storgroßen normalverteiltI keine Wechselwirkungen zwischen dem Faktor and der PersonenI die Zirkularitatsannahme ist erfullt

406 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Die Zerlegung der Quadratsumme in zwei Stufen

p∑j=1

k∑i=1

(yij − y ..)2

︸ ︷︷ ︸QStot

= kp∑

j=1(y .j − y ..)2

︸ ︷︷ ︸QSzwVpn

+

p∑j=1

k∑i=1

(yij − y .j)2

︸ ︷︷ ︸QSinVpn

p∑j=1

k∑i=1

(yij − y .j)2

︸ ︷︷ ︸QSinVpn

= pk∑

i=1(y i. − y ..)2

︸ ︷︷ ︸QStreat

+

p∑j=1

k∑i=1

(yij − y .j − y i. + y ..)2

︸ ︷︷ ︸QSres

407 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Schematische Darstellung der zweistufigenZerlegung der Quadratsumme

Total(QStot)

Zwischen den Vpn(QSzw Vpn)

Innerhalb der Vpn(QSin Vpn)

Zwischen den Faktorstufen

(QStreat)

Residual(QSres)

408 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

Verletzung der Zirkularitatsannahme: Korrekturder Freiheitsgrade der F -Verteilung

I Auch bei verletzter Zirkularitatsannahme ist die Teststatistiknaherungsweise F -verteilt.

I Verletzung der ZA fuhren zu progressiven Tests (H1 wirdhaufiger begunstigt, als α dies vorsieht)

I Korrektur der Freiheitsgrade verhindert progressives TestenI Die korrigierte F-Verteilung hat (k − 1)ε und (p − 1)(k − 1)ε

Freiheitsgrade, wobei 1k−1 ≤ ε ≤ 1

I ε = f (Σ) ist Funktion der Varianz-Kovarianz-Matrix und lasstsich aus der empirischen Varianz-Kovarianz-Matrix Σ schatzen

I Unterschiedliche Darstellungen der Funktion f liefernunterschiedliche Schatzverfahren.

I In SPSS implementiert: Greenhouse/Geisser, Huynh/Feldt unddie Untergrenze von 1

k−1

409 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

SPSS-Output: Prufung der Zirkularitatsannahme

Sig.dfApproximiertes

Chi-QuadratMauchly-W UntergrenzeHuynh-FeldtGreenhouse-

Geisser

Epsilonaa

Tageszeit ,5001,000,954,8222,392,952InnersubjekteffektInnersubjekteffekt

Mauchly-Test auf Sphärizitätb

Prüft die Nullhypothese, daß sich die Fehlerkovarianz-Matrix der orthonormalisierten transformierten abhängigen Variablen proportional zur Einheitsmatrix verhält.

a. Kann zum Korrigieren der Freiheitsgrade für die gemittelten Signifikanztests verwendet werden. In der Tabelle mit den Tests der Effekte innerhalb der Subjekte werden korrigierte Tests angezeigt.

b. Design: Konstanter Term Innersubjektdesign: Tageszeit

Maß:MASS_1

I Die Hypothese, dass Spharizitat vorliegt, kann nicht verworfenwerden.

I Die beiden Schatzungen von ε liegen nahe bei 1 Die Rechnung von Folie 367 liefert ein valides Ergebnis

410 / 411

Methodenlehre II,SoSe 2015

Holger Dette

1. GrundlegendePrinzipien derschließenden Statistikam Beispiel des t-Tests

2. Korrelation, LineareRegression undmultiple Regression

3. Das allgemeinelineare Modell3.1 Matrizen und Vektoren,Kodierung

3.2 Addition undMultiplikation von Matrizen

3.3 Das Allgemeine LineareModell, Methode derkleinsten Quadrate

3.4 Der F -Test im ALM

3.5 ZweifaktorielleVarianzanalyse

3.6 Kovarianzanalyse

3.7 Modelle mitMesswiederholungen

SPSS-Output: Analyse der Varianz innerhalb derVpn

Sig.FMittel der Quadratedf

Quadratsummevom Typ III

Sphärizität angenommen

Greenhouse-Geisser

Huynh-Feldt

Untergrenze

Sphärizität angenommen

Greenhouse-Geisser

Huynh-Feldt

Untergrenze

Tageszeit

Fehler(Tageszeit)

2,6309,00023,667

1,31518,00023,667

1,37817,17923,667

1,3151823,667

,0188,23921,6671,00021,667

,0038,23910,8332,00021,667

,0038,23911,3511,90921,667

,0038,23910,833221,667QuelleQuelle

Tests der Innersubjekteffekte

Maß:MASS_1

I Die ermittelten p-Werte weichen praktisch nicht voneinander ab.

411 / 411