Unser siebentes Tutorium Materialien unter:

Preview:

Citation preview

Unser siebentes Tutorium

Materialien unter:www.esengewald.de.vu

Fragen zur Vorlesung

Welche Fragen gibt es aus der Vorlesung?

1. Aufgabe a

Lineare Quasi-Regression Quasi, weil x mehr als 2 Ausprägungen

hat Linearität gegen die echte, also

saturierte prüfen (mittels Indikatorvariablen oder polynomial parametrisiert)

1. Aufgabe aModel Summary

,652a ,425 ,419 5,4243 ,425 81,142 1 110 ,000

,758b ,575 ,567 4,6843 ,150 38,505 1 109 ,000

Model1

2

R R SquareAdjustedR Square

Std. Error ofthe Estimate

R SquareChange F Change df1 df2 Sig. F Change

Change Statistics

Predictors: (Constant), Gruppea.

Predictors: (Constant), Gruppe, xsqrb.

Coefficientsa

12,156 ,858 14,173 ,000

5,781 ,642 ,652 9,008 ,000

9,858 ,828 11,905 ,000

17,501 1,968 1,972 8,891 ,000

-5,745 ,926 -1,376 -6,205 ,000

(Constant)

Gruppe

(Constant)

Gruppe

xsqr

Model1

2

B Std. Error

UnstandardizedCoefficients

Beta

StandardizedCoefficients

t Sig.

Dependent Variable: outcomea.

1. Aufgabe a

Die saturierte Regression ist hier die einzig echte Regression, denn sie klärt sig. mehr Varianz auf als die lineare

1. Aufgabe b Das Training wirkt auf den ersten

Blick Aber diese Inferenz aus den

Mittelwertsunterschieden ist nicht zulässig Andere Kovariaten können das Ergebniss

verfälschen Aus den Mittelwertsunterschieden ist

nicht auf die Therapiewirkunk zu schließen

1. Aufgabe b Frage ist, wirkt das Training, und nicht

ob es Mittelwertsunterschiede gibt. Kausale Interpretation der

Mittelwertsunterschiede nur unter experimentellen (randomisierten) Bedingungen möglich, oder wenn der Einfluss von Kovariaten zu vernachlässigen ist.

1. Aufgabe b Hat die Kovariate Z hier einen Einfluss?

Kovariate hängt mit outcome und Treatmentvariablen poisitv zusammen Hinweis auf Einfluss von Z

Correlations

1 ,781** ,884**

,000 ,000

112 112 112

,781** 1 ,652**

,000 ,000

112 112 112

,884** ,652** 1

,000 ,000

112 112 112

Pearson Correlation

Sig. (2-tailed)

N

Pearson Correlation

Sig. (2-tailed)

N

Pearson Correlation

Sig. (2-tailed)

N

AC Glaube

outcome

Gruppe

AC Glaube outcome Gruppe

Correlation is significant at the 0.01 level (2-tailed).**.

1. Aufgabe c

Gesucht ist also E(Y|X,Z) 3 g(z) Funktionen, da keine lineare

regressive Abhängigkeit von Y von X (siehe a) für x saturiert parametrisieren

1. Aufgabe cModel Summary

,818a ,668 ,653 4,1945Model1

R R SquareAdjustedR Square

Std. Error ofthe Estimate

Predictors: (Constant), zIx_2, zIx_1, Ix_1, AC Glaube,Ix_2

a.

Coefficientsa

11,905 1,688 7,052 ,000

-1,045 ,774 -,523 -1,350 ,180

-9,449 4,647 -,639 -2,033 ,045

3,294 ,923 1,932 3,570 ,001

-7,696 6,480 -,520 -1,188 ,238

2,807 ,992 1,920 2,830 ,006

(Constant)

AC Glaube

Ix_1

zIx_1

Ix_2

zIx_2

Model1

B Std. Error

UnstandardizedCoefficients

Beta

StandardizedCoefficients

t Sig.

Dependent Variable: outcomea.

1. Aufgabe c

Was mit nicht sig. Koeffizienten? Nicht ausschließen Sind wegen hohen Standardfehlern nicht

sig. Diese wiederum sind wegen

Multikollinearität so hoch Siehe Korrelationen zwischen den

Prädiktoren

1. Aufgabe c

MultikollinearitätCorrelations

1 ,280** ,597** ,317** ,615**

,003 ,000 ,001 ,000

112 112 112 112 112

,280** 1 -,556** ,982** -,551**

,003 ,000 ,000 ,000

112 112 112 112 112

,597** -,556** 1 -,545** ,991**

,000 ,000 ,000 ,000

112 112 112 112 112

,317** ,982** -,545** 1 -,541**

,001 ,000 ,000 ,000

112 112 112 112 112

,615** -,551** ,991** -,541** 1

,000 ,000 ,000 ,000

112 112 112 112 112

Pearson Correlation

Sig. (2-tailed)

N

Pearson Correlation

Sig. (2-tailed)

N

Pearson Correlation

Sig. (2-tailed)

N

Pearson Correlation

Sig. (2-tailed)

N

Pearson Correlation

Sig. (2-tailed)

N

AC Glaube

Ix_1

Ix_2

zIx_1

zIx_2

AC Glaube Ix_1 Ix_2 zIx_1 zIx_2

Correlation is significant at the 0.01 level (2-tailed).**.

1. Aufgabe d

Restriktioin = Einschränkung Hier: g(z) lineare Funktionen von Z Muss nicht sein, da Z mehr als 2

Ausprägungen hat Zusätzliche Variable (z.B. z²) einführen Klärt diese Regression (E(Y|X,Z,Z²)) mehr

Varianz auf, so ist die lineare nicht die echte.

1. Aufgabe e

R² Differenzentest rechnen um zu sehen, ob die bedingte nichtlineare mehr Varianz aufklärt als die bedingte lineare Regression

Polynomial parametrisieren, um R²

1. Aufgabe e

R² Differenzentest rechnen um zu sehen, ob die bedingte nichtlineare mehr Varianz aufklärt als die bedingte lineare Regression

Polynomial parametrisieren, um R² Differenzentest mit SPSS zu rechnen

Dummykodierung R² Test per Hand

1. Aufgabe eModel Summary

,656a ,430 ,419 5,4240 ,430 41,082 2 109 ,000

,814b ,663 ,650 4,2106 ,233 36,940 2 107 ,000

Model1

2

R R SquareAdjustedR Square

Std. Error ofthe Estimate

R SquareChange F Change df1 df2 Sig. F Change

Change Statistics

Predictors: (Constant), xmalz, Gruppea.

Predictors: (Constant), xmalz, Gruppe, xsqr, xsqr_zb.

Coefficientsa

12,342 ,877 14,066 ,000

2,659 3,169 ,300 ,839 ,403

,310 ,308 ,359 1,006 ,317

9,858 ,744 13,244 ,000

-11,979 9,309 -1,350 -1,287 ,201

3,617 1,055 4,198 3,427 ,001

4,578 5,375 1,097 ,852 ,396

-1,368 ,593 -3,376 -2,308 ,023

(Constant)

Gruppe

xmalz

(Constant)

Gruppe

xmalz

xsqr

xsqr_z

Model1

2

B Std. Error

UnstandardizedCoefficients

Beta

StandardizedCoefficients

t Sig.

Dependent Variable: outcomea.

1. Aufgabe e

Ergebnis ist eindeutig Die bedingte lineare Regression ist nicht

linear Y ist von X bezüglich Z bedingt

nichtlinear regressiv abhängig

1. Aufgabe f

Ableiten von Aussagen über bedingte Korrelationen an Hand von standardisierten Regressionskoeffizienten Wie soll das denn gehen??

1. Aufgabe fCoefficientsa

11,905 1,688 7,052 ,000

-1,045 ,774 -,523 -1,350 ,180

-9,449 4,647 -,639 -2,033 ,045

3,294 ,923 1,932 3,570 ,001

-7,696 6,480 -,520 -1,188 ,238

2,807 ,992 1,920 2,830 ,006

(Constant)

AC Glaube

Ix_1

zIx_1

Ix_2

zIx_2

Model1

B Std. Error

UnstandardizedCoefficients

Beta

StandardizedCoefficients

t Sig.

Dependent Variable: outcomea.

1. Aufgabe f In Anlehnung an die einfache lineare

Regression: Korrelation war hier der standardisierte

Steigungskoeffizient Jetzt sind die g – Funktionen die

Steigungskoeffizienten Standardisierte Regressionskoeffizienten einer g-

Funktion betrachten und über die g – Funktionen hinweg vergleichen

Vergleichende Aussagen der bedingten Korrelationen sind möglich

1. Aufgabe fCorrelations

1 -,226

,213

32 32

-,226 1

,213

32 32

1 ,609**

,000

40 40

,609** 1

,000

40 40

1 ,418**

,007

40 40

,418** 1

,007

40 40

Pearson Correlation

Sig. (2-tailed)

N

Pearson Correlation

Sig. (2-tailed)

N

Pearson Correlation

Sig. (2-tailed)

N

Pearson Correlation

Sig. (2-tailed)

N

Pearson Correlation

Sig. (2-tailed)

N

Pearson Correlation

Sig. (2-tailed)

N

outcome

AC Glaube

outcome

AC Glaube

outcome

AC Glaube

Gruppe0

1

2

outcome AC Glaube

Correlation is significant at the 0.01 level (2-tailed).**.

1. Aufgabe g

Partialkorrelation Korrelation zwischen zwei Variablen,

bereinigt um den Effekt einer 3. Variablen

Correlations

1,000 -,135

. ,159

0 109

-,135 1,000

,159 .

109 0

Correlation

Significance (2-tailed)

df

Correlation

Significance (2-tailed)

df

Gruppe

outcome

Control VariablesAC Glaube

Gruppe outcome

2. Aufgabe

Siehe Tafel

Recommended