Tutorium 21.05.07. Wiederholung Regression E(YIX) Bedingten EW E(YIX=1) Die echte Regression soll...

Preview:

Citation preview

Tutorium 21.05.07

Wiederholung

Regression E(YIX) Bedingten EW E(YIX=1) Die echte Regression soll uns eine Gleichung liefern (Kurve) die

durch diese bedingten EW verläuft bestmögliche Schätzung dafür stellen wir auf der Basis unserer SP (den Daten) ein Modell

auf schätzen die Koeffizienten der Gleichung die entstandene Regressionsgleichung ist damit eine Schätzung für

den Zusammenhang in der Population Man kann ausrechnen wie die Kurve verläuft (Werte von Y

ausrechnen auch die bedingten EW für die Population, wir setzen alle

Ausprägungen von X in die Gleichung ein X=1 …

Wiederholung

Dabei sind die Werte der echten Regression immer gleich (man bekommt immer die selben Regressionswerte)

Aber die Gleichung selbst kann unterschiedlich sein unterschiedlich Möglichkeiten zur Parametrisierung

(ist auch gut so, denn so kann man unterschiedliche Fragestellungen realisieren… aus bst. Werte der Gleichungen kann man je nach Parametrisierung unter. Aussagen ableiten)

Aufgabe 3 (Ü4) – Baldwin 2Modellzusammenfassung

,992a ,984 ,984 ,09731Modell1

R R-QuadratKorrigiertesR-Quadrat

Standardfehler desSchätzers

Einflußvariablen : (Konstante), verhtns, logreiza.

ANOVAb

34,159 2 17,079 1803,780 ,000a

,540 57 ,009

34,698 59

Regression

Residuen

Gesamt

Modell1

Quadratsumme df

Mittel derQuadrate F Signifikanz

Einflußvariablen : (Konstante), verhtns, logreiza.

Abhängige Variable: logschtzb.

Koeffizientena

,357 ,305 1,169 ,247

,985 ,058 ,920 16,874 ,000

-,093 ,067 -,075 -1,381 ,173

(Konstante)

logreiz

verhtns

Modell1

BStandardf

ehler

Nicht standardisierteKoeffizienten

Beta

Standardisierte

Koeffizienten

T Signifikanz

Abhängige Variable: logschtza.

Aufgabe 3 (Ü4) – Baldwin 2

Generell ist das Kor (Y,E(YIX)) Und in dem Fall der einfachen Regression

entspricht das der „normalen“ Kor (Y,X)Normale ist SonderfallBei 2-fachen entspricht es dieser nicht

umbedingt

Aufgabe 3 (Ü4) – Baldwin2

Hypothese des t- Tests der Koeffizienten in der 2- fachen Regression:

Die Effekt dieses Regressionskoeffizienten (gegen 0 getestet), wenn der andere Prädiktor konstant bleibt

(„partieller Regressionskoeffizient“) Bsp.: E(YIX,Z)= 0,5 +1X + 2Z Wie verändert sich Y wenn Z um 1 steigt und X konstant

bleibt? (um 2) Ist der Koeffizient nicht sign. heißt das aber nicht, dass

es keinen Einfluss hat, er hat nur keinen Einfluss wenn der Effekt der anderen Variable berücksichtigt wird

Aufgabe 3 (Ü4) - Baldwin2

Parameter des saturierten Models:Ausprägungen X= 4Ausprägungen Kontext Z= 4

X x Z= 16 (4x 4 Parameter sind nötig)

Aufgabe 3 (Ü4)

Weil es zur Kollinearität der Prädiktoren kommen kann

bei hohe Kor. der Prädiktoren versagt der Schätzalgorithmus und SPSS schließt Prädiktoren aus

Aufgabe 4 (Ü4)

Lineares Model E(YIX)= α0 + α1X Problem Y darf nur 0 oder 1 einnehmen: Wenn X groß genug dann würde das irgend

wann den Wertebereich sprengen (da α1 = 0 wenn eine Abhänigkeit besteht)

Deshalb bei dichotomer AV Logistische Regression

Aufgabe 5 (Ü4)

E(YIX)= P(Y=1IX) E(YIX)= 1P(Y=1IX)+ 0P(Y=0IX)

= P(Y=1IX)

… wichtig ist, man kann die Regression als gewichtete Summe der Wahrscheinlichkeit, dafür das Y=1 und dafür das Y=0 ist darstellen

Aufgabe 1

Ist die Varianz der Zufallsvariablen E(YIX,Z) … - ein Maß für die Unterschiedlichkeit der Werte von dieser.

Dabei ist das die Varianz, die von X und Z an Y aufgeklärt wird

Dabei gilt Var(Y) = Var(E(YIX,Z)) + Var(Fehler)

2 2

| , 0,5 2 3

| , 0,5 2 3

| , 2 3 2 3 ,

| , 4 2 9 1 6 0,05

| , 17,3

E Y X Z X Z

Var E Y X Z Var X Z

Var E Y X Z Var X Var Z Cov X Z

Var E Y X Z

Var E Y X Z

Aufgabe 2

E(YIX,Z) Test partielle lineare regressive Unabhängigkeit Y von X, gegeben Z

man untersucht wie Y von X abhängt, wenn man Z konstant hält dabei nur lineare Abh. betrachtet

Dabei gibt es mehrere Möglichkeiten zur Testung

Aufgabe 2

Testung des Regressionskoeffizienten gegen Null (t-Test in der Koeffizienten-Tabelle) im normalen Modell der zweifachen Regression:

Der partielle Regressionskoeffizient βi besagt, dass sich der bedingte Erwartungswert um den Betrag βi erhöht, sofern sich Z nicht ändert und X um eine Einheit steigt:

Wenn dieser 0 ist dann keine Änderung in Y wenn sich X verändert aber hier sign. Unters. von 0

Koeffizientena

8,393 ,751 11,169 ,000

-,096 ,081 -,104 -1,175 ,243

,304 ,052 ,517 5,865 ,000

(Konstante)

z

x

Modell1

BStandardf

ehler

Nicht standardisierteKoeffizienten

Beta

Standardisierte

Koeffizienten

T Signifikanz

Abhängige Variable: ya.

Aufgabe 2

der R2-Differenzentest, bei dem mittels F-Test, das einfache Regressionsmodell (nur mit X) mit dem Modell mit 2 Prädiktoren (X und Z) verglichen wird:

Koeffizientena

7,701 ,468 16,444 ,000

,321 ,050 ,546 6,449 ,000

8,393 ,751 11,169 ,000

,304 ,052 ,517 5,865 ,000

-,096 ,081 -,104 -1,175 ,243

(Konstante)

x

(Konstante)

x

z

Modell1

2

BStandardf

ehler

Nicht standardisierteKoeffizienten

Beta

Standardisierte

Koeffizienten

T Signifikanz

Abhängige Variable: ya.

Aufgabe 2

Daraus können wir ableiten der partielle Regressionsparameter von X ist signifikant unterschiedlich von 0 … somit ist Y von X, gegeben Z partiell linear abhänig

R²-Differenzentest … der Prädiktor X klärt auch dann noch signifikant Varianz an Y auf, wenn wir Z als weiteren Prädiktor hinzunehmen … somit ist Y von X, gegeben Z partiell linear abhänig

Wir nehmen also die H1 an

Aufgabe 2

Wie wäre es denn bei dem Fall partielle lineare Abhängigkeit Y von Z gegeben X

Koeffizientena

11,627 ,591 19,677 ,000

-,231 ,090 -,250 -2,552 ,012

8,393 ,751 11,169 ,000

-,096 ,081 -,104 -1,175 ,243

,304 ,052 ,517 5,865 ,000

(Konstante)

z

(Konstante)

z

x

Modell1

2

BStandardf

ehler

Nicht standardisierteKoeffizienten

Beta

Standardisierte

Koeffizienten

T Signifikanz

Abhängige Variable: ya.

Aufgabe 2

Beim Modellvergleich fällt besonders auf Y ist linear regressiv abhängig von Z, aber bei Hinzunahme eines weiteren Prädiktors X klärt Z nicht signifikant mehr Varianz an Y auf …Y iat also partiell linear regressiv unabhänig von Z, gegeben X

Wir behalten hier als die H0 bei

Aufgabe 2

Die Konflikthäufigkeit (X) ist ein guter Prädiktor für die Länge der Partnerschaft, auch dann, wenn die Ähnlichkeit der Partner als weiterer Prädiktor hinzu genommen wird

Was ist mit der Ähnlichkeit der Partner (Z) als Prädiktor?

Aufgabe 2

Die Ähnlichkeit der Partner (Z) ist durchaus ein guter Prädiktor für die Länge der Beziehung (Y) wenn man keine weitern Informationen hat

Allerdings erklärt er keine weitere signifikante Varianz, wenn wir den weiteren Prädiktor Konflikthäufigkeit (X) haben

Aufgabe 2

Mediationsmodell Zusammenhang der Variablen

Z (Ähnlichkeit der Partner)

X

(Konflikt-Häufigkeit)

Y

(Dauer der Beziehung)

-,283 -,10

,52

Problem logisch sinnlose Interpretation!!! Leider wurden in der Aufgabenstellung X

und Z vertauscht

Aufgabe 3

a) In zwei Fällen gilt die Gleichheit von einfachen und partiellen Regressionskoeffizient

1. wenn Cov(X,Z)=0

2. und /oder wenn β3=0

Aufgabe 3

1

0

0 2 3

| , | |

| |

| 0,5 2 3 |

0,5 2 | 3 |

0,5 2 3 | | , 0 |

| 0,5 3 2

E E Y X Z X E Y X

E Y X E X Z X

E Y X E X Z X

E X X E Z X

X E Z X Cov X Z E Z X E Z

E Y X E Z X

Aufgabe 3

0 2 3

| , | |

| |

| 0,5 2 0

E E Y X Z X E Y X

E Y X E X Z X

E Y X E X Z

3| | falls 0

0,5 2 |

0,5 2

X

E X X

X

Zusammenfassung

Ich hätte gern von 5 Leuten einen wichtigen Aspekt des heutigen Tutoriums kurz zusammengefasst

Bis Bald!!!

Recommended