48
Regression (zweiter Teil) Jonathan Harrington

Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

Embed Size (px)

Citation preview

Page 1: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

Regression (zweiter Teil)

Jonathan Harrington

Page 2: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

1. Regression und die Locus-Theorie

2. Voraussetzungen für die Durchführung einer Regression

3. Mehrfache (multiple) Regression: zwei oder mehrere Regressoren

Neigungen von Regressionslinien miteinander vergleichen

4. Polynomiale Regression

Page 3: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

// vor hinteren Vokalen: keine einheitliche Locus-Frequenz

F2-Transitionenen und die Locus-Theorie

Die F2-Transitionen, die die Artikulationsstelle auditiv vermitteln, sind durch eine Kombination vom Locus und der Vokalzielposition voraussagbar

Freq

uenz

Dauer

i

b

F2-Lokus

/b/ ca. 700 Hz d

/d/ ca. 1800 Hz

// vor vorderen Vokalen: 3000 Hz

Page 4: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache
Page 5: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

In der gesprochenen Sprache weichen F2-Onsets (F2-Offsets) von der theoretischen Locusfrequenz ab, teilweise wegen antizipatorischer oder perzeveratorischer V-auf-K Koartikulation.

F2 (H

z)

d i:

o:

dd

d

0 50 150 250

500

1000

2000

Time (ms)

i:o:

Page 6: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

Max. V auf K Koartikulation

Dauer

500

2000

Dauer

500

2000

800bbb

Keine V-auf-K Koartikulation

F2-Locus und V-auf-K Koartikulation

• daher ist der F2 Target vom F2 Onset nicht vorhersagbar

• F2 Target ist vom F2 Onset vorhersagbar

• Kein Locus • Locus ist vom Vokal unabhängig

Page 7: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

(Regressionlinie im Raum von F2 Target x F2 Onset) • Die Neigung liegt zwischen 0 und 1• Je steiler (näher an 1) die Neigung, umso bedeutender die V auf K Koartikulation

Locusgleichung

0 500 1500 2500

050

015

0025

00

bbb

F2(Onset)=Locus, Regressionsneigung = 0

Dauer

500

2000

800

F2 O

nset

bbb

F2 Target

0 500 1500 2500

050

015

0025

00

bb

b

F2(Target) = F2(Onset) Regressionsneigung =1

Dauer

500

2000

F2 Target

F2 O

nset

Page 8: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

V-auf-K Koartikulation in /dV/ im Vgl. zu /Vd/

Ein Sprecher (australisch Englisch) erzeugte /dVd/ Silben, fuer verschiedene Vokale.

In welchen Reihenfolgen, initiale /dV/, oder finale /Vd/, ist die V-auf-K Koartikulation wahrscheinlich am bedeutendsten: initial oder final?

Page 9: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

F2 (H

z)o:

dd

0 50 150 250

500

1000

2000

Dauer (ms)

V-target = 600 Hz, F2in=1800 Hz, F2off=1300 Hz

600 1000 1400

1000

1600

F2-Target

F2-in

itial do:

600 1000 1400

1000

1600

F2-Target

F2 o

ffset

o:d

Page 10: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

/dV/ /Vd/

F2-Target F2-Target

F2-O

nset

F2-O

ffset

Welche Regressionslinie müsste steiler sein?

dV Vd

0 100 200 300 400

500

1500

time (ms)

1

-400 -300 -200 -100 0

500

1500

time (ms)

1

F2-verschiedene Vokale

Page 11: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

pfad = "Das Verzeichnis, wo die Daten gespeichert ist"fdat = read.table(paste(pfad, "dform.txt", sep="/"), header=T)attach(fdat) names(fdat)

"lab" "F2targ" "F2in" "F2fin"

F2 /dVd/-Daten einlesen

1000 1500 200014

0016

0018

00

F2-targ

F2-in

itial

i:A

I

Va:u:

Ee:

o:

@:U

O

I

plot(F2targ, F2in, type="n", xlab="F2-targ", ylab="F2-initial")text(F2targ, F2in, lab)

Regressionslinie berechnen

kmFF tin arg22̂

regin = lm(F2in ~ F2targ)

Page 12: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

überlagerte Regressionslinie

abline(regin)

Dasselbe für F2-Offset

kmFF tfin arg22̂

regfin = lm(F2fin ~ F2targ)

Koeffiziente F2-Initial:

coef(regin) (Intercept) F2targ 1220.2502132 0.2710194

coef(regfin)Intercept) F2targ 829.4801710 0.4641336

Koeffiziente F2-Final:

Page 13: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

Nebenbei: Vorhersage-Intervall

lmint(F2targ, F2in, level=.95)

1000 1500 2000

1400

1600

1800

x

yDie Wahrscheinlichkeit, dass Werte innerhalb der blauen Linie fallen = 95%

pfad = "Das Verzeichnis, wo die Daten gespeichert ist"source(paste(pfad, "lmint.S", sep="/"))

möglicher Ausreißer

Page 14: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

Die Neigungen vergleichen

Hilfeseite: siehe Slope.test.pdf in unserer Webseite.

pfad = "Das Verzeichnis, wo die Daten gespeichert ist"source(paste(pfad, "Slope.test.S", sep="/"))args(Slope.test) # siehe unten, Hilfseite

function (...) … bedeutet: beliebig viele Argumente.

jedes Argument soll eine zweispaltige Matrix sein. Die y-Werte (F2in oder F2fin) in Spalte 1, die x-Werte (F2-targ) in Spalte 2.

Slope.test(mat1, mat2)die Regressionslinie für die Daten in mat1 wird berechnet; die Regressionslinie für die Daten in mat2 wird berechnet; die Neigungen dieser beiden R-Linien werden statistisch miteinander verglichen.

Page 15: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

$separate r-sq F ratio df df prob. line fits data intercept slopefirst.out 0.8632720 69.45167 1 11 0.9999956 1220.2502 0.2710194first.out 0.7437726 31.93061 1 11 0.9998513 829.4802 0.4641336

$combined F ratio Probability of them being DIFFERENT df dfintercept 5.971148 0.9773694 1 23slope 4.778655 0.9602575 1 22

Die Neigungen der Regressionslinien unterscheiden sich F=4.78, df = 1, 22, p < 0.05 oder F(1,22) = 4.78, p < 0.05

onset = cbind(F2in, F2targ)

offset = cbind(F2fin, F2targ)Slope.test(onset, offset)

# 2-spaltige Matrix der F2in-Werte

# 2-spaltige Matrix der F2fin-Werte

Da sich die Regressionslinien signifikant unterscheiden, ist die V-auf-K Koartikulation unterschiedlich in /Vd/ im Vergleich zu /dV/.

Page 16: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

2. Voraussetzung für die Durchführung der Regression

siehe vor allem http://www.duke.edu/~rnau/testing.htm und E-Buch in der LMU Autor = Verzani Kap. 10)

Page 17: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

qqnorm(resid(regin))

qqline(resid(regin))plot(regin, 2)

-1.5 -0.5 0.5 1.5

-1.5

-0.5

0.5

1.5

Theoretical Quantiles

Sta

ndar

dize

d re

sidu

als

lm(F2in ~ F2targ)

Normal Q-Q

10 1 12

2.1. Folgen die 'residuals' einer Normalverteilung?

oder

(siehe regression.ppt, vorige Woche)

shapiro.test(resid(regin)) Shapiro-Wilk normality test

data: resid(regin) W = 0.9274, p-value = 0.3148

Zusätzlicher Test

Die Verteilung der residuals weicht nicht signifikant von einer Normalverteilung ab

Die Werte sollen nicht allzusehr von der geraden Linie abweichen

Page 18: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

2.2. Ist Linearität erkennbar?

Sind wir sicher, dass die y/x Werte wirklich mit einer Linie modelliert werden können?

0.5 1.0 1.5 2.0 2.5 3.0

1000

2000

x

y

0.5 1.0 1.5 2.0 2.5 3.010

0020

00

x

y

oder vielleicht nicht besser mit einer Parabel?

Page 19: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

oderplot(predict(regin), resid(regin)) plot(regin, 1)

Die Werte in einer Abbildung der residuals als Funktion der eingeschätzen Werte, y, sollten mehr oder weniger auf einer randomisierten Weise um die Linie residuals = 0 verteilt sein.

2.2. Test für Linearität

1400 1600 1800

-100

-50

050

Fitted values

Res

idua

ls

lm(F2in ~ F2targ)

Residuals vs Fitted

1012 1

^

Page 20: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

2. 3. Keine Autokorrelation(die aufeinanderfolgenden Werte in der x oder y-Achse müssen voneinander unabhängig sein).

16460 16470 16480 16490 16500

-600

00

4000

times

data

[, k]

Ein gutes Beispiel von autokorrelierten Daten: ein stimmfahfes Sprachsignal

Man soll überhaupt sehr vorsichtig sein, eine Regression auf Daten mit einer Zeit-Achse anzuwenden (da Werte als Funktion der Zeit sich oft wiederholen, also sie sind oft miteinander korreliert).

Page 21: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

2. 3. Test für AutokorrelationDie Autokorrelation der residuals berechnen

acf(resid(regin))

Autokorrelation lag k

inwiefern sind die ersten n-k Werte des Signals mit den letzten n-k Werte korreliert?

zB Autokorrelation lag 1 bei einem 4-Punkt Signal:

die ersten 3 Werte werden mit den letzten 3 Werte verglichen

Autokorrelation lag 0: kann ignoriert werden: sie hat immer den Wert 1.

Alle anderen lag-Werte variieren zwischen -1 und 1

Page 22: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

95% Vertrauensintervall um 0

n = length(F2targ)2/sqrt(n)

Insbesondere die Werte bei lag 1 und 2 beobachten: diese sollten in jedem Fall innerhalb des Vertauensintervalls liegen.

Wenn die meisten ACF-Werte innerhalb der blauen Linien liegen, gibt es keine Autokorrelation.

2. 3. Test für Autokorrelation

0 2 4 6 8 10

-0.5

0.0

0.5

1.0

Lag

AC

F

Page 23: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

2. 4. Konstante Varianz oder 'homoscedasticity' der Residuals?

Insbesondere sollten die residuals nicht wesentlich größer am Anfang/Ende sein, sondern auf eine randomisierte Weise um die 0 Linie verteilt sein.

2 4 6 8 10

-50

050

Index

resi

d(re

gin)

plot(resid(regin))

Page 24: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

2.5. AusreißerEin einziger Ausreißer vor allem vom Mittelpunkt weit entfernt kann die Regressionslinie deutlich beeinflussen.

Ausreißer die eventuell (aber nicht unbedingt) die Regressionslinie stark beeinflussen, können mit dem sog. Cookes Distance aufgedeckt werden

2 4 6 8 10 12

0.0

0.1

0.2

0.3

0.4

Obs. number

Coo

k's

dist

ance

lm(F2in ~ F2targ)

Cook's distance1

12

3

plot(regin, 4)

Die Werte 1 und 12 sind vielleicht solche Ausreißer, also

onset[c(1,12),]

Page 25: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

plot(F2targ, F2in, cex = 10*sqrt(cooks.distance(regin)))text(F2targ, F2in, as.character(1:length(F2in)))

Die Cookes-Entfernungen und daher Ausreißer könnten auch mit einem sogenannten 'bubble plot' (siehe Verzani) abgebildet werden

2.5. Ausreißer

1000 1500 2000

1400

1500

1600

1700

1800

F2targ

F2in

12

3

45

6

78

9

1011

12

13

Ausreißer

Page 26: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

Man könnte dann prüfen, ob sich die Regressionlinien signifikant mit/ohne Ausreißer unterscheiden:

onsetohne = onset[-c(1,12),]

Slope.test(onset, onsetohne)

$combined F ratio Probability of them being DIFFERENT df dfintercept 0.38475966 0.45825958 1 21slope 0.01596279 0.09927878 1 20

detach(fdat)

2.5. Ausreißer

Page 27: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

3. Mehrfache Regression

Page 28: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

Mehrfache Regression

kbxy ^Einfache Regression

kxbxby 2211^

x1

x2

y

Und eine gerade Linie in einem 3D-Raum

In diesem Fall: 2 Regressors (x1, x2) , 2 Neigungen (b1, b2), ein Intercept, k

Page 29: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

Es können auch mehrere Regressoren sein…

kxbxbxbxby nn ...332211^

Eine gerade Linie in einem n-dimensionalen Raumn verschiedene Neigungen, ein Intercept

Mehrfache Regression

Page 30: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

Einige Daten

pfad = "Das Verzeichnis, wo die Daten gespeichert ist"ydata = read.table(paste(pfad, "ydata.txt", sep="/"), header=T)

attach(ydata)names(ydata)

[1] "F2" "DORSY" "DORSX" "LIPY" "LIPX"

[y] Vokale, alle Werte zum zeitlichen Mittelpunkt

DORSX, DORSY (horizontale und vertikale Position des Zungendorsums)

LIPX, LIPY (horizontale Verlagerung und vertikale Position der Unterlippe)

Page 31: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

Wir wollen versuchen, den F2-Wert aus diesen artikulatorischen Parametern vorherzusagen.

Einige informellen VorhersagenF2 steigt wenn:DORSY steigt

DORSX nach vorne

LIPY

LIPX

steigt/fällt

nach vorne/hinten

fällt(die Lippen werden offener)

nach hinten(Lippen sind nicht so gerundet)

steigt/fällt

nach vorne/hinten

Page 32: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

F2 = b1DORSX +b2DORSY + b3LIPX + b4 LIPY + k^

Ein mehrfaches Regressionsmodell

Mehrfache Regression in R

Festlegung von b1, b2, b3, b4, k

Sind alle diese Parameter notwendig? Wenn nicht, welches Parameter oder Parameterkombination hat die deutlichste lineare Beziehung zu F2?

hat die Bedeutung

F2 = ein Gewicht mal die horizontale Position der Zunge +ein anderes Gewicht mal die vertikale Position der Zunge +…. + ein Intercept

^

Page 33: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

pairs(ydata)

F2

0.8 1.0 1.2 1.4 -1.8 -1.6 -1.4

1450

1600

1750

0.8

1.1

1.4

DORSY

DORSX

3.4

3.8

4.2

-1.8

-1.5

LIPY

1450 1600 1750 3.4 3.8 4.2 -1.4 -1.0 -0.6

-1.4

-1.0

-0.6

LIPX

hoch

tief

vorne

hinten*

oben

untenhinten

vorne

* Richtung Glottis

Page 34: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

F2 = b1DORSX +b2DORSY + b3LIPX + b4 LIPY + k^

regm = lm(F2 ~ DORSX+DORSY+LIPX+LIPY)

coef(regm)

Normalverteilung der Residuals?plot(regm, 2) shapiro.test(resid(regm))

usw. wie für einfache Regression

Koeffiziente

Page 35: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

summary(regm)

Coefficients: Estimate Std. Error t value Pr(>|t|)(Intercept) 1355.05 822.63 1.647 0.113DORSX -38.33 157.21 -0.244 0.810DORSY 63.08 254.27 0.248 0.806LIPX -67.36 110.90 -0.607 0.550LIPY -164.08 205.04 -0.800 0.432

Residual standard error: 83 on 23 degrees of freedomMultiple R-Squared: 0.3939, Adjusted R-squared: 0.2884 F-statistic: 3.736 on 4 and 23 DF, p-value: 0.01747

F2 kann mit einer multidimensionalen Regressionslinie aus diesen artikulatorischen Parametern modelliert werden:

Adjusted R2 = 0.29, F (4, 23) = 3.74, p < 0.05.

Page 36: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

Adjusted R2

R2: (siehe vorige Vorlesung) ist die Proportion der Varianz, die durch die Regressionslinie erklärt werden kann (variiert zwischen 0 und 1; 1 bedeutet alle Werte liegen auf der Linie)

Daher muss in der Berechnung von R2 für die Anzahl der Regressoren kompensiert werden, wenn wir - wie in diesem Fall –Regressionslinien mit unterschiedlichen Anzahlen von Regressoren miteinander vergleichen wollen.

R2 wird mit einer zunehmenden Anzahl von Regressoren größer.

Page 37: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

Adjusted R2

11)1(1 2

knnRAdjusted R2 =

n ist die Anzahl der Stichproben, k ist die Anzahl der Regressoren.

1-(1-0.3939) * ( (n-1)/(n-4-1) )

n = length(F2)

[1] 0.2884913

Für diesen Fall

kann auch negativ sein

ist weniger als R2

Page 38: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

Modell-Prüfung durch AIC (Akaike's Information Criterion)

Mit der stepAIC() Funktion in library(MASS) wird geprüft, ob für die Regression wirklich alle (in diesem Fall 4) Regressoren benötigt werden.

Je kleiner AIC, umso nützlicher die Kombination für die Regression (umso höher adjusted R2)

library(MASS)

stepAIC(regm)

Page 39: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

Start: AIC= 251.95 F2 ~ DORSX + DORSY + LIPX + LIPY Df Sum of Sq RSS AIC- DORSX 1 410 158861 250- DORSY 1 424 158875 250- LIPX 1 2541 160993 250- LIPY 1 4412 162863 251<none> 158451 252

sortiert nach AIC. Dies ist der AIC-Wert, wenn aus diesem Modell DORSX weggelassen wäre.

Daher wird im nächsten Modell DORSX weggelassen.

Vor allem ist dieser AIC Wert weniger als AIC mit allen Parametern (= 251.95).

Page 40: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

Step: AIC= 250.02 F2 ~ LIPX + LIPY + DORSY

Df Sum of Sq RSS AIC- DORSY 1 1311 160172 248- LIPY 1 4241 163102 249<none> 158861 250- LIPX 1 16377 175238 251

AIC ist am kleinsten, wenn aus diesem Modell DORSY weggelassen wird. Und dieser Wert ohne DORSY ist kleiner als derjenige mit LIPX+LIPY+DORSY zusammen.

Daher wird DORSY weggelassen…

Page 41: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

Step: AIC= 248.25 F2 ~ LIPX + LIPY Df Sum of Sq RSS AIC<none> 160172 248- LIPX 1 25225 185397 250- LIPY 1 50955 211127 254Wenn wir entweder LIPX oder LIPY weggelassen, dann wird AIC höher im Vergleich zu AIC mit beiden Parametern zusammen.

Daher bleiben wir bei F2 ~ LIPX + LIPY

Page 42: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

Dieses Modell F2 ~ LIPX + LIPY müsste auch den höchsten adjusted R2 haben. Prüfen, zB:

summary(regm) summary(lm(F2~LIPX+LIPY))

Adjusted R-squared: 0.3383Adjusted R-squared: 0.2884

Also wird die Variation in F2 in [y] am meisten durch die horizontale und vertikale Position der Unterlippe erklärt.

Page 43: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

4. Polynomiale Regression

kbxy ^

ein Regressor, 2 Koeffiziente

kxbxby 221

^

ein Regressor ein Koeffizient

bestimmt die Krümmung;

b2 ist negativ b2 ist positiv

b2 ist näher an 0

Page 44: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

kxbxbxbxbxby nn 1

44

33

221 ...^

ein Regressor, n Koeffiziente

In allen Fällen handelt es sich um Abbildung/Beziehungen im 2D-Raum (da wir mit einem Regressor zu tun haben).

Page 45: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

detach(ydata)

attach(edat)

plot(COG, F2)

0.5 1.0 1.5 2.0 2.5 3.0

1000

1500

2000

2500

COG

F2

pfad = "Das Verzeichnis, wo die Daten gespeichert ist"

edat = read.table(paste(pfad, "epg.txt", sep="/"))

Page 46: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

kCOGbCOGbF 2212

^

regp = lm(F2 ~ COG + I(COG^2))

coef(regp)

(Intercept) COG I(COG^2) -294.3732 2047.8403 -393.5154

294.3732 393.5 2047.82 2 COGCOGF^

plot(COG, F2)

Die Parabel überlagern

curve(-294.3732+2047.8403*x -393.5154*x^2, add=T)

Page 47: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) -294.37 139.95 -2.103 0.0415 * COG 2047.84 192.83 10.620 1.81e-13 ***I(COG^2) -393.52 54.17 -7.264 6.10e-09 ***---Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 202.1 on 42 degrees of freedomMultiple R-Squared: 0.9092, Adjusted R-squared: 0.9049 F-statistic: 210.4 on 2 and 42 DF, p-value: < 2.2e-16

summary(regp)

Beide Komponente, COG und COG2 der Parabel scheinen notwendig zu sein, um die F2-COG Beziehungen zu modellieren.

Page 48: Regression (zweiter Teil) Jonathan Harrington. 1. Regression und die Locus-Theorie 2. Voraussetzungen für die Durchführung einer Regression 3. Mehrfache

mit stepAIC() kann wieder festgestellt werden, ob wir den COG2 Parameter wirklich benötigen:

stepAIC(regp)

Start: AIC= 480.69 F2 ~ COG + I(COG^2)

Df Sum of Sq RSS AIC<none> 1715550 481- I(COG^2) 1 2155469 3871019 515- COG 1 4606873 6322423 537

Call:lm(formula = F2 ~ COG + I(COG^2))

Coefficients:(Intercept) COG I(COG^2) -294.4 2047.8 -393.5

Scheinbar ja (da AIC höher wird, wenn entweder COG oder COG2 aus dem Modell weggelassen werden).