33
Informatik—Künstliche Intelligenz Computergestützte Statistik Technische Universität Dortmund Graphische Modelle Wissensentdeckung in Datenbanken Probabilistische Graphische Modelle II Nico Piatkowski und Uwe Ligges Informatik—Künstliche Intelligenz Computergestützte Statistik Technische Universität Dortmund 27.06.2017 1 von 16

Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

  • Upload
    ngoanh

  • View
    215

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Wissensentdeckung in DatenbankenProbabilistische Graphische Modelle II

Nico Piatkowski und Uwe Ligges

Informatik—Künstliche IntelligenzComputergestützte Statistik

Technische Universität Dortmund

27.06.2017

1 von 16

Page 2: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Überblick

Was bisher geschah...ModellklassenVerlustfunktionenNumerische OptimierungRegularisierungÜberanpassungSQL, Häufige MengenSVM, xDA, Bäume, . . .Graphische Modelle

HeuteGraphische Modelle—Theorie und Algorithmen

2 von 16

Page 3: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Überblick

Was bisher geschah...ModellklassenVerlustfunktionenNumerische OptimierungRegularisierungÜberanpassungSQL, Häufige MengenSVM, xDA, Bäume, . . .Graphische Modelle

HeuteGraphische Modelle—Theorie und Algorithmen

2 von 16

Page 4: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Überblick

Suffiziente StatistikenMaximum-EntropieGradientRandverteilungBelief PropagationGibbs Sampling

3 von 16

Page 5: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

1

32

4

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Graph

G = (V,E) mit Knotenmenge V und Kantenmenge EHier: V = {1,2,3,4}, E = {{1,2},{1,3},{1,4},{2,3},{3,4}}Cliquen: C(G) = V ∪E ∪ {{1,2,3},{1,3,4}}

4 von 16

Page 6: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

1

32

4

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Graph

G = (V,E) mit Knotenmenge V und Kantenmenge EHier: V = {1,2,3,4}, E = {{1,2},{1,3},{1,4},{2,3},{3,4}}Cliquen: C(G) = V ∪E ∪ {{1,2,3},{1,3,4}}

4 von 16

Page 7: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Suffiziente Statistik

Daten D, Modell mit Parameter β

Funktion φ ist eine suffiziente Statistik ⇔ β ⊥⊥ D ∣ φ(D)

mit φ(D) = ∑x∈D φ(x)

Für diskrete X :

φ ist immer gegeben durch φC=yC(xC) =∏v∈C 1xv=yv

mit C ∈ C(G), xC ∈ XC , x ∈ XφC(xC) = (φC=y1C(xC), φC=y2C(xC), . . . ) = (φC=yC(xC))yC∈XC

5 von 16

Page 8: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Suffiziente Statistik

Daten D, Modell mit Parameter β

Funktion φ ist eine suffiziente Statistik ⇔ β ⊥⊥ D ∣ φ(D)

mit φ(D) = ∑x∈D φ(x)

Für diskrete X :

φ ist immer gegeben durch φC=yC(xC) =∏v∈C 1xv=yv

mit C ∈ C(G), xC ∈ XC , x ∈ XφC(xC) = (φC=y1C(xC), φC=y2C(xC), . . . ) = (φC=yC(xC))yC∈XC

5 von 16

Page 9: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Beispiel: Suffiziente Statistik

6 von 16

Page 10: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Beispiel: Suffiziente Statistik

6 von 16

Page 11: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Beispiel: Suffiziente Statistik

6 von 16

Page 12: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Beispiel: Suffiziente Statistik

6 von 16

Page 13: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Beispiel: Suffiziente Statistik

6 von 16

Page 14: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

1

32

4

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Beispiel: Suffiziente Statistik

V = {1,2,3,4}, E = {{1,2},{1,3},{1,4},{2,3},{3,4}},C(G) = V ∪E ∪ {{1,2,3},{1,3,4}}

φC(xC) = (φC=y1C(xC), φC=y2C(xC), . . . ) = (φC=yC(xC))yC∈XC

X1 = {1,2,3,4,5}, X2 = {−,�},X3 = {−,Punk,Pop, . . .},X4 = {∎,∎,∎}

x = (2,−,−,∎)x′ = (1,−,Pop,∎)x′′ = (1,�,Punk,∎). . .

7 von 16

Page 15: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

1

32

4

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Beispiel: Suffiziente Statistik

V = {1,2,3,4}, E = {{1,2},{1,3},{1,4},{2,3},{3,4}},C(G) = V ∪E ∪ {{1,2,3},{1,3,4}}

φC(xC) = (φC=y1C(xC), φC=y2C(xC), . . . ) = (φC=yC(xC))yC∈XC

X1 = {1,2,3,4,5}, X2 = {−,�},X3 = {−,Punk,Pop, . . .},X4 = {∎,∎,∎}

x = (2,−,−,∎)x′ = (1,−,Pop,∎)x′′ = (1,�,Punk,∎). . .

7 von 16

Page 16: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

1

32

4

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Beispiel: Suffiziente Statistik

V = {1,2,3,4}, E = {{1,2},{1,3},{1,4},{2,3},{3,4}},C(G) = V ∪E ∪ {{1,2,3},{1,3,4}}

φC(xC) = (φC=y1C(xC), φC=y2C(xC), . . . ) = (φC=yC(xC))yC∈XC

X1 = {1,2,3,4,5}, X2 = {−,�},X3 = {−,Punk,Pop, . . .},X4 = {∎,∎,∎}

x = (2,−,−,∎)x′ = (1,−,Pop,∎)x′′ = (1,�,Punk,∎). . .

7 von 16

Page 17: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

1

32

4

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Beispiel: Suffiziente Statistik II

C = {1,2,3}, XC = X1 ×X2 ×X3

X1 = {1,2,3,4,5}, X2 = {−,�},X3 = {−,Punk,Pop,Rock,Schlager}XC = {(1,−,−), (2,−,−), . . . , (5,−,−), (1,�,−), . . . ,(5,�,−), (1,�,Punk), . . . , (5,�,Schlager)}

φ{1,2,3}(5,�,Schlager) =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

00⋮0⋮01

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

φ{1,2,3}(2,�,−) =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

00⋮1⋮00

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

8 von 16

Page 18: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

1

32

4

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Beispiel: Suffiziente Statistik II

C = {1,2,3}, XC = X1 ×X2 ×X3

X1 = {1,2,3,4,5}, X2 = {−,�},X3 = {−,Punk,Pop,Rock,Schlager}XC = {(1,−,−), (2,−,−), . . . , (5,−,−), (1,�,−), . . . ,(5,�,−), (1,�,Punk), . . . , (5,�,Schlager)}

φ{1,2,3}(5,�,Schlager) =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

00⋮0⋮01

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

φ{1,2,3}(2,�,−) =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

00⋮1⋮00

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

8 von 16

Page 19: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

1

32

4

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Exponentialfamilie

Pβ(x) =1

Z(β) exp( ⟨β{1,2,3}, φ{1,2,3}(x{1,2,3})⟩)

exp(⟨β{1,3,4}, φ{1,3,4}(x{1,3,4})⟩ )= exp(⟨β, φ(x)⟩ −A(β))

A(β) = logZ(β) = log ∑x∈X

exp(⟨β, φ(x)⟩)

9 von 16

Page 20: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Maximum Entropie Prinzip: Aufgabe

Gegeben: Daten X (Realisierungen einer ZV X)und beliebige Funktion f ∶ X → Rd

Gesucht: P mit EP[f(X)] = ED[f(X)] = 1∣D∣ ∑x∈D f(x)

Problem: Viele P haben die gesuchte Eigenschaft!!

10 von 16

Page 21: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

0

0.2

0.4

0.6

0.8

1

0 0.2 0.4 0.6 0.8 1

Entr

opy(p

)

p(x=1)

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Maximum Entropie Prinzip: Intuition

Entropie H einer Zufallsvariable X mit P

H(X) = − ∑x∈X

P(x) logP(x)

11 von 16

Page 22: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

0

0.2

0.4

0.6

0.8

1

0 0.2 0.4 0.6 0.8 1

Entr

opy(p

)

p(x=1)

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Maximum Entropie Prinzip: Intuition

Sei P der Raum aller Wahrscheinlichkeitsfunktionen

maxP∈PH(P)

s.t. EP[f(X)] = ED[f(X)]← d Nebenbedingungen

12 von 16

Page 23: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

0

0.2

0.4

0.6

0.8

1

0 0.2 0.4 0.6 0.8 1

Entr

opy(p

)

p(x=1)

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Maximum Entropie Prinzip: Lösung

Umformulieren in Lagrange Funktion

maxP∈PH(P) +

d

∑i=1λiEP[f(X)]i − ED[f(X)]i

ableiten (nach P!) und = 0 setzen liefert

P(x) = exp(⟨λ, f(x)⟩ −A(λ))

Also: Parameter von Exponentialfamilien sindLagrange-Multiplikatoren der Nebenbedingung(en)EP[f(X)] = ED[f(X)]

13 von 16

Page 24: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

0

0.2

0.4

0.6

0.8

1

0 0.2 0.4 0.6 0.8 1

Entr

opy(p

)

p(x=1)

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Maximum Entropie Prinzip: Lösung

Umformulieren in Lagrange Funktion

maxP∈PH(P) +

d

∑i=1λiEP[f(X)]i − ED[f(X)]i

ableiten (nach P!) und = 0 setzen liefert

P(x) = exp(⟨λ, f(x)⟩ −A(λ))

Also: Parameter von Exponentialfamilien sindLagrange-Multiplikatoren der Nebenbedingung(en)EP[f(X)] = ED[f(X)]

13 von 16

Page 25: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Parameterlernen durch Gradientenabstieg

Gegeben Datensatz D, Funktion φ (binär) Verlustfunktion:Negative mittlere log-Likelihood

`(β,D) = − 1

∣D∣ ∑x∈DlogPβ(x)

= − 1

∣D∣ ∑x∈D⟨β, φ(x)⟩ +A(β)

= − ⟨β, µ⟩ +A(β)

Partielle Ableitung:

∂`(β,D)∂βi

= −µi +∂

∂βi

A(β) = µi − µi

14 von 16

Page 26: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Parameterlernen durch Gradientenabstieg

Gegeben Datensatz D, Funktion φ (binär) Verlustfunktion:Negative mittlere log-Likelihood

`(β,D) = − 1

∣D∣ ∑x∈DlogPβ(x)

= − 1

∣D∣ ∑x∈D⟨β, φ(x)⟩ +A(β)

= − ⟨β, µ⟩ +A(β)

Partielle Ableitung:

∂`(β,D)∂βi

= −µi +∂

∂βi

A(β) = µi − µi

14 von 16

Page 27: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Parameterlernen durch Gradientenabstieg

Gegeben Datensatz D, Funktion φ (binär) Verlustfunktion:Negative mittlere log-Likelihood

`(β,D) = − 1

∣D∣ ∑x∈DlogPβ(x)

= − 1

∣D∣ ∑x∈D⟨β, φ(x)⟩ +A(β)

= − ⟨β, µ⟩ +A(β)

Partielle Ableitung:

∂`(β,D)∂βi

= −µi +∂

∂βi

A(β) = µi − µi

14 von 16

Page 28: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Parameterlernen durch Gradientenabstieg

Gegeben Datensatz D, Funktion φ (binär) Verlustfunktion:Negative mittlere log-Likelihood

`(β,D) = − 1

∣D∣ ∑x∈DlogPβ(x)

= − 1

∣D∣ ∑x∈D⟨β, φ(x)⟩ +A(β)

= − ⟨β, µ⟩ +A(β)

Partielle Ableitung:

∂`(β,D)∂βi

= −µi +∂

∂βi

A(β) = µi − µi

14 von 16

Page 29: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Marginalisierung

Wenn φ binär, dann ist µi = E[φi(X)] die Wahrscheinlichkeitfür φi(X) = 1

Annahme: Paarweises Modell ≡ Nur die Kantengewichte sindrelevant

P(Xv = x) = ∑y∈XV ∖{v}

P(y, x)

Ausnutzen der Faktorisierung sowie der Distributivität:

P(Xv = x) =1

Z∑

y∈XV ∖{v}∏

C∈C(G)exp(⟨βC , φC(xC)⟩)

wobei x = (y, x)

15 von 16

Page 30: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Marginalisierung

Wenn φ binär, dann ist µi = E[φi(X)] die Wahrscheinlichkeitfür φi(X) = 1

Annahme: Paarweises Modell ≡ Nur die Kantengewichte sindrelevant

P(Xv = x) = ∑y∈XV ∖{v}

P(y, x)

Ausnutzen der Faktorisierung sowie der Distributivität:

P(Xv = x) =1

Z∑

y∈XV ∖{v}∏

C∈C(G)exp(⟨βC , φC(xC)⟩)

wobei x = (y, x)

15 von 16

Page 31: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Marginalisierung

Wenn φ binär, dann ist µi = E[φi(X)] die Wahrscheinlichkeitfür φi(X) = 1

Annahme: Paarweises Modell ≡ Nur die Kantengewichte sindrelevant

P(Xv = x) = ∑y∈XV ∖{v}

P(y, x)

Ausnutzen der Faktorisierung sowie der Distributivität:

P(Xv = x) =1

Z∑

y∈XV ∖{v}∏

C∈C(G)exp(⟨βC , φC(xC)⟩)

wobei x = (y, x)

15 von 16

Page 32: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Gibbs Sampling

Idee: Erzeuge neue Stichprobe gemäß Pβ und berechneµi durch “abzählen”Aber: Wie erzeugt man neue Samples aus Pβ(X)?

⇒ Ausnutzung bedingter Unabhängigkeiten!

16 von 16

Page 33: Wissensentdeckung in Datenbanken · Maximum Entropie Prinzip: Aufgabe Gegeben: Daten X (Realisierungen einer ZV X) und beliebige Funktion f∶X →Rd Gesucht: P mit E P[f(X)]=E~ D[f(X)]=

Informatik—Künstliche IntelligenzComputergestützte StatistikTechnische Universität Dortmund

Graphische Modelle

Gibbs Sampling

Idee: Erzeuge neue Stichprobe gemäß Pβ und berechneµi durch “abzählen”Aber: Wie erzeugt man neue Samples aus Pβ(X)?

⇒ Ausnutzung bedingter Unabhängigkeiten!

16 von 16