17
Neuronale Netze - Autoassoziative Netze Folie 1 Uwe Lämmel Wismar Business School www.wi.hs-wismar.de/~laemmel [email protected] Wissensextraktion mittels künstlicher neuronaler Netze Autoassoziative Netze

Wissensextraktion mittels künstlicher neuronaler Netze Autoassoziative Netze

  • Upload
    enye

  • View
    26

  • Download
    0

Embed Size (px)

DESCRIPTION

Wismar Business School. Wissensextraktion mittels künstlicher neuronaler Netze Autoassoziative Netze. Uwe Lämmel. www.wi.hs-wismar.de/~laemmel [email protected]. 1. 2. 3. 4. 1. 2. 3. 4. Hopfield-Netz. Analogie zur Thermodynamik: Viele Teilchen mit starken Wechselwirkungen - PowerPoint PPT Presentation

Citation preview

Page 1: Wissensextraktion  mittels künstlicher neuronaler Netze Autoassoziative Netze

Neuronale Netze - Autoassoziative Netze Folie 1

Uwe Lämmel

Wismar Business School

www.wi.hs-wismar.de/~laemmel

[email protected]

Wissensextraktion mittels

künstlicher neuronaler Netze

Autoassoziative Netze

Page 2: Wissensextraktion  mittels künstlicher neuronaler Netze Autoassoziative Netze

Neuronale Netze - Autoassoziative Netze Folie 2

Hopfield-Netz

1 2 3 4

1

2

3

4

Analogie zur Thermodynamik:Viele Teilchen mit starken Wechselwirkungen

Neuron entspricht einem Teilchen

Lernen: Finden eines Energieminimums (lokal) für die Teilchenmenge (Netz)

Neuronale Netze mit Rückkopplung

Jedes Neuron ist mit allen anderen Neuronen verbunden(ohne direkte Rückkopplung

Page 3: Wissensextraktion  mittels künstlicher neuronaler Netze Autoassoziative Netze

Neuronale Netze - Autoassoziative Netze Folie 3

Autoassoziative Netze Rückgekoppelte Netze Keine Unterteilung in Eingabe-, Ausgabe-Neuronen Aktivierung eines Neurons zum Zeitpunkt t

abhängig (indirekt) von Aktivierungen zu Zeiten tj<t-1

Natürliches neuronales Netz ist KEIN Vorbild Paradigma: Teilchenverhalten in festen Stoffen

Page 4: Wissensextraktion  mittels künstlicher neuronaler Netze Autoassoziative Netze

Neuronale Netze - Autoassoziative Netze Folie 4

Hopfield-Architektur

Alle Verbindungen symmetrisch: wij = wji

Ausgabe des Netzes, wenn keine Änderung der Ausgabewerte aller Neuronen

netj(t+1) = wijoi(t)

1 , netj(t+1) > j oj(t+1) = f(netj(t+1)) = 0 , netj(t+1) < j

oj(t), sonst (*)

Netz-Energie: E = -½ wij oioj+ ioi

Ziel der Verarbeitung: Stabiler Zustand Minimale Netz-

Energie

Page 5: Wissensextraktion  mittels künstlicher neuronaler Netze Autoassoziative Netze

Neuronale Netze - Autoassoziative Netze Folie 5

Stabilität / Muster

Stabilitätstheorem von Cohen/Großberg 1993:– Rekurrente Netze sind stabil, falls

– Gewichtsmatrix W symmetrisch 1. wij = wji und

– Hauptdiagonale 0 ist: 2. i | wii = 0

Auffinden der Gewichte:

– Sei m ein Muster m=(m1,...,mk).

– Ein Hopfield-Netz speichert das Muster m, falls:– Bias-Werte i=1 und

– Gewichte: wij = mimj, ij

Page 6: Wissensextraktion  mittels künstlicher neuronaler Netze Autoassoziative Netze

Neuronale Netze - Autoassoziative Netze Folie 6

Lernen – Einschwingen

Wiederhole Wähle zufällig eine Neuron aus;Bestimme Zustand des Neurons nach

1 , netj(z+1) > j oj(t+1) = f(netj(t+1)) = 0 , net(j(t+1) < j

oj(t), sonstbis keine Änderung mehr.

Page 7: Wissensextraktion  mittels künstlicher neuronaler Netze Autoassoziative Netze

Neuronale Netze - Autoassoziative Netze Folie 7

Energie-Betrachtung

Bei keinem Propagierungsschritt wird das Energie-Niveau größer!– Mit jedem Schritt wird Energie-Niveau

kleiner oder bleibt gleich

i j iiijiij

i j iiijiij

ooow

ooowE

2

1

'''2

1

EEE '

Page 8: Wissensextraktion  mittels künstlicher neuronaler Netze Autoassoziative Netze

Neuronale Netze - Autoassoziative Netze Folie 8

Energie-Differenz

Man betrachte die Möglichkeiten für oz

E ist stets <= 0

zi

zzziizzi

zzziiz ooowooowE

EEE

'''

'

zzzi

iizzzzzi

iiz oowooowE

i

iizz ownet

zzz onetE )(

Aktivierung von Neuron z wird neu berechnet:

Page 9: Wissensextraktion  mittels künstlicher neuronaler Netze Autoassoziative Netze

Neuronale Netze - Autoassoziative Netze Folie 9

Anwendungen/Beispiel

Finden lokaler Minima zum Wiederherstellen verrauschter Eingaben;Energieminimum entspricht unverrauschter Eingabe

Ein Netz mit N Neuronen kann höchstens 0.14*N verschiedene Muster speichern

Die Verwendung der Aktivierung {-1,+1} zeigt bessere Ergebnisse

Wiederherstellen von verrauschten Pixelmustern: – Siehe Excel-Datei Hopfield.xls– Beispiel Kruse, Datei HOP_ASSO.*– Demo-Programm Hopfield-Demo.zip

Ausführen von Hopfield.jar

Page 10: Wissensextraktion  mittels künstlicher neuronaler Netze Autoassoziative Netze

Neuronale Netze - Autoassoziative Netze Folie 10

Boltzmann-Maschine

Vermeidung des Stabilisierens in einem lokalen Minimum Neuronen verändern ihren Zustand entsprechend einer

Wahrscheinlichkeitsverteilung (einziger Unterschied zu den Hopfield-Netzen)(Statistische Methode, Boltzmann-Maschine, Simulated Annealing)

Energie wie vorher: E = -½ wij oioj + ioi

Page 11: Wissensextraktion  mittels künstlicher neuronaler Netze Autoassoziative Netze

Neuronale Netze - Autoassoziative Netze Folie 11

Boltzmann-Aktivierung

Die Änderung der Aktivierung eines Neurons ist nun:

1 , random() flogistic(Ek/T)ok(t+1) = fact,k(netk) = 0 , sonst

Ek - Differenz der Energien des Netzes für die Zustände, in denen Neuron k die Ausgabe 1 bzw. 0 hatte;

T - künstlicher Temperaturparameter, wird während des Verfahrens kleiner

Für große T ist Wahrscheinlichkeit, dass oi=1 ist: 0.5

Page 12: Wissensextraktion  mittels künstlicher neuronaler Netze Autoassoziative Netze

Neuronale Netze - Autoassoziative Netze Folie 12

Boltzmann - Einschwingvorgang

beginWähle genügend großen Temperaturwert T

repeatrepeat

Wähle zufällig Neuron i ausBestimme neuen Ausgabewert oi

until thermisches Gleichgewicht (Energieniveau im Mittel konstant)

Verringere Temperatur

until Stabiler Zustand

end

Page 13: Wissensextraktion  mittels künstlicher neuronaler Netze Autoassoziative Netze

Neuronale Netze - Autoassoziative Netze Folie 13

Boltzmann - Hinweise

Zum langsamen “Abkühlen” wird Abkühlungsplan aufgestellt:

– Startwert T0

– Anzahl der Verarbeitungsschritte LT bei geg. Temperaturniveau T

– Vorschrift zur Senkung von T, oft T=1/(Nr des Zeitschritts)

– Abbruchkriterium Bei jeder Temperatur T>0 ist es möglich,

dass höhere Temperaturniveau angenommen wird. Anwendung: Optimierungsprobleme

Page 14: Wissensextraktion  mittels künstlicher neuronaler Netze Autoassoziative Netze

Neuronale Netze - Autoassoziative Netze Folie 14

Anwendung in der Optimierung

Netz schwingt in Energie-Minimum ein Optimale Lösung ~ Energie-Minimum? Problem:

– Bestimmung der Gewichte Beispiel:

– N-Dame-Problem– Travelling Salesman Problem

Page 15: Wissensextraktion  mittels künstlicher neuronaler Netze Autoassoziative Netze

Neuronale Netze - Autoassoziative Netze Folie 15

Aufgaben

Man betrachte ein Hopfield-Netz aus 3 Neuronen, alle wij=1,=1.Berechnen Sie von Hand die Ausgabe des Netzes für die Eingabe in=(0,1,1).

Entwickeln Sie auf dem Papier ein Hopfield-Netz, welches das Pixel-Muster speichert.

Wie reagiert das Netz auf die Eingabe des Musters:

Nutzen Sie die Hopfield-Demo und ermitteln Sie den Einfluss der Größe des Schwellwertes auf die Ergebnisse.

Machen Sie sich mit dem Demo-Programm zur Lösung des N-Dame-Problems vertraut (Kruse).

Page 16: Wissensextraktion  mittels künstlicher neuronaler Netze Autoassoziative Netze

Neuronale Netze - Autoassoziative Netze Folie 16

Aufgaben Max-Cut-Problem (Aus Kruse ):

Ein ungerichteter aber gewichteter Graph soll so in zwei Teilmengen zerteilt werden, dass die Summe der Gewichte aller Kanten zwischen den Teilmengen maximal ist. (Anwendungen im Chip-Entwurf, Netz-Konfigurationen)

Machen Sie sich anhand des folgenden Graphs mit der Problematik vertraut:

Benutzen Sie BLZ_MAXC.EXE (Neuronales Netz) und vergleichen Sie die Lösung mit der algorithmisch berechneten BLZ_COMP.EXE.

1 2

3 4 5

1

3

5

4

2

2

0 1 3 0 00 0 2 40 5 00 20

Gewichte in Datei:

Page 17: Wissensextraktion  mittels künstlicher neuronaler Netze Autoassoziative Netze

Neuronale Netze - Autoassoziative Netze Folie 17

Ende