121
Die Künstliche Intelligenz Projektarbeit im Rahmen meines Praktikums in der Fachhochschule Merseburg Unter der Betreuung von Professor Karsten Hartmann und Professor Michael Schenke Praktikant: Tino Apelt Dauer: 3 Monate

1 · Web viewDie Füße sind ebenfalls aus Metall und mit Sensoren versehen. Es gleitet und hüpft über den Boden. Beide besitzen keine zentrale Steuereinheit, die die Bewegungen

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

1

Die Künstliche Intelligenz

Projektarbeit im Rahmen meines Praktikums in der

Fachhochschule Merseburg

Unter der Betreuung von

Professor Karsten Hartmann und

Professor Michael Schenke

Praktikant: Tino Apelt

Dauer: 3 Monate

41. Einleitung

52. Geschichtliche Entwicklung

92.1 Quellenangaben

103. Intelligenz

153.1 Quellenangaben

164. Embodiment

164.1 Allgemeines

214.1.1 Quellenangaben

224.2 ICUB

234.2.1 Quellenangaben

245. Psychologie

245.1 Definition

245.2 kurzer geschichtlicher Überblick

265.2.1 Quellenangaben

265.3 Kognitivismus / Kognitionspsychologie

265.3.1 Kognition

265.3.1.1 Quellenangaben

275.3.2 Überblick über das Forschungsgebiet

275.3.2.1 Quellenangaben

285.3.3 Kognitivismus

295.3.3.1 Quellenangaben

305.4 Behaviorismus

305.4.1 Quellenangaben

315.4.2 Methodologische Behaviorismus

315.4.2.1 Quellenangaben

315.4.3 Klassischer Behaviorismus

325.4.3.1 Quellenangaben

325.4.4 Neobehaviorismus

325.4.4.1 Quellenangaben

325.4.5 Radikaler Behaviorismus

345.4.5.1 Quellenangaben

356. Maschinelles Lernen (ML)

376.1 Quellenangaben

387. Wissensbasierte Systeme (WBS)

407.1 Quellenangaben

417.2 Expertensysteme (XPS)

437.2.1 Quellenangaben

448. Intelligente Tutorielle Systeme (ITS)

468.1 Quellenangaben

479. Linguistik in der KI

479.1 Kurzer Überblick über die Linguistik

489.1.1 Quellenangaben

489.2 Sprachverarbeitung

529.2.1 Quellenangaben

539.2.2 Morphologie

559.2.2.1 Quellenangaben

569.2.3 Parsing und Parser

579.2.3.1 Quellenangaben

579.2.4 Computerlinguistik (CL)

599.2.4.1 Quellenangaben

599.2.5 Semantik

609.2.5.1 Quellenangaben

609.2.5.2 Semantikformalismen / Formale Semantik

639.2.5.2.1 Quellenangaben

639.2.5.3 Lexikalische Semantik

669.2.5.3.1 Quellenangaben

669.3 Anmerkungen zum Thema Linguistik

6810. Interessante Materialien

6810.1 Links

6910.2 MP3

7011. Überblick über KI-Forschungsinstitute und deren Mitarbeiter, sowie wichtige Personen

7011.1 Deutschland

7211.2 Schweiz

7211.3 Österreich

7311.4 Australien

7311.5 Japan

7311.6 USA

7511.7 Großbritannien

7611.8 Slowenien

7611.9 ESA

7611.9.1 Quellenangaben

7711.10 Italien

7711.11 Personen

7711.11.1 Maschinelles Lernen

7912. KI in Spielen

8612.1 Quellenangaben

8713. Abschließende Worte

8714. Hinweis

8814. Hinweis

1. Einleitung

Die künstliche Intelligenz (KI) ist eine Querschnittswissenschaft. Der Anteil der Informatik ist nur gering. Es befassen sich unter anderem Philosophen, Linguisten und Psychologen mit diesem Thema. Der Teil der Informatik, welcher sich mit KI beschäftigt, arbeitet an der Automatisierung intelligenten Verhaltens. Der Begriff künstliche Intelligenz ist schwierig, da es keine genaue Definition für Intelligenz gibt. Trotzdem wird er in Forschung und Entwicklung verwendet. Die KI-Forschung unterteilt sich in Vertreter der starken und schwachen KI: Die Vertreter der starken KI sehen den Menschen als Vorbild und wollen ihm gleiche Maschine bauen. Sie soll wie er kreativ sein, ein Bewusstsein und Emotionen haben. Dies ist bislang visionär. Die schwache KI will konkrete Anwendungsprobleme lösen. Man versucht mit Mitteln der Informatik und Mathematik intelligentes Verhalten zu simulieren. Auf diesem Gebiet wurden entscheidende Fortschritte erzielt. Außer Ergebnisse der Informatik sind Forschungsergebnisse der Psychologie/Neurologie, Mathematik/Logik, Kommunikationswissenschaft, Philosophie/Linguistik eingeflossen.

Ich versuche in meiner Projektarbeit die verschiedenen Gebiete der Künstlichen Intelligenz kurz zu beleuchten und auf aktuelle Strömungen einzugehen. Dies umfasst die Beschäftigung mit der geschichtlichen Entwicklung, mit unterschiedlichen Intelligenztheorien, dem Kognitivismus, dem Behaviorismus, der Linguistik, KI in Spielen und dem modernen Denkansatz des Embodiment. Abschließen werde ich mit einer Übersicht über Institute, welche sich mit KI auseinander setzen und einem Ausblick in die Zukunft.

http://www2.hu-berlin.de/humboldt-forum/kabinette/large/robodog.jpg

2. Geschichtliche Entwicklung

Es geht eine besondere Faszination von Androiden, Cyborgs und Robotern aus, die dem Menschen ähnlich sind. Als Kind erschafft man sich bereits Fantasiewesen und vielleicht entsteht daher der Wunsch ihnen im erwachsenen Alter Leben einzuhauchen. Dies inspiriert Schriftsteller, Filmemacher und Forscher.

Der Wunsch künstliche Wesen zu erschaffen, ist so alt wie die Menschheit. Im alten Ägypten soll es Götterstatuen gegeben haben, die ausgeklügelte Mechanismen enthielten und sich somit bewegen und angeblich auch sprechen konnten. Sie sollen den Gläubigen geantwortet und prophezeit haben. Man hielt sie für göttlich inspiriert und nahm an, dass sie eine Seele besitzen.

In der griechischen Antike schuf Hephaistos (Gott des Feuers und der Schmiedekunst) Talos einen Riesen aus Bronze, der die Insel Kreta bewachen sollte. Der erster „Riesenroboter“ der Weltgeschichte kam durch Ray Harryhausen im Film „Jason und die Argonauten“ auf die Leinwand.

Dem Mathematiker und Philosoph Archytas von Tarent (428-350 v. Chr.), ein Zeitgenosse Platons, gilt als Begründer der mathematischen Mechanik. Man schreibt ihm die Erfindung der Schraube und des Flaschenzuges zu. Er ist der Konstrukteur der berühmten Taube von Archytas, welche fliegen konnte.

Aus dieser Zeit sind auch die ersten Automaten überliefert, die Heron von Alexandrien (ungefähr zwischen 250 und 150 v. Chr.) erfand. Für das katroptische Theater baute er Maschinen die Spezialeffekte wie Bühnenblitze und -donner, selbstständig öffnende und schließende Türen, automatische Musik auf Zimbeln und Trommeln Ausfluss von Wein oder Milch aus dem Becher einer Figur, sich selbst entzündende Opferfeuer und tanzende Figuren realisierten.

Später wimmelte es nur so von Behauptungen, irgendwer habe eine Maschine gebaut, die selbstständig handelte. Angeblich wurden teilweise sogar lebendige Wesen geschaffen, wie der Joseph Golem (um 1580), der die jüdische Gemeinde in Prag beschützen sollte.

Im „Discours de la Méthode“ behauptete René Descartes (1596 – 1650), dass der Mensch mit Ausnahme der Seele und des Verstandes eine zwar wundervolle, aber letztlich doch mechanische Maschine sei.

Bald gab es auch kunstvolle Spielzeuge. Besonders zu erwähnen wäre die mechanische Ente, die im Jahre 1738 von Jacques de Vaucanson gebaut wurde. Sie konnte mit den Flügeln schlagen, essen, trinken und über ein kompliziertes Röhrensystem verdauen und ausscheiden. Es wurden viele mechanische Puppen und andere Figuren gebaut, die die Menschen damaliger Zeit begeisterten.

Der französische Arzt und Philosoph La Mettrie (1709 – 1751) behauptete in seinem Buch „L´homme machine“ (Der Maschinenmensch) sogar, alles am Menschen wäre maschinell, einschließlich der Seele und der Denkprozesse. Der Mensch war damit zur göttlich konstruierten mechanischen Maschine geworden, ein hochkomplexes mechanisches Uhrwerk. Diese Aussage machte La Mettrie mehr und mehr zur Unperson seiner Zeit.

Mit dem englischen Mathematiker Charles Babbage (1792 – 1871) begann das Zeitalter der Computer. Zwar gab es vorher schon einfache mechanische Rechner von Schickard, Pascal und Leibniz, jedoch die von Babbage enthielt alle wesentlichen Funktionen heutiger Rechner. Dieser dient als Vorbild für die Computerarchitekturen des 20. Jahrhunderts. Seine Maschine war aufgeteilt in Speicher- und Rechenwerk. Sie enthielt einen Satz Grundoperationen und konnte mit Lochkarten programmiert werden. Babbage konstruierte zuerst die Differenz-Maschine. Das Modul der difference engine bestand aus 25000 Einzelteilen. In fertig gebautem Zustand wäre sie mehrere Meter groß und viele Tonnen schwer gewesen. Es wurden aus Kostengründen jedoch nur 2000 Teile montiert. Danach wurde das Projekt eingestellt. Die Maschine wurde von dem Feinmechaniker Joseph Clement gebaut. Sie existiert heute noch und ist voll funktionsfähig. Babbage hatte die Maschine konstruiert, um damit mathematische und astronomische Tabellen zu berechnen.

Die Gräfin Ada Lovelace (1815 – 1852) war von der Maschine begeistert. Sie entwickelte im Rahmen einer Arbeit die ersten Computerprogramme und somit die erste Software der Welt.

Georg Boole (1815 – 1864) beschrieb in seinem Werk „Gesetze des Denkens“ 1854 die „symbolische Logik“. Damit wollte er die mathematischen Grundlagen des menschlichen Denkens schaffen und somit die Algebra des menschlichen Intellekts. Die Prinzipien des logischen Denkens wurden als Folge von Ja/Nein Antworten dargestellt und in Binärzahlen ausgedrückt. Der erste Schritt zu intelligenten Computerprogrammen waren 0 und 1.

Der Begriff „Maschinenmensch“ und die Erfindung des Computers sind das Fundament für die klassische KI-Forschung und Robotik des 20. Jahrhunderts. Das Wort „Roboter“ tauchte erstmals 1921 in dem Theaterstück „Rossum’s Universal Robots“ von Karel Čapek auf. In slawischen Sprachen bedeutet „rabota“ Arbeit.

Die Geburtsstunde des Forschungsgebietes der künstlichen Intelligenz war der 01.07.1956. Es wurde eine Konferenz am Dartmouth College in New Hampshire (USA) durchgeführt, an der Computerwissenschaftler, Psychologen, Linguisten, und Philosophen teilnahmen. Sie sprachen darüber, wie man Maschinen mit intelligentem Verhalten entwickeln könnte.

Shannon

Rochester

Minsky

McCarthy

Sie wurde von John McCarthy, Marvin Minsky, Nathan Rochester und Claude Shannon organisiert. Als anerkanntes Kriterium für Intelligenz galt damals der Turing-Test. Dieser beinhaltet folgende Aussage: Man

erklärte das Verhalten eines Computers für intelligent, wenn es von der entsprechenden Leistung eines Menschen nicht mehr zu unterscheiden war.

Turing

Allen Newell (1927 – 1992) und Herbert Simon (1916 – 2001) von der Universität Carnegie Mellon in Pittsburgh formulierten die Physical Symbol System Hypothesis, nach der Denken Informationsverarbeitung, Informationsverarbeitung ein Rechenvorgang, also Symbolmanipulation ist. Nach ihrer Hypothese kommt es somit beim Denken auf das Gehirn nicht an. „Intelligence is mind implemented by any patternable kind of matter“, d. h. die Intelligenz ist unabhängig von der Trägersubstanz. Diese These wird von den Vertretern der starken KI geteilt, z. B. von Marvin Minsky (geb. 1927) von der Massachusetts Institute of Technology (MIT), der in der künstlichen Intelligenz die Überwindung des Todes sieht oder dem Roboterspezialisten Hans Moravec (geb. 1948) von der Carnegie Mellon University, der in dem Buch „Mind Children“ (Kinder des Geistes) das Szenario des postbiologischen Lebens beschreibt. Seine Vorstellung geht dahin, dass ein Roboter das gespeicherte menschliche Wissen auf einen Computer überträgt. Damit wird die Biomasse des Gehirns überflüssig. Dies ist der Beginn des posthumanen Zeitalters. Das gespeicherte Wissen bleibt beliebig lange verfügbar.

Die Anfangsphase der KI war geprägt von fast grenzenloser Erwartungshaltung im Hinblick auf Computer. Simon prognostizierte 1957, dass in den nächsten zehn Jahren ein Computer Schachweltmeister sei und einen mathematischen Satz entdecken und beweisen würde. Das traf nicht ein. Simon wiederholte dies 1990 ohne eine zeitliche Festlegung. 1997 schlägt der Schachcomputer „Deep Blue“ den Schachweltmeister Garry Kasparov in sechs Partien.

Simon und Newell entwickelten in den 60-er Jahren den „General Problem Solver“, ein Programm, dass mit einfachen Methoden beliebige Probleme lösen sollte. Das Projekt wurde nach zehn Jahren eingestellt.

McCarthy schlug 1958 vor das gesamte menschliche Wissen in homogene formale Darstellungsform, Prädikatenlogik 1. Stufe zu bringen. Die Idee war es, einen Theorem-Beweiser zu konstruieren, um die symbolischen Ausdrücke zusammen zu setzen, um das Wissen der Welt zu diskutieren.

Joseph Weizenbaum (1923 – 2008) vom MIT entwickelte das Programm ELIZA. Es simuliert den Dialog zwischen Psychiater und Patient. Er stellte es 1965 vor. Die Öffentlichkeit war geradezu verblüfft. ELIZA leitet syntaktische Symbolismen in der Programmiersprache LISP ab und reagiert auf bestimmte Schlüsselwörter und Satzmuster mit Umstellungen und Einsetzungen. So entstand der Anschein beim Benutzer, ELIZA sei intelligent und einfühlsam.

Die KI erzielte auf den folgenden Gebieten große Erfolge:

· Strategiespiele (Schach, Dame ( Dameweltmeister ist Computerprogramm Chinook seit 1994, usw.)

· mathematische Symbolverarbeitung

· Simulation von Robotern

· beim Beweisen von logischen und mathematischen Sätzen

· bei Bild- und Spracherkennung

· bei Expertensystemen.

2.1 Quellenangaben

http://www.takimo.de/index.html

( Kapitel „Künstliche Intelligenz 1 und 2

http://de.wikipedia.org/wiki/K%C3%BCnstliche_Intelligenz

http://www.wissenschaft.de/wissenschaft/hintergrund/280768.html

http://de.wikipedia.org/wiki/George_Boole

http://de.wikipedia.org/wiki/Charles_Babbage

http://de.encarta.msn.com/sidebar_81506269/Spektrum_der_Wissenschaft_Die_Differenzmaschine_von_Charles_Babbage.html

http://www.pc-zub-museum.de/index.html

http://209.85.229.132/search?q=cache:oqaOOrK4CTYJ:www.doepel.de/doepel/Vorlesungen/Scripte/geschichte_der_ki.pdf+erfolge+der+ki&cd=3&hl=de&ct=clnk&gl=de&lr=lang_de

3. Intelligenz

Die Intelligenz ist ein Phänomen, welches durch seine Komplexität so unbegreiflich ist, dass der Mensch ihr noch nicht alle Geheimnisse abringen konnte. Es machen sich die unterschiedlichsten Wissenschaften Gedanken darüber, was Intelligenz ist, wie sie entsteht und letztendlich auch darüber, ob man intelligente Maschinen bauen kann und sollte. Ich habe ein paar Aussagen in den folgenden Abschnitten aufgelistet. Man kann davon ausgehen, dass dies keine umfassende Erklärung ist und nur bruchstückhaft beschreibt, was Intelligenz ist.

Allgemein könnte man Intelligenz so beschreiben. Es sind alle kognitiven und psychischen Fähigkeiten eines Menschen. Dazu zählt man unter anderem Konzentration, Vorstellung, Gedächtnis, denken, lernen, Sprache und die Fähigkeit mit Zahlen und Symbolen umgehen zu können.

1905 befanden Binet und Simon:

„Die Art der Bewältigung einer aktuellen Situation: gut urteilen, gut verstehen, gut denken, das sind die wesentlichen Bereiche der Intelligenz.“

Guthke definierte 1996 Intelligenz so:

„Intelligenz ist der Oberbegriff für die hierarchisch strukturierte Gesamtheit jener allgemeinen geistigen Fähigkeiten, die das Niveau und die Qualität der Denkprozesse einer Persönlichkeit bestimmen und mit deren Hilfe die für das Handeln wesentlichen Eigenschaften einer Problemsituation in ihrer Zusammensetzung erkannt und die Situation gemäß dieser Einsicht entsprechend bestimmter Zielsetzungen verändert werden kann.“

Spearman entwickelte die Zwei-Faktoren-Theorie. Nach dieser gibt es einen g-Faktor (g = general), welcher die allgemeine Intelligenz beschreibt und deren Ausprägung u. a. die Verarbeitungsgeschwindigkeit, die geistige Kapazität und die intellektuelle Leistung – bestimmt. Etwas salopp könnte man sagen, ob eine Person eher ein simpler Charakter oder ein Genie ist. Neben dem g-Faktor gibt es seiner Meinung nach spezifische dem g-Faktor untergeordnete und durch ihn beeinflusste Faktoren, die so genannten s-Faktoren (s = spezifisch). Sie beeinflussen die Leistung eines Menschen in bestimmten Bereichen, so z. B. bei mathematischen Aufgaben, bei verbalen oder räumlichen Problemstellungen.

Cattell legte sich ebenfalls auf zwei Faktoren fest. Er nannte sie fluide und kristalline Intelligenz, wobei die fluide sich auf die angeborene bzw. vererbte Intelligenz bezieht, die nicht durch die Umwelt verändert werden kann und z. B. die geistige Kapazität, die Auffassungsgabe und das generelle Verarbeitungsniveau umfasst. Die kristalline Intelligenz hingegen bezieht sich auf alle im Laufe des Lebens durch die Umwelt beeinflussten und gelernten Fähigkeiten. Die kristalline Intelligenz wird von der fluiden bestimmt. Sie umfasst explizites Wissen, wie z. B. Faktenwissen und auch implizites, wie beispielsweise Fahrrad fahren und Rechnen.

Guilford entwickelte das „tetraedische Modell“. Es besteht aus drei Dimensionen. Die erste Dimension sind die Denkinhalte. Er unterscheidet hier vier Einteilungen, z. B. abstrakte und figurale Denkinhalte. Die zweite Dimension ist die der Denkoperationen. Es gibt fünf Abstufungen. Hierzu zählen beispielsweise Konvergenz- und Divergenzvorgehen. Die dritte Dimension schließt die Denkresultate ein. Guilford unterteilt sie in sechs Kategorien, z. B. das Finden einer neuen, einzigartigen Lösung zu einem Problem, das Finden von Kategorien und Klassen oder das Übertragen einer Lösung von einer auf eine andere Situation. „Diese drei Dimensionen spannen also, bildlich dargestellt, ein dreidimensionales Koordinatenkreuz auf. In dieses kann man sich nun einen Quader denken, auf dessen drei sichtbaren Flächen in kleinen Rechtecken alle möglichen Kombinationen der drei Dimensionen dargestellt sind (darum tetraedisches Modell, da diese drei Flächen des Quaders bedeutend sind). Die 4 × 5 × 6 = 120 Kombinationen stellen nach Guilford jeweils einzelne Intelligenzbereiche dar.“ (als Zitat von Wikipedia übernommen, um die Aussage nicht zu verfälschen) Die Vertreter dieses Modells konnten bis heute rund einhundert Aufgaben zu den Bereichen finden, so dass noch ca. zwanzig ausstehen.

Die folgende Abbildung zeigt eine grafische Darstellung des Modells von Guilford.

Der Berliner Jäger entwickelte das Berliner Intelligenzstrukturmodell Dazu führte er Experimente mit Oberstufenschülern durch. Es entstand ein Modell, das hierarchisch und bimodal strukturiert ist. Er extrahierte sieben hochgradig generelle Hauptkomponenten, die in die beiden Modalitäten Operationen und Inhalte gegliedert werden. Die sieben Komponenten sind:

· B: Bearbeitungsgeschwindigkeit (Arbeitstempo, Auffassungsleichtigkeit,

· Konzentrationskraft bei leichten Aufgaben)

· M: Merkfähigkeit (aktives Einprägen und kurz- oder mittelfristiges Wiedererkennen oder Reproduzieren von verbalen, numerischen und figuralen- bildhaften Material)

· E: Einfallsreichtum (flüssige, flexible und auch originelle Ideenproduktion, die an Verfügbarkeit vielfältiger Informationen, Reichtum an Vorstellungen und das Sehen vieler verschiedener Seiten, Varianten, Gründen für Möglichkeiten von Gegenständen und Problemen vorausgesetzt, wobei es um problemorientierte Lösungen geht, nicht um ungesteuertes Luxurieren der Fantasie)

· K: Verarbeitungskapazität (Verarbeitung komplexer Informationen bei Aufgaben, vielfältiges Beziehungsstiften, formallogisch exaktes Denken und sachgerechtes Beurteilen von Informationen erfordern)

Die Modalitäten bestehen aus:

· V: Sprachgebundenes Denken (verbal; Fähigkeitsbündel entspricht dem Grad seiner Aneignung und Verfügbarkeit und scheint bei allen sprachgebundenen Operationen mitbestimmend zu sein)

· N: Zahlengebundenes Denken (numerisch; Fähigkeitsbündel entspricht dem Grad seiner Aneignung und Verfügbarkeit und scheint bei allen zahlengebundenen Operationen beteiligt zu sein)

· F: Anschauungsgebundenen Denken (Figural-bildhaft)

Jäger sieht sein Modell nicht als endgültig an, sondern eher als Modellkern, welcher offen ist für Erweiterungen.

Die folgende Abbildung zeigt Jägers Modell.

Nach Lehrl basiert Intelligenz auf Informationsverarbeitungsgeschwindigkeit und Gedächtnisspanne. Im Präfrontalhirn sei der Arbeitsspeicher lokalisiert. Er entwarf den Kurztest für allgemeine Basisgrößen der Informationsverarbeitung.

Sternberg vertritt den Informationsverarbeitungsansatz. Sein triachisches Modell beinhaltet drei Theorien. Die erste Theorie ist die Kontexttheorie, was bedeutet, dass jeder Mensch über eine kultur- bzw. umweltspezifische Intelligenz verfügt. Die zweite heißt Zwei-Facetten-Theorie, d. h. zur Untersuchung der Intelligenz ist es nicht nur nötig, die zugrunde liegenden Lösungsprozesse, die Durchführung und Ergebnisse zu erfassen. Weiterhin ist es wichtig die Routine bzw. Automatisierung der Prozesse zu erkennen, da dies einen primären Einfluss auf Akkuratesse und Ergebnis einer Lösungsstrategie hat. Die letzte und damit dritte Theorie splittet sich in fünf Komponenten und wird daher Komponententheorie genannt.

· Performanzkomponenten (bereichsspezifische Fähigkeiten bzw. Lösungsstrategien)

· Metakomponente (entspricht weitestgehend einer übergeordneten exekutiven Kontrolle)

· Akquisitionskomponente (Bezug auf speichern und enkodieren von Informationen)

· Retentionskomponente (bezieht sich auf Behalten und Abrufen von Informationen aus dem Gedächtnis)

· Transfer-Komponente (Übertragung von Wissen oder Fertigkeiten auf andere Problemstellungen und Situationen)

Er definiert Intelligenz als das Lernen aus Erfahrung, abstraktes Schlussfolgern, die Fähigkeit, sich einer ständig ändernden Umwelt anzupassen und über die Motivation zu verfügen, sich immer neues Wissen anzueignen.

Nach Thurstone beruht Intelligenz auf den Faktoren räumliches Vorstellungsvermögen, Rechenfertigkeit, Sprachverständnis, Wortflüssigkeit, Gedächtnis, Wahrnehmungsgeschwindigkeit und logischem Denken, Seine Theorie wird als Multiple-Faktoren-Theorie bezeichnet. Intelligenz ist also nicht gleich Wissen und Klugheit, sondern eher die Befähigung mit Wissen und Bildung etwas anfangen zu können. Intelligenz ist nicht gleich zu setzen mit Lebenserfolg. Daraus lässt sich ableiten, dass die eben genannten Faktoren nicht ausreichend sind.

In den letzten Jahren stellte man sich die Frage, ob es überhaupt eine allgemeingültige Definition für Intelligenz geben kann oder ob es verschiedene Intelligenzen für unterschiedliche Lebensbereiche gibt. Man spricht daher von emotionaler und sozialer Intelligenz, von Bewegungsintelligenz bei Tänzern und Sportlern sowie von temporaler Intelligenz, die die Fähigkeit zur Organisation zeitlicher Abläufe beschreibt.

Man sieht, wenn man all diese Erklärungsansätze studiert, wie Komplex die Intelligenz ist. Ich vermute, sich auf einen Erklärungsansatz zu versteifen, kann einem die Intelligenz nicht vollständig aufschlüsseln. Ich denke, dass noch viel Forschung nötig ist, um eine halbwegs umfassende Beschreibung zu ermöglichen.

Was ich bei allen Theorien bedauerlich finde ist, dass sie sich nur auf den Menschen beziehen und andere Lebewesen dieses Planeten, Tiere, Pflanzen, nicht in diese Modelle passen. Würde man versuchen beispielsweise die Intelligenz eines Hundes mit einem der Modelle zu messen, würde er an verschiedenen Faktoren scheitern und wäre somit nicht intelligent. Meiner Meinung nach brauchen wir ein Intelligenzmodell, welches alles Leben einbezieht.

3.1 Quellenangaben

http://www.freenet.de/freenet/fit_und_gesund/gesundheit/gehirn_psyche/iq/index.html

http://www.stangl-taller.at/TESTEXPERIMENT/testintelligenzmodelle.html

http://209.85.129.132/search?q=cache:YUgmg5H8w1MJ:www.staff.uni-mainz.de/hock/pers/intelligenz1.pdf+definition+intelligenz&cd=7&hl=de&ct=clnk&gl=de

http://de.wikipedia.org/wiki/Intelligenztheorie

http://www.psychologie.uni-mannheim.de/psycho2/proj/wmc/BIS_beschreibung.html

http://psydok.sulb.uni-saarland.de/volltexte/2005/502/html/www.uni-wuerzburg.de/sopaed1/breitenbach/intelligenz/morpho.htm

( Guilfords tetraedisches Modell

http://www.profilingportal.de/intelligenz_iq_test/intelligenz.htm

http://www.medizinfo.de/kopfundseele/alzheimer/intelligenz_definition.shtml

http://www.wort-und-wissen.de/index2.php?artikel=disk/d03/4/d03-4.html

( Bonusmaterial

http://www.capurro.de/

http://www.capurro.de/ki.html

( Bonusmaterial

http://www.phf.uni-rostock.de/fkw/iph/thies/KI.html

( Bonusmaterial

http://www.uni-protokolle.de/Lexikon/K%FCnstliche_Intelligenz.html

( Bonusmaterial

4. Embodiment

4.1 Allgemeines

Der Begriff Embodiment kommt aus der Kognitionswissenschaft und bedeutet „Verkörperung“ oder „Inkarnation“. Das bedeutet, Intelligenz benötigt einen Körper und setzt eine physikalische Interaktion voraus. Dies steht dem Verständnis der klassischen Interpretation von Intelligenz diametral entgegen. Das Intelligenzverständnis des Embodiment wird von der KI-Forschung als „Complete agent“ bezeichnet.

Seit der Wende zum 21. Jahrhundert findet ein Umdenken statt. Die Vertreter der Embodiment-These sprechen von „verkörperten“ oder „leibhaftigen“ Geist. Alles Geistige ist nur zu verstehen, wenn man es als Produkt einer Wechselbeziehung zwischen Körper und Umwelt sieht, sagt Shaun Galagher, Philosoph an der University of Central Florida und Vordenker der Embodimentidee. Er begründet das so: „Die Gestalt unseres Körpers determiniert die Erfahrungen, die wir mit ihm überhaupt machen können. Wenn Sie einen anderen Körper hätten, würden Sie die Welt auch ganz anders wahrnehmen. Machen Sie doch einmal folgendes Gedankenexperiment: was würde passieren, wenn man die so genannte „menschliche Seele“ aus dem menschlichen Körper herausnehmen und einem Frosch einpflanzen würde? Hätten Sie dann wohl noch die gleiche Sicht der

Welt? Ich würde sagen: natürlich nicht! Denn das Auge oder das Gehirn des Frosches sind so anders gebaut und so spezifisch an die Umwelt dieses Tieres angepasst, dass sich die Welt des Frosches und des Menschen gravierend voneinander unterscheiden. Intelligenz, Bewusstsein und Denken leiten sich aus dem Handeln des Menschen in seiner Umwelt ab. Einem Handeln, das eben grundlegend auf körperlichen Wechselbeziehungen mit dieser Umwelt beruht.“

Wie weit kommt man mit diesem Ansatz und kann man ihn experimentell untermauern?

Der Kognitionswissenschaftler Peter König und sein Team von der Universität Osnabrück schnallen 5 Probanten einen Gürtel mit 13 Vibratoren um, welcher einen elektronischen Kompass enthält, der auf den magnetischen Nordpol geeicht ist. Somit ist immer der Vibrator aktiv, der Norden am nächsten ist. Das Forscherteam geht der Frage nach: Kann der Mensch den Himmel spüren? Gelingt es dem Menschen, eine neue Form sinnlicher Wahrnehmung zu entwickeln, wenn sein Körper in besonderer Weise mit der Umwelt interagiert? Man weiß von einigen Tierarten (Tauben, Seeschildkröten, Haien), dass sie magnetische Informationen zur Orientierung nutzen. Können auch Menschen für magnetische Informationen empfänglich werden? Die Probanten durchliefen eine mehrwöchige Trainingsphase, in der sie sich aktiv in ihrer Umwelt bewegten. Nachdem sie sich an den Gürtel gewöhnt hatten, folgten verschiedene Tests.

Ein Test war beispielsweise, dass die Probanten mit Augenklappen durch ein Labyrinth mussten. Sie waren durchschnittlich schneller durch als Kontrollpersonen ohne Gürtel.

Ein Proband berichtete: „Also wenn wir jetzt zum Beispiel die Tür aufmachen, habe ich im Moment so ein Gefühl, okay, der Gang geht nach rechts und nach links, dann gibt's diese T-Kreuzung, dann kann ich ein Stück geradeaus gehen und ich habe so ein Gefühl dafür, wie die Räume hier ringsum angeordnet sind, Und wenn sie mit dem Gürtel herumlaufen, ist dieser Bereich zehn mal so groß. Sie haben ein ganz anderes Verständnis für die räumliche Anordnung in ihrer Umgebung. Sie erlaufen sich eine Stadt auch mehr. Weil wenn Sie um einige Ecken gehen, behalten Sie die Orientierung, das heißt, Sie haben ein Gefühl für die räumliche Relation, wo ich wohne, wo meine Arbeitsstelle ist, wo der Bahnhof ist, wo die Einkaufspassage ist – wie aus der Vogelperspektive sind die räumlichen Beziehungen ganz klar.“

Bei vier von fünf Probanten war das Experiment erfolgreich, jedoch verloren sie ihre neue Fähigkeit schnell nachdem sie den Gürtel abgegeben hatten. Dies ist aber auch nicht verwunderlich, da sie durch die Evolution nicht im Gehirn verdrahtet wurde.

König sagt zu dem Experiment, bei dem der menschliche Geist mit einem neuen Körpersinn angereichert werden sollte: „Wir wissen im Endeffekt nicht, warum die einen Versuchspersonen es berichten und die anderen nicht. Ich kann ihnen nur sagen: es kann klappen!“

Die Forscher wollen noch weitere Versuchspersonen mit dem Gürtel durch die Welt schicken und wollen dann auch schauen, welche Effekte der neue Sinn im Gehirn auslöst.

Shaun Galagher meint, der Geist entsteht aus den Bewegungen des Körpers in der Umwelt. „Für mich ist der Geist keine Substanz, die man an einem bestimmten Ort festmachen könnte. Der Geist ist vielmehr so etwas wie die Summe der Erfahrungen meiner Körperbewegungen. Er entwickelt seine Gestalt aus meinen Bewegungen in der Welt heraus.“

Vom Zusammenhang von Geist und Bewegung sind fast alle Anhänger des Embodiment-Konzepts fasziniert. Einige halten ihn sogar für den Schlüssel, um den Geist künstlich nachbauen zu können.

Wir befinden uns im Labor für Künstliche Intelligenz an der Universität Zürich. Ein Hund hoppelt herum, weicht Hindernissen aus, läuft mal langsamer und mal schneller. Er besteht aus Metallstangen, Gewichten, hat einen Motor dran und Drucksensoren an den Pfoten. Eine Figur, die aussieht wie aus einem Comic, weder Mensch noch Tier läuft hier auch herum. Deren Kern besteht aus einem elastisch federnden Metallteil. Die Füße sind ebenfalls aus Metall und mit Sensoren versehen. Es gleitet und hüpft über den Boden. Beide besitzen keine zentrale Steuereinheit, die die Bewegungen reguliert. Allein die Drucksensoren, die Gewichte, der Motor und die elastischen Schwingungen der Konstruktion sorgen für Bewegung. Der Motor steuert nicht direkt die Beine, sondern setzt nur die Teile der Konstruktion gegeneinander in Bewegung.

Die der jeweiligen Geschwindigkeit angemessene Gehbewegung findet die Konstruktion ganz allein. Sie beherrscht 20 verschiedene Gangarten je nach Motoreinstellung. Durch das Labor hoppeln, wippen, laufen und schwimmen noch viele andere solcher Gestalten.

Rolf Pfeifer, der Leiter des Labors, versuchte früher auf klassische Weise KI zu erschaffen. Er schrieb Software um Robotern und Expertensystemen Intelligenz einzuhauchen. Da er auf diesem Gebiet nicht weiter kam, wurde er zu einem Vordenker der Embodied Artificial Intelligence, die die Grundhypothese vertritt, dass Intelligenz verkörperte Intelligenz ist. Daher untersuchen die Forscher nun die Fortbewegung. Pfeifer sagt dazu: „Da ist es eben so - Intelligenz, überhaupt intelligentes Verhalten - dass wir verstehen müssen, wie diese Fortbewegung überhaupt zustande kommt, wenn wir letztlich verstehen wollen, wie daraus Intelligenz entstanden ist. Und ich denke, wir müssen eine solche Entwicklungsperspektive einnehmen, nicht, also das Baby entwickelt sich ja auch so, und ich denke für das Verständnis bringt das viel mehr als wenn ich schon das allerkomplexeste System nehme und da versuche, das zu reproduzieren, weil dann werde ich viel zu viel von meinen eigenen Vorstellungen da hineinproduzieren.“

„Fange bei einfachen Problemen an und versuche, sie so einfach wie möglich zu lösen.“, ist das Prinzip von Rolf Pfeifer.

„Intelligenz liegt zunächst in der Morphologie, in der Gestalt des Körpers selbst“, sagt Rolf Pfeifer, „oder in der Konstruktion einzelner Körperteile. Wenn ich einen Arm nehme, der da schwingt, so lose schwingt. Der macht eine komplizierte Bewegung. Aber die neuronale Steuerung für diesen Arm, die ist extrem einfach, weil einerseits die Schwerkraft die Arbeit übernimmt und andererseits die entsprechende Morphologie und die Materialeigenschaften des Körpers - also wir würden dann vielleicht Anatomie und Gewebeeigenschaften sagen beim Menschen – die übernehmen gewissermaßen diese Tätigkeit. Das heißt das neuronale System „weiß“ in Anführungszeichen, dass es fast nichts tun muss, weil diese Funktion vom Körper übernommen wird. Das Informationsverarbeitende Gehirn muss oft nur grob die Bahn der Gelenke oder die Elastizität der Muskeln steuern, alles andere macht die körpereigene Intelligenz von selbst, wenn wir gehen oder etwas greifen.“

Dieses Zusammenspiel von körpereigener Intelligenz und der des Gehirns wollen die Forscher verstehen und nachbauen. In diesem Zusammenhang werden auch natürliche Materialien getestet. Die Forscher haben z. B. ein Rattenhaar über ein Mikro geklebt und es über verschiedene Materialien bewegt und dabei die Schwingungen gemessen. Das Resultat ist, dass das Haar viel subtiler reagiert als jedes künstliche Material. Rolf Pfeifer fordert, dass für intelligente Roboter gegebenenfalls auch natürliche Materialien verwendet werden, um der Intelligenz des Körpers nahe zu kommen. Er schlug dies auch für das europäische Großprojekt „ICUB“ (siehe auch 4.2 ICUB) vor. Die Forscher wollten einen Roboter bauen, der die körperliche Intelligenz eines Zweieinhalbjährigen hat. Er sollte krabbeln und greifen können.

Dafür ist nach der Meinung von Pfeifer menschenähnliches Muskelmaterial notwendig. Er äußert sich dazu folgendermaßen: „Das haben wir eigentlich von Anfang an ins Auge gefasst und ich bin da gewissermaßen etwas das morphologische Gewissen in diesem Projekt. Dann hat man aber entschieden, das kennt man weniger gut. Muskeln, das sind hochgradig nichtlineare Gebilde, da weiß man nicht so richtig, wie man die steuern soll und das weiß man halt bei klassischen Elektromotoren sehr viel besser. Und da hat man gesagt, damit man jetzt einfach mal anfangen kann und wirklich etwas mal zu Stande bringt, das funktioniert, geht man eher klassisch vor, ist sich aber bewusst, dass eigentlich die nächste Generation anders aussehen müsste.“

Die Thematik wirft dann natürlich die Frage auf, führen natürliche Materialien und die damit verbundene körperliche Intelligenz auch zu abstrakten geistigen Fähigkeiten, wie Sprechen oder Denken?

Rolf Pfeifer hierzu: „Nehmen wir ein mathematisches Konzept - also viel

abstrakter als mathematisch können sie ja nicht werden -

nehmen wir das Konzept der Transitivität. Transitivität

heißt, dass wenn A größer ist als B und B größer ist als C,

dann ist A auch größer als C. Das ist ein abstraktes

mathematisches Konzept.“

Dazu hat die Entwicklungspsychologin Linda Smith ein Experiment mit Kindern gemacht und gesagt: „…das ist ja gar nicht so wahnsinnig schwierig, dieses abstrakte Konzept: ich habe hier einen Behälter oder einen Sack und dann habe ich da einen kleineren Behälter, da kann ich den da rein tun, und dann kann ich den anderen, noch einen kleineren, den kann ich da auch rein tun. Und da sehen die Kinder sofort: aha, der kleinste ist ja auch im größten drin. Dann haben sie bereits so wirklich "fully embodied" dieses abstrakte Konzept der Transitivität an diesem einfachen Beispiel erfahren. Also so ein riesiger Schritt ist gar nicht von diesem Embodiment bis zu diesen abstrakten Konzepten, man tut immer so, wie wenn das so wäre, aber ich habe das Gefühl, da ist eine viel direktere Relation da.“

Durch das Spielen und Ineinanderschachteln von verschieden großen Behältnissen erwerben Kinder rein körperlich die Grundlage, um das mathematische Prinzip der Transitivität zu begreifen.

Rolf Pfeifer träumt davon, dass Roboter durch diese Art Interaktion mit der Umwelt, wie sie mit den Experiment mit den Kindern beschrieben wurde, höhere geistige Fähigkeiten erlangen und denkt, dass das Embodiment-Konzept dazu führt, dass sich das Menschen- und Weltbild verändern wird.

Viele KI-Forscher bezweifeln das Konzept und halten Menschenbilddiskussionen für überflüssig. Auch unter Verfechtern des Konzepts gibt es verschiedene Ansichten. Wie weit sollte man gehen? Ist der Geist wirklich nur ein Resultat aus der Interaktion mit der Umwelt?

Shaun Galagher vertritt die These, dass alles Geistige letztendlich verkörpert ist. Er erklärt es so: „Für mich gibt es nichts, was nicht verkörpert ist, noch

nicht einmal Theorien schließe ich aus. Erzählungen werden natürlich sprachlich verfasst. Aber wenn Sie mich fragen: was ist Sprache? In einem gewissen Sinne ist

Sprache eine motorische Vervollkommnung des Körpers. Es gibt Lautsprache, Signale mit den Händen, Gesten, das sind zunächst Körperbewegungen. Die voll entwickelte Sprache hebt das zwar auf ein höheres Niveau, aber die

sprachlichen Äußerungen, die daraus entstehen, haben ihre Wurzeln in den körperlichen Erfahrungen und ich bin davon überzeugt, dass man sich nie völlig davon löst.“

Der bochumer Philosoph Albert Newen sieht es etwas anders: „Embodiment sollte jene Phänomene umfassen, die in einer unabdingbaren Weise verkörperlicht sind. Und das sollte man unterscheiden von einer trivialen Verkörperung, Unser Gesichtsausdruck ist zum Beispiel eine ganz wesentliche Form der Verkörperung, dadurch nämlich, dass das, was ein Gesichtsausdruck zum Ausdruck bringt in dieser Fülle und Differenziertheit nur durch den Gesichtsausdruck und nicht durch eine Beschreibung übermittelt werden kann. Wenn wir Sprache verwenden, gehen wir über ein wesentliches Embodiment hinaus, wir entwickeln dann Repräsentationen, die wir vollständig unabhängig von einem Wahrnehmungsinput verwenden können und zwar - Idealerweise können wir uns aufs Sofa legen und reflektieren, was wir morgen tun wollen, einen Plan machen und dieser Plan kann dann auch am nächsten Tag handlungsleitend sein. Alles dies ist nur möglich, weil wir kontext- und situationsunabhängige Repräsentationen zur Verfügung haben. Das zeichnet uns Menschen ganz wesentlich aus und scheint auch unsere enormen Handlungsmöglichkeiten erst bereit zu stellen.

Abschließend äußere ich mich zu diesem Thema. Ich denke, dass der bochumer Philosoph der Sache recht nahe kommt. Nicht alles ist im Endeffekt verkörpert. Die Embodiment -Forschung ist sicherlich wichtig, um den Menschen besser zu verstehen, um Therapiemöglchkeiten für verschiedene Krankheiten zu finden, beispielsweise in der Psychologie, aber ich finde, man sollte es mit diesem Ansatz nicht zu weit treiben. Roboter sind eine interessante Sache und sie können vielleicht mittelfristig dem Menschen gute Dienste erweisen, aber ich persönlich spreche mich gegen die Verwendung natürlicher Materialien aus, da dann die ethisch moralische Frage aufkommt, zumindest in mir, woher diese genommen werden sollen. Ich denke, eine Maschine sollte eine Maschine bleiben und nicht halb Maschine, halb „Lebewesen“ sein. Jedoch kann ich diese Forschung nicht beeinflussen und es gibt ja auch genügend Kritiker und somit sollten wir abwarten, wie sich die Sache entwickelt und welche Erkenntnisse sich heraus kristallisieren.

4.1.1 Quellenangaben

http://de.wikipedia.org/wiki/Embodiment

http://www.dradio.de/dlf/sendungen/wib/722397/

http://209.85.229.132/search?q=cache:ecMCSgJ9rSgJ:www.ifi.uzh.ch/ailab/people/lunga/Download/Seminar2001/seminar20_04_2001_b.pdf+embodiment+erl%C3%A4uterung&cd=5&hl=de&ct=clnk&gl=de&lr=lang_de

( Abhandlung über Konstruktivismus und Nativismus (ist in Ausarbeitung nicht enthalten – Bonusmaterial)

http://www.bildungbrauchtbewegung.ch/neu/fachtagung/thema/thema.htm

( Tagung über Embodiment

http://images.google.de/imgres?imgurl=http://upload.wikimedia.org/wikipedia/commons/thumb/2/26/ShaunGallagher.jpg/180px-ShaunGallagher.jpg&imgrefurl=http://en.wikipedia.org/wiki/Shaun_Gallagher_(philosopher)&usg=__YGijPn2AwNVrxJ93FxrnzeNAslI=&h=253&w=180&sz=9&hl=de&start=13&tbnid=jJPspUjhphSPwM:&tbnh=111&tbnw=79&prev=/images%3Fq%3DShaun%2BGalagher%26gbv%3D2%26hl%3Dde%26sa%3DG

http://images.google.de/imgres?imgurl=http://www.cogsci.uni-osnabrueck.de/NBP/Portraits/PKhome_2006.jpg&imgrefurl=http://www.cogsci.uni-osnabrueck.de/NBP/peterhome.html&usg=__XEIoshPKaKjJJZVlxE3h4v6yey0=&h=146&w=130&sz=4&hl=de&start=2&um=1&tbnid=ma4-kIp50Av8TM:&tbnh=95&tbnw=85&prev=/images%3Fq%3DPeter%2Bk%25C3%25B6nig%2BKognitionswissenschaftler%26hl%3Dde%26sa%3DN%26um%3D1

http://www.indiana.edu/~cogdev/aboutus/lbs.html

http://www.ruhr-uni-bochum.de/philosophy/staff/newen/

4.2 ICUB

ICUB ist ein europäisches Großprojekt, welches auf fünf Jahre angelegt ist und von der EU mit 7,5 Millionen Euro finanziert wird. ICUB ist ein humanoider Roboter, der mental und körperlich einem zwei- bis dreijährigen Kind gleichen soll. Er ist ca. einen Meter groß, wiegt 23 Kilogramm und ist sehr gelenkig. Wie bei einem Baby, dass mit bestimmten Fähigkeiten geboren wird, wurden ICUB einige Fähigkeiten einprogrammiert, andere sollen gelernt und perfektioniert werden. Dies betrifft nicht nur die Bewegung und die Wahrnehmung, ICUB kann z. B. krabbeln, sondern ganz besonders die Interaktion mit Menschen. Das Roboterkleinkind reagiert auf Töne, Bewegung und menschliche Gesichter und Blicke.

Im März 2009 kam iCub an die University of Plymouth. Das europäische Forscherteam bekommt sechs Millionen Euro für vier Jahre. In dieser Zeit soll ICUB sprechen lernen wie ein Kleinkind es von seinen Eltern lernt. Das Projekt trägt den Namen ITALK-Projekt (Integration and Transfer of Action and Language Knowledge in Robots). Das Lernen soll über Interaktionsexperimente erfolgen. ICUB soll dabei Formen in Löcher stecken und seine Handlung sprachlich wiedergeben. Die Forscher wollen untersuchen, was notwendig ist, um "komplexes Verhalten-, Denk- und Kommunikationsweisen durch individuelles und soziales Lernen zu erwerben. Angelo Cangelosi, Professor für KI an der University of Plymouth sagt, dass dies sehr hochgesteckte Ziele sind, aber dass man es versuchen kann. Zum Schluss bleibt nur die Frage offen, ob der Roboter auch wie ein Mensch aussehen und sich bewegen sollte.

Eine der Ziele des ICUB-Projektes ist es die menschliche Kognition besser zu verstehen. Diese Forschung kann zukünftig auch künstlichen Intelligenzen zugute kommen. Natürlich kommen die Erkenntnisse auch in anderen Systemen zum Tragen, so z. B. in intelligenten Fabriksystemen, die vielseitiger einsetzbar sind als heutzutage. Abschließend ein Satz, der meine Situation ein wenig tangiert. Es ist auch langfristig geplant Roboter zu bauen, die selbstständig erkennen, wenn ein Mensch Hilfe benötigt, beispielsweise beim heben von Lasten oder wenn jemand Hilfe im Haushalt braucht.

4.2.1 Quellenangaben

http://www.heise.de/tp/blogs/3/104313

http://archiv.unipublic.uzh.ch/magazin/umwelt/2006/2275.html

http://www.iconocast.com/B000000000000155_German/T3/News6.htm

http://www.innovations-report.de/html/berichte/interdisziplinaere_forschung/menschliche_kognition_per_roboter_erforscht_130532.html

http://pressetext.de/news/090404003/menschliche-kognition-wird-per-roboter-erforscht/

http://www.bild.de/BILD/news/2009/04/03/roboter-baby-icub/soll-sprechen-lernen.html

http://www.tecchannel.de/test_technik/news/1750166/roboter_wie_kinder_erziehen/

Videos bei Youtube

http://www.youtube.com/watch?v=5jFfgJDbwxQ

http://www.youtube.com/watch?v=jOi37NikdpM

http://www.youtube.com/watch?v=CskK7BGOsZ4

5. Psychologie

5.1 Definition

„Psychologie (aus griech. ψυχολογία, psychología „die Seelenkunde“) ist die Wissenschaft vom Erleben und Verhalten des Menschen, also seinem Selbsterleben - alltagspsychologisch: seinem Innenleben - und dem damit in Zusammenhang stehenden Tun und Reagieren.

Die Psychologie ist eine bereichsübergreifende Wissenschaft. Sie lässt sich nicht allein den Geisteswissenschaften, Sozialwissenschaften oder den Naturwissenschaften zuordnen. Im Lauf der historischen Entwicklung der Psychologie gab es Schwankungen in der Betonung dieser Bereiche.“

[Enzyklopädie: Psychologie. DB Sonderband: Wikipedia 2005/2006, S. 654198]

5.2 kurzer geschichtlicher Überblick

Die Psychologie ist eine relativ junge Wissenschaft. In ihr kam es oft zu Paradigmenwechseln und es wurden oft neue Schulen gegründet. Die Psychologie entwickelte sich aus der Philosophie und die ersten „Psychologen“ waren Philosophen. Am Ende des 19. und dem beginnenden 20. Jahrhundert gab es zwei Richtungen in der Psychologie. Eine war geisteswissenschaftlich und die andere eher naturwissenschaftlich orientiert. Durch Wilhelm Wundt wurde das Experiment zur Erkenntnisfindung in die Psychologie eingeführt, mit der Untersuchungsmethode der Introspektion (Reflexion des Geistes über sich selbst). Man sprach von Bewusstseinspsychologie. In den ersten zwei Jahrzehnten des 20. Jahrhunderts bildete sich in den USA der Behaviorismus heraus.

Der Begründer war John B. Watson von der Johns Hopkins Universität aus Chicago. Er erklärte, dass der Behaviorist die Psychologie als einen vollkommen objektiven, experimentellen Zweig der Naturwissenschaft sieht. Das theoretische Ziel besteht aus der Vorhersage und Kontrolle von Verhalten. Die Methode der Introspektion spielt keine Rolle. Watson und Lashley, Mary Cover Jones, Holt, Hunter und Weiss veränderten durch ihre Arbeiten die ganze Psychologie. Die Psychologie als Wissenschaft vom Verhalten wurde neu definiert.

Pawlow führte Tierexperimente durch und prägte damit die klassische Konditionierung.

In Deutschland spielt der Behaviorismus anfangs keine Rolle, da die ganzheitliche orientierte psychologische Strömung der Gestaltpsychologie großen Einfluss hat. Zu den Vertretern zählen Köhler, Wertheimer, Lewin und Bühler. Die Entwicklung wurde durch den Nationalsozialismus behindert, da viele Vertreter in die USA emigrierten.

Die Begeisterung für den Behaviorismus legte sich Anfang der 30-iger Jahre. Eine neue Blütezeit erlebt der Behaviorismus durch die Arbeiten von Clark L. Hull (Yale University) und Burrhus F. Skinner (später Harvard University). Durch die desolate Nachkriegssituation hat sich der Behaviorismus in den 50-iger Jahren auch im westlich geprägten Europa verbreitet.

In den 50-iger Jahren vollzog sich eine Veränderung. Es entwickelte sich das Paradigma des Kognitivismus. Verantwortlich dafür waren die Arbeiten von Shannon über Informationstheorie, Wiener über Kybernetik und Neumann, Simon, Newell über Datenverarbeitung. Durch die technische Revolution des Digitalcomputers wurde neu über geistige Prozesse, wie Wissen, Denken, Erkennen und Wahrnehmung, nachgedacht. Diese Periode wird auch als kognitive Wende bezeichnet. Der Digitalcomputer bot die Möglichkeiten, die der alten Bewusstseinspsychologie verwehrt geblieben waren. Mit dem Computer wurden Simulationen kognitiver Prozesse realisierbar. Die Methodik der Behavioristen wurde zwar beibehalten, aber das Bewusstsein wurde nun auch wieder Gegenstand der Untersuchungen und die Psychologie somit redefiniert. Der Kognitivismus ist zum dominierenden Paradigma aufgestiegen. Dies vollzog sich in den USA seit den 60er, in Deutschland seit den 70er Jahren.

In den letzten zehn Jahren kam ein weiterer Denkansatz hinzu, welcher auf dem Konstruktivismus von Foerster, von Glasersfeld, Maturana und Varela aufbaut. Er ist ganzheitlich orientiert und hat seine Wurzeln u. a. auch in der Gestaltpsychologie. Dabei werden nach konstruktivistischen Vorstellungen Wissensinhalte im aktiven Austausch mit der Umwelt und der sozialen Gruppe konstruiert. Wissen ist somit weniger eine Repräsentation objektiver Gegebenheiten wie im Kognitivismus, sondern eher eine aktive und interaktive Konstruktion. Sie stellt somit subjektive Inhalte dar und kann mit den Kriterien der Viabilität bewertet werden, d. h. ob der jenige, der dieses subjektive Wissen konstruiert hat, sich damit in seiner Umwelt erfolgreich zurecht findet. In der Pädagogischen Psychologie hat der Konstruktivismus einen großen Einfluss. Weitere Einflüsse findet man in der Psychotherapie (systemische Therapie) und in der Arbeits- und Organisationspsychologie (z.B. Theorien des Geführtwerdens).

Neben dem Konstruktivismus nimmt in den letzten zehn Jahren die Bedeutung der Evolutionspsychologie immer mehr zu. Es entsteht ein neues Paradigma. Es ist auf Fortschritte in der Biologie, Verhaltensbiologie (Ethologie [Lorenz, Tinbergen, Eibl-Eibesfeldt] und Soziobiologie [Wilson, Krebs, Davies, Maynard Smith, Voland]) zurück zu führen.

Bis auf die alte Bewusstseinspsychologie existieren heute alle Paradigmen nebeneinander. Man sieht das Einflüsse aus verschiedenen Nachbardisziplinen (u. a. Philosophie, Biologie, Physiologie, Computerwissenschaft) eine große Rolle spielen. Da die soziale Interaktion des Menschen mit seiner Umwelt zu dessen Verhalten gehört und dies in den einzelnen Strömungen auch untersucht wird, ist die Psychologie auch eine Sozialwissenschaft (Sozialpsychologie), In der Psychologie wird selbstverständlich auch abnormes Verhalten studiert, wobei medizinische (psychiatrische, psychopathologische) und psychotherapeutische (tiefenpsychologische, humanistische) Einflüsse in die Psychologie hineinkommen.

Diese Einflüsse strahlen auf Teildisziplinen, z. B. tiefenpsychologische Einflüsse auf die Persönlichkeitspsychologie, humanistische Einflüsse auf die Arbeits- und Organisationspsychologie, aus.

5.2.1 Quellenangaben

http://www.verhaltenswissenschaft.de/Psychologie/Geschichte_der_Psychologie/geschichte_der_psychologie.htm

5.3 Kognitivismus / Kognitionspsychologie

5.3.1 Kognition

Maturana beschreibt Kognition mit den Worten „to live is to know“. Auf Deutsch kann man es als Lebensbewältigung oder überlebensverträgliches Handeln beschreiben.

Kognition beschreibt die Gesamtheit der Prozesse, die mit der Aufnahme von Information, ihrer Verarbeitung und Speicherung im Gedächtnis sowie ihrer Nutzung und Anwendung verbunden ist.

5.3.1.1 Quellenangaben

http://www.persoenliches-wissensmanagement.com/content/definition-kognition

http://server02.is.uni-sb.de/trex/index.php?id=1.4.1.

http://images.google.de/imgres?imgurl=http://www.constructivistpsych.org/images/photo_Maturana_may_2001.jpg&imgrefurl=http://www.constructivistpsych.org/archives.htm&usg=__d0WSk-YsuqALWAyPVV3mSjH3kOI=&h=399&w=436&sz=27&hl=de&start=1&um=1&tbnid=ye1PI_kzVR8r4M:&tbnh=115&tbnw=126&prev=/images%3Fq%3DMaturana%26hl%3Dde%26sa%3DN%26um%3D1

( Bild Maturana

5.3.2 Überblick über das Forschungsgebiet

Das Gebiet der Kognitionspsychologie beschäftigt sich mit den Strukturen des Gehirns und der Informationsverarbeitung, d. h. mit der Reizaufnahme und dem anschließenden Verhalten und Erleben.

Die Kognition wird als Gegenbegriff zur Emotion gesehen. Zu ihr gehören:

· menschliche Wahrnehmung

· Informationsverarbeitung

· Geist

· Denken

· Emotion und Handeln

· Intelligenz

· Sprache

· Kreativität

· Verstehen

· Urteilen

· Bewerten

· Vorstellungen

· Lernen

· Gedächtnis

Die Kognitionswissenschaften sind zumeist interdisziplinär. Zum Verständnis kognitionspsychologischer Zusammenhänge ist ein umfangreiches Wissen über die Neurologie erforderlich. Die Neurologie untersucht die biologischen Kommunikationsprinzipien des Zentralen Nervensystems (ZNS). In den 50-iger Jahren des 20. Jahrhunderts entwickelte sich die Kognitionspsychologie aus dem Fachgebiet der allgemeinen Psychologie. Stark beeinflusst wurde sie dabei durch die Informationstheorie. Diese Theorie geht auf Claude Shannon zurück. Sie befasst sich mit Begriffen wie Information, Entropie, Informationsübertragung, Datenkompression, Kodierung und ähnlichen Themen. Häufig werden Kognitionspsychologie und Kognitionswissenschaft verwechselt. Erstere ist zwar ein Teil dieser Wissenschaft, aber mittlerweile ein eigenständiges Forschungsgebiet der Psychologie.

Die kognitive Psychologie bezieht Lösungen und Ergebnisse anderer Wissenschaften in ihre Forschung mit ein. Dazu zählen unter anderem die Informatik/KI sowie der Neurowissenschaften (Neuropsychologie, Neuroanatomie, Neurobiologie und die Neurophysiologie). Es wird an einer zunehmend integrativen Theoriebildung der Funktionsweise des menschlichen Geistes gearbeitet. Dabei werden auch Anomalien wie Hochbegabung und klinische Störungsbilder und Alterseffekte mit einbezogen.

5.3.2.1 Quellenangaben

http://de.wikipedia.org/wiki/Kognitionspsychologie

http://de.wikipedia.org/wiki/Informationstheorie

http://www.lexikon-psychologie.de/Kognitionspsychologie/

https://www.psychologie.hu-berlin.de/prof/kog

5.3.3 Kognitivismus

Ich habe bei meinen Recherchen über Kognitionspsychologie nach den drei Begriffen „kognitive Psychologie“, „Kognitionspsychologie“ und „Kognitivismus“ gesucht. Leider hat keine Internetseite alle drei Begriffe miteinander vereint und da alles ein und dasselbe ist, werde ich in diesem Kapitel das voran gegangene nur ergänzen, da ich noch Vervollständigungsbedarf sehe.

Kognition ist vom lateinischen Wort „cognito“ abgeleitet. Übersetzt bedeutet es soviel wie Erkenntnis, Erkennen bzw. die Erkenntnis betreffend. Mit kognitiven Prozessen sind Wahrnehmung, Urteilen, Aufmerksamkeit, Verstehen, Problemlösen, Erkennen, Schließen und Lernen gemeint. Im Kognitivismus wird ein Individuum als informationsverarbeitendes Wesen angesehen.

„Während behavioristische Lerntheorien schwerpunktmäßig die äußeren Bedingungen des Lernens (Auslösung von Reaktionen durch Reize bzw. Belohnung oder Bestrafung des Verhaltens durch nachfolgende Konsequenzen) beschreiben, rückt bei den kognitiven Lerntheorien die innere Repräsentation der Umwelt in dem Mittelpunkt des Interesses.“

Edelmann (1996, 8)

Im Kognitivismus ist man bestrebt, die Blackbox des Behaviorismus offen zu legen. In die Forschung werden innerseelische Prozesse einbezogen, wie Wünsche, Ideen, Glaubensvorstellungen, fühlen, usw.

Das Datenverarbeitungsprinzip „EVA“ (Eingabe, Verarbeitung und Ausgabe) aus der EDV trifft laut Lehre des Kognitivismus auch auf den Menschen zu. Der Forschungsgegenstand des Kognitivismus ist somit die Informationsverarbeitung.

Es werden vor allem die psychischen Phänomene untersucht, die mit dem Erkenntnisprozess zusammen hängen, Lernen, Denken, Wahrnehmung, Sprache. Der Erkenntnisprozess wird als konstruktive Auseinandersetzung mit der Umwelt und der Interpretation dieser gesehen. Das Verhalten des Menschen ist von Verstehen und Einsicht geleitet. Für kognitive Leistungen werden neuronale Netze verwendet.

Zitate:

„Kognitivismus befasst sich primär mit der Erklärung jener höheren geistigen Prozesse, die nicht einfach durch ein S-R-Paradigma zu erklären

sind. Kognitive Psychologen haben sich primär für Gebiete der Wahrnehmung, Informationsverarbeitung, Entscheidungsprozesse und Wissen

interessiert.“

Lefrancois (1994, 120)

„Im kognitiven Modell wird angenommen, dass es die Prozesse der Informationsverarbeitung sind, die festlegen, wie ein Individuum sich verhalten wird.“

Zimbardo (1992, 9)

„Kognitionspsychologie ist die Wissenschaft, die sich mit der menschlichen Informationsverarbeitung befasst. Ihr Gegenstand, oft als Kognition

bezeichnet, betrifft die Arten von Informationen, die wir in unserem Gedächtnis haben, und die Vorgänge, die sich auf die Aufnahme, das

Behalten und Verwenden solcher Informationen beziehen.“

Wessels (1998, 14)

Vertreter:

- Jean Piaget (1896 – 1980)

- Robert M. Gagné (1887 – 1967)

(kein Bild gefunden

- David Ausubel (geb. 1918)- Jerome S. Bruner (geb. 1915)

5.3.3.1 Quellenangaben

http://www.edit.uni-essen.de/lp/kognitiv/kognitiv.htm

http://de.wikipedia.org/wiki/Kognitivismus

http://arbeitsblaetter.stangl-taller.at/LERNEN/LerntheorienKognitive.shtml

http://projekte.vhs.at/lerntheorie/kognitivismus

http://dsor-fs.upb.de/~blumstengel/Kognitivismus.html

( Bonusmaterial

5.4 Behaviorismus

Behaviorismus ist vom englischen behavior = Verhalten abgeleitet. Der Behaviorismus versteht sich als Verhaltenswissenschaft. Den Startschuss des Behaviorismus gab John B. Watson 1913 mit seinem Werk „Psychology as the Behaviorist views it“. Er zerlegte alles in Reiz und Reaktion (englisch: stimulus–response).

Ein zweiter Wegbereiter des Behaviorismus war Edward Lee Thorndike mit seinem Gesetz der Wirkung: Bestrafung und Belohnung. Das Gesetz besagt, dass Verhalten, welches belohnt wird, Tendenz zur Wiederholung zeigt und welches bestraft wird, eliminiert wird. Er machte Experimente mit Katzen, die er in Labyrinthe einsperrte und stellte fest, dass sie erst nach Versuch und Irrtum vorging. Danach wurde die Katze immer schneller, um ihren Irrgarten zu entkommen, wenn sie Futter bekam. Er schlussfolgerte, dass die Katze das Fressen mit dem richtigen Verhalten verband. Das Tier verliert ihr Verhalten, wenn sie bestraft wird. Die klassischen Behavioristen betrachten den Organismus als „Blackbox“. Sie konzentrieren sich nur auf die Prozesse, die zwischen Körper und Umwelt ablaufen. Dabei sind die physiologischen Vorgänge uninteressant. Der Behaviorismus war vor allem in den USA weit verbreitet und erlebte seine Blütezeit nach dem zweiten Weltkrieg bis hinein in die 60-iger Jahre. Er wird wissenschaftstheoretisch grob in zwei Gruppen unterteilt:

· Methodologischer Behaviorismus

· Radikaler Behaviorismus.

Er lässt sich in drei Zeitabschnitte gliedern:

· 1913 - 1930 Klassischer Behaviorismus

· 1930 - 1950 Neobehaviorismus

· ab 1950 Radikaler Behaviorismus.

5.4.1 Quellenangaben

http://de.wikipedia.org/wiki/Behaviourismus

http://www.verhaltenswissenschaft.de/index.htm

http://ki.informatik.uni-wuerzburg.de/forschung/publikationen/studienarbeiten/faulhaber/kap2-2-2-3-1.html

http://www.uni-konstanz.de/ag-moral/lernen/01_lernen/lerntheorien_Behaviourismus.htm

( Bonusmaterial

5.4.2 Methodologische Behaviorismus

Der Methodologische Behaviorismus kennt zwei Typen von Ereignissen:

· öffentliche, beobachtbare Ereignisse,

· private, unbeobachtbare Ereignisse.

Bei Untersuchungen geht man nach folgendem Schema vor:

· Es existiert eine Theorie mit theoretischen Konzepten. Diese soll das Verhalten unter bestimmten Bedingungen vorher sagen.

· Die Theorie soll durch ein Experiment überprüft werden.

· Nach dem Experiment werden di Daten ausgewertet. Bei Fehlern wird der Versuchsaufbau und die Theorie überprüft und ggf. geändert. Bei einem positiven Ergebnis gilt die Theorie als bestätigt.

Diese Forschungsmethodik wird heute noch verwendet.

5.4.2.1 Quellenangaben

http://www.verhaltenswissenschaft.de/Psychologie/Behaviourismus/Methodologischer_Behaviourismus/methodologischer_Behaviourismus.htm

5.4.3 Klassischer Behaviorismus

Der Klassische Behaviorismus kann zeitlich genau eingegrenzt werden, da 1913 das behavioristische Manifest von John B. Watson, der den Behaviorismus prägte, erschien und 1930 seine zweite Auflage des Buches „Behaviorismus“.

Die Grundpositionen des Klassischen Behaviorismus sind:

· Psychologie sollte sich mit von außen beobachtbaren Verhalten beschäftigen (motorische Reaktionen und was Menschen sagen)

· Verhalten besteht aus Reflexen

· Reize sind Objekte außerhalb des Körpers und Veränderungen im Körper

· Jeder Reaktion kann man einen Reiz zuordnen, der sie auslöst

· Reize und Reaktionen werden über Pawlowsches Konditionieren assoziiert.

· Gefühle und Gedanken sind nicht von außen beobachtbar und daher nicht Gegenstand wissenschaftlicher Psychologie

Vertreter des Klassischen Behaviorismus:

· John B. Watson (1878-1958)

· Edward R. Guthrie (1886-1959)

· E. Holt (1873-1946)

· W. Hunter (1889-1954)

· Mary C. Jones (1896-1987)

· Karl Lashley (1890-1958)

· M. Meyer (1873-1967)

· Weiss (1879-1931)

5.4.3.1 Quellenangaben

http://www..de/Psychologie/Behaviourismus/Methodologischer_Behaviourismus/Klassischer_Behaviourismus/klassischer_Behaviourismus.htm

5.4.4 Neobehaviorismus

Ende der 20-iger und Anfang der 30-iger Jahre verlor der Klassische Behaviorismus an Bedeutung, da seine Antworten auf Forschungsfragen zu simpel waren. Clark L. Hull von der Yale-Universität entwickelte einen Behaviorismus in welchem hypothetische Konstrukte die Lücken in der Erklärung des Verhaltens schließen sollten, die der Klassische Behaviorismus offen ließ. Für Hull war Verhalten eine passive Abfolge von Reiz-Reaktions-Verbindungen. Seine Theorie wird als S-R-Theorie (S: stimulus, R: response) bezeichnet. Sie wird auch systematische Verhaltenstheorie genannt, da sie eine in der Psychologie einmalige Systematik aufweist.

Edward C. Tolman entwickelte einen weiteren neobehavioristischen Ansatz. Für ihn war Verhalten nicht einfach nur eine Abfolge von Reiz-Reaktions-Verbindungen, die ein Lebewesen passiv über Verstärker gelernt hatte, sondern auf eine zielgerichtete Funktion organismusinterner Faktoren wie Bedürfnissen, Überzeugungen, Werten und Wahrnehmungsbereitschaften. Räumliche Reiz-Reiz-Verbindungen sah er als in kognitiven Landkarten zusammen gefasst an. Für Tolman waren Reiz-Reiz-Verbindungen ein wichtiger Ansatz, daher spricht man auch von der S-S-Theorie.

Da Tolmans Konzept den kognitiven Theorien nahe steht, nennt man es auch „Kognitiver Behaviorismus“.

5.4.4.1 Quellenangaben

http://www.verhaltenswissenschaft.de/Psychologie/Behaviourismus/Methodologischer_Behaviourismus/NeoBehaviourismus/neoBehaviourismus.htm

5.4.5 Radikaler Behaviorismus

„Die Gewohnheit, in das Innere eines Lebewesens zu blicken, um Verhalten zu erklären, führte dazu, die Variablen zu verdecken, die unmittelbar für eine wissenschaftliche Analyse zur Verfügung stehen. Diese Variablen liegen außerhalb des Organismus in seiner unmittelbaren Umwelt und in seiner Geschichte. Sie haben einen physikalischen Status, auf den die gewöhnlichen wissenschaftlichen Methoden angewendet werden können, und sie machen es möglich, Verhalten so zu erklären, wie andere Forschungsgegenstände in der Wissenschaft erklärt werden. Diese unabhängigen Variablen (Ursachen) sind sehr unterschiedlich und ihre Beziehungen zum Verhalten sind oft subtil und komplex, aber wir können nicht hoffen, einen angemessen Erklärungsansatz des Verhalten zu geben, ohne sie zu analysieren.“

B. F. Skinner (1953). Science and Human Behaviour, S. 31

Skinner ist der Begründer des Radikalen Behaviorismus. Nach ihm ist der Behaviorismus die Philosophie einer bestimmten Verhaltenswissenschaft, der experimentellen Verhaltensanalyse. (Experimental Analysis of Behavior). Skinner plädiert für eine Erforschung des Verhaltens “in its own right” und lehnt die Einflüsse anderer Wissenschaften wie der Physiologie ab, da sie seiner Meinung nach auf einer anderen Ebene sind und in einer Verhaltenswissenschaft nichts zu suchen haben. Die Unterscheidung in beobachtbare (öffentliche) und unbeobachtbare (private) Ereignisse wie im Methodologischen Behaviorismus wird zwar ebenfalls vorgenommen, doch wird ein Ausschluss unbeobachtbarer Ereignisse oder die Verwendung theoretischer Konzepte zur Erklärung beobachtbarer Ereignisse abgelehnt.

Für Radikalbehavioristen ist Verhalten von äußeren Variablen abhängig und es muss alles auf sie zurückgeführt werden. Alles was Organismen tun, also auch sprechen, denken, fühlen, sehen, usw., wird als Verhalten bezeichnet. Nach Skinner sind dies verdeckte (covert) Verhaltensweisen, im Gegensatz zu offen (overt). Es handelt sich um einen umfassenden Behaviorismus, der alles was Organismen tun, als Verhalten versteht und daher nichts als durch ihn nicht erklärbar ausschließt. Man nimmt an, dass zwischen offenen und verdeckten Verhaltensweisen ein kontinuierlicher Übergang besteht. Einige verdeckte unbeobachtbare Verhaltensweisen werden nicht als mental gewertet. Es wird angenommen, dass verdeckte Verhaltensweisen von den gleichen Umweltvariablen abhängen wie offene.

Für Radikalbehavioristen wird Verhalten durch Operante Konditionierung geformt und hängt von Verstärkern ab. Angeborene und klassisch konditionierte Verhaltensweisen werden nicht geleugnet. Ein Verstärker ist ein Reiz der auf eine Reaktion folgt und die Auftretenswahrscheinlichkeit der Klasse von Reaktionen, zu denen die vorangegangene Reaktion gehört, verändert. Die Klassifikation von Reizen und Reaktionen wird durch die Beziehung zwischen ihnen bestimmt. Sie ist deshalb funktional und nicht strukturell oder topographisch, d.h. dass nicht die physikalischen Eigenschaften die Grundlage der Klassifikation bilden. Der radikale Behaviorist bezieht auch evolutionsbiologische Überlegungen, v.a. auf das Konzept der Adaptation ein.

Das Verhalten wird durch drei Punkte selektiert:

· die natürliche Selektion

· den Prozess der Operanten Konditionierung

· die kulturelle und soziale Umwelt.

Die ethische Position des Radikalen Behaviorismus ist pragmatisch und auf Effizienz ausgerichtet. Der Pragmatismus bedeutet, dass Wahrheit und Werte durch die Interaktion mit der Umwelt konstruiert werden. Man kann daraus nicht schließen, dass das ziel Unterdrückung und Ausbeutung ist, da Lebewesen gegen solche aufbegehren.

Vertreter des Radikalen Behaviorismus:

1. Generation

· Burrhus F. Skinner (1904 - 1990)

· Fred S. Keller

2. Generation

· Nate Azrin

· William K. Estes

· Charles Catania

· Charles B. Ferster (1922-1981)

· Richard J. Herrnstein (1930-1994)

· William H. Morse

· George S. Reynolds

3. Generation

· William M. Baum

· Edmund Fantino

· Gene M. Heyman

· Philipp Hineline

· Peter R. Killeen

· James E. Mazur

· Frank McSweeney

· Albert Neuringer

· Howard C. Rachlin (“Teleologischer Behaviorismus”)

· John E. R. Staddon (“Theoretischer Behaviorismus”)

· William Vaughan

· Peter de Villiers

· Ben A. Williams, G. Zuriff

5.4.5.1 Quellenangaben

http://www.verhaltenswissenschaft.de/Psychologie/Behaviourismus/Radikaler_Behaviourismus/radikaler_Behaviourismus.htm

6. Maschinelles Lernen (ML)

Zuerst stellt sich natürlich die Frage: „Was ist Lernen?“. Hierfür gibt es mehrere Erklärungsansätze und Definitionen.

„Lernen ist jede Veränderung eines Systems, die es ihm erlaubt, beim nächsten Mal dieselbe Aufgabe oder eine Aufgabe derselben Art effizienter oder effektiver (besser) zu lösen.“ (Herbert Simon, 1983)

„Lernen ist ein Prozess, bei dem ein System eine abrufbare Repräsentation von vergangenen Interaktionen mit seiner Umwelt aufbaut oder Lernen ist die Organisation der Erfahrung...“ (Scott, 1983)

„Lernen ist das Konstruieren oder Verändern von Repräsentationen von Erfahrungen.“ (Ryszard Michalski, 1986)

Alle diese Versuche „Lernen“ zu definieren sind nicht umfassend und man findet Kritikpunkte an ihnen, auf die ich nicht näher eingehen will.

Mitte der 50-iger Jahre begann man die ersten Systeme zu entwickeln. Das schlug leider in den meisten Fällen fehl. Erst Mitte der 70-iger Jahre mit dem Nötigwerden von Expertensystemen stieg die Motivation sich mit dem ML tief greifend zu beschäftigen. Es entstanden viele funktionierende Systeme. Das ML wurde zum Modethema. Von 1986 bis heute gab es zahlreiche Entwicklungen wie neuronale Netze, die Kombination verschiedener Verfahren, die Komplexität stieg enorm an, Robotik, usw.

Beim ML wird Wissen künstlich generiert. Ein System lernt an Hand von Beispielen und kann nach Beendigung der Lernphase verallgemeinern, d. h. es prägt sich nicht nur die Beispiele ein und gibt sie stupide aus, sondern es erkennt Gesetzmäßigkeiten in den Daten und kann auf diese Weise auch unbekannte Daten beurteilen.

Das Lernen anhand von Beispielen nennt man Induktion. Dieses Verfahren steht beim ML im Vordergrund.

Einige Anwendungsbereiche sind:

· automatisierte Diagnoseverfahren

· Erkennung von Kreditkartenbetrug

· Aktienmarktanalysen

· Klassifikation von DNA-Sequenzen

· Spiele

· Robotik

· Expertensysteme

· Sprach- und Schrifterkennung und

· autonome Systeme.

Die Art und Mächtigkeit der Wissensrepräsentation spielt eine wichtige Rolle. Man unterscheidet symbolische und subsymbolische Systeme. Bei den symbolischen Systemen sind Beispiele und induzierte Regeln explizit repräsentiert. Bei den subsymbolischen ist das Wissen implizit repräsentiert und erlaubt keinen Einblick in die Lösungswege. Ein Beispiel für subsymbolische Systeme sind neuronale Netze.

Die praktische Umsetzung geschieht durch Algorithmen.

Eine grobe Übersicht über verwendete Algorithmen:

· Überwachtes Lernen (engl. supervised learning): der Algorithmus lernt eine Funktion aus gegebenen Paaren von Ein- und Ausgaben. Dabei stellt während des Lernens ein „Lehrer“ den korrekten Funktionswert zu einer Eingabe bereit. Ein Teilgebiet des überwachten Lernens ist die automatische Klassifizierung. Anwendungsbeispiel: Handschrifterkennung.

· Unüberwachtes Lernen (engl. unsupervised learning): der Algorithmus erzeugt für eine gegebene Menge von Eingaben ein Modell, das die Eingaben beschreibt und Vorhersagen ermöglicht. Dabei gibt es Clustering-Verfahren, die die Daten in mehrere Kategorien einteilen, die sich durch charakteristische Muster voneinander unterscheiden. Ein wichtiger Algorithmus in diesem Zusammenhang ist der EM-Algorithmus, der iterativ die Parameter eines Modells so festlegt, dass es die gesehenen Daten optimal erklärt. Er legt dabei das Vorhandensein nicht beobachtbarer Kategorien zugrunde und schätzt abwechselnd die Zugehörigkeit der Daten zu einer der Kategorien und die Parameter, die die Kategorien ausmachen. Eine Anwendung des EM-Algorithmus findet sich beispielsweise in den Hidden Markov Models (HMMs). Andere Methoden des unüberwachten Lernens, z. B. Hauptkomponentenanalyse verzichten auf die Kategorisierung. Sie zielen darauf ab, die beobachteten Daten in eine einfachere Repräsentation zu übersetzen, die sie trotz drastisch reduzierter Information möglichst genau wiedergibt.

· Bestärkendes Lernen: der Algorithmus lernt durch Belohnung und Bestrafung eine Taktik, wie in potenziell auftretenden Situationen zu handeln ist, um den Nutzen des Agenten (d. h. des Systems, zu dem die Lernkomponente gehört) zu maximieren.

Beispiele von Software:

· GNU R ist eine auf vielen Plattformen verfügbare, freie Statistik-Software mit Erweiterungen zum maschinellen Lernen (z. B. rpart, randomForest) und Data-Mining.

· RapidMiner (früher YALE) ist ein einfach zu bedienendes und frei erhältliches Tool für maschinelles Lernen und Data-Mining.

· Shogun ist eine Open-Source-Toolbox für Kernel-Methoden.

Wichtige Persönlichkeiten auf diesem Gebiet sind Tom M. Mitchell, Ivan Bratko und Donald Michie.

6.1 Quellenangaben

http://de.wikipedia.org/wiki/Maschinelles_Lernen

http://www-user.tu-chemnitz.de/~stj/lehre/masch.pdf

 

http://209.85.129.132/search?q=cache:jc1nZR-xl9oJ:www.informatik.uni-konstanz.de/fileadmin/Redakteur_Dateien/Studieren_Angebot/master_profil_schema.pdf+maschinelles+lernen+entwickler&cd=1&hl=de&ct=clnk&gl=de

( Bonusmaterial

http://www.kbs.uni-hannover.de/~schneide/lernen.html

( Bonusmaterial

http://ml.cs.tu-berlin.de/de/index.html

( TU Berlin – Bonusmaterial

http://www.itwm.fraunhofer.de/de/as__asprojects__lip/lip/

( Frauenhofer Institut – Bonusmaterial

http://idw-online.de/pages/de/news1462

( TU Chemnitz – 10. europäische Tagung im Maschinellen Lernen

http://www.scinexx.de/wissen-aktuell-10009-2009-06-05.html

( Flipperautomat über Gedanken steuern – Bonusmaterial

http://www.inf.ethz.ch/news/focus/edu_focus/buhmann/index_DE

( Interview mit Prof. Joachim Buhmann – Bonusmaterial

http://vasarely.wiwi.hu-berlin.de/Home/lehre/ki-ha.html

( Buchtipps

7. Wissensbasierte Systeme (WBS)

Wir sollten zuerst auf den Begriff „Wissen“ eingehen. Es gibt verschiedene Definitionen.

„Wissen, Ergebnis eines Erkenntnisprozesses, in dem subjektive und objektive Fakten und Schlussfolgerungen zu Überzeugungen über Ereignisse, Gegenstände und Beziehungen zwischen Gegenständen verarbeitet werden.“

(Faktum Lexikoninstitut, Hrsg., Lexikon der Psychologie, Gütersloh/München 1995, S.524)

„Wissen bezeichnet eine bedeutungsvolle Vernetzung von Informationen.“

( Prof. Peter Reimann, Katja Müller, Phillip Starkloff Kognitiv kompatibel? Wissensmanagement: Brückenschlag zwischen Technik und Psyche, ct 4/2000, S.275)

„Wissen bezeichnet das Netz aus Kenntnissen, Fähigkeiten und Fertigkeiten, die jemand zum Lösen einer Aufgabe einsetzt.“

(Dieter Herbst, Erfolgsfaktor Wissensmanagement, Cornelsen Verlag, Berlin 2000, S.9)

Wissen ist mehr als die Ansammlung von Daten oder Informationen. Erst durch die individuelle Interpretation und Verwendung wird aus den Daten und Informationen Wissen. Wissen entsteht durch die Kombination vorhandenen Wissens und die Vernetzung von Entscheidungen. Der Wert des Wissens besteht in dessen Zweck orientierten Einsatz.

Ein WBS ist ein intelligentes Informationssystem. Wie soll mit dem Wissen im WBS verfahren werden?

Das Wissen soll repräsentiert werden und zwar mit den folgenden Methoden:

· Bereitstellung von Formalismen zur symbolischen Darstellung von Wissen.

· Bereitstellung von Inferenzmechanismen zur automatischen Ableitung von Wissen.

Wie funktioniert die Domänenmodellierung?

· Auswahl eines geeigneten Repräsentationsformalismus.

· Adäquate Beschreibung der Domäne in diesem Formalismus.

· Bestimmung der Domäne Akquisition des Domänenwissens

Es gibt verschiedene Darstellungsformen:

· Deklarative Darstellung:

-Logische Formeln

-Semantische Netze

-Objektorientierte Darstellungen

· Prozedurale Darstellung:

-Programme

-Produktionsregeln

WBS ist der Oberbegriff für Expertensysteme. Er wird aber auch für alle anderen auf Wissen basierenden Systeme gebraucht.

Man zählt dazu:

· Regelbasierte Systeme

· Expertensysteme

· Software-Agenten

WBS sind vorteilhaft, da man eine große Menge von Wissen in diese Systeme einarbeiten kann und durch das System schnelle kompetente Antworten auf ein bestehendes Problem erhält. Die Vorteile solcher Systeme sind weiterhin, dass das Wissen in einzelne überschaubare Wissenseinheiten gegliedert und somit bei neuen Erkenntnissen schnell zu aktualisieren oder bei Fehlern zu korrigieren ist.

Ein WBS hat mehrere Kernkomponenten. Als Erstes wäre dazu nennen, die Wissensbasis. Das Wissen umfasst Fakten und Regeln und ist deklarativ abgelegt. Die zweite Komponente ist die Inferenzkomponente. In ihr wird das Wissen verarbeitet und neue Fakten und Regeln abgeleitet. Die Letzte ist die Benutzerschnittstelle (User Interface) – Schnittstelle). Sie dient der Kommunikation mit dem Nutzer.

Damit aber nun aus unserem WBS ein Expertensystem wird, werden noch zwei weitere Komponenten benötigt, die Wissenserwerbskomponente, die automatisch oder manuell funktioniert und die Erklärungskomponente, die dem User die Lösungsfindung aufzeigt.

Aufbau eines Expertensystems (Gottlob 1990):

Eine grafische Darstellung eines WBS:

Einsatzgebiete für WBS sind:

· Dateninterpretation

· Überwachung

· Diagnose

· Therapie

· Planung

· Entwurf und

· Prognose.

7.1 Quellenangaben

Wissen

http://de.wikipedia.org/wiki/Wissen

http://www.genia-berlin.de/sites/wiss_transfer/wt_einf_wissen.htm

WBS

http://de.wikipedia.org/wiki/Wissensbasiertes_System

http://209.85.129.132/search?q=cache:KjaYZdVhSpUJ:www.informatik.uni-ulm.de/ki/Edu/Vorlesungen/GdKI/WS0304/skript/11-Wissensbasierte-Systeme.pdf+11-Wissensbasierte-Systeme.pdf&cd=1&hl=de&ct=clnk&gl=de

PDF Datei ( liest mein Screen Reader nicht und ist Passwort geschützt, kann sie somit nicht ins Word importieren

( Ordner ( WBS ( medinfgrund_09.pdf ( Bonusmaterial

7.2 Expertensysteme (XPS)

Definition:

„ Expertensysteme sind Programme, mit denen das Spezialwissen und die Schlussfolgerungsfähigkeit qualifizierter Fachleute auf eng begrenzten Aufgabengebieten nachgebildet werden soll.“ (Puppe 1991)

Ein XPS ist ein Softwaresystem, dass Expertenwissen zu einem bestimmten Gebiet enthält und bei der Lösung oder Beurteilung einer Problemstellung hilft. XPS unterstützen den Menschen beispielsweise in der Medizin bei Diagnosestellungen oder der Auswertung wissenschaftlicher Daten. Die ersten Arbeiten an XPS gehen in die 60-iger Jahre des vorigen Jahrhunderts zurück. Seit den 80-iger Jahren werden sie auch kommerziell genutzt.

Als die Versuche fehl schlugen so genannte General Problem Solver zu entwickeln, d. h. Systeme zu realisieren, die zu jeder Aufgabenstellung eine Antwort geben konnten, kamen die Expertensysteme auf, die nur das Wissen eines speziellen Wissensgebietes enthielten. Die Güte eines XPS bestimmt man damit, wie fehlerfrei es arbeitet und in welchem Umfang es Schlussfolgerungen ziehen kann.

Es gibt unterschiedliche Zielsetzungen ein XPS zu entwickeln (Gottlob 1990):

· die Bereitstellung neuer Serviceleistungen, besonders im Dienstleistungsbereich;

· die Entwicklung eines neuen Produktes, entweder als eigenständiges Softwaresystem oder durch Integration eines Expertensystems in ein Analyse- oder Diagnosegerät;

· die Verbesserung von Qualität, Sicherheit, Produktivität und Arbeitsbedingungen - Hauptziele im Rahmen der industriellen Produktion; und

· die Verringerung von Fehleranzahl, Ausschuss und Ressourcenbedarf, d.h. der Versuch, den Produktionsprozess besser in den Griff zu bekommen.

Die Entwicklung kann aus produktbezogener oder Expertensicht erfolgen.

Aus der Sicht des Experten gibt es folgende Gründe (Gottlob 1990):

· Der Experte ist mit Aufgaben überlastet, die für ihn Routine sind. Diese Routineaufgaben sollten ihm von einem Expertensystem abgenommen werden, damit er sich den schwierigen Problemen widmen kann;

· Der Experte kann nicht vor Ort sein, etwa bei mangelndem Servicepersonal, oder bei Weltraum- und militärischen Projekten.

· Es gibt nur einen Experten, der in der Zentrale sitzt. Man möchte jedoch sein Wissen auch in den Filialen verfügbar machen.

· Die Anzahl und/oder die Komplexität der Probleme hat so zugenommen, dass der Experte überfordert ist.

· Der Experte geht bald in Pension oder wechselt die Firma, man möchte aber sein Wissen nicht mit seinem Ausscheiden verlieren.

Aus der Sicht des zu entwickelnden Produktes (Gottlob 1990):

· Um die Qualität eines Produktes zu erhöhen, liefert man das zugehörige Expertenwissen mit.

· Die Problemstellung hat eine Komplexität, die intelligente Unterstützung bei der Problemlösung erfordert.

· Die Sicherheit in kritischen Situationen wird erhöht.

· es werden Leistungen an bisher nicht erreichten Orten und/oder Tageszeiten (z.B. nachts oder am Wochenende) ermöglicht.

Zur Realisierung der gesteckten Ziele, dass das System Wissen repräsentieren und schlussfolgern kann, werden verschiedne Modelle benutzt.

Fallbasierte Systeme

Das System versucht in seiner Datenbasis zu dem gegebenen Problem einen ähnlichen Fall zu finden und ihn auf den aktuellen Fall zu übertragen. Gerade in der Schlussfolgerung der Ähnlichkeit stellt sich das Schlüsselproblem solcher Systeme dar. Ein typischer Fall für ein solches System ist die Diagnose von Krankheiten und die sich daraus ergebende Therapie. Das System versucht an Hand von Krankheitssymptomen eine Lösung zu finden.

Regelbasierte Systeme bzw. Business Rule Management Systeme (BRMS)

Im Gegensatz zu Fallbasierten Systemen sind hier keine Fallbeispiele hinterlegt sondern Regeln, wie wenn A dann B. Aus den vorgegebenen Regeln leitet das System seine Lösung ab. Die Regeln stellen eher allgemeine Gesetzmäßigkeiten dar.

Systeme mit Entscheidungsbäumen

Diese Systeme werden vor allem bei Klassifizierungsproblemen eingesetzt. Bei diesen Systemen handelt es sich um eine Form des induktiven Lernens. In dem System werden Daten in einer Beispielmenge hinterlegt. Ein Beispiel kann etwa aus einer Reihe von Attributen (eines Objektes, z. B. eines Patienten) und deren konkreten Ausprägungen bestehen. Bei der Verarbeitung solcher Beispiele durchläuft das System einen Pfad (Suchbaum): Die einzelnen Attribute sind dabei Knoten, die von ihnen ausgehenden möglichen Ausprägungen Kanten. Das System folgt der Kante, die im Beispiel vorliegt und setzt dies Attribut für Attribut fort, bis es zu einem Endknotenblatt gelangt und gibt schlussendlich die Klasse aus, die zu dem beschriebenen Objekt gehört. Das Ziel ist, mit möglichst kleinen Entscheidungsbäumen zu guten Ergebnissen zu kommen. Dabei spielt die Auswahl der Attribute eine entscheidende Rolle.

XPS werden überall da benötigt, wo ein Experte fehlt, oder durch die Komplexität des Wissens, ein menschlicher Experte überfordert ist.

Hier einige Anwendungsgebiete und realisierte XPS.

· Dateninterpretation

Analyse von Daten mit dem Ziel einer Zuordnung zu Objekten oder Erscheinungen, insbesondere Signalverstehen.

Beispiele: Erkennung akustischer Sprache (HEARSAY), Identifizierung chemischer Strukturen anhand von Massenspektrometerdaten (DENDRAL), geologische Erkundung (PROSPECTOR), Proteinstrukturbestimmung aus Röntgendaten, Erdölbohrung, militärische Aufklärung, U-Boot-Ortung (SEPS, STAMMER).

· Überwachung

Interpretation von Daten mit Aktionsauslösung in Abhängigkeit vom Ergebnis.

Beispiele: Produktionssicherung, Überwachung von Patienten in der "eisernen Lunge" (VM), Überwachung eines Kernreaktors (REACTOR).

· Diagnose

Interpretation von Daten mit starker Erklärungskomponente.

Beispiele: vielfältig in der Medizin, zum Beispiel bei bakteriellen Infektionen (MYCIN), Rheumatologie, innere Medizin (INTERNIST), Pflanzenkrankheiten; außerdem zur Bestimmung und Lokalisation von Fehlern in technischen Systemen.

· Therapie

Aktionen zur Korrektur fehlerhafter Systemzustände und Beseitigung der Ursachen (oftmals mit Diagnose gekoppelt).

Beispiele: siehe Diagnose, Fehlerdiagnose im Autogetriebe (DEX), Fehlerortung und Wartung bei Telefonnetzen (ACE), automatische Entwöhnung von Beatmungspatienten in der Intensivmedizin (SmartCare/PS), Arzneimitteltherapiesicherheit (CPOE, CDS).

· Planung

Erzeugen und Bewerten von Aktionsfolgen zur Erreichung von Zielzuständen:

Beispiele: Versuchsplanung molekulargenetischer Experimente (MOLGEN), chemische Synthese (SECS), Finanzplanung (ROME), Produktionsplanung (ISIS), Steuerung des Flugbetriebs auf Flugzeugträgern (CAT), Handlungen autonomer Roboter (NOAH), beispielsweise Marsroboter.

· Entwurf

Beschreibung von Strukturen, die vorgegebenen Anforderungen genügen.

Beispiele: unter anderem für Schaltkreisentwurf (SYN, DAA), Computerkonfiguration (R1/XCON), chemische Verbindungen (SYNCHEM), Konfiguration von Betriebssystemen bei Siemensrechnern (SICONFEX).

· Prognose

Vorhersage und Bewertung erreichbarer Zustände zeitvarianter Systeme.

Beispiele: Beurteilung von Erdbebenauswirkungen (SPERIL), Erdbebenvorhersage, Hochwasservoraussage, Umweltentwicklung (ORBI).

Nun klingt das doch alles sehr positiv und man könnte denken, wenn ein System nur gut genug programmiert ist und mit allen Daten gefüttert wurde, habe ich ein perfektes System. Ganz so einfach ist es nicht. Man muss das System natürlich ständig auf den neusten Stand bringen, wozu ich einen Experten brauche, damit das System den gegebenen Anforderungen gerecht wird. Ein weiteres Problem bei XPS besteht darin, dass das System seine eigenen Grenzen nicht kennt und bei unvorhergesehnen Ereignissen, wie fachfremden Daten, falsche Ergebnisse liefert.

7.2.1 Quellenangaben

http://de.wikipedia.org/wiki/Expertensystem

http://de.wikipedia.org/wiki/Mycin_(Expertensystem)

( Bonusmaterial

http://www.iicm.tugraz.at/Teaching/theses/2000/_idb9e_/greif/node8.html

8. Intelligente Tutorielle Systeme (ITS)

In den 80-iger Jahren machte man die ersten Versuche mit ITS. Leider haben die Systeme bis heute keine großen Fortschritte gemacht, da sie sehr komplex und kompliziert sind.

ITS wurden erst durch die Entwicklung des Kognitivismus möglich. Man versuchte die Erkenntnisse über das menschliche Lernen in solchen Systemen umzusetzen. In traditionellen Tutoriellen Systemen läuft ein Lernprogramm nach einem vorgegebenen Schema ab, ohne zu hinterfragen, welche Entwicklung der Tutoriant bereits gemacht hat. Es reagiert nur auf richtige und falsche Antworten. Ein ITS hingegen versucht sich ein Bild vom Tutorianten zu erstellen und eine individuelle Lernstrategie zu ermöglichen, d. h. das System versucht zu erkennen wie gut das Wissen des Anwenders ausgeprägt ist und passt den Lernstoff dem entsprechend an. Hat ein Anwender z. B. Probleme mit den Grundzügen einer Materie, vermittelt das ITS weiter Grundlagen, bis der Tutoriant bereit für schwerere Inhalte ist. Der Lernende soll einen flexiblen Dialog mit dem System führen können. Man könnte es vielleicht in einem Satz zusammenfassen und sagen, ein ITS versucht einen menschlichen Lehrer zu simulieren.

Definition:

„Intelligente Tutorielle Systeme (ITS) sind adaptive Mediensysteme, die sich ähnlich einem menschlichen Tutor an die kognitiven Prozesse des Lernenden anpassen sollen, indem sie die Lernfortschritte und -defizite analysieren und dementsprechend das Lernangebot generativ modifizieren sollen.“ [Issing, Klima 1997, 555]

Ein ITS besteht aus vier Komponenten:

· dem Wissens-modell,

· dem Lernermodell,

· dem Tutorenmodell und

· der Benutzerschnittstelle.

Ein ITS besitzt drei Hauptmerkmale:

· Adaptivität

· Flexibilität und

· Diagnosefähigkeit.

Unter Adaptivität versteht man die selbstständige Anpassung an den jeweiligen Benutzer durch Auswertung einer Kombination von Informationen über Fach-inhalte, pädagogischen Strategien und den Lernenden. Die Idee, die dahinter steckt, ist wieder die Situation Lehrer / Schüler. Ein leerer bereitet sich zwar auf den Unterricht vor und versucht das Wissen zu vermitteln, was er sich vorgenommen hat, doch passt er sich auch flexibel an die Unterrichtssituation, wie Aufnahmefähigkeit und Motivation des Schülers an.

Flexibilität ist die Fähigkeit zur Änderung der Darstellung der Lerninhalte. Sie wird durch die getrennte Implementierung der Wissensbasis und der tutoriellen Komponente gewährleistet. •

Die Diagnose dient dazu, um Rückschlüsse über die Kompetenz des Lernenden ziehen zu können.

Ein ITS ist benutzergesteuert und verfügt nicht über Kontrollstrukturen. Die Wissensbasis für ein ITS ist meistens ein XPS. Die Softwaretechniken sind regel- oder fallbasierte Expertensysteme, objektorientierte Wissensbasen oder Programmiersprachen (z.B. Lisp) (vgl. [Schulmeister 1997, 197-203]).

ITS eignen sich immer dann wenn klare und eindeutige Musterlösungen vorhanden sind.

Zu den Anwendungsbereichen gehören:

· Flugzeug- und Anlagensteuerung,

· technische Reparaturdiagnostik,

· medizinische oder

· juristische Entscheidungsfindung,

· mathematische Probleme oder

· das Programmieren.