Upload
hadan
View
227
Download
0
Embed Size (px)
Citation preview
Ruprecht-Karls-Universitat Heidelberg
Philosophisches Seminar
Wissenschaftliche Arbeit
Vorgelegt von Christine Plicht
Betreut durch Prof. Dr. Martin Gessmann
Kunstliche Intelligenz in der Diskussion
zwischen Postmoderne und Pragmatismus
Christine Plicht
25. August 2011
vorgelegt von: Christine Plicht
Heinrich-Lanz-Str.3
69115 Heidelberg
Matrikelnr.: 2546008
Heidelberg, 25. August 2011
Inhaltsverzeichnis
1 Einleitung 2
2 Geschichte der KI 4
2.1 Turing-Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2 Darthmouth Konferenz 1956 . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3 Kunstlichen Intelligenz im philosophischen Kontext 9
3.1 Korper-Geist-Problem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4 Drei philosophische Ansatze 20
4.1 Daniel C. Dennetts - Intentionale Systeme . . . . . . . . . . . . . . . . . . 20
4.2 John Searle - Das Chinesische Zimmer . . . . . . . . . . . . . . . . . . . . 25
4.3 Hubert Dreyfus - What Computers can’t do . . . . . . . . . . . . . . . . . 30
5 Robotik als Weg zu einer kunstlichen Intelligenz 38
6 Fazit 47
7 Literatur 49
1
Christine Plicht
1 Einleitung
Kunstliche Intelligenz (KI) wurde im letzten Jahrhundert zu einem Thema mit dem
sich einige Wissenschaftszweige beschaftigt haben, so auch die Philosophie. Uberwie-
gend außerten sich Philosophen aus den USA zu diesem Thema mit dem Hohepunkt der
Diskussion in den 70er und 80er Jahre des letzten Jahrhunderts. Die Entwicklung selbst
geht naturlich weiter zuruck mit Hoch- und Tiefphasen. Kunstliche Intelligenz ist ein
sehr interdisziplinares Thema, da verschiedene Aspeke aus unterschiedlichen Sichtweisen
beleuchtet werden konnen. So ist es nicht nur die Seite der Informatik, bei der es um die
Entwicklung der Programme geht, sondern auch die Neurowissenschaften, Psychologie
oder auch Ingeneurswissenschaften sind an den Projekten beteiligt. Die Philosophie hat
bei diesem Thema die Moglichkeit an konkreten Entwicklungen durch einen Diskurs be-
gleitend und aktiv teilzunehmen und aus ihrer Sicht zu beleuchten. Die philosphischen
Diskurse dazu sind verwurzelt mit der Philosophie des Geistes und der Sprachphilso-
phie. Das Thema ist fur die Philosophie besonders spannend und geeignet, da hier ein
Diskurs stattfindet, der an aktuelle Forschungsgebiete anknupft und zusatzlich in einer
gesellschaftliche Debatte verankert ist. Hier hat die Debatte einen starken realen Bezug
zum aktuellen Geschehen und beschaftigt sich nicht mit spezifischen Themen einzelner
Philosophen oder Epochen. Trotzdem kann das Thema auch sehr theoretisch betrachtet
werden und praktische Fragen, wie der Ethik, konnen dabei am Rande diskutiert werden.
Meine eigene Motivation zu diesem Thema ergibt sich aus meinem zweiten Studienfach,
der Mathematik. Hierdurch habe ich einen leichteren Zugang zu Konzepten der Informa-
tik erhalten, die in dieser Arbeit gelegentlich angesprochen, aber nicht vertieft behandelt,
werde. Es ist, gerade als angehende Lehrerin, sehr spannend sich mit einem philosophi-
schen Thema zu befassen, das sowohl einen aktuellen Bezug hat, als auch beiden Facher
verbindet. Ziel dieser Arbeit ist es also ein Thema, dessen Ursprung in einer anderen
Disziplin liegt, philosophisch zu betrachten und aufkommende philosophische Fragen zu
diskutieren. Dabei will ich untersuchen, ob und wieweit die Philosophie Fragen dieses
Wissenschaftszweig, durch einen andern Zugang, verstandlicher werden oder sogar be-
antworten werde konnte.
Die Arbeit beginnt mit einem geschichtlichen Uberblick des Themas, in dem ich die
Grundlagen aus der Mathematik und Informatik anspreche und wichtige Ereignisse und
Erfindungen beschreiben. Weiter mochte ich die philosophische Bedeutung der Kunstli-
che Intelligenz genauer erlautern und damit zusammenhangende Probleme aus der Phi-
losophie vorstellen. Hauptteil der Arbeit bildet die Auseinandersetzung mit drei zeit-
2
Christine Plicht
genossigen amerikanischen Philosophen: Daniel C. Dennett, John Searle und Hubert
Dreyfus. Ich werde Dennetts pragmatisches Konzept der intentionalen Systeme vorstel-
len, bei dem die Frage nach Intentionalitat von Maschinen thematisiert wird. Weiter
hebe ich Argumente von Searle und Dreyfus hervor, die gegen die Moglichkeit der Ad-
aption von kognitiven Fahigkeiten bei Maschinen sprechen. Hierzu betrachte ich Searles
beruhmtes Gedankenexperiments, das Chinesische Zimmer, und gebe einige Kritiker
wieder. Weiter stelle ich eine dritte Herangehensweise an das Thema vor, Dreyfus phano-
menologische Kritik an der KI-Forschung.
Beenden werde ich die Arbeit mit einem Ausblick auf die Robotik bezogen auf eine
kunstliche Intelligenz. Dabei werde ich die Probleme einer einheitlichen Vorstellung von
kunstlicher Intelligenz und ihrer Uberprufung beispielsweise durch Kriterien diskutieren.
3
Christine Plicht
2 Geschichte der KI
Um die zeitliche Entwicklung des Forschungsgebiets der Kunstlichen Intelligenz zu be-
trachten, sind fur diese Arbeit neben der philosophischen, auch die mathematische Seite
wichtig. Hier wurden grundlegenden Uberlegungen getroffen, die zum heutigen Stand der
Wissenschaft und Technik fuhrten. Seit der Antike versuchen die Menschen Regeln zu
finden, um die Welt zu beschreiben. Damals legte Aristoteles die ersten Grundsteine fur
eine Formalisierung, in dem er den Syllogismus begrundete. Der Syllogismus ermoglicht
es zum ersten Mal Argumente, die aus logischen Verknupfungen bestehen, unabhangig
von ihrem Inhalt, auf formale Folgerichtigkeit zu uberprufen . So konnten Argumente
durch eine abstrakte allgemeingultige Methode uberpruft oder eben auch widerlegt wer-
den. Das war eine der ersten Voraussetzungen fur die heutige formale und mathematische
Logik und somit auch fur das Forschungsgebiet Kunstliche Intelligenz.
Im weiteren Verlauf der Geschichte wurden Grundlagen fur die heutigen Stand gelegt,
die Rechenmaschinen. So wurde schon von Leonardo da Vinci (1452-1519) eine Re-
chenmaschine entworfen, aber nicht gebaut. Erst im 17. Jahrhundert gelang es Wilhelm
Schickard (1592-1635) und auch Blaise Pascal (1623-1662) eine funktionstuchtige mecha-
nische Rechenmaschine zu bauen, die addieren und subtrahieren konnte. Im Laufe der
Zeit wurden Rechenmaschinen weiterentwickelt und konnten immer mehr Funktionen
ausfuhren. Allerdings war die Division eine Operation, die von den damaligen Maschi-
nen nicht durchgefuhrt werden konnte. Es entstand immer starker der Eindruck, dass
sich die Welt anhand von formalen Strukturen und Regeln erklaren ließe. So wurde im
19. Jahrhundert von George Boole (1815-1849) die moderne mathematische Logik be-
grundet. In seinem Werk The Mathematical Analysis of Logic schuf er mit dem ersten
algebraischen Logikkalkul die Grundlage fur die Bool’sche Algebra. In der Bool’schen
Algebra werden die Grundoperationen der Logik (UND, ODER) mit den mengentheor-
tischen Verknupfungen, wie der Vereinigung und dem Durchschnitt, formal beschrieben.
Auf diese Algebra baut die mathematische und philosophische Logik auf, denn damit
werden die grundlegenden Gesetze beschrieben. Durch die zweiwertige Bool’sche Algebra
werden auch Wahrheitstafeln beschrieben, mit 0 als falscher und 1 als wahrer Aussage,
die in der Aussagenlogik fundamental sind.
Bis ins 19. Jahrhundert versucht man formale Strukturen zu erfassen und erste kleinere
mechanische Instrumente zu bauen, die dem Menschen Arbeit abnehmen sollten. Die
Mechanisierung wurde im 19. Jahrhundert stark vertieft und erreichte weitere durch-
brechende Errungenschaften. Darunter zahlen u.a. der Zeigertelegraf, der von Werner
4
Christine Plicht
von Siemens und Johann Georg Halske erfunden wurde und Vorlaufer des heutigen Fa-
xgerates war. Die Rechenmaschinen und auch weitere Rechner wurden bis dahin auf
einem analogen System betrieben, d. h. sie messen Großen, wie Spannungen, Zeitdauer
und geben anhand dieser Messungen ein Ergebnis. Es konnte somit nur mit starren,
festen Großen gearbeitet werden. Das anderte sich mit der Erfindung der Digitalrechner.
Charles Babbage entwarf 1835 eine sogenannte”analytische Maschine“, die allerdings
nicht gebaut wurde. Digitalrechner konnen auch mit unstetigen Großen arbeiten und
Zustande speichern. Alan M. Turing (1912-1954) beschreibt die Vorzuge des Digitalrech-
ner:”Die Existenz von Maschinen mit dieser Eigenschaft hat die wichtige Konsequenz,
dass es, von der Geschwindigkeitserwagungen abgesehen, unnotig ist immer neue Ma-
schinen fur unterschiedliche Rechenprozesse zu entwickeln. Sie konnen allesamt mit ei-
nem Digitalrechner durchgefuhrt werden, der fur jeden Fall geeignet zu programmieren
ist.“(Dre85, S.22).
Der erste funktionstuchtige programmierbare Digitalrechner wurden 1941 von Konrad
Zuse (1920-1995) gebaut und 1943 wahrend des Zweiten Weltkriegs wieder zerstort. Er
war unter dem Namen”Z3“ bekannt und basierte auf einem Binarsystem. In den wei-
teren Jahrzehnten wurden weitere digital Großrechner gebaut und erste Visionen uber
spezielle Programme gemacht. Hierzu zahlt die Entwicklung eines Schachcomputers: ein
Programm, dass die Regeln des Schachspiel beherrscht und gegen einen menschlichen
Gegner gewinnen konnte. Erste Erfolge damit hatten hatten Allen Newell, J.C. Shaw
und H.A. Simon. Ihnen gelang, es ein Prgramm zu entwickeln, dass Schachanfanger
schlagen konnte. Ein weiteres Gebiet der Programmierung, das in dieser Zeit eroffnet
wurde, war die Entwicklung eines Sprachcomputers und so genannte heuristische Syste-
me, die sich auf das Losen von Denksportaufgaben spezialisierten.
2.1 Turing-Test
In dieser Zeitepoche, 1950, veroffentlichte Turing einen Artikel”Computing Machinery
and Intelligence“, in dem er ein Imitationsspiel, heute auch bekannt als Turing-Test.
Turing wollte sich mit der Frage auseinandersetzen, ob eine Maschine denken kann. Um
daruber eine Aussage treffen zu konnen, entwarf er folgendes Spiel: Es gibt insgesamt
drei beteiligte Parteien, zwei, die befragt werden (A und B) und ein Fragesteller (C). Ziel
des ursprunglichen Imitationsspiel war es, dass C das Geschlecht der Befragten heraus-
finde, wobei beide Geschlechter vorkommen. In der Abweichung und computerbezogenen
Variante des Spiels wird ein Befragter durch einen Computer ersetzt. C soll nun heraus-
5
Christine Plicht
finden, ob entweder A oder B ein Mensch ist. Hierbei kann C Fragen formulieren, auf die
A und B antworten mussen. Selbstverstandlich passiert dies in schriftlicher bzw. digitaler
Form. Turing ersetzt dann auch die Frage, ob Maschinen denken konnen, durch”Sind
Digitalrechner denkbar, welche sich bei dem Imitationsspiel bewahren?“. Naturlich wird
direkt deutlich, dass es sich hier um zwei verschiedene Fragestellungen handelt. Aller-
dings gibt Turing hier ein klar uberprufbares Kriterium. Turing sieht den Unterschied
der beiden Fragestellungen nicht so relevant, wie es zur heutigen Zeit sein mag, denn er
behauptet:”Die ursprungliche Fragestellungen
’Konnen Maschinen denken‘ halte ich fur
zu belanglos, als dass sie ernsthaft diskutiert werden sollte. Nichtsdestoweniger glaube
ich, dass am Ende unseres Jahrhunderts der Sprachgebrauch und die allgemeine Ansicht
sich so stark gewandelt haben werden, dass man widerspruchslos von denkenden Maschi-
nen reden kann.“(Tur94, S. 51) Demnach ist Turing so optimistisch, was die Entwicklung
der Computer und Programme angeht, dass er davon ausgeht, dass niemand ihr Denk-
vermogen anzweifeln wird, wenn sie den Turing-Test bestehen. Seine Prognose war, dass
50 Jahre spater, also zur Jahrtausendwende, Sprachcomputer den Test bestehen werden.
Sogar nicht einmalig, sondern mit einer Wahrscheinlichkeit von 70 Prozent. Dabei soll
es ein funfminutiges Testgesprach geben, bevor sich C entscheidet.
Nicht nur Turing hat zu Beginn der Entwicklung solcher Computer so eine optimis-
tische These abgegeben, sondern auch andere Wissenschaftler waren von der rasanten
Entwicklung mitgerissen. Simon prophezeite 1957 unter anderem:
• In spatestens zehn Jahren wird ein Computer Schachweltmeister, sofern ihn die
Regeln nicht von der Teilnahme ausschließen.
• In spatestens zehn Jahren wird ein Computer ein neues, bedeutendes mathemati-
sches Theorem entdecken und beweisen.
• In spatestens zehn Jahren werden die meisten Theorien der Psychologie die Form
von Computerprogrammen oder von qualitativen Aussagen oder die Merkmale von
Computerprogrammen haben.
2.2 Darthmouth Konferenz 1956
Die Geburtstunde der Kunstliche Intelligenz war 1956 in Darthmouth. Dort veranstal-
tete John McCarthy einen zwei Monate dauernde Sommer-Konferenz, zu der Forscher
eingeladen wurden, die sich zu der Zeit mit diesem Thema beschaftigten.”Der Work-
shop in Darthmouth brachte keine neuen Durchbruche, aber er sorgte dafur, dass sich
6
Christine Plicht
die wichtigsten Personen kennen lernten.“(RN04, S.38); Marvin Minsky, Allen Newell,
Herbert Simon, Claude Shannon und Nathaniel Rochester. Ab diesem Zeitpunkt wurde
kunstliche Intelligenz zu einem seperaten Forschungsgebiet. McCarthy definiert KI in
seinem Artikel What is artificial intelligence:”It is related to the similar task of using
computers to understand human intelligence, but AI does not have to confine itself to
methods that are biologically observable.“(McCa). Man will versuchen menschliche men-
tale Konzepte, wie Kreativitat oder Spracherkennung, mit dem Computer zu simulieren
oder sogar zu konstruieren.
Genau 50 Jahre spater, im Jahr 2006 fand eine weitere Konferenz1 in Dartmouth statt,
die sich mit den kommenden 50 Jahre der KI-Forschung beschaftigte. Auf dieser Konfe-
renz waren auch einige ursprunglichen Teilnehmer prasent, wie McCarthy und Minsky.
Die KI-Forschung war gepragt von Jahrzehnten, in denen neue Entwicklungen einen
starken Enthusiasmus hervorriefen. Aber es gab auch Zeiten, in denen es ruhiger wurde
und eine Weiterentwicklung nicht in Sicht war. Zu Beginn wurden Probleme formuliert
und der Losungsansatz war recht viel versprechend, dennoch stellte sich heraus, dass
eine Entwicklung komplexer war, als zuerst gedacht. Nicht jedes Problem wurde damit
gelost, dass eine bessere Hardware und ein großerer Speicher zur Verfugung standen. So-
lange eine Problemlosung darauf basierte, Moglichkeiten zu berechnen, bis die richtige
Losung gefunden wurde, konnte bessere Hardware dazu verhelfen. Aber gerade in der
Sprachubersetzung war dies nicht immer so einfach.
Ein weiterer Meilenstein in der Entwicklung von Computerprogrammen, die kognitive
Fahigkeiten zumindest simulieren, war das Programm ELIZA. Der Informatiker Joseph
Weizenbaum(1923-2008) entwickelte das Programm und veroffentlichte es 1966. ELI-
ZA ist ein interaktiver Chatbot, der ein Gesprach mit einem Menschen fuhren kann.
Es basiert auf den Grundlagen eines psychotherapeutischen Gesprachs. Hierbei ist es
vergleichsweise einfach auf den Gegenuber zu reagieren, da man in einem psychothe-
rapeutischen Gesprach auf Aussagen mit wenigen Informationen mit einer Frage ant-
worten kann. ELIZA greift hierzu auf eine Datenbank zuruck, in der Antworten und
Erkennungsmuster gespeichert sind und reagiert somit auf eine Frage oder Aussage der
Gesprachsperson.
Eine wichtige und bekannte Arbeit an kunstlicher Intelligenz ist der Schachcomputer
”Deep Blue“, der 1997 unter Turnierbedingungen als erster Computer gegen den amtie-
renden Schachweltmeister gewann.”Kasparov sagte, er fuhle, dass ihm am Brett eine
1Die Konferenzhomepage befindet sich noch unter http://www.dartmouth.edu/~ai50/homepage.html.[Abgerufen im August 2011]
7
Christine Plicht
’neuartige Intelligenz‘ gegenuber sitze.“(RN04, S.50). Damit bestatigte sich Simons Pro-
phezeiung, wenn auch 30 Jahre zu spat. Dennoch war es in den ersten Jahrzehnten nicht
moglich, einen Computer zu entwickeln, dessen Fahigkeiten uber die eines Amateur-
schachspielers hinaus gingen. Der Erfolg des Schachcomputers hangt sowohl von seiner
Hardwareleistung als auch der Software, dem Schachprogramm, ab. Das Programm be-
rechnet die moglichen Zuge und wahlt hier mit einer Bewertungsfunktion aus. Heute
ist die Entwicklung an Schachcomputer nicht mehr so interessant wie noch vor zwan-
zig Jahren. Die handelsublichen Schachcomputer konnen den normalen Schachspieler
muhelos schlagen, demnach hatte die Entwicklung Erfolg und das Problem ist gelost.
Interessanter sind mittlerweile Spiele wie Go, die auf eine komplexere Bewertungsfunk-
tion aufbauen und zudem einfache Regen haben.
Der Schachcomputer und Chatbots sind beides Programme, die interaktiv mit Menschen
arbeiten und basieren auf kognitive Fahigkeiten des Menschen. Es findet ein Austausch
zwischen Mensch und Maschine statt und wenn der Interaktionspartner nicht wusste,
dass er mit einem Programm interagiert, wurde es ihm wahrscheinlich nicht direkt auf-
fallen.
8
Christine Plicht
3 Kunstlichen Intelligenz im philosophischen Kontext
Im 20. Jahrhundert hat man versucht, einer Maschine oder einem Computer Dinge bei-
zubringen, die sonst nur Organismen vollbracht haben. Es ging nicht mehr nur um eine
Mechanisierung, die dem Menschen Arbeit abnehmen soll, sondern auch kognitive Leis-
tungen sollten auf Hardware durch geeignete Programmierung ubertragen werden. Eine
wichtige Voraussetzung dafur war die Turing-Maschine. Eine Turing-Maschine ist ein
simples Konzept einer Rechenmaschine. Sie kann fur eine berechenbare Funktionen f
ihren Wert f(n) an der Stelle n ausgeben. Fur jede berechenbare Funktion gibt es ei-
ne Turing-Maschine. Das heißt, alles was, ein Mensch berechnen kann, kann auch eine
Maschine erledigen. Nachdem es so große Erfolge und Prophezeiungen auf dem Gebiet
der Informatik gegeben hat, war es moglich, dass ein Rechner menschliche kognitive
Eigenschaften simulierte. Es gibt seitdem Computer, die Schach spielen oder eine Un-
terhaltung mit uns fuhren konnen. Dadurch erhielt die Maschine kognitive Fahigkeiten,
die bisher nur dem Menschen zustanden. Außerdem waren das genau die Fahigkeiten,
bei denen es nicht moglich war, von außen zu uberblicken, wie ein Mensch das tut. Eine
Maschine, die eine korperliche Arbeit des Menschen ersetzt, wie das Weben und Stricken
von Stoffen, folgt klar einem Schema, das wir bei den Webern sehen und nachvollzie-
hen konnten. Diese Handfertigkeit durch eine Maschine zu ersetzen, ist konzeptionell
anders als einen Schachspieler zu ersetzen. Es wurden Fahigkeiten ersetzt, die von au-
ßen nicht einsehbar sind und somit von Dritten nicht durchschaubar. Was”im Kopf“
eines Menschen vorgeht, wenn er ein wichtiges Schachturnier spielt, ist fur die Außenste-
henden verborgen, so nicht die Schritte, einen Pullover zu stricken. Aber auch bei dem
Schachcomputer wurde das Schachspiel mit Hilfe von einer logischen Abfolge elementarer
Schritte bzw. eines Flussdiagramms transparent gemacht, da es aus nachvollziehbaren
Schritten besteht. Das Programm ist schließlich von einem Menschen programmiert, also
ist es auch moglich zu verstehen, was dahinter steckt. Gerade die Frage, wie kognitive
Eigenschaften des Menschen funktionieren ist sowohl fur die Philosophie, aber auch fur
andere Wissenschaften, wie den Neurowissenschaften, von Bedeutung. Die Philosophie
des Geistes versucht Probleme, welche die mentale Seite des Menschen mit den geistigen
Eigenschaften betreffen, zu untersuchen und Begriffe, die damit zusammenhangen, zu
definieren und zu erklaren. Was geschieht in einem Menschen, wenn er an Dinge denkt,
was bedeutet das und wie denkt er uberhaupt? Geistige Eigenschaften sind fur Außen-
stehende nicht zuganglich, wir konnen nicht erkennen, was in unserem Gegenuber vor
sich geht. Warum er diesen Schachzug ausfuhrt und nicht einen anderen. Es geht darum,
9
Christine Plicht
die Introspektion zu betrachten und die innere subjektive Komponente des Verhaltens
erklaren zu konnen.
Zu Beginn des 20. Jahrhundert versucht der Behaviorismus, das Individuum anhand
seines Verhaltens zu untersuchen und dadurch Ergebnisse uber innere Vorgange zu er-
halten. Im Gegensatz zur Introspektion, die auf die Beobachtung des eigenen Selbst zielt,
erforscht der Behaviorist das Verhalten Dritter und lasst dabei auch die Physiologie un-
beachtet. Das Innere wird als”Black Box“ weitgehend ausgeblendet. Man ist zu einer
Verhaltensforschung ubergegangen, die dann in der allgemeinen Psychologie durch John
B. Watson (1878-1958) und auch Frederic Skinner (1904-1990) Einzug gefunden hat.
Zentraler Punkt hierbei ist das Reiz-Reaktions-Modell, das besagt, dass jedes Verhalten
auf eine Reizstimulierung zuruckzufuhren ist und somit alle inneren mentalen Vorgange
durch außeres Verhalten erklart werden. Kritiker weisen darauf hin, dass samtliche sub-
jektive Erfahrungen dabei außer Acht gelassen werde und das Verhalten sich nicht nur
aus der Perspektive der dritten Person erschließen lasse. Anders versucht die Kognitions-
wissenschaft Zugang zum Geist zu finden. Hier wird explizit versucht, Strukturen und
Funktionenweisen des Geistes zu finden, um ein besseres Verstandnis dieses zu erlangen.
Ausgangspunkt ist, dass der Mensch offensichtlich unterschiedliche mentale Zustande
besitzt, je nachdem, was er gerade macht, wie er sich gerade fuhlt. Es ist naheliegend,
dass es irgendwie beeinflussbar ist, in welchen Zustand wir uns befinden und dass es
demnach eine Art Regelwerk gibt, dem eine kausale Struktur zugrunde liegt. Dieses Re-
gelwerk und die Strukturen, die man aufdecken will, fuhren dazu, dass man die mentalen
Zustande als funktionale Zustande identifizieren konnte, die sich durch ihre kausale Rolle
charakterisieren lassen (Bec08, S.142). Funktionale Zustande konnen wir uns vorstellen,
wie bei einem Automaten2. Der Automat kann Ein-Euro-Munzen und Funfzig-Cent-
Munzen annehmen. Eine Coladose kostet einen Euro. Der Automat kann zwei Zustande
annehmen, je nach Input (den Munzen). Zustand X1 ist der Anfangszustand. Wenn
nun eine Ein-Euro-Munzen eingeworfen wird, gibt der Automat eine Coladose aus und
bleibt im Zustand X1. Wird ein Funfzig-Cent-Munze eingeworfen, wechselt der Auto-
mat in Zustand X2. Folgendes gilt fur Zustand X2: Bei einer Funfzig-Cent-Munze gibt
er eine Cola-Dose aus und geht in den Zusstand X1 uber. Bei einer Ein-Euro-Munze
gibt er Funfzig-Cent zuruck und eine Coladose. Wieder wechselt er in den Zustand X1.
Das bedeutet, der Automat kennt zwei Zustande, fur diese Zustande gibt es bestimmten
Input und gegebenenfalls Output (Coladose oder Funfzig-Cent-Munze). Dieser Output
wird durch Regeln oder auch Verhaltensgesetze bestimmt. Entscheidend dabei ist aber
2Beckermann verweist in seiner Einfuhrung auf das Beispiel eines Getrankeautomaten von Ned Block.
10
Christine Plicht
auch, wie diese Zustande realisiert werden und nicht nur, dass es sie gibt. Es muss eine
Beziehung zwischen den internen Strukturen und den externen Strukturen geben. Nach
den Funktionalisten werden funktionale Zustande durch physische Zustande realisiert.
Diese physischen Zustande sind das, was in dem Automaten dahinter steckt, sodass er
den Output liefert. Dies kann durch einen Schaltplan dargestellt werden. Funktionalis-
ten vertreten die Ansicht, dass sich der Mensch, ahnlich wie ein Getrankeautomat, in
verschiedenen Zustanden befinden kann und dass es Inputs gibt, die veranlassen, welcher
Zustand realisiert wird. Ich befinde mich also immer in irgendwelchen Zustanden, zum
Beispiel dem funktionalen Zustand des Wartens. Funktional wird hier nicht verstanden
als Aufgabe oder Zweck, den ein Zustand erfullt, sondern eher im mathematischem Sinne
als Abbildungsvorschrift. Durch den Input n befindet sich der Automat in Zustand f (n),
dem Output. Input wird hier durch die kausale Rolle von n und f(n) charakterisiert.
Wenn ich mich also im Zustand des Warten W befinde, kann sich etwas andern, das eine
kausale Rolle zu W hat und dann in den Zustand W’ ubergeht. Allerdings ist diese Rea-
lisierung alles andere als eindeutig. Dieselben mentalen Zustande konnen durch unter-
schiedliche physikalische Zustande hervorgerufen werden, sowohl bei anderen Person als
bei der selben. Der Zustand W kann morgen bei mir durch einen anderen physikalischen
Zustand realisiert werden. Das System ist somit multirealisierbar. Die Beschreibung der
mentalen Zustande als funktionale Zustande fuhrt dazu, dass man sich den Geist wie ein
Computerprogramm vorstellen konnte. Hieraus entstand die These, dass das Verhalt-
nis des Geist zum Korper sich mit dem der Software zur Hardware vergleichen lasse.
Starke Vertreter dieser These sind Anhanger des Funktionalismus3, genauer des Com-
puterfunktionalismus. Dieser besagt, dass sich in der Struktur des Geistes, die mentalen
Zustande durch funktionale Zustande erklaren lassen. Prinzipiell ist die Vorstellung, dass
diese Zustande funktional sind, ontologisch erstmal neutral. Dass funktionale Zustande
existieren sagt noch nicht daruber aus, wie diese realisiert werden. Erst die These, dass
sie durch physikalische Zustande realisiert werden, macht den Funktionalismus zu einer
materialistischen Richtung bzgl. des Korper-Geist-Problems der Philosophie des Geistes.
Der Funktionalismus versucht namlich mit seinen Thesen eine Antwort auf die Frage zu
finden, wie der Korper und der Geist zusammenhangen, welche Beziehung es zwischen
ihnen gibt. Wie steht das Mentale, die geistigen Eigenschaften oder sogar geistigen Din-
ge, zu den Physikalischen? Gibt es eine Beziehung zueinander, wie hangen sie zusammen,
ist das eine auf das andere zuruckzufuhren bzw. reduzierbar?
3Als Vertretet dieser These sind Hilary Putnam oder Jerry Fodor zu nennen.
11
Christine Plicht
3.1 Korper-Geist-Problem
Eine Untersuchung des Korper-Geist-Problems spaltet die Philosophen grob in zwei Rich-
tungen, die Dualisten und die Materialisten. Die Anhanger des Dualismus behaupten,
dass es sowohl materielle als auch immaterielle Entitaten oder Substanzen gebe. Hierbei
gibt es unterschiedliche Stromungen; die zeitlich erste wichtige war im 17. Jahrhundert
der Substanzdualismus, der auf Rene Descartes (1596-1650) zuruckzufuhren ist. Dieser
unterscheidet zwischen einer res cogitans und einer res extensa, die geistigen und die
nicht-geistigen Substanzen. Substanzen sind Trager von Eigenschaften, die selbst keine
Eigenschaft sind. Die Substanzdualisten glauben daran, dass der Mensch eine unsterb-
liche, immaterielle Seele hat, die unabhangig von seinem Korper ist. Dies entspricht der
damaligen religiosen Ansicht einer unsterblichen Seele. Andere, wie die Eigenschafts-
dualisten gehen nicht mehr von zwei verschiedenen Substanzen aus, sondern nur noch
von mentalen und physischen Eigenschaften. Der Korper hat physische Eigenschaften,
wie Masse und Ladung, aber auch mentale Eigenschaften, wie Vorstellungen, Denken
usw. Ein zeitgenossischer Vertreter des Eigenschaftsdualismus ist David Chalmers, der
behauptet, dass mentale Eigenschaften sich nicht reduktiv durch den Materialismus er-
klaren lassen, also nicht auf physikalische Eigenschaften reduzierbar sind.
Gegner des Dualismus bestreiten eine Aufteilung in zwei Arten von Eigenschaften oder
Substanzen. Sie behaupten, dass mentale Zustande irgendwie auf physische Zustande
reduzierbar seien und es nur eine materielle Welt gibt. Solch eine Vorstellung wird auch
als Materialismus oder auch Physikalismus bezeichnet. Es handelt sich hierbei um einen
materialistischen Monismus, der vom mentalen Monismus zu unterscheiden ist. Zweiteres
bezeichnet einen Idealismus, der nur von einer geistigen Welt ausgeht. Dem Materialis-
mus kann man verschiedene Gebiete zuordnen, die unterschiedliche Losungsansatze fur
das Korper-Geist-Problem haben, aber immer von einer Welt ausgehen, die sich mit
naturwissenschaftlichen Methoden erklaren lasst und letztendlich auf physikalische En-
titaten zuruckzufuhren ist. Hierzu zahlt auch der Funktionalismus und Behaviourismus.
”In gewissen Sinne ist der Materialismus die Religion unserer Zeit, zumindest unter
den meisten Experten auf den Gebieten der Philosophie, Psychologie, Kognitionswissen-
schaften und anderen Disziplinen, die sich mit dem Geist beschaftigen.“(Sea06, S.56),
so Searle. Der Materialismus ist unserem heutigen Weltbild viel naher als es zu Descar-
tes’ Zeit war, denn dort war der Einfluss der Religionen starker, mit einem etablierten
Glauben an ein Leben nach dem Tod, bei dem die Seele in den Himmel fahrt und der
Korper zuruck auf der Erde bleibt. Heute wird versucht fur alles handfeste und begreif-
12
Christine Plicht
bare Erklarungen zu finden. Mystische Dinge, wie Geister oder wandelnde Seelen, sind
mittlerweile sehr unplausibel geworden.
Der Funktionalismus wird also erst mit der Annahme, dass die funktionalen Zustande
durch physikalische Zustande realisiert werden, zu einem Materialismus. Ansonsten konn-
ten die Zustande auch durch mentale oder immaterielle Zustande realisiert werden, das
ist fur die kausale Rolle durch die sie charakterisiert sind, formal irrelevant.”Uber die
Art des Zustands ist damit nichts gesagt. Es kann sich um einen Gehirnzustand han-
deln, aber genauso gut auch um einen nicht-physischen Zustand dieser Person oder
vielleicht sogar um einen Zustande einer immaterielle Seele.“(Bec08, S.155) Der Funktio-
nalismus und seine Unterarten sind anschaulich durch die Arbeitsweise von Automaten
und Computern darstellbar, er beschrankt sich prinzipiell aber nicht auf diese und will
auch keineswegs aussagen, dass die Zustande mit denen eines Computers ubereinstim-
men. Eine Position, die hierauf starker zielt, ist der Computerfunktionalismus. Aus ihm
stammt auch die schon angedeutete These des Vergleiches Geist-Gehirn zu Software-
Hardware. Searle bezeichnet die Theorie eines Computermodell des Geistes auch als
”starke kunstliche Intelligenz“(Sea06, S.75). Das Computermodell des Geistes besagt,
dass das Gehirn wie ein digitaler Computer funktioniert oder sogar einer ist, also ei-
ne Turingmaschine, das Programme mit Algorithmen und Operationen ausfuhrt und
sich in funktionale Zustande einteilen lasst. Aus dieser These ergeben sich nun mehrere
Moglichkeiten mit unterschiedlichen Konsequenzen, sowohl fur die Philosophie als auch
fur die KI-Forschung:
• Wenn das Gehirn, wie ein digitaler Computer funktioniert, konnen wir daraus
folgern, dass ein Computer mit ausreichenden Funktionen programmiert werden
kann, der dann auch einen Geist zu besitzen. Das heißt, es ist vorstellbar, dass wir
Computer irgendwann soweit entwickeln, dass sie so menschenahnlich sind, dass
wir ihnen Bewusstsein und Geist zuschreiben konnen.
• Da das Gehirn mit Strukturen wie ein digitaler Computer ausgestattet ist, konnen
wir versuchen, mit Hilfe des Computers Erklarungen fur kognitive Eigenschaften
zu finden. Wenn wir also ein Programm entwickeln, dass Schuhe bindet, dann wird
im Gehirn der gleiche oder ein ahnlicher Ablauf passieren, wenn sich ein Mensch
die Schuhe bindet.
Diese beiden Punkte sind naturlich sehr stark formuliert und werden in dieser Form sel-
ten postuliert, aber letztendlich stellt sich die Frage: Wo sind die Grenzen der kunstliche
Intelligenz?
13
Christine Plicht
Weiter ist es auch schwierig abzugrenzen, wo Geist anfangt. Wann und vor allem wie
konnen wir einem System ein erschaffenes Bewusstsein oder sogar Geist zusprechen? Um
diesen Fragen nachzugehen muss vorher erst einmal geklart werden, ob es moglich ist
eine Definition fur Geist zu finden. Geist ist ein Begriff, den wir alltaglich benutzen und
grob haben wir eine Vorstellung daruber, was wir darunter verstehen. Geist sehe ich um-
gangssprachlich als Oberbegriff fur die Dinge, die wir physikalisch nicht erfassen konnen
und Teil des Menschen sind. Sozusagen als Sammlung der immateriellen Seite mit sei-
nen Fahigkeiten dazu. All das, was die Philosophie des Geistes betrifft, basiert darauf,
dass wir intuitiv annehmen, dass wir einen Geist haben. Es ist schwierig, eine allgemeine
Definition in diesem Bereich zu finden, deswegen mochte ich mich nicht genauer festle-
gen, was ich unter Geist verstehe, sondern finde es vorerst als Oberbegriff offen genug,
um hier gegebenenfalls weitere Ansichten und Definitionen zu erganzen. Genauso ergeht
es mir mit dem Begriff Bewusstsein. Nach grundlicher Studie verschiedener Literatur,
sowohl spezieller, als auch allgemeiner, bin ich zu dem Entschluss gekommen, dass es
mir nicht moglich ist, und auch nicht mein Ziel, hier eine Definition von Bewusstsein
zu geben, die entweder allen bzw. moglichst vielen Philosophen gerecht wird oder genau
eine Ansicht eines bestimmten Denkers widerspiegelt. Es ist mir nur moglich, eine Defi-
nition von Bewusstsein zu geben, die meiner Vorstellung davon entspricht. Diese kommt
dadurch zustande, dass ich mich damit beschaftigt habe, was andere unter Bewusstsein
verstehen. So, wie diese Arbeit nach meinem Ermessen entstanden ist, so ist darin auch
mein subjektives Verstandnis von Bewusstsein enthalten, dass hoffentlich verschiedene
Nenner mit anderen Bewusstseinsvorstellungen hat. Eine allgemeine Vorstellung oder
sogar Definition kann ich allerdings nicht geben, da es diese, meiner Meinung nach, nicht
gibt.
Bewusstsein ist ein Teil der mentalen Seite des menschlichen Korpers und beinhaltet be-
wusste Zustande - demnach kann man Bewusstsein als Klasse der bewussten Zustande
oder auch mentaler Eigenschaften zusammenfassen. Prinzipiell kann ich die bewussten
Zustande wieder in zwei Klassen einteilen, solche mit phanomenalem Charakter und an-
dere mit intentionalem Charakter. Phanomenale Zustande sind vor allem Empfindungen
oder Wahrnehmungen. Es ist das, was man fuhlt oder erlebt. Ich sehe eine rote Rose
und habe dabei eine Empfindung, eben die, eine rote Rose zu sehen. Man kann hierfur
keine genaue Definition geben, sondern phanomenales Bewusstsein nur mit Beispielen
und Umschreibungen erklaren. Es gibt einen passenden Ausdruck, der von Brian Far-
rell (1950) und spater durch Thomas Nagel (1976) weiter thematisiert wurde:”What
14
Christine Plicht
it’s like to“4.”What it’s like to see a red rose“, wie fuhlt es sich an, wie ist es, eine
rote Rose zu sehen? Das ist ein Zustand, der nur individuell zuganglich ist. Ich emp-
finde dabei etwas anderes, als ein Blumenverkaufer oder auch nur eine andere Person.
Zu diesen phanomenalen Zustanden konnen aber auch solche hinzukommen, die eher
von kognitiver Art sind. Sich eine Meinung uber etwas bilden, etwas bewerten oder sich
wundern, kann sich auch auf eine bestimmte Art anfuhlen, sodass es einen subjektiven
Erlebnisgehalt hat. Allerdings ist es umstritten, ob solche Zustande auch zum phano-
menalen Bewusstsein gehoren. Liberale Phanomenaliberalisten zahlen sie dazu. Neben
dem phanomenalen Gehalt des Bewusstsein gibt es auch solche Zustande, die als in-
tentional beschrieben werden. Hierbei bezeichnet Intentionalitat nicht wie im deutschen
Sprachgebrauch ublich, dass eine Absicht dahinter steht, sondern in diesem Kontext ist
damit gemeint, dass das Bewusstsein auf etwas gerichtet ist. Intentionale Zustande sind
Wunsche, Angste, Erinnerungen, etc, all jene Zustande, die kognitiv funktionalen Cha-
rakter haben. Diese Zustande sind klar mit einem konkreten Inhalt gefullt. Wohingegen
bei den phanomenalen Zustand nicht die Rose im Zentrum steht, sondern der Zustand,
wie es sich anfuhlt, die Rose zu betrachten. Es ist ein Erlebnis und kein Zustand, in dem
man sich etwas wunscht, etwas glaubt, befurchtet etc. Es geht nicht darum, wie es sich
anfuhlt, eine Rose zu sehen oder riechen, sondern, wenn ich mir eine Rose wunsche oder
an sie denke. Nicht das Wie, sondern eher die Rose als Ziel meiner Gedanken ist hier der
Punkt. Im Englischen werden die Begriffe Access Consciousness (A-Consciousness) und
Phenomenal Consciousness (P-Consciousness) verwendet(McL09).
Ein essentieller Teil des Geistes sind naturlich allgemein unsere kognitiven Fahigkeiten,
unabhangig davon, ob sie zu den bewussten oder unbewussten Zustanden gehoren. Hier-
zu zahlen Eigenschaften wie Kreativitat, Aufmerksamkeit, Erinnerung, Wille oder auch
Glauben. Sie unterscheiden sich von physischen Fahigkeiten, wie die Funktionsweisen des
Korpers, der atmet, verdaut usw. Diese Eigenschaften sind notwendig zum Leben. Aber
genauso konnen wir den Menschen nicht von seiner mentalen Seite trennen. Ein Mensch
ohne kognitive Fahigkeiten, der nichts wahrnimmt, nichts denkt und kein Bewusstsein
hat, ist nicht eigenstandig uberlebensfahig. Bei den mentalen Eigenschaften stellt sich
die Frage, ob sie auf physische Eigenschaften reduzierbar sind, also auf diese zuruck-
zufuhren sind oder Trager von ihnen. Das ist ein Aspekt des Korper-Geist-Problems.
Wie unterscheiden sich physische von mentalen Eigenschaften? Zum durch ihre Privat-
heit. Ich sehe zwar auch nicht, wie der Korper meines Nachbarn atmet, aber hier wird
4Farrell benutzt in seinem Paper”Experience“ von 1950 und Nagel in dem bekannten Aufsatz
”What
it’s like to be a bat“(1976).
15
Christine Plicht
Privatheit eher als individueller Aspekt gesehen. Mentale Eigenschaften, die ich habe,
treffen nur auf mich zu und ich habe einen besonderen Zugang zu ihnen. (Bec08, vgl.
S.11)
Ein weiterer Punkt, der zum Geist gehort ist die Fahigkeit der Sprache; hierzu zahle ich
das Denken und auch Verstehen. Gerade das Problem des Sprachverstehens ist zentraler
Teil der philosophischen KI-Debatte. Zur Sprache gehort fur den Mensch unbedingt das
Denken und naturlich auch ein Verstandnis von dem, was er sagt und die außersprachli-
che Wirklichkeit. Satze bestehen nicht nur aus einem reinen Inhalt, der wahr oder falsch
sein soll, vielmehr ist Sprache ein Konstrukt aus Syntax und Semantik. Diese sind in
einem Kontext zu betrachten, der Pragmatik (die Lehre von der Zeichenverwendung).
Die Syntax sind formale Regeln, wie Worter gebildet sind, um einen Satz zu formen.
Sie bilden die Ordnung des Satzbaus. Das sollte fur eine KI kein Problem darstellen,
die Semantik hingegen kann nicht nach einem einfachen Schema uberpruft werden. In
der Semantik ist vielmehr die Bedeutung der Zeichen und der Worter ausschlaggebend.
So ist der Satz”Caesar ist eine Primzahl “ syntaktisch korrekt, aber semantisch ergibt
er keinen Sinn. Der Sprachphilosoph Rudolf Carnap(1891-1970) bezeichnet solche Satze
auch als sinnlos. (Car32). Allerdings, um diese Fehler zu erkennen, muss auf die Bezie-
hung der Worter geachtet werden, ob sie zur gleichen Kategorie gehoren. Die wortliche
Bedeutung ist hier relevant, so wie sie in dem sprachlichen Konvention gebraucht wer-
den. Bei der Semantik ist eine versteckte, hintergrundige Bedeutung erstmal unbeachtet.
Ich habe einem einfachen Chatbot5 im Internet die Frage gestellt”Ist Caesar eine Prim-
zahl“, als Antwort erhielt ich:”Ein romischer Feldherr“. Das zeigt, dass die Verknupfung
zwischen Primzahl und Caesar bei ihm nicht korrekt gegeben ist und er die Frage somit
nicht beantworten kann. Allerdings kann er die Frage, ob Barack Obama ein Einzelkind
ist, auch nicht sinngemaß beantworten6
. Neben der Syntax und der Semantik gibt es, nach Charles W. Morris, noch eine dritte
Lehre, die zur Sprache oder vielmehr einer Zeichentheorie gehort: die Pragmatik, die Leh-
re der Zeichenverwendung. Sprache steht immer in einem sprachlichen Zusammenhang
in dem sich der Sprecher und der Empfanger befinden und hat demnach unterschiedli-
che Verwendungen. In der Pragmatik geht es um die Verwendung sinnvoller Satze im
kommunikativen Kontext. So hat ein Wort im Allgemeinen die gleiche Bedeutung, aber
5Dieser ist unter http://thebot.de/ zu finden, dort kann man mit ihm sprechen. [Abgerufen im August2011]
6Der Gesprachsauszug hierzu:User : Ist Obama Einzelkind?Brain: Barack Obama ist der prasident der vereinigen staaten vom Amerika.User : Hat er Geschwister?Brain: Nein, ich bin Einzelkind
16
Christine Plicht
durch den Sprecher kann das in einem anderen Kontext stehen und wird dann anders
aufgefasst. So kann ein Pfarrer und ein Politiker dieselben Satze sagen, aber ihre Bedeu-
tung andert sich durch den unterschiedlichen Kontext.
Prinzipiell gibt es zwei verschiedene Ansatze der KI-Forschung, wie an solche Proble-
me herangegangen wird. Searle nennt sie”starke“ und
”schwache“ KI. Die schwache
KI-Forschung wird dazu benutzt, Instrumente zu finden, um konkrete Anwendungspro-
bleme zu losen oder Hypothesen zu uberprufen. Meist geschieht das durch Simulation
von intelligentem Verhalten und fuhrt durch korrekte Anwendung zu der gewunschten
Losung. Es erleichtert den Alltag und ubernimmt Aufgaben, die der Mensch sonst durch
seine Fahigkeiten meistern konnte. Hierzu zahlen Probleme der Schrifterkennung, auto-
matische Ubersetzungen oder auch Navigationsprogramme.
Im Gegensatz dazu steht die starke KI, die nicht nur von einer Simulation kognitiven
Eigenschaften ausgeht, sondern dem System, wenn es diese Fahigkeiten besitzt auch
Geist zuschreibt, der vergleichbar ist mit dem eines Menschen. Ebenso geht sie davon
aus, dass wir mit Hilfe der Fortschritte und Ergebnisse aus der KI-Forschung Schlusse
auf den Menschen ziehen konnen, um somit den Geist zu erklaren. Hier werden die
Visionen deutlich, die zu Beginn der KI in den meisten Kopfen schwebten und dem
entsprechen, was uns die Science-Fiction Literatur vorspielt. Neben der Forschung gab
es zu der Zeit auch viele Schriftsteller, die sich mit Robotik und kunstlicher Intelligenz
befassten und außergewohnliche Geschichten dazu verfassten. Einer davon ist Isaac Asi-
mov (1920-1992), der Robotik literarisch verarbeitete. In seinen Geschichten hat er die
Asimovschen Gesetze, drei Robotergesetze eingefuhrt, die ein friedliches Zusammenleben
von Menschen und Robotern garantieren sollen. Asimov erschafft in seinen Geschichten
immer wieder Roboter, die menschenahnlich sind, dadurch dass sie nicht nur kogniti-
ve sondern auch emotionale Eigenschaften eines Menschen besitzen7. Der Roboter ist
hier eine Person, die mit den Menschen auf eine bestimmte Art zusammenlebt. Viele
Science-Ficton-Romane erzeugen den Eindruck, es sei moglich ist, dass Roboter in naher
Zukunft immer menschenahnlicher werden und durch ihre Fahigkeiten auch so etwas
wie ein Bewusstsein besitzen. In den Geschichten existieren immer wieder Roboter, die
Beziehungen zu Menschen haben und nicht nur zu Arbeitszwecken gebraucht werden.
Roboter konnen sich unterhalten und zeigen Gefuhle und sogar Kreativitat. Es ist also
zumindest vorstellbar, dass kunstliche Intelligenz entstehen konnte. Die Science-Fiction-
Vorstellung und die der starken KI liegen insofern nahe beieinander, dass sie Visionen
7
”Robbi“, Asimovs erste Robotergeschichte, handelt von einem Spielgefahrten eines kleinen Madchenund
”Der Zweihundertjahrige“ behandelt die Thematik, dass ein Roboter sich danach sehnt ein
Mensch zu sein.
17
Christine Plicht
haben, die Computern existenzielle Eigenschaften des Menschen zuschreiben.
Im Kontext der kunstliche Intelligenz mochte ich noch auf den Begriff der Person ein-
gehen und darstellen, um ihn spater mit den Vorstellungen der kunstlichen Intelligenz
zu vergleichen. Der Begriff Person kommt aus dem lateinischen Wort Persona, das so-
viel bedeutet wie Maske, Rolle oder Charakter. In der Antike wurde damit die Rolle des
Schauspielers oder Rolle eines Individuums in der Gesellschaft bezeichnet. Eine klassisch
Definition stammt von dem antiken Philosophen Boethius:”Persona est naturae ratio-
nabilis individua substantia“, eine Person ist die individuelle Substanz einer rationalen
Natur (Pre99, S.432). John Locke (1632-1704) außert sich dazu:”Person ist ein denken-
des intelligentes Wesen, das Vernunft und Reflexionen besitzt und sich als Selbst denken
kann, als dasselbe denkende Etwas in verschiedenen Zeiten an verschiedenen Orten.“
(Bie81, S.281) Wichtig ist, dass das Wesen Reflexionen haben muss, ein Selbstbewusst-
sein. Zudem muss es sich selbst als das gleiche Wesen in in verschiedenen Zeiten und
Orten denken. Das bedeutet, dass trotz Anderungen des Auftretens, wie eine andere
Haarfarbe oder ein Umzug und dadurch ein anderes soziales Umfeld, das Wesen bleibt
erhalten. Eine Person kann sich demnach durch außere Umstande nie so verandern, dass
sie eine andere Identitat hat.
P. F. Strawson schließt in den Personenbegriff alle Entitaten ein, denen Pradikate mit
Bewusstseinszustanden, also mentale Eigenschaften und auch korperliche Eigenschaften
zugeschrieben werden. Also muss eine Person sowohl kognitive Eigenschaften, wie logi-
sches Denken oder Wahrnehmungen haben, aber genauso muss man uber ihre korperliche
Substanz, Gewicht, Farbe etc. Aussagen treffen konnen. Dennett stellt in seinem Aufsatz
”Bedingungen der Personalitat“ sechs Eigenschaften vor, die er notwendig, aber nicht
hinreichend fur die Charakteristik einer Person sieht. Einige dieser Bedingungen sind
eng mit seinem Verstandnis von intentionalen Systemen verknupft, das ich in Kapitel 4
erlautere. Zu den Bedingungen zahlen fur Dennett folgende:
1. Vernunft
2. Bewusstseinszustande oder intentionale Pradikate
3. Haltung
4. Haltung erwidern
5. verbale Kommunikation
6. Selbstbewusstsein
18
Christine Plicht
Es zeigt sich, dass es verschiedene, jedoch keine einheitlichen Kriterien fur den Begriff der
Person gibt und diese nicht hinreichend sind um eine Person zu klassifizieren. Dennett
spricht sich auch explizit gegen hinreichende Kriterien aus, da diese normativ sind. Es ist
eher das Gesamtbild zu betrachten und daran zu entscheiden, statt einzelne Kriterien
abzuhaken. Ahnlich also wie bei der kunstlichen Intelligenz ist es schwierig Kriterien
zu finden; versuchte Definitionen sind nur bedingt praktisch anwendbar und vor allem
nicht vollstandig. Wie der Begriff der Person mit dem Begriff der kunstlichen Intelli-
genz zusammenhangt, werde ich spater zuruck kommen. Es ist jedoch auch jetzt schon
ersichtlich, dass sie nahe beieinander liegen und einige moglichen Kriterien sich uber-
schneiden. So deutet Dennett auch an, dass sein Konzept von intentionalen Systemen
zumindest die ersten drei Punkte seiner Bedingungen der Personalitat uberdecken. Es ist
anzunehmen, dass der Begriff Personalitat weiter geht als eine starke KI. Naturlich muss
man unterscheiden, dass KI ein Konzept in der moglichen Entwicklung ist, wohingegen
wir ein Vorverstandnis des Personenbegriffs haben. Es ist allerdings auch anzunehmen,
dass wir bei der Entwicklung eines Computersystems, implementiert in eine Roboter, die
Debatte, ob oder wann dieser Roboter eine Person ist, nicht unbeachtet bleiben lassen
konnen.
19
Christine Plicht
4 Drei philosophische Ansatze
Gleichzeitig zu den rasanten Entwicklungen der Informatik auf dem Gebiet der kunst-
lichen Intelligenz gab es eine Diskussion, die sich mit den im vorangegangen Kapitel
angesprochenen philosophischen Fragen verbunden mit der kunstlichen Intelligenz be-
fasste. Hierzu zahlten vor allem Wissenschaftler aus der USA, die teilweise in den selben
Forschungseinrichtungen waren wie die Entwickler und namenhafte Großen der Infor-
matik. Im folgenden Kapitel werde ich drei Philosophen und deren Theorien vorstellen
sowie die Konsequenzen fur die KI-Forschugen diskutieren.
Dazu beginne ich mit Daniel C. Dennetts pragmatischen Ansatz. Weiter werde ich John
Searles Gedankenexperiment Das Chinesische Zimmer und einige Kritiken dazu vorstel-
le. Als letzten Philosophen behandele ich Hubert Dreyfus und seine phanomenologische
Kritik.
4.1 Daniel C. Dennetts - Intentionale Systeme
Daniel C. Dennett ist Professor der Philosophie an der Tufts University in Massachusetts,
seine Forschungsgebiete liegen in der Philosophie des Geistes und der Kognitionswissen-
schaft. Er war Schuler von Gilbert Ryle an der Oxford University. Durch den Einfluss
von Ryle zeigt sich, dass Dennett ein ahnliches Verstandnis und Herangehensweise an
die Philosophie des Geistes hat wie Ryle, dies wird auch in der KI-Debatte deutlich.
Im Gegensatz zu Searle vertritt Dennett eher einen pragmatischen Ansatz. Einige seiner
wichtigsten Themengebiete sind u.a. intentionale Systeme und Bewusstsein8, außerdem
hat er Arbeiten zum freien Willen9 verfasst.
Dennett ist ein Wissenschaftler, der die Grenzen der KI nicht so weit fasst, wie zum
Beispiel Hubert L. Dreyfus, und ein Forschungsprojekt COG am Massachusetts Insti-
tute of Technology (MIT) mitbegrundet hat, das aktiv einen Roboter erschaffen wollte,
der so menschenahnlich ist, dass man ihm Bewusstsein zuschreiben konnte. In seinem
Text”COG: Schritte in Richtung Bewusstsein in Robotern“ erzahlt er von dem Vor-
haben und erortert, ob es prinzipiell moglich sei, Robotern Bewusstsein zuzusprechen.
Im Folgenden mochte ich mich genauer mit dem Begriff Intentionalitat befassen und
Dennetts Idee eines”intentionalen Systems“ vorstellen und in einem spateren Kapitel
die Ideen und Visionen des COG-Projekt erlautern. In der KI-Debatte, bedingt durch
verschiedene Richtungen der Philosophie des Geistes, stellt sich prinzipiell immer die
Frage: Wann kann ich einem Computer oder einem System Fahigkeiten zusprechen, die
8Beispielsweise in: Daniel C. Dennett, Conciouscness Explained, Boston: Little Brown and Co, 1991.9Diese sind zu finden in: Daniel C. Dennett, Brainstorms, Hassocks: Harvester Pr, 1979.
20
Christine Plicht
ich sonst explizit mit einem Menschen verbinde? Speziell Eigenschaften wie Wunsche
und Vorstellungen sind dem Menschen vorbehalten - so das allgemeine Verstandnis. Die-
se Eigenschaften sind so stark mit der menschlichen Existenz verwurzelt, dass es uns sehr
schwer fallt, sie anderen Objekten zuzuschreiben. Insbesondere dadurch, dass wir keine
allgemeingultige und anerkannte Definition und Kriterien fur Geist oder Bewusstsein
haben, konnen wir auch keine allgemeine Validitat geben, wenn diese Eigenschaften nun
nicht mehr exklusiv in einem menschlichen Korper sein sollten. So hat Turing mit seinem
Test vor einigen Jahrzehnten gesagt, dass ein System intelligent ist, wenn es eine mit
dem Menschen vergleichbare Sprachkompetenz erreicht. Dann regt sich in uns aber das
Bedurfnis zu sagen:”Ja, aber, was ist mit ...“ und hier kommen immer wieder weitere
mentale oder physische Phanomene, die wir dem Menschen zuschreiben. (Ja, aber der
Computer versteht nicht, was er da sagt. Ja, aber der Computer befindet sich nicht in
dem gleichen Kontext wie der Mensch. Ja, aber ... .)
Wir konnen nicht in den Menschen hineinsehen, was veranlasst, dass er versteht und
Dinge in einem Kontext wahrnimmt. Neben diesen klaren mentalen Eigenschaften spielt
immer wieder das phanomenale Bewusstsein eine Rolle. Es ist unklar, ob der Computer
die Fahigkeiten eines Menschen nur simuliert oder ob er sie wirklich besitzt. Genau an
dieser Fragestellung setzt Dennett an. Er vertritt die Meinung, das sei irrelevant. Er
will dort Verhalten erklaren und Vorhersagen treffen, wenn man einem System Inten-
tionalitat zuschreibt. Er nimmt an, dass es so etwas hat, um weitere Aussagen treffen
zu konnen und so den philosophischen Problemen naher zu kommen. Dennett versucht
die Eigenschaften vom Menschen zu losen und allgemein ein System zu beschreiben, das
sich intentional verhalt. Bestandteil dieses Systems sind drei Einstellungen: die funk-
tionale, die physische und die intentionale Einstellung10. Wenn ich das Verhalten eines
Gegenubers voraussagen will und kann, dann kann der Gegenuber ein intentionales Sys-
tem sein, unabhangig ob Mensch oder Objekt. Es steht in einer Beziehung zu mir und
ich nehme eine Beobachterperspektive ein oder betrachte es aus der dritten Person. Teil
dieses beobachtende Systems ist die funktionale Einstellung. Die funktionale Einstel-
lung eines Computers ist abhangig vom Programm, das ausgefuhrt wird. Hier stellt sich
die Frage, was soll er tun, wenn Ereignis X1 eintritt. Im Falle des Getrankeautomats ist
das ablesbar im Verlaufsdiagramm. Die Programmstruktur hinter einem digitalem Com-
puter ist in den meisten Fallen jedoch viel komplexer, vergleiche einen Schachcomputer.
Hier spielen mehrere Faktoren eine Rolle und der Schaltplan besteht aus vielen klei-
10Im Orginal verwendet Dennett den Begriff”stance“, er wird in der Literatur unterschiedlich ubersetzt,
sowohl mit”Haltung“ als auch mit
”Einstellung“.
21
Christine Plicht
nen funktionalen Elementen, die beispielsweise weitere Faktoren messen oder berechnen,
bevor der Output bestimmt werden kann. Aufgrund der funktionalen Einstellung kann
ich also Voraussagen treffen, was ein Computer tun konnte. Bei einem Schachcomputer
sind die Zuge jedoch zu kompliziert, um sie vorauszusagen, dennoch kann man wissen,
was prinzipiell in dem Programm steckt. Ahnlich wie ein Schachcomputer und auch fur
den Laien verstandlich und nachvollziehbar ist ein Programm, das Tic Tac Toe spielt.
Hier sind die Zuge auch fur den Menschen leicht uberschaubar und das Spiel ist an sich
losbar, also auch berechenbar11 und somit vorauszusehen, was passiert. Die funktiona-
le Einstellung ist dann vorhersehbar, wenn das System storungsfrei arbeitet, also ohne
Probleme, die durch andere Komponenten verursacht werden. Eine dieser Komponente
ist die physikalische Voraussetzung.
Daraus ergibt sich, dass es neben der funktionalen auch eine physikalische Einstellung
gibt. Diese bezieht sich auf den tatsachlichen physikalischen Zustand. Hat ein Programm
Storungen, die nicht auf Fehler der Software zuruckzufuhren sind, liegt es an der Hardwa-
re. Genauso kann ich Voraussagen uber Gegebenheiten in der Natur treffen, die aufgrund
von physikalischen Zustanden eintreffen. Der Kanal wird uberlaufen, wenn es weiter so
regnet oder die Bremse des Fahrrads wird versagen, wenn die Bremsbelage abgefahren
sind. Hierbei ist es also moglich, Funktionsstorungen vorauszusagen und die daraus re-
sultierenden Folgen zu erwarten. Je nach Komplexitat des Systems wird es aber schnell
nicht mehr moglich, die funktionale Einstellung oder auch die physikalische zu uberbli-
cken und an diesen die Folgen zu erklaren. Das System ist ab einem gewissen Punkt
nicht mehr ohne Schwierigkeiten zu durchschauen. Aussagen uber Funktionstorungen
der physikalischen Gegebenheiten zu treffen wird unmoglich, da das System aus so vie-
len Einzelteilen besteht, deren mogliche Storungen nicht mehr zu uberblicken sind. Bei
der funktionalen Einstellung fließen so viel Komponenten des Jetzt-Zustandes ein, dass
es nicht mehr moglich ist zu bestimmen, welche Voraussetzungen hineinfließen um den
nachsten Zustand zu bestimmen.
An dieser Stelle fuhrt Dennett die intentionale Einstellung ein. Mit dieser dritten Ein-
stellung ist das Ganze ein intentionales System, d.h. wir schreiben ihm Ziele und Wunsche
zu, die verfolgt werden und dazu besitzt es Informationen. Hierbei nimmt Dennett ein
weitgehend rationales Verhalten an, um diese Ziele zu verfolgen. Um also Voraussagen
uber das Verhalten zu treffen, gehen wir davon aus, dass ein Schachcomputer ein Spiel
gewinnen will. Wir uberlegen uns nicht, welchen Vorgang oder Berechnungen der Pro-
11Im Idealfall geht das Spiel immer unentschieden aus. Wenn der erste Zug gemacht ist, ist das Spielquasi schon entschieden.
22
Christine Plicht
grammierer fur den Zustand Xn vorgesehen hat, um dann Zustand Xn+1 zu berechnen,
denn diese konnen wir nicht mehr uberblicken. Wir fragen uns, was ware rational sinnvoll
und angemessen in diesem Zustand zu tun, um das Ziel zu verfolgen. Wir nehmen also an,
dass der Computer selbst eine Meinung hat.”Verbleibende Zweifel, ob der Schachcom-
puter wirklich Meinungen und Wunsche hat, sind unangebracht.“(Den81, S.166) Genau
hier zeigt sich die pragmatische Herangehensweise Dennetts. Es interessiert nicht, ob
das System wirklich intentionale Zustande hat oder haben konnte, sondern Ziel ist es,
Aussagen uber das Verhalten zu treffen. Wenn wir dieses Verhalten mit Hilfe der inten-
tionalen Einstellung erklaren konnen, so ist das der praktikabelste Weg, unabhangig von
den Problemen, die dahinter stecken konnten.
Dennetts Herangehensweise gleicht der des Behaviorismus. Er betrachtet das Verhalten
und versucht aufgrund des Verhaltens weitere Aussagen uber dieses treffen zu konnen.
Die genauen physikalischen oder funktionalen Einstellungen lasst er hierbei erst einmal
weitgehend unbeachtet, da sie nicht mehr uberschaut werden konnen, sondern schreibt
dem System Intentionalitat zu. Dennett versucht hiermit das Reiz-Reaktions-Modell von
Skinner zu verbessern, indem er nicht die Reize betrachtet, sondern die Intentionalitat.
Er geht davon aus, dass das System gewissen Regeln folgt, aber nicht rein konditioniert
ist. Skinner macht keine Aussagen uber Intentionalitat, jedoch sind in seinem Reiz-
Reaktions-Modell auch Wunsche und Ziele der Objekte vorhanden. Die Maus, die so auf
einen Reiz reagiert, weil sie das Futter bekommen mochte, hat eben auch ein Ziel, also
ist es eine intentionale Handlung.
Mit der Annahme einer intentionalen Einstellung ist es nun moglich, das Verhalten wie-
der zu erklaren, wenn die physikalischen oder funktionalen Einstellungen nicht mehr mit
einfachen Methoden zu uberblicken sind.
Dennetts Konstrukt des intentionalen Systems ist deswegen sowohl fur die Philosophie
des Geistes als auch bei Fragestellungen der KI interessant, weil Unklarheiten, die mit
einem intentionalen Bewusstsein des Menschen entstehen, pragmatisch gehandhabt wer-
den. Seine Herangehensweise bezieht sich nicht direkt auf den Menschen, sondern er er-
setzt ihn mit einem allgemeineren Begriff, dem intentionalen System. Somit abstrahiert
er vom Menschen das, was fur ihn Bestandteil des Verhaltens bezogen auf Intentionalitat
ist und gibt ihm das Label intentionale Systeme. Wichtig ist jetzt nur noch, wie das Sys-
tem sich verhalt und nicht, was sonst noch dazu gehoren konnte. So umgeht er Feinheiten
und Probleme, die den phanomenalen Teil des Bewusstsein betreffen. Fur das System ist
es irrelevant, ob es wirklich Meinungen hat oder ob dazu noch weitere kognitive Eigen-
23
Christine Plicht
schaften gehoren mussten. Dennett versucht, Kriterien zu finden, die auf andere, nicht
organische Systeme anwendbar sind und will Intentionalitat uber das Verhalten erklaren.
Bei der Abstraktion werden metaphysische Probleme, die darum kreisen, uninteressant.
”So ist es beispielsweise viel leichter zu entschieden, ob eine Maschine ein intentionales
System sein kann, als zu entscheiden ist, ob eine Maschine wirklich denken, Bewusstsein
haben oder moralisch verantwortlich sein kann.“(Den81, S.175).
Dennetts Herangehensweise und Vorstellung der Begriffe, ahnelt der Gilbert Ryles. In
seinem Buch”Der Begriff des Geistes“(Ryl87) versucht Ryle die klassische Vorstellung
des Geistes der Philosophie seit Descartes zu uberwinden. Die Frage, ob und wie der
Geist mit den physikalischen Eigenschaften des Menschen zusammenhangt, ob nun mit
einer dualistischen oder materialistischen Position, sei falsch gestellt, weil hier ein Kate-
gorienfehler vorliegt. Ryle vertritt stark einen philosophischen Behaviorismus und macht
deutlich, dass sich der Geist im Verhalten zeigt. Somit ist die Fragestellung, ob und wie
der Geist auf den Korper zuruckzufuhren sei, irrelevant oder sogar unsinnig. Der Geist
und somit auch Intentionalitat, Bewusstsein und was alles darunter zu verstehen ist,
zeigt sich im bewussten oder auch intentionalen Verhalten. Alle weiteren Fragen, die
damit zusammenhangen, basieren auf falschen Annahmen, die Teil des Kategorienfehler
sind. Um die Verknupfung zu Dennett deutlich zu machen, ist leicht einsehbar, dass die-
ser auch das Verhalten des Systems betrachtet und alle weiteren Fragen unbeachtet lasst
(Kann die Maschine nun wirklich denken? Braucht sie zum wirklichen Denken Bewusst-
sein?) Dennett ist vorsichtiger als Ryle. Er stellt die Argumente, die Kritiker bezuglich
des Verstandnis von Geist vorbringen, nicht als obsolet dar, sondern sie sind fur ihn ein-
fach nicht weiter von Bedeutung, da seine Konzentration auf dem Output liegt. Er sagt
nicht, weil Geist herauskommt, muss auch Geist in der Maschine sein. Nach Ryle wurde
er somit auch wieder einen Kategorienfehler begehen. Er trifft keine Aussage daruber,
ob nun das System nach seinen Kriterien Bewusstsein hat oder nicht, er bezeichnet es
lediglich als intentionales System, wenn es sich danach verhalt. Ahnlich waren vermutlich
die ursprunglichen Absichten von Alan Turing bezuglich des Turing-Tests. Seine Frage
war nicht danach, ob Maschinen denken konnen oder ob sie eine kunstliche Intelligenz
besitzen, sondern ob sie den Turing-Test bestehen. Dennetts Frage lautet, ist ein System
intentional? Mit Ryles Annahme vom Kategorienfehler sind diese Kriterien oder auch
der Turing-Test vollkommen legitim, denn nur so kann uberpruft werden, welche Ei-
genschaften ein Objekt hat. Was dahinter steckt, steht nicht zur Debatte und mogliche
Antworten sind weder richtig noch falsch, da der Bezug ungultig ist.
Das Konstrukt, das Dennett erbaut, scheint einige Probleme zu vereinfachen, auf der an-
24
Christine Plicht
deren Seite stellen sich hier nun neue Fragen. Unklar ist, wie real intentionale Zustande
sind (Bec08, vgl. S.349). Im Gegensatz zum Funktionalismus vertritt Dennett nicht die
Ansicht, dass mentale Zustande funktionalen Zustanden entsprechen, erst recht nicht
neuronalen Zustande. Sie werden also nicht physisch realisiert, wie real sind sie dann
aber? Wie oben beschrieben, vertritt Dennett einen sehr pragmatischen oder auch instru-
mentalistischen Ansatz bezuglich der intentionalen Einstellung. Sie dient also nur dazu,
erklaren zu konnen, was wir nicht mit der physikalischen und funktionalen Einstellung
erklaren konnen, aber prinzipiell liegt in diesen beiden Einstellungen eine Erklarung,
die fur uns aber nicht immer oder nicht leicht zuganglich ist. Dennetts Theorie beruht
auf einer Betrachtung einer dritten Person und versucht daraus Schlusse auf das Objekt
zu ziehen. Dadurch ist es moglich, einen pragmatischen Ansatz zu wahlen und offen zu
lassen, was das Objekt wirklich fur interne Zustande hat oder ob es wirkliche Meinun-
gen, Gefuhle, Ziele hat. Einen anderen Ansatz vertritt der Philosoph John Searle. Seine
Herangehensweise beruht darauf, zu fokussieren, was innerhalb des Objektes vorgeht. Er
sieht eine Abstraktion, wie Dennett sie mit den intentionalen Systemen vornimmt, als
falschen Ansatz.
4.2 John Searle - Das Chinesische Zimmer
Ein sehr bekanntes und oft diskutiertes Gedankenexperiment ist das Chinesische Zim-
mer von John Searle. Es erschien 1980 in dem Artikel”minds, brains, programms“ in
der Zeitschrift Behavioral and Brain Sciences. John Searle ist Professor der Philosophie
an der University of California in Berkeley mit Arbeitsgebieten in der Sprachphilosophie
und der Philosophie des Geistes. Die Kritik Searles in dem Gedankenexperiment geht
zuruck auf den Turing-Test, dessen Kriterien er versucht zu widerlegen und damit zeigen
will, dass programmierte Systeme immer nur Verhalten simulieren, nicht aber Fahigkei-
ten wie Sprachverstandnis wirklich besitzen konnen. Die Idee des Experiment ist, es zu
zeigen, dass ein Mensch, wenn er das ausfuhrt, was ein Sprachcomputerprogramm tut,
die Sprache dennoch nicht beherrscht, geschweige denn versteht.
Ausgangssituation ist eine Testperson, nennen wir sie Arthur, die alleine in einem Zim-
mer sitzt. Ziel ist es, dass Arthur mit Hilfe einer Anleitung Fragen zu einer Geschichte, die
in Chinesisch verfasst ist, auf Chinesisch beantwortet. Dazu erhalt er verschiedene Sta-
pel mit chinesischen Schriftzeichen und eine Anleitung. Diese Anleitung ist in einer ihm
verstandlichen Sprache verfasst und beinhaltet formale Operationen, die er ausfuhren
soll. Er hantiert also irgendwie mit diesen Stapeln und den Schriftzeichen, setzt sie in
25
Christine Plicht
Beziehung zueinander, ohne die Bedeutung der Schriftzeichen in seiner Sprache zu wis-
sen. Ein Stapel stellt Fragen zu einer Geschichte dar, die er beantworten soll bzw. er
soll Output liefern, die Antworten der Fragen zu der Geschichte. Außerhalb des Raumes
sitzt ein Chinese, der nicht weiß, wer Arthur ist und ob er Chinesisch spricht oder nicht.
Er erhalt die Antworten, in chinesischen Schriftzeichen und hat dadurch guten Grund
anzunehmen, dass Arthur Chinesisch spricht. Searle sagt nun, dass es offensichtlich ist,
dass die Person in diesem Zimmer, kein Chinesisch versteht, sprechen oder schreiben
kann. Auch dann nicht, wenn Arthur die Anleitung auswendig lernen wurde und Fragen
zu Geschichten in kurzerer Zeit beantworten kann.
Arthur stellt einen personifizierten Computer dar. Er tut das, was ein Sprachcomputer
auch tut. Speziell bezieht sich Searle auf ein Sprachprogramm von Roger Schank an der
Yale Universitat, der Fragen zu Geschichten beantwortet, aber ahnliches gilt auch fur
Programme wie ELIZA von Weizenbaum. Searle versucht zu verdeutlichen:”Solange das
Programm sich als eine Reihen von kalkulatorischen Operationen an rein formal definier-
ten Elementen bestimmt, legt unser Beispiel den Schluss nahe, dass diese Operationen
selbst keine interesseheischende Beziehung zum Verstehen haben.“(Sea94, S.237f)
Das unterlegt er mit der Unterscheidung von Syntax und Semantik.”Die Formale Syn-
tax des Programm garantiert aus eigener Kraft nicht das Vorhandensein geistiger Inhal-
te.“(Sea93, S.221). Die formale Syntax wird durch formale Operationen durchgefuhrt.
Rein formale Operationen ermoglichen es nach Searle also nie, kognitive Eigenschaften
zu produzieren, solange der Mensch diese Operationen durchfuhren kann, ohne selbst
diese kognitive Eigenschaft, wie Verstehen der Sprache Chinesisch, dadurch zu erlangen.
Auch wenn der Computer uns glauben lasst, dass er Chinesisch versteht, dadurch, dass
er, wie Arthur, einen Output gibt, den wir auch von einer Person erwarten, die Chine-
sisch spricht, handelt es sich hier nur um Handhabung mit logischen Operationen und
formalen Symbolen. Searle erkennt somit den Turing-Test nicht an, denn ein so program-
mierter Computer konnte durchaus diesen Test bestehen. Das Kriterium ist fur Searle
unangebracht, da es sich um einen formal programmierten Computer handelt, der nur
menschliches Verhalten simuliert. Searle macht deutlich, dass das, was der Computer
tut, Hantieren mit syntaktischen Operatoren ist, aber die semantische Seite, bei der die
Bedeutung der Worter notwendig ist, nicht erreicht wird.”Die Argumentation beruht
auf der simplen logischen Wahrheit, dass Syntax weder dasselbe ist, wie Semantik noch
fur sich selbst genommen fur Semantik hinreicht.“(Sea93, S.221) Da die Syntax nach
formalen Regeln erfolgt, ist es moglich, diese einem System zu programmieren, sodass
formal die Ausgabe korrekt sein kann. Wenn wir heutige Chatbots betrachten, so sind
26
Christine Plicht
die formalen Operationen, die dieses System ausfuhrt, uberwiegend mit einer Datenbank
verbunden, auf die es zugreift. Hier sind Antworten und Erkennungsmuster gespeichert,
die der Bot benutzt, um eine Antwort zu generieren. Außerdem ist es moglich, dass
Chatbots aus ihren Gesprachen lernen, um so ihre Datenbank zu erweitern und Bezuge
zu Dialogteilen herzustellen.
Es wird deutlich, dass die Herangehensweise von Searle in seinem Experiment einen
andere ist als Dennetts oder Turings. Bei letzteren ist ein behavioristischer Ansatz zu
erkennen, Searle hingegen fokussiert starker den Prozess, wie das System zu dem Output
kommt. So setzt der Turing-Test bei dem Endprodukt die Aufgabe an, die er betrach-
tet und bewertet. Das Objekt wird aus der dritten Person heraus betrachtet und ihm
werden dann Fahigkeiten zugeschrieben. Da ich nicht wissen kann, ob die Person ne-
ben mir Bewusstsein besitzt, nehme ich es an, weil sie sich dementsprechend verhalt.
Das ist dasselbe Kriterium, das Turing anwendet. Er betrachtet, wie sich das Programm
einer weiteren Person gegenuber verhalt und wie die Person darauf reagiert. Wenn sie
den Unterschied erkennt, besteht es den Test. Genauso nimmt Dennett eine intentionale
Einstellung an, die er nur anhand des Verhaltens zuschreibt. Searle allerdings fragt sich,
wodurch das System so agiert wie ein Mensch. Er analysiert die Voraussetzungen und
das Programm, das implementiert wurde. Dabei stellt er fest, dass das Verhalten zwar
ahnlich ist, aber nicht gleich. Er simuliert das Programm, indem er es aus der ersten
Person betrachtet, sich hineinversetzt und fragt, wie der Output fur einen Menschen
ware. Wenn er eben das ausfuhrt, was ein Sprachprogramm tut, dann hat er alleine
durch die formalen Schritten noch keine Sprache erlernt. Ein Programm ist immer etwas
Diskretes, Berechenbares, das fur sich alleine steht und nicht zu einem Verstandnis der
Sprache fuhrt.
Es zeigt sich also, dass unterschiedliche Kriterien angewendet wurden, um zu unter-
suchen, ob und welche kognitiven Fahigkeiten und damit verbundene Eigenschaften ein
System hat. Diese Kriterien, Searles 1. Person-Kriterium und Turings behavioristisches 3.
Person-Kriterium, sind offensichtlich nicht miteinander kompatibel und fuhren zu keiner
Losung, auf die sich die Diskussionsgemeinschaft einigen kann. Naturlich wurde Searles
Gedankenexperiment in verschiedenen Repliken kritisiert und versucht zu modifizieren,
sodass man mehr Zugestandnisse machen konnte, um das Experiment zu entwerten.
Diese Repliken versuchen alle das Experiment so zu erweitern, dass entweder das Pro-
gramm durch einem Roboter erweitert wird, um weitere menschliche Eigenschaften zu
erreichen oder aber das gesamte System betrachtet wird, in dem Arthur nur ein Teil ist.
27
Christine Plicht
Die Erweiterung des Programms zu einem Roboter fuhrt soweit, dass es auch vorstellbar
ist, das Gehirn nachzubauen und mit neuronalen Netzen ausstatten, sodass es wirklich
so funktioniert wie ein Mensch. Bei diesen Repliken macht Searle deutlich, dass es ihm
bei seinem Experiment ausschließlich um digitale Rechenmaschinen geht, die eben durch
formale Regeln bestimmt werden und mit Symbolen hantieren. Seine Kritik richtet sich
an eine starke KI, mit der These, dass”geistige Prozesse am Modell des Rechners orien-
tierte Prozesse sind, die an formal definierten Elementen ablaufen“(Sea94, S.254). Das
heißt, dass ich mit Hilfe von Prozessen eines Rechners Aussagen uber geistige Prozesse
des Menschen treffen kann, ohne genaue Kenntnisse uber die Funktionsweisen des Men-
schen und seines Gehirns zu haben. Allerdings unterstutzt Searle weiter sein Argument,
dass man mit formalen Operationen, auch wenn sie sich auf nonverbale Kommunikation
beziehen, keine intentionale Handlung erwirkt. So wie Arthur im Chinesischen Zimmer
das Programm selbst ausfuhrt, konnte man sich auch vorstellen, dass er das gleiche in
einem Roboter tut, mit Wahrnehmungs- und Bewegungshandlungen. Nach Searle andert
das nichts an dem Prinzip eines Digitalcomputer, der hinter den Aktionen steht. Den-
nett zeigt daraufhin in einem Kommentar zum Artikel minds, brains and programms
konkreten Situationen, in denen ein so programmierter Roboter mit Menschen intera-
giert: Beispielsweise er reagiert bei einem Uberfall darauf, dass der Rauber sagt:”Hande
hoch“ und hebt die Hande, genauso wie er das Salz seinem Tischnachbarn reicht. Er
kritisiert, dass Searle nicht das ganze System betrachtet und zweifelt an, dass jemand,
der mit solchen Symbolen hantiert und darauf authentisch reagiert nicht irgendwann
fließend Chinesisch sprechen kann. Dennett findet es unplausibel, dass Searle weiter auf
sein Gedankenexperiment beharrt und fordert eine uberarbeitete Version.”But that is
because he is looking too deep“(Sea80, S.430) und weist auf die Systemreplik hin.
Zehn Jahre spater andert Searle auch seine Argumentation, aber nicht seine Aussage,
in der KI-Debatte und kritisiert in seinem Buch”Die Wiederentdeckung des Geistes“
diesmal Annahmen, die Kognitionswissenschaftler treffen, die seiner Ansicht nach falsch
sind. Im Kapitel 9 geht er ausfuhrlich auf der Frage ein, ob das Hirn ein digitaler Com-
puter sei12. Die Kognitionswissenschaftler nehmen das an und versuchen Programme zu
finden, die den geistigen Phanomenen entsprechen. Demnach mussen diese Programme
prinzipiell so auch in”unserer Hardware“ ablaufen. Searle betont, dass gerade bei die
Frage, ob das Hirn tatsachlich ein digitaler Computer sei, die philosophische Relevanz oft
vernachlassigt wird, auch von anderen Wissenschaftlern wie Penrose und Dreyfus(Sea93,
12Im Gegensatz zum Argument des Chinesischen Zimmer; das zielte darauf, dass der Geist kein Com-puterprogramm sein kann.
28
Christine Plicht
S.225). Das Gehirn als digitaler Computer wird oft falschlicherweise als empirische Tat-
sache angenommen, ohne dabei grundlegende Probleme dieser These zu bewaltigen. Wie
auch in minds, brains and programms ist ein wichtiger Bestandteil der Argumentation
die Syntax. Fruher hat Searle dahingehend argumentiert, dass aus Syntax keine Semantik
folgen kann, nun setzt er wieder an der Syntax an und verdeutlicht, dass”die Syntax der
Physik nicht intrinsisch ist“(Sea93, S.232). Um zu verdeutlichen, was er damit meint,
muss man intrinsische und beobachter-relevante Merkmale unterscheiden. Intrinsische
Merkmale sind solche, die unabhangig von einem Subjekt existieren, wie Masse, Schwer-
kraft oder Molekule. Sie existieren auch dann, wenn sie nicht gemessen werden oder
niemand mehr existiert, der sie beobachtet. Beobachter-relevante Merkmale hingegen
werden erst durch einen Nutzer oder Beobachter, ein Subjekt, charakterisiert. So ist ein
Stuhl erst ein Stuhl, wenn ihn jemand als solchen benutzt oder bezeichnet, genauso wie
Ausdrucke”hubscher Tag fur ein Picknick“. Sie werden erst durch ihre Funktion im wei-
teren Sinne zu einem Merkmal und sind somit relativ zu dem Benutzer zugeschrieben.
Searle argumentiert nun, dass Syntax auch benutzer-relevant sei, weil”die Charakte-
risierung des Systems als ein digitaler Computer immer relativ zu einem Beobachter
ist“(Sea93, S.232). Dabei ist das Programm nur eine syntaktische Interpretation des
Systems und nicht intrinsisches Merkmal der Physik. Geistige Phanomene lassen sich
mit einem digitalem Computer simulieren, indem man sie in formale Operationen, der
Syntax, aufteilt und so ein Programm erstellt. Aber dieses Programm ist abhangig vom
Beobachter und deswegen nicht intrinsische Eigenschaft des ursprunglichen Phanomens.
Searle sieht es als moglich an, dass sich kognitive Eigenschaften auf einem Computer
oder mit einem Roboter simulieren lassen. Das zeigt sich durch viele Beispiele, wie Deep
Blue oder andere Programme, die menschliches Verhalten zumindest simulieren. For-
schung der Vertreter der schwachen KI beschaftigen sich mit diesen Programmen und
auch die meisten Gebiete der Informatik bleiben auf diesem Level und haben nicht den
Anspruch, damit mehr zu erreichen als nur Simulationen.
Stellt man allerdings die Frage, ob der Geist ein Computerprogramm (Software) oder
das Hirn ein digitaler Computer (Hardware) ist, so verneint Searle beide Fragen sehr
eindeutig. Ersteres bestritt der im Gedankenexperiment zum Chinesischen Zimmer und
zweiteres in der Auseinandersetzung mit den Kognitivismus.
In der Debatte um die Philosophie des Geistes und das damit verbundene Koper-Geist-
Problem sieht Searle die Diskussion sehr verfangen, dadurch, dass sie in”sprachlichen
Kategorien gefangen gehalten werden“(Sea93, S.47), die zu auf der Annahme eines Dua-
29
Christine Plicht
lismus von Descartes zuruck zu fuhren sind. Dazu suggeriert der Kognitivismus, dass
die einzige Alternative zum Computermodell des Geistes der Dualismus sei.”Das Ab-
wegige an dieser ganzen Diskussion ist, dass der Materialismus die schlimmste Annah-
men des Dualismus ubernimmt. Wenn der Materialist die Behauptung der Dualisten
bestreitet [...], dann akzeptiert er ungewollt die Kategorien und das Vokabular des Dua-
lismus.“(Sea93, S.72), damit ist die Alternative zum Materialismus der Dualismus. Aber
bevor die Probleme des Materialismus von ihren Vertretern anerkannt werden und sie
damit zum Dualisten werden, geben sie ihren Schwierigkeiten, die durch das gleiche Vo-
kabular auftreten, neue Definitionen und bestreiten das Bewusstsein als Subjektivitat13.
Vertreter des Materialismus sind demnach in ihrer eigenen Argumentation gefangen, da
Zugestandnisse sonst zu einem Dualismus fuhren konnten, den sie verhindern wollen.
Ryle versuchte genau aus dieser Verfahrenheit zu entfliehen, indem er klar machte, dass
die ganze Diskussion durch falsche Verwendung verschiedener Kategorien sinnlos ist und
man eine Untersuchung des Geistes auf andere Weise angehen muss. Der Materialismus
verfangt sich selbst wieder in den Kategorien, so auch Dennett, indem er sich klar gegen
ein dualistisches System positioniert. In seiner pragmatischen Herangehensweise wird
zwar deutlich, dass er in einer gewissen Weise in der Tradition von Ryle steht, aber es
bleiben trotzdem die gleichen Probleme, die Searle kritisiert. Es ist schwer gegen den
Dualismus und fur die Moglichkeit einer kunstlichen Intelligenz zu argumentieren, ohne
das System des Dualismus mit seinem Vokabular und Kategorien zu verlassen. Um sich
von anderen Theorien, auch anderen materialistische, abzugrenzen und diese zu verur-
teilen, ist es naheliegend, dass die Argumente gegen diese Thesen eben aus ihnen heraus
entspringen.
4.3 Hubert Dreyfus - What Computers can’t do
Ein Philosoph, der in der KI Debatte schon relativ fruh, in den 60er Jahren des letzten
Jahrhunderts, einstieg war Hubert L. Dreyfus. Sein Buch”What Computers can’t do -
The Limits of Artificial Intelligence“ erschien 1972 und beinhaltet eine phanomenologi-
sche Kritik der Ziele und Herangehensweise der KI-Forschung. Dreyfus ist Professor an
der University of California in Berkeley und ist, neben seiner Kritik an der KI, bekannt
fur seine Heidegger-Interpretation. In seinem Buch kritisiert Dreyfus stark die Visionen
und den Optimismus der KI-Gemeinde und versucht darzulegen, warum es nicht moglich
ist, eine kunstliche Intelligenz uber Symbolverarbeitung zu kreieren. Seine Kritik beruht
starker auf Argumenten, die sich mit dem situativen Kontext beschaftigen als auf die
13Hierzu nennt Searle Armstrong und Dennett, die genau das taten.
30
Christine Plicht
Funktionsweise des Geistes.
Dreyfus war, wie auch Joseph Weizenbaum, in den 60er Jahren am MIT beschaftigt, zu
der Zeit wurden viele Forschungsgelder in die KI bewilligt und einige Projekte liefen.
ELIZA entstand und verstarkte die Euphorie am MIT. Dem versuchte Dreyfus zu entgeg-
nen und verglich in”Alchemy and Artificial Intelligence“ die Suche nach der kunstlichen
Intelligenz mit der erfolglosen und besessenen Art der Alchemie.”To avoid the fate of al-
chemists, it is time we asked where we stand. Now, before we invest more time and money
in information-processing level, we should ask wheter the protocols of human subjects
suggest that computer language is appropriate for analyzing human behavior.“(Dre65,
S.84) Die aktuelle Forschung solle Abstand von ihrem Vorhaben nehmen, etwas zu ent-
wickeln, ohne vorher grundlegende Fragen zu klaren. Zuerst sollte beantwortet werden,
ob es uberhaupt moglich ist, intelligentes Verhalten mit diskreten formalen Operationen
abzubilden. Die moglichen Folgen der Arbeiten wurden nicht abgeschatzt. Die Euphorie
und die fehlgeleiteten Forschungsmethoden beruhen, nach Dreyfus, auf einer langen Tra-
dition des wissenschaftlichen Arbeitens in den Naturwissenschaften. So war die Physik
erfolgreich, das Universum mit atomaren Tatsachen zu beschreiben und durch Regeln
zu formalisieren. Die Entwicklung des Digitalcomputer hat dazu gefuhrt, diese Heran-
gehensweise auch auf das menschliche Verhalten ubertragen zu wollen. Forscher wollen
durch elementare Verhaltensregeln den Menschen als Gegenstand bestimmen, aber das
halt Dreyfus fur ein irrtumliches Erklarungsmodell. Er hingegen will einen”Alternativan-
satz darlege[n], der sich ergibt, wenn man die drei Grundannahmen der Tradition mit
einer phanomenologischen Beschreibung der Strukturen menschlichen Verhaltens ver-
gleicht“(Dre85, S.181). Die drei traditionellen Grundannahmen erlautert er im zweiten
Teil seines Buches, die biologische, die psychologische und die erkenntnistheoretische An-
nahme. Im Weiteren will ich auf seinen Alternativansatz eingehen, der das menschlichen
Verhalten aus phanomenologischer Sicht beschreibt. Diese Herangehensweise basiert auf
Ansichten von Heidegger, Wittgenstein und jungeren Denkern wie Charles Taylor oder
Samuel Todd. Diese ist zwar weniger exakt, aber dafur werden hierbei die wesentlichen
Fragen nicht vergessen, so Dreyfus(Dre85, S.181). Hierzu untersucht Dreyfus, welche
Rolle zum einen der Korper beim Verhalten spielt und zum andere den situativen Kon-
text, bezogen auf ein geregeltes Verhalten und die menschlichen Bedurfnisse.
Der menschliche Korper ist ein Wahrnehmungsapparat, der auf unterschiedliche Weisen
arbeitet und fur die KI-Forschung ist es schwierig, oder war es zumindest zu dieser Zeit,
diese Seite des Verhaltens sinnvoll nachzubilden. Auch stellt sich hier wieder die Frage,
ob der Korper oder auch nur das Gehrin ein Digitalrechner ist und konnen wir ihn si-
31
Christine Plicht
mulieren? Dreyfus will zeigen, dass ein Korper notwendig ist, um nicht-formalisierbare
Formen zu verarbeiten. Dies geschieht uber strukturelles Erkennen, das mit Erwartun-
gen verknupft ist. Strukturelles Erkennen geschieht u.a. bei Mustererkennung. Zwar kann
man Mustererkennung leicht mit formalen Prozessen digital simulieren, aber Dreyfus ar-
gumentiert, dass gerade das nicht bei einem Menschen passiert. Wenn wir uns in einer
Situation befinden, in der wir etwas erkennen wollen, dann gehen wir nicht im Kopf eine
Liste durch und haken diese ab, bis das richtige Muster ubrig bleibt, sondern uberblicken
das gesamte System. Genauso nehmen wir beim Musik horen nicht einzelne Tone wahr
und verknupfen sie zu einer Melodie, sondern wir erkennen die Ganzheit, die Melodie und
konnen dadurch auf die einzelnen Tone schließen. Der Mensch erkennt somit das Ganze
und nicht Details. So ist es ihm auch moglich, vom Ganzen auf ihm bisher unbekannte
Details zu schließen, eine unbestimmte Wahrnehmung der Teile vom Ganzen. Husserl
beschreibt das durch den inneren Horizont. Es ist die Fahigkeit, einen Gegenstand in
seiner Ganzheit wahrzunehmen, wie ein Haus, ohne die Einzelteile, etwa seine Rucksei-
te, zu kennen.”Eine Maschine ohne einen entsprechenden inneren Horizont musste die
Information in umgekehrter Reihenfolge verarbeiten: Vom Detail zum Ganzen.“(Dre85,
S.189f) Das bedeutet, der Mensch kann durch seine Erwartungen Informationen zu einem
System hinzufugen, auch wenn er nicht alle Details kennt, aber eben eine Vorstellung
durch eine bewusste Wahrnehmung einzelner Teile des Ganzen hat. Diese Vorstellung des
Ganzen erlangt er durch den situativen Kontext und uber die Wahrnehmungen seines
Korpers. Dem Computer hingegen fehlt im Zweifelsfall die eigene Erwartung im Hin-
blick auf weitere Informationen. Es stellt sich also die Frage, wie er alle Details aus dem
Kontext heraus erfahren kann, ohne sie explizit als Daten aufzunehmen.
Der Mensch hat dem Computer die Flexibilitat voraus, die er durch eigene Erwartungen
erreicht. Ebenso wie das erfasste Ganze wird auch der Sinn aufgenommen. Hierzu hat
Husserl eine Theorie, die von Merleau-Pony erweitert wird.”Er behauptet, dass es der
Korper ist, der den von Husserl entdeckten Sinn verleiht.“(Dre85, S.197) Der Korper
reagiert auf das Ganze und nimmt somit auch seinen Sinn auf. So reagieren die Sin-
nesorgane auf Klange und Rhythmus und nehmen die Gestalt der Musik auf. Ebenso
ist es bei einer Fertigkeit, die wir erlernen. Zuerst besteht diese Fertigkeit aus Regeln,
die wir bewusst und langsam befolgen und irgendwann verinnerlichen. Diese Verinnerli-
chung geschieht uber den Korper, da die Bewegungen ins Unterbewusste aufgenommen
und vom Korper weiter ausgefuhrt werden. Beim Stricken mussen wir zuerst ganz genau
beobachten, was zu tun ist, wir erlernen mit Regeln, wie die Nadel und der Faden zu
bewegen sind, um eine Masche zu stricken. Nach einiger Zeit und Ubung, bei der der
32
Christine Plicht
Korper aufmerksam ist, werden die Bewegungen immer gefestigter, bis sie vollkommen
routiniert sind. Dann ist es auch nicht mehr notig, alle Sinnesorgane auf das Stricken
zu konzentrieren, denn die Finger bewegen sich fast selbstandig, ohne das Strickzeug zu
betrachten.”Da dem Computer der lebendige Korper fehlt, kann er nicht als Ganzheit
reagieren, sondern muss von festgelegten Einzelheiten ausgehen und darauf sein Erken-
nen aufbauen.“(Dre85, S.204f) Ein Korper ist also notwendig, um Gegebenheiten in ihren
vollen Strukturen aufzunehmen und der Mensch nimmt seine Umwelt nicht uber Details
auf, sondern indem er die Ganzheit betrachtet. Ich schaue aus dem Fenster und sehe eine
Landschaft und nicht nur einzelne Baume und Hauser. Ein digitales System verknupft
erst Einzelheiten, um das komplette Bild zu betrachten. Nach Dreyfus formalisieren wir
demnach nicht alles, was wir mit den Sinnen wahrnehmen, also ist es schwierig, das auf
einen Computer zu ubertragen. Neben der Programmierung von Sprachcomputern wie
Chatbots gibt es vor allem in Japan viele Wissenschaftler, die sich mit der Entwicklung
von Robotern, speziell Androiden, beschaftigen. Diese menschenahnlichen Roboter sind
ausgestattet mit Sensoren, wie einer Kamera als Augen, sodass sie wie der Mensch ihre
Umwelt aufnehmen und verarbeiten konnen. Aber selbst mit diesen simulierten Sinnes-
organen ist es fragwurdig, wie der Roboter Kontext statt Einzeldinge erkennt.
Einen Androiden zu erstellen und zu programmieren bedeutet davon auszugehen, dass
das menschliche Verhalten durch formalisierbare Regeln beschrieben werden kann, da es
eine geordnetes System ist. Nur so kann das Verhalten nicht vollkommen willkurlich sein.
Das ist Minskys Auffassung, Dreyfus hingegen will zeigen, dass das menschliche Verhal-
ten geordnet und regelmaßig, also nicht willkurlich, ist, aber ohne formalisierte Regeln
ablaufen kann und sogar muss. Der Mensch befindet sich immer in einer Situation, in
der er fur gewohnlich etwas tut. Die Handlung steht in einem Kontext und das Verhal-
ten wird bestimmt durch Regeln, die wir im Alltag verfolgen und verinnerlicht haben.
Wenn ich in die Bibliothek gehe, muss ich meinen Rucksack in ein Schließfach sperren.
Um das Schließfach zu benutzen, brauche ich ein Zwei-Euro-Stuck usw. Wenn ich aber
in die Bibliothek gehe, nur um die Toiletten zu benutzen, muss ich meinen Rucksack
nicht einschließen. Hier zeigt sich, dass die Regeln auch vom Kontext abhangig sind und
nicht zu jeder Zeit und in jeder Situation gelten die gleichen Regeln. Der ubergeordnete
Kontext, in dem sich der Mensch befindet, ist die Welt. Heidegger beschreibt das als
das In-der-Welt-sein, um ihn herum ist seine Lebenswelt, die auch in der Alltaglich-
keit”durch die menschlichen Absichten und Interessen vorstrukturiert“(Dre85, S.211)
ist. Diese Absichten und Interessen beziehen sich auf die Situationen. Auch die Einzel-
dinge, die uns umgeben und die wir benutzen, stehen in einem Kontext. Sie sind Teil
33
Christine Plicht
unserer Lebenswelt und haben eine Funktion fur uns. Wir benutzen sie, um etwas zu
tun. Heidegger verwendet hierfur den Begriff Zeug. Das Zeug hat eine Bewandtnis fur
den Menschen und der Kontext bezeichnet den Bewandtniszusammenhang. In diesem
Bewandtniszusammenhang sind wir von Tatsachen und Dingen umgeben, die je nach
Situation eine unterschiedliche Relevanz haben. Dementsprechend verandern sich auch
die Regeln, die wir dann benutzen. Die Regeln sind abhangig vom Kontext und um die-
sen zu erkennen, mussen wir uns bewusst sein uber die wesentlichen und unwesentlichen
Aspekte um uns herum. Auch muss man unterscheiden zwischen Regeln, die in dieser
Situation gelten, weil relevante Tatsachen dafur sprechen und allgemeingultigen Regeln,
die uns in der Alltaglichkeit begegnen. Die Schwierigkeit besteht nun darin, die relevan-
ten Tatsachen auszuwahlen ohne jene Regeln, die allgemeingultig sind, zu verlieren. Der
Mensch kann flexibel auf Situationen reagieren, so die relevanten von weniger relevan-
ten Aspekten trennen. Außerdem wahlen wir die Regeln mit Hilfe unserer Erfahrung
aus. Ein Computer hingegen ist mit isolierten Daten gefuttert und der Programmierer
versucht Methoden zu finden, um das Programm in einen Kontext einzubinden. Das
Problem hierbei ist, dass beim menschlichen Verhalten die Regeln und ihre Wahl durch
den Kontext bestimmt werden, den der Programmierer mit Hilfe von Regeln erschaffen
will. Der Computer braucht also Regeln, um den Kontext zu erhalten, im Gegensatz zum
Menschen, bei dem der Kontext durch das In-der-Welt-Sein gegeben ist. Der Kontext ist
wichtig fur die Interpretation der Regel und ihre Anwendung. Ohne die Flexibilitat des
Menschen muss”der Programmierer in der Lage sein, all das explizit zu machen, was
er als Mensch normalerweise fur selbstverstandlich halt“14 (Dre85). Selbstverstandlich
ist eben die Abschatzung von Relevanz und dsa Vorkommen in Situationen und damit
verbundenen Kontexten, da der Mensch die Eigenschaft des In-der-Welt-Sein hat. Das
geregelte Verhalten des Menschen auf ein digitales System zu ubertragen ist demnach
nicht umsetzbar, wenn man versucht es durch Regeln zu formalisieren. Die Entscheidun-
gen, die der Mensch trifft, sind abhangig von der Situation; ein Programmierer muss
hingegen durch eine uberwaltigende Datenmenge und Entscheidungsbaume versuchen
das abzubilden. Das bedeutet, dass die Entscheidungen prinzipiell schon durch den Pro-
grammierer getroffen werden und nicht vom Computer selbst.
Eine Methode, die Dreyfus auch immer wieder anspricht, ist ein heuristisches Verfahren,
mit dem man bei einem Problem mit einer großen Datenmenge das Suchen nach der
richtigen Entscheidung abkurzt. Angenommen, in einer Situation gibt es endlich viele
Zustande, die berechnet werden konnen und um das Problem zu losen, mussen wir einen
14Hervorhebung von der Autorin.
34
Christine Plicht
Zustand auswahlen. Anschaulich ist es bei einem Schachspiel darzustellen. Die Spielfigu-
ren befinden sich in einer bestimmten Konstellation und nun gibt es mehrere Moglich-
keiten (einschließlich ihrer Folgen), wie der Computer reagieren konnte. Bei einfachen
Spielen kann der Computer einfach alle Moglichkeiten und Folgezustande, einen soge-
nannten Entscheidungsbaum, ausrechnen und sich dafur entscheiden, welche die Beste
ist. Aber beim Schachspielen ist die Berechnung dafur zu zeit- und ressourcenaufwen-
dig, sodass der Computer eine Entscheidung trifft und weiter verfahrt. Der Mensch trifft
diese Entscheidung aus reinem Gefuhl und der Erfahrung heraus, der Computer kann
dazu Hilfsfunktionen oder Schatzungen benutzen und hofft, dass das weitere Verfahren
annahernd optimal verlauft. Ein Schachcomputer wird mit heuristischen Verfahren pro-
grammiert, aber auch Losungen fur das Traveling Salesman Problem15 verwenden diese
Methode. Gerade bei dem Traveling Salesman Problem verlangert sich die Berechnung
pro weiteren Punkt so stark, dass es schon bei einer kleinen Menge Punkte zu viele
Losungen gibt um eine angemessene Berechnungszeit zu erreichen.
Dreyfus findet heuristische Verfahren fur komplex-formale Systeme angemessen, wie
Spiele, deren Moglichkeiten prinzipiell zwar alle berechnet werden konnen und somit
vollstandig formalisierbar sind, aber die wirkliche Ausfuhrung an die Grenzen der techni-
schen Moglichkeiten stoßt und deswegen scheitert. Der Programmierer muss also abwagen,
wie viel Zeit er fur die Berechnung einer annahernd exakten, aber zulassigen Losung auf-
wenden will. Je weniger Zeit, desto unexakter. Neben den Problemen, die mit komplex-
formalen Systemen gelost werden (und einfacheren Problemen und ihre dazugehorigen
Systeme) gibt es auch Probleme oder Verhalten, die sich nicht formalisieren lassen.
Dieses ist situationsabhangig und umfasst beispielsweise”alltagliche Handlungen, die
regelmaßig, aber nicht regelgeleitet sind“(Dre85, S.248), wie Ratespiele, deren Regeln
nicht eindeutig sind. Hierzu ist der Kontext und eine Gesamtubersicht notwendig, was
das Verhalten nicht komplexer macht, aber eben nicht formalisierbar, weil starker in der
Lebenswelt verankert.
Die Handlungen eines Systems sind geleitet durch Regeln, diese Regeln aber mussen auf
einem System basieren, auf dessen Grundlage sie programmiert sind. Das System strebt
nach einem Ziel oder mehreren Zielsetzungen. Im dritten Kapitel seines Buches unter-
sucht Dreyfus genauer diese Zielsetzung und die Motivation des Menschen vergleichend
mit der Zielsetzung eines Computers. Dabei handelt es sich um Entscheidungen in Situa-
tionen und nicht Handeln auf ein letztes Ziel fur das gesamte Leben hin. Dreyfus zitiert
15Hierbei wird wie die kurzeste Strecke zwischen n Punkten gesucht. Die Frage ist, in welcher Reihenfolgeich die n Punkte (Orte) wahle, sodass die Gesamtstrecke minimal ist.
35
Christine Plicht
Satosi Watanabe und beschreibt seine Ideen zu den Zielsetzungen des Menschen, dass
sie durch ein System von Werten geleitet sind, eine Maschine hingegen unterliegt pro-
grammierten Zielsetzungen. Dreyfus erweitert diesen Gedanken und behandelt verstarkt
die Flexibilitat dieser Werte und die Situationsabhangigkeit. Zentral hierbei ist die Er-
fahrung und auch die damit zusammenhangenden Interessen. Das begrundet Dreyfus
mit den Bedurfnissen des Menschen. Bedurfnisse sind allerdings recht unbestimmt und
verkorpern eher ein Verlangen als ein konkretes Ziel. Zwar fuhrt es Dreyfus nicht konkret
aus, aber er erwahnt, dass der Mensch ein grundlegendes Ziel hat, auch wenn das nicht
sonderlich konkret ist. Die Bedurfnisse werden durch unsere Interessen befriedigt. Ein
Maler hat das Bedurfnis, etwas zu erschaffen oder sich kreativ zu verwirklichen. Dies tut
er durch das Interesse am Malen und durch seine Erfahrung weiß er, dass Malen das ist,
was sein Ziel erfullt. Hier begegnen uns nun einige Begriffe, Werte, Bedurfnisse, Ziele die
zusammenhangen und alle darauf gerichtet, sind in Situationen zu handeln. Aufgrund
von Werten oder Bedurfnissen ist unser Handeln auf etwas gerichtet, das aufgrund un-
serer Erfahrung konzipiert ist. Wichtig dabei ist, dass Werte und Bedurfnis flexibel sind
und nicht eindeutig. Das macht es schwierig auf den Computer zu ubertragen. Die Aus-
legung der Werte ist immer auf eine Situation bezogen. Durch eine Veranderung der
Lebenswelt eines Menschen kann sich sein Interesse auf einem bestimmten Feld voll-
kommen andern. Beispielsweise kann einem Menschen erst bewusst werden, dass er sich
nach etwas gesehnt hat, wenn er es auf einmal erhalt und ihn erfullt. Vorher war es
ein unbestimmtes Bedurfnis, durch seine Erfullung andern sich seine Interessen. Sobald
er sich wieder in der alten Situation befindet, seine Erfullung verliert, wird er wissen,
dass das seine Bedurfnis erfullt. Dreyfus gibt dazu das Beispiel eines Mannes, der sich
verliebt und erst dann realisiert, dass er uberhaupt Interesse an eine Beziehung hat. Sein
Bedurfnis wird also spezifischer und sein Interesse konzentriert sich darauf. Kierkegaard
bezeichnet diese Veranderung, die die Personlichkeit des Menschen neu definiert, eine
Daseinserschutterng. Auch hier befindet der Mensch sich in Situationen, die sein Dasein
bestimmen und eingebettet in seine Lebenswelt sind. In diesen Situationen verandert
sich der Mensch und mit ihm seine Interessen und Bedurfnisse. Dadurch verhalt er sich
anders. Naturlich sind dabei auch wieder Regeln gegeben, die nun in einem anderen
Kontext stehen, aber in diesem Aspekt will Dreyfus die Motivation erarbeiten, warum
wir uns in einer Situation verhalten.
Es zeigt sich, dass Dreyfus ein sehr negatives Bild der KI-Forschung hat und einen viel
vorausschauenderen Blick, als Forscher, die ein Programm mit solchen Zielen entwickeln.
Dreyfus betrachtet die Welt des Menschen, in der er eingebettet ist und fragt sich, wie
36
Christine Plicht
eine Maschine dort leben kann wie ein Mensch. Er kommt zu dem Entschluss, dass sie
es nicht konnte, weil das Leben des Menschen stark situationsabhangig ist, sowohl im
Hinblick auf Regeln als auch auf Bedurfnisse, nach denen sich der Mensch verhalt. Beides
halt er fur unmoglich in ein Programm zu implementieren. Er kritisiert den unermudli-
chen Euphorismus der Forschungsgemeinde und auch Josef Weizenbaum erkennt, dass
mit seinem Programm ELIZA diesem Durchbruch viel starkere Bedeutung beimessen als
er selbst es tat. Dreyfus hat mit seinem Buch nicht eine Welle an Diskussionen ausgelost,
wie Searle mit seinem Gedankenexperiment. Das liegt wahrscheinlich daran, dass Drey-
fus’ Kritik nicht so zuganglich ist wie Searles Experiment. Er bleibt in vielen Aspekten
relativ vage und die Argumente sind gepragt von der europaischen Philosophie Heideg-
gers und Kierkegaard. Die phanomenologische Herangehensweise ist fur Informatiker
schwerer zuganglich.
37
Christine Plicht
5 Robotik als Weg zu einer kunstlichen Intelligenz
Parallel zur philosophischen Auseinandersetzung zum Thema finden immer weitere Ent-
wicklungen in der Informatik statt. Anstatt sich mit Fragen auseinanderzusetzen ob
es denn prinzipiell moglich ist, Bewusstsein zu entwickeln, zielt die Forschung starker
auf praktische Ergebnisse. So werden Roboter und weitere Systeme entwickelt und ver-
sucht, was moglich ist und an welche Grenzen die Wissenschaftler stoßen. In diversen
Forschungsinstituten wird zur heutigen Zeit an Robotern gearbeitet, in denen eine kunst-
liche Intelligenz entwickelt wird. Vor allem in Japan ist der Markt an Robotern sehr groß
und dort sind die Visionen weiter optimistisch. Naturlich wird nicht jeder Roboter ent-
wickelt, um kunstliche Intelligenz zu erschaffen, aber wenn man Dreyfus’ Kritik ernst
nimmt, so ist ein Roboter Voraussetzung fur ein intelligentes System. So gibt es viele For-
schungseinrichtungen, die daran arbeiten. Honda hat eine Androiden ASIMO entwicklt
mit dem am CoR Lab16 der Universitat Bielefeld gearbeitet wird. Sie versuchen durch
Interaktionen und Lernen ASIMOs Sprachevermogen, Bewegungen und Seevermogen zu
verbessern und dabei grundlegende Erkenntnisse uber Lernen und Wahrnehmung zu er-
langen. Auch an der Universitat Heidelberg gibt es eine Arbeitsgruppe Optimiziation in
Robotik and Biomechanics und ein Robotiklabor. Am MIT gab es ein Forschungsprojekt
COG, an dem Dennett beteiligt war. Dort wollte man einen Roboter entwickeln und
ihm Eigenschaften beibringen, beispielsweise Kunststuck und Sprache. Neben den For-
schungsprojekten gibt es auch konkrete weitere Herausforderungen, deren Fortschritte
in Wettbewerben gezeigt werden. Nachdem Deep Blue den Schachweltmeister geschla-
gen hat und diese Aufgabe gelost wurde, wird heutzutage daran gearbeitet, Robotern
Fußball spielen beizubringen. Dazu gibt es Landes- und Weltmeisterschaften, den so-
genannten Robocups. In unterschiedlichen Disziplinen, je nach Große und Anforderung
an autonomen Geraten, treten Roboter gegeneinander an und versuchen, Fußball zu
spielen. Hier hat man sich zum Ziel gesetzt in 50 Jahre, also Mitte des 21. Jahrhun-
derts, gegen den dann amtierenden Fußballweltmeister anzutreten und zu gewinnen.
Etwa so lange hat auch die Entwicklung der Schachcomputer gedauert, bis Deep Blue
den Schachweltmeister Kasparov besiegen konnte. Das Problem des Fußballspielens ist
fur die KI interessanter als einen Schachcomputer zu entwickeln, weil hier die Strategie
und Herangehensweise dem Menschen eher nachempfunden werden als beim Schachspie-
len. Der Schachcomputer besteht aus einer großen Datenbank und einem Programm,
das eine andere Strategie verfolgt als ein menschlicher Schachspieler. Ein Mensch filtert
16Weitere Informationen zu dem Projekt unter http://www.cor-lab.de/. [Abruf August 2011]
38
Christine Plicht
zuerst, welche Figuren uberhaupt in Frage kommen zu ziehen und berechnet auch nicht
in jeder Konstellation moglichst viele Zuge voraus. Hier zeigt sich wieder die situations-
abhangige Relevanz, die der Computer schwerer abschatzen kann. Der Mensch handelt
starker aufgrund seiner Erfahrung und Intuition, weniger aufgrund der Berechnung des
weiteren Spiels. Naturlich variiert das bei der Spielstarke der Spieler. Beim Fußballspie-
len sind es fast die gleichen Anforderungen, die nur mit den gleichen Mitteln bewaltigt
werden konnne. Es geht um Bewegung, Schnelligkeit, Treffsicherheit und Teamgeist.
Momentan sind die Roboter aber noch sehr weit davon entfernt gegen eine menschliche
Fußballmannschaft anzutreten. Die Spielgeschwindigkeit ist noch außerst gering und die
Passgenauigkeit recht vage. Dennoch sind hier die Probleme der kunstlichen Intelligenz
starker vertreten. So geht es nicht nur darum einen Korper zu entwickeln, sondern auch
Interaktion der Roboter untereinander herzustellen.
An diesem Punkt stellt sich die Frage, was wir uberhaupt von einer Maschine verlan-
gen, um ihr Intelligenz zuzusprechen. Unabhangig von den philosophischen und tech-
nischen Schwierigkeiten, die sich ergeben, halte ich folgende Eigenschaften fur notwen-
dig um uberhaupt von einer starken kunstlichen Intelligenz zu sprechen. Ebenso wie
Dreyfus sehe ich den Korper als zentralen Aspekt bei der Weiterentwicklung einer Ma-
schine. Auch Dennett glaubt nicht,”dass irgend jemand jemals einen Roboter bauen
wird, der in ganz genau derselben Art und Weise bewusst ist wie menschliche Wesen es
sind.“(Den96, S.691). Was entwickelt werden konnte ist ein Roboter, der zentrale Eigen-
schaften besitzt und mit dem wir kommunizieren konnen. Zur Kommunikation notwendig
ist naturlich Sprache, hierbei gibt es auch schon einige Fortschritte, wenn man Chatbots
betrachtet. Es zeigt sich, dass die Moglichkeit besteht, dass sich ein digitales System mit
uns unterhalt. Diese Unterhaltungen vielleicht nicht immer sinnvoll, aber zumindestens
unterhaltsam. Sprache muss naturlich im System weiterentwickelt werden, sodass der
Roboter lernfahig sein muss. Nicht nur in Bezug auf die Sprache. So kann er im Ge-
sprach mit einem Gegenuber Reaktion erhalten und so seine Datenbank erweitern und
lernen, welche Reaktionen seinerseits angemessen sind. An der Weiterentwicklung der
Sprache zeigen sich die wesentlichen Merkmale. Sprache wird durch Interaktion gelernt.
Das heißt, um Sprache uberhaupt zu lernen, muss interaktiv agiert werden. Diese Inter-
aktion findet meist durch kooperative Handlungen statt. George H. Mead (1863-1931)
vertritt die Ansicht, dass geistige Eigenschaften uberhaupt erst durch Sprache entstan-
den sind und Sprache sich durch kooperative Handlungen und gesellschaftliche Prozesse
entwickelt hat. (Mea08) Es ist also notwendig, Aktionen mit Menschen oder anderen Ro-
botern durchzufuhren, damit Sprache sich verfestigen kann und uberhaupt Bedeutung
39
Christine Plicht
erreichen konnte. Das Problem, wie die Sprache in einen kunstlichen System uberhaupt
Bedeutung erreichen kann und nicht nur reine Syntax darstellt, zeigt das Symbol groun-
ding Problem (Har90). Searles Kritik, die er anhand des Gedankenexperiment außert,
zielt auf dieses Problem, wie wir im vorangegangen Kapitel gesehen haben. Wie ist es
also moglich, dass ein System nicht nur mit reinen Symbolen hantiert, sondern intrin-
sisches Wissen erreicht? Die Symbole mussen einen Bezug zur Welt bekommen, eine
Referenz erhalten und zusatzlich die Bedeutung des Symbols erlernen. Im Gegensatz zu
einem reinen Chatprogramm konnte der Roboter einen Bezug zum dem Wort und dem
dazugehorigen realen Gegenstand aufbauen. Er redet nicht nur von einem Apfel, sondern
er hat auch schon einmal einen gesehen und kann diesen oder einen anderen Gegenstand
als Apfel wiedererkennen. So kann er auch ASIMO an der Universitat Bielefeld immer
weitere Gegenstande erlernen und einen Hocker, den er zuvor noch nie gesehen hat, als
Stuhl identifizieren17. Es ist also scheinbar moglich, einem Roboter Konzepte beizubrin-
gen, sodass er diese auch in anderen Gegenstanden erkennt und deren Funktionalitat
beurteilen kann. Dazu ist Interaktion mit den Gegenstanden notwendig sowie Kommu-
nikation uber diese Gegenstande.
Der Unterschied vom Schach- zum Fußballproblem ist, dass die Fußballmannschaft in
Echtzeit spielen soll und der Schachcomputer relativ viel Zeit zum berechnen braucht.
Momentan sind die Bewegungen allerdings noch so langsam, dass alleine deswegen eine
Roboterfußballmannschaft gegen Menschen stark benachteiligt ist. Bei vielen Problemen
benotigt der Computer viel Zeit, um Moglichkeiten zu berechnen und die Datenbank zu
durchsuchen. Damit eine Interaktion mit dem Menschen moglich ist, musste ein Roboter
sich in einer ahnlichen Geschwindigkeit wie ein Mensch bewegen und verhalten konnen.
Als wichtige Eigenschaft wird oft die eigene Weiterentwicklung angesehen. Neben der
Lernfahigkeit, die u.a. von extern, von Interaktionspartner, gegeben wird, ist ein Ro-
boter vorstellbar, der sich selbst verandern, reparieren oder bearbeiten kann. Ahnlich
wie die meisten Wunden und Krankheiten des Menschen vom Korper selbst kurieren,
sollte es moglich sein, dass der Roboter einfache Funktionsstorungen selbst erkennt und
repariert. Damit ist der Roboter starker autonom und nicht auf die Hilfe und Betreuung
des Menschen angewiesen. Eine Steigerung des eigenen Wartung und Weiterentwicklung
ist ein System, das selbst ein neues System entwickelt, das die eigenen Fahigkeiten und
Moglichkeiten ubersteigt. So wie wir Maschinen entwickeln, die Aufgaben losen, zu denen
wir aus unserer eigenen Kraft nicht in der Lage sind, konnte ein Computer ein anderes
17Ein eindruckvolles Video dazu, kann man unter http://www.youtube.com/watch?v=P9ByGQGiVMgansehen, leider war es nicht moglich die Originalquelle zu finden. [Abrufdatum: August 2011]
40
Christine Plicht
System, das uber es selbst hinaus geht, erschaffen.
Damit der Roboter diese beschriebenen Eigenschaften lernt, halte ich es fur notwendig,
dass er eine Art Kindheit durchlauft und somit eine Entwicklung gegeben ist. Auch
COG wurde so konstruiert, dass er in einer Kleinkindphase beginnt. Fraglich ist, wie
lange ein kindlicher Zustand andauert und ab wann oder ob sich der Roboter zu einem
Erwachsenen entwickeln kann. Dauert das so lange, wie bei einem Menschen und inwie-
weit ist das abhangig von der Technik? Es ist vorstellbar, dass es viel Zeit und Muhe
kostet, die Fahigkeiten eines Roboters zu entwickeln, statt vorher einzuprogrammieren.
COG sollte auch bestimmte Bezugspersonen haben, die als Mutterfigur fungieren. Eine
Bezugsperson oder mehrere, die er erkennt und die sich maßgeblich um seine Entwick-
lung kummern. Das zeigt sich auch dadurch, dass er das Gesicht seiner Mutter praferiert
Aufmerksamkeit schenkt und versucht zu verhindern, dass seine Mutter sich von ihm
abwendet.
Ziel dieser Eigenschaften ist es, dass der Roboter eine Lebenswelt besitzt, auch wenn die-
se sich von der eines Menschen stark unterscheiden wird. Eine Lebenswelt ist notwendig,
damit ein situativer Kontext gegeben sein konnte. Ob das mit all diesen Eigenschaften
wirklich erreicht werden kann, ist jedoch fraglich. Nur in einer Lebenswelt kann der Ro-
boter so interaktiv sein, dass die Welt um ihn herum auch eine subjektive Bedeutung
hat und dadurch auch eine Individualitat erreichen konnte. Stellen wir uns also vor, es
gelange einen Roboter zu entwickeln, der sich mit einem Menschen unterhalten kann,
auch wenn es nur einen alltagsbasierte Gesprache sind. Weiter kann er in der Welt mit
Gegenstanden umgehen, wie einen Tisch von einem Stuhl zu unterscheiden, auch wenn er
konkret diesen noch nie gesehen hat. Er ist sich dadurch der Funktion bewusst und kann
sie mit anderen Gegenstanden in Verbindung bringen. Dieses Verhalten entstand durch
Lernen in Situationen, in denen der Sprache eine konkrete Referenz in seiner Umwelt
geben konnte. Alleine mit diesen Eigenschaften konnen wir uns ein Verhalten vorstellen,
bei dem der Roboter mit uns in unserer Lebenswelt interagiert. Daruber ob dieser Ro-
boter nun wirklich Sprache versteht oder Dinge wahrnimmt, lasst sich dann naturlich
weiter diskutieren. Die Frage nach der reinen Simulation kann immer weiter im Raum
stehen. Die Frage ist nur, ist eine solche Diskussion dann immer noch sinnvoll? Sollte
man sich dann nicht einer pragmatischen Vorgehen anschließen und den Roboter das
zusprechen, was er tut?
Wenn wir diesen Roboter betrachten, den ich oben beschrieben habe oder uns Androiden
in Science-Ficton-Filmen anschauen, so wird schnell deutlich, dass es sich hier nicht nur
um einen kunstliche Intelligenz handelt, sondern versucht wird, einen kunstlichen, wenn
41
Christine Plicht
auch nicht organischen, Menschen zu erschaffen. Die Abgrenzung zwischen kunstlicher
Intelligenz und einer kunstlichen Person wird selten getroffen. Der Weg zu einer kunst-
lichen Intelligenz uber die Robotik und alle Versuche einen Roboter zu erschaffen sind
allerdings anspruchsvoller als nur eine kunstliche Intelligenz. So ist Turings Kriterium
nicht auf einen Korper angewiesen. Es gibt auch Ideen, den Turing-Test dahingehend
zu erweitern, dass sich das System, ein Roboter, wie ein Mensch in der Umwelt ver-
halten muss - der Total Turing Test (TTT) (Har91). Hier will Steven Harnad sowohl
die linguistischen Fahigkeiten, als auch die sensomotorischen testen. Allerdings gibt es
auch Kritiker, die den TTT fur unnotig halten. Wenn der gewohnliche Turing-Test aus-
reicht, dann ist der TTT keine Erweiterung. Wenn nicht, ist der TTT genauso ungeeignet
wie der Turing-Test, um mentale Eigenschaften zu bestatigen (Hau93). Der Begriff der
Person ist weiter gefasst als eine kunstliche Intelligenz. Hierzu haben ich in Kapitel 2
Kriterien beschrieben, die Dennett fur notwendig halt, eine Person zu beschreiben. Er
verdeutlicht,”es gibt keine objektiv erfullbaren hinreichenden Bedingungen dafur, dass
ein Wesen wirklich Meinungen hat.“(Den81, S.320f). Von einem intentionales System
verlangt Dennett keine verbale Kommunikation, Selbstbewusstsein oder das Erwidern
einer Haltung. Umgekehrt ist ein intentionales System auch notwendig fur eine Person.
Zwar schreiben wir auch Tieren teilweise gewisse Eigenschaften zu, die wir mit einer
Person identifizieren, allerdings benutzen wir den Personenbegriff weitgehend exklusiv
fur den Menschen. So ist auch das Vorhaben einen Roboter zu bauen, der den TTT
bestehen konnte, ein Stoß in die Richtung, eine kunstliche Person zu erzeugen und nicht
nur ein kunstliches System. Die Anforderungen an eine kunstliche Intelligenz und die
Visionen dazu sind in den letzten Jahrzehnten immer starker gestiegen.
Auch Dreyfus Forderung eine kunstlichen Intelligenz in situative Kontexte einzubetten,
ist nur dann notwendig, wenn sie sich verhalten soll wie ein Mensch, anstatt nur gewisse
kognitive Eigenschaften zu ubernehmen. Aber selbst dann, wenn sich der Roboter wie
ein Mensch verhalt, sodass wir ihn nicht unterscheiden konnen, bleibt er trotzdem eine
Maschine. Auch dann gibt es existenzielle Unterschiede der Maschine zum Menschen.
Auch wenn der Roboter den Kontext erfasst, in dem er sich verhalt, ist es fraglich an-
zunehmen, ob er auch den Aspekt der Geschichtlichkeit des Menschen erhalten kann.
Der Mensch ist kein diskretes Wesen, er ist eingebunden in die Zeit. Er steht in einer
Tradition und ist in gewissen Sinne die Summe seiner Handlungen und Begegnungen in
der Vergangenheit mit Blick auf die Zukunft. Nie kann ich sagen, dass der Mensch ein
diskretes Objekt zum Zeitpunkt X ist. Das, was der Mensch zu diesem Zeitpunkt ist, ist
aber mehr als nur das, was er gelernt oder erfahren hat. Er steht in einem geschichtlichen
42
Christine Plicht
und nicht nur situativen Kontext. Einen Menschen zu einem Zeitpunkt X zu betrachten,
erfasst nicht das Wesen des Menschen. Dahingegen ist der Computer eine klarer diskreter
Zustand zum Zeitpunkt X. So klar, dass ich davon eine Systemwiederherstellung machen
kann, wenn er zwei Stunden spater nicht mehr funktioniert.
So wie Dreyfus mit phanomenologischen Methoden eine KI in einen situativen Kontext
genauer betrachtet, was auch in der Tradition von Heidegger steht, kann man dessen
Konzept der Zeitlichkeit genauer betrachtet. Hier spielt der Tod eine zentrale Rolle:
”Der Tod ist eigenste Moglichkeit des Daseins. Das Sein zu ihr erschließt dem Dasein
sein eigenstes Seinkonnen, darin es um das Sein des Daseins schlechthin geht.“(Hei06,
S. 263) Der Mensch hat in seiner Existenz immer in irgendeiner Weise ein Verhaltnis
zum Tod, da sein Leben endlich ist. Die Existenz eines Roboters hingegen muss nicht
zwangslaufig endlich sein. Naturlich kann der Roboter zerstort oder ausgeschaltet wer-
den, aber zu seinem Sein gehort nicht der Tod. Das bedeutet, dass seine Moglichkeiten
nicht davon gepragt sind, dass er sich seines eigenen Todes bewusst ist und dass sich
da in seinem Verhalten wiederspiegelt. Empirisch wird es fur ihn genauso ein Ende ge-
ben, wie fur den Menschen, aber das Ende des naturlichen Menschen ist unvermeidbar.
Ich denke dass ist ein zentraler Unterschied, der sich nicht andern wird. Spekulationen
daruber, den Menschen dahingehend zu erweitern, dass er durch kunstliche Organe auch
unsterblich werden konnte ist fur diese Debatte meiner Meinung nach irrelevant.
Stellen wir uns wieder diesen Roboter vor, der sich verhalt wie ein Mensch. Ob ihm
wirkliches Denken, Wunsche und damit bewusste Handlungen zugesprochen werden ist
auch abhangig von der Akzeptanz dieser digitalem Systems seines Umfeldes. Vielleicht
ist es auch einfach nur ein Prozess, der sich entwickelt und der Mensch muss sich an
die Gegenwart von kunstlichen System als Teil seiner aktiven Lebenswelt gewohnen. So
wie wir Haustiere anders wahrnehmen und mit ihnen umgehen als Nutztiere, konnte es
genauso mit Robotern sein. Die wenigstens Menschen wurden, außer in Notsituationen
ihr Haustier essen und durch eine personliche Beziehung zu dem Tier, nehmen wir es
anders wahr als einen Vogel, der auf dem Baum singt. Erst durch den konstanten Be-
zug und die Erfahrungen mit ihm, nehmen wir das Tier zwar nicht als eine Person auf,
dennoch verhalten wir uns ihm gegenuber ahnlich wie zu einem Menschen, indem wir
uns um das Tier sorgen und uns kummern. Naturlich ist die Voraussage, dass wir so
mit Robotern umgehen nicht stark begrundet und vielleicht auch nicht wahr. Dennoch
mochte ich hier an den vorangegangen Aspekten die Moglichkeiten und Probleme aufzei-
gen, die sich ergeben, falls es gelange Systeme zu entwickeln, die mit uns interagieren, als
seien sie menschlich. Ob das eintrifft, wird kein Philosoph voraussagen konnen und auch
43
Christine Plicht
nicht zuverlassig ein Visionar der KI, wie beispielsweise Ray Kurzweil. Mit der Zeit wird
sich zeigen, ob und wie die Entwicklungen in der Informatik und Robotik weiter ver-
laufen. Auch die schlagenste philosophischen Argumente werden Entwickler nicht davon
abhalten trotzdem zu versuchen immer weiter zu kommen und die Grenzen praktisch zu
erfahren.
Wenn die Anforderungen an eine kunstliche Intelligenz getrennt von den Vorstellungen
einer kunstlichen Person betrachtet werden, sind wir dort, wo Turing 1950 war. Es ist un-
klar, welche Kriterien wir anwenden sollen und der Streitpunkt ob das System wirklich
Wunsche hat oder Denken kann, wird aus unterschiedlichen Seiten diskutiert. Meiner
Meinung nach ist es sinnvoll das System danach zu beurteilen, was es als Output liefert
und wie es uns dadurch begegnet. Es wird sich zeigen, wie weit die Entwicklung vor-
anschreitet und wozu Roboter wirklich fahig sein werden. So wie wir zur Bestimmung
der Intelligenz des Menschen auch Tests haben, auf die man sich vorbereiten kann, ist
ein Test a la Turing wahrscheinlich die sinnvollste Moglichkeit die Fahigkeiten eines di-
gitalen Systems zu bestimmen. Dazu muss es kein Sprachtest sein und auch kein Total
Turing Test, sondern vorstellbar waren bestimme Aufgaben, die das System bewaltigen
muss. Hierbei konnte man Robotern und anderen Systemen unterschiedliche Herausfor-
derungen stellen. Allerdings ist es dann immer noch schwierig dem System kognitive
Eigenschaften zuzuschreiben, sondern es hat Test XY bestanden und kann somit irgend-
wie klassifiziert werden. Weitere oder andere Kriterien zu finden, halte ich fur schwer
durchsetzbar, da man sich nicht daruber einig ist, was uberhaupt moglich ist und wie
das zu bewerten ist. Unter solchen Voraussetzungen ist es unklar wie man einheitliche
Kriterien und deren Auswertung festlegen kann.
Betrachtet man sich die philosophischen Probleme, die hinter der KI Forschung stehen
bzw. mit deren Hilfe man philosophische Probleme losen wollte, so hat man hier in den
letzten 50 Jahren nicht besonders viel erreicht. Man ist sich vielleicht klarer, dass die
Euphorie durch die große Schritte zu Beginn der Forschung, so nicht weiter gehen konn-
te und auch nicht werden wird. Es zeigte ich immer wieder, dass die Komplexitat und
Entwicklung einer Probleme schwer einzuschatzen war, auch wenn man zu Beginn einen
guten Start hatte. Vergleichsweise einfach waren immer wieder Programm zu implemen-
tieren, die dem Menschen schwere bis unmogliche Arbeiten oder Berechnungen abneh-
men, aber bei den einfachsten Dinge, die schon ein Kind beherrscht ist es sehr muhsam
diese zu entwickeln. Das was Searle den Zielen der starken KI zuschrieb, uber den Com-
puter einen besseren Zugang und ein klares Verstandnis des Geistes zu erreichen, hat sich
bis heute nicht bewahrheitet. Allerdings bezweifle ich, dass das wirklich hochste Prio-
44
Christine Plicht
ritat der Forscher hatte. Naturlich versucht man auch heute noch, gerade uber Roboter,
bessere Vorstellungen der moglichen Arbeitsweise und Strukturen von kognitiven Eigen-
schaften zu erreichen. Inwieweit man daruber Schlusse fur das Korper-Geist-Problem
ziehen kann, sehe ich als kontroversen Punkt. Sicherlich ist hier eine starke Zusammen-
arbeit mit den Neurowissenschaften notwendig, die zum Teil auch geschieht, aber deren
genauere Betrachtung im Rahmen dieser Arbeit nicht moglich war. Die philosophischen
und weniger technischen Einwande, haben allerdings schon Einzug in die KI-Forschung
gefunden. Gerade Dreyfus Kritik, die sich auf die Situationsabhangigkeit bezieht und
erklart warum ein Korper notwendig ist, wird in der Robotik verwirklicht. Es ist wahr-
scheinlich, dass diese phanomenologische Kritik berechtigt ist und die Entwicklung eines
kunstlichen Systems deswegen schwer ohne Korper und Kontext zu verwirklichen ist. Es
kann unmoglich sein dem System einen Kontext zu vermitteln, der dem des Menschen
gleicht und sich deswegen sein Verhalten, der Output, nicht mit unserem vergleichbar ist.
Allerdings ergeben sich die Probleme zumindest nicht mehr, aufgrund geringer Daten-
speichermoglichkeiten. In dieser Hinsicht hat sich seit Dreyfus einiges geandert. Sowohl
die Speicherkapazitat ist großer geworden, als auch die Große der Speichermedien ge-
ringer. Allerdings halt Dreyfus es nicht nur aufgrund dieser physikalischen Einstellung
fur unmoglich, dem System einen situativen Kontext zu vermitteln und dementspre-
chend zu agieren. Aber dann stelle ich mir die Frage: muss es das sein? Kann ich ein
System nicht als intelligent bezeichnen ohne das es unbedingt die Eigenschaften des
Menschen moglichst nahe oder besser simulieren kann. Es wird die zu starke Euphorie
der Forschung kritisiert, gleichzeitig aber die Erwartungen so hoch geschraubt, dass bei-
des nicht miteinander vereinbar ist. Dreyfus und Searle wollen beide die Unmoglichkeit
starker Systeme aufzeigen und setzen die Anforderungen an diese so hoch, dass diese gar
nicht erfullt oder uberpruft werden konnen. Die Anspruche, die wir an einen Menschen
haben, konnen nicht identisch auf ein kunstliches System ubertragen werden. Deswegen
sollte man sich auf eindeutige Kriterien einigen und die Fortschritte dann beurteilen,
wenn sie erreicht worden sind.
Naturlich gibt es weiter sehr optimistische Visionare bezuglich den Entwicklungen auf
dem Markt. So hat Ray Kurzweil 1999 Homo S@piens veroffentlicht, in dem er fur die
Jahre 2009 bis 2099 Voraussagen trifft, die sehr der Sciencs-Fiction-Welt gleichen. Man-
che davon treffen fur das Jahr 2009 zu, andere nicht. So ist die Beschreibung von Große
und Leistung der Computer und auch die Voraussage bezuglich Notebooks und Tablet-
PCs zutreffend. Die Voraussage:”Ubersetzende Telefone (speech to speech language
45
Christine Plicht
translation) sind allgemein im Gebrauch und fur viele Sprachenpaare erhaltlich.“(Kur99,
S.449) trifft auch zwei Jahre spater noch nicht zu und ich bezweifle, dass sie in nachster
Zeit verwirklicht wird. Nach Kurzweil entwickeln sich im Laufe des Jahrhunderts im-
mer mehr digitalen automatische Assistenten und eine virtuelle Realitat entsteht zu der
wirkliche. Fur das Jahr 2099 schreibt er:”Das menschliche Denken verschmilzt mit der
ursprunglich von der menschlichen Spezies erschaffenen Maschinenintelligenz.“(Kur99,
S.452).
46
Christine Plicht
6 Fazit
In der vorliegenden Arbeit habe ich die wichtigsten Argumente in der philosophischen
KI-Debatte erlautert und diskutiert. Dabei habe ich deutlich gemacht, dass es viele An-
knupfungspunkte innerhalb der KI-Forschung zur Philosophie gibt, einige davon beziehen
sich auf die Philosophie des Geistes oder Probleme in der Sprachphilosophie. Hier habe
ich die Relevanz und Berechtigung der Philosophie in dieser Debatte verdeutlich. Genau-
er habe ich die unterschiedlichen Argumentationsstrukturen der von mir ausgewahlten
Philosophen gezeigt. Dennett und Searle versuchen eher auf einer technischen Ebene
zu argumentieren, wohingegen Dreyfus aus phanomenologische Ebene Probleme sieht.
Hauptaspekte bezogen sich darauf, wann man einem System uberhaupt kognitive Fahig-
keiten, wie Intentionaliat zusprechen kann und unter welchen Kriterien. Außerdem ist
der Sprung von einem syntaktischen zu einem semantischen System, nach Searle, nicht
moglich. Als letzten Punkt habe ich Dreyfus Kritik basierend auf der Lebenswelt dar-
gestellt: die Unmoglichkeit, dass ein System situativen Kontext erfassen kann und seine
eigene Lebenswelt erhalt. Es hat sich gezeigt, dass diese auf verschiedene Ebenen an das
Problem herangehen und diese nicht immer auf Verstandnis in der nicht philosophischen
KI-Gemeinde getroffen haben.
Nach dieser Diskussion wird deutlich, dass es kein einheitliches Kriterium fur die Be-
wertung der jetzigen oder auch spateren Entwicklungen gibt, sodass die Frage nach
den kognitiven Fahigkeiten nicht abschließend beantwortet werden kann. Schwierigkei-
ten dabei machen die unterschiedlichen Analysen, aus der 1. oder 3. Person heraus. Die
pragmatische Betrachtung ermoglicht es Fahigkeiten anzuerkennen ohne den direkten
tieferen Vergleich mit den entsprechenden menschlichen Fahigkeiten zu treffen. Turing
hat ein dritte Person Kriterium vorgegeben, das aber weder anerkannt wird, noch eine
Maschine wirklich erreicht hat.
Hier hat die Philosophie gezeigt, dass es gerade durch die philosophische Diskussion
schwierig ist, den Turing-Test anzuerkennen. Deswegen sollte weiter ein gesellschaftli-
chen Diskurs uber Kriterien angeregt werden, um ein allgemein anerkanntes zu finden.
Die Begleitung der KI von der Philosophie gibt ein besseres Verstandnis in diesen Fragen
und sensibilisiert fur auftretende Probleme. Sie gibt nicht unbedingt eine Antwort, aber
verdeutlicht die Relevanz der Probleme fur die weitere Entwicklung. Es hat sich gezeigt,
dass der Turing-Test nicht einfach zu bestehen ist, das haben Philosophen auch vor 30
Jahren schon begrundet. Trotzdem sollte die Philosophie auch die weiteren Entwicklun-
gen in dem Gebiet der KI und der Robotik begleiten und parallel dazu interdisziplinar
47
Christine Plicht
Diskussionen anregen. Da dieses Themengebiet so umfassend ist, muss es auch von ver-
schiedenen wissenschaftlichen Disziplinen betrachtet werden, dabei spielt die Philosophie
keine geringe Rolle. Gerade dadurch, dass auch philosophische Themen betroffen sind
und hier Anknupfungspunkte an aktuelle Forschung gegeben ist, ist es notwendig diese
zu betrachten um auch im eigenen Fach sich nach vorne zu entwickeln und nicht den
Bezug zu anderen Wissenschaften zu verlieren.
48
Christine Plicht
7 Literatur
[Bec08] Beckermann, Ansgar: Analytische Einfuhrung in die Philosophie des Geistes.
3., aktualis. u. erw. Aufl. Berlin [u.a.] : de Gruyter, 2008
[Bie81] Bieri, Peter (Hrsg.): Analytische Philosophie des Geistes. Konigstein/Ts. :
Hain, 1981
[Car32] Carnap, Rudolf: Uberwindung der Metaphysik durch die logische Analyse der
Sprache. In: Erkenntnis 2 (1931/32)
[Den81] Dennett, Daniel C.: Intentionale Systeme. In: Bieri, Peter (Hrsg.): Analy-
tische Philosophie des Geistes. Konigstein/Ts. : Hain, 1981
[Den96] Dennett, Daniel C.: COG: Schritte in Richtung auf Bewußtsein in Robotern.
In: Metzinger, Thomas (Hrsg.): Bewußtsein. 3., erg. Aufl. Paderborn [u.a.],
1996
[Dre65] Dreyfus, Hubert: Alchemy and artificial Inelligence. (1965)
[Dre85] Dreyfus, Hubert L.: Die Grenzen kunstlicher Intelligenz. Dt. Erstausg. Konig-
stein, Ts. : Athenaum, 1985
[Har90] Harnad, Stevan: The Symbol Grounding Problem. In: Physica D 42 (1990),
S. 335–346
[Har91] Harnad, Stevan: Other bodies, Other minds: A machine incarnation of an old
philosophical problem. In: Minds and Machines 1 (1991), S. 43–54
[Hau93] Hauser, L.: Reaping the Whirlwind: Reply to Harnad’s “Other Bodies, Other
Minds“. In: Minds and Machines 3 (1993), S. 219–238
[Hei06] Heidegger, Martin: Sein und Zeit. 19. Aufl., unverand. Nachdr. d. 15. Aufl.
Tubingen : Niemeyer, 2006
[McCa] John McCarthy: What is artificial intelligence. http://www-formal.
stanford.edu/jmc/whatisai/node1.html, . – [Online; Stand: 20-Aug-2011]
[Kur99] Kurzweil, Raymond: Homo s@piens. 1. Aufl. Koln : Kiepenheuer and Witsch,
1999
[McL09] McLaughlin, Brian P. (Hrsg.): The Oxford handbook of philosophy of mind.
1. publ. Oxford : Clarendon Press, 2009
49
Christine Plicht
[Mea08] Mead, George H. ; Morris, Charles W. (Hrsg.): Geist, Identitat und Gesell-
schaft aus der Sicht des Sozialbehaviorismus. 1. Aufl., [Nachdr.]. Frankfurt am
Main : Suhrkamp, 2008
[Pre99] Prechtl, Peter (Hrsg.): Metzler-Philosophie-Lexikon. 2., erw. und aktual.
Aufl. Stuttgart [u.a.] : Metzler, 1999
[RN04] Russell, Stuart J. ; Norvig, Peter: Kunstliche Intelligenz. 2. Aufl. Munchen
[u.a.] : Pearson Studium, 2004
[Ryl87] Ryle, Gilbert: Der Begriff des Geistes. Stuttgart : Reclam, 1987
[Sea80] Searle, John: mind, brains, and programms. In: The Bahavioral and Brain
Sciences 3 (1980), S. 417–457
[Sea93] Searle, John R.: Die Wiederentdeckung des Geistes. Munchen : Artemis und
Winkler, 1993
[Sea94] Searle, John: Geist, Gehirn,Programm. In: Zimmerli, Walter Ch. (Hrsg.):
Kunstliche Intelligenz. Reclam, 1994
[Sea06] Searle, John R.: Geist. 1. Aufl. Frankfurt am Main : Suhrkamp, 2006
[Tur94] Turing, Alan M.: Kann eine Maschine denken? In: Zimmerli, Walter
Ch. (Hrsg.): Kunstliche Intelligenz. Reclam, 1994
50