7
{ HAUPTBEITRAG / TURING UND KÜNSTLICHE INTELLIGENZ Turing und Künstliche Intelligenz Ulrich Furbach “Can machines think?” – Diese Frage stellt Alan Tu- ring im ersten Satz seines Artikels über Computer und Intelligenz [11]. Ich stolperte über diesen Titel aus dem Jahre 1950, als ich gerade auf der Suche nach einem Dissertationsthema war. Das war 1977, ich hatte mich in die LR(k)-Theorie eingearbeitet, fand aber auch Gefallen an Logik und Theorembeweisen. LR(k)-Theorie war nicht mehr ganz neu, Theorem- beweisen als Gebiet der Künstlichen Intelligenz war zu neu, zumindest in Deutschland. Für die meisten Informatiker in den 1970ern waren denkende Ma- schinen noch kein Thema – für mich war es erstaun- lich, dass jemand wie Turing, den ich bis dahin nur aus der theoretischen Informatik kannte, sich schon Jahre vor der berühmten Darthmouth-Konferenz (1956), die als ,,Wiege der Künstlichen Intelligenz“ gilt, mit intelligenten Maschinen beschäftigt hatte. Wenn man sich den Stand der Kunst im Bereich der digitalen Computer aus dieser Zeit ansieht, ist der Aufsatz von Alan Turing unglaublich visionär. Im vorliegenden Artikel lehne ich mich eng an Turings Aufsatz an, indem ich mich weitgehend an seine Struktur halte, seine Argumente wiedergebe und mit modernen KI-Entwicklungen in Beziehung setze. Das Imitationsspiel Turing schlägt ein ,,Imitationsspiel“ vor, welches zei- gen soll, ob ein Computer intelligent ist. Mittlerweile wird dieses Spiel als Turing-Test bezeichnet: Stellen wir uns einen Raum mit zwei Personen vor, A ist männlich und B ist weiblich. Ein Fra- gesteller beliebigen Geschlechts befindet sich in einem anderen Raum, von dem aus er schrift- lich mit A und B kommunizieren kann, ohne sie zu sehen. Das Ziel des Spieles für den Fragesteller ist nun, zu ermitteln, welche der beiden Personen der Mann und welche die Frau ist. Die Rolle der Person B, also der Frau, ist es, dem Fragestel- ler zu helfen; Turing schlägt vor, dass dies am besten möglich sei, wenn sie die Wahrheit sagt. Person A dagegen muss mit seinen Antworten versuchen den Fragesteller zu täuschen. Tu- ring ersetzt nun die Person A in diesem Spiel durch eine Maschine und stellt die Frage, ob in dieser Konfiguration des Spieles der Frage- steller genauso oft getäuscht wird wie in der Version ohne Maschine. Diese Frage versteht er als verfeinerte Version der ursprünglichen Frage ,,Können Maschinen denken?“ Bevor wir das Experiment diskutieren und mit aktu- ellen Entwicklungen in Beziehung bringen, werfen wir noch einen Blick auf die Zeit und den Stand der Computertechnik. Nach seinem Erfolg bei der Dechiffrierung der Enigma hatte sich Turing nach dem Zweiten Weltkrieg in verstärktem Maße der Entwicklung von programmierbaren digitalen Com- putern zugewendet. Der Aufsatz [11] ist während seiner Zeit an der University of Manchester entstan- den, wo Turing an der Entwicklung der Manchester Mark I beteiligt war. Turing verfasste auch das Pro- gammierhandbuch für diese Maschine, welches DOI 10.1007/s00287-012-0623-6 © Springer-Verlag 2012 Ulrich Furbach Universität Koblenz-Landau, Koblenz E-Mail: [email protected] 280 Informatik_Spektrum_35_4_2012

Turing und Künstliche Intelligenz

Embed Size (px)

Citation preview

Page 1: Turing und Künstliche Intelligenz

{ HAUPTBEITRAG / TURING UND KÜNSTLICHE INTELLIGENZ

Turing und Künstliche IntelligenzUlrich Furbach

“Can machines think?” – Diese Frage stellt Alan Tu-ring im ersten Satz seines Artikels über Computerund Intelligenz [11]. Ich stolperte über diesen Titelaus dem Jahre 1950, als ich gerade auf der Suche nacheinem Dissertationsthema war. Das war 1977, ichhatte mich in die LR(k)-Theorie eingearbeitet, fandaber auch Gefallen an Logik und Theorembeweisen.LR(k)-Theorie war nicht mehr ganz neu, Theorem-beweisen als Gebiet der Künstlichen Intelligenz warzu neu, zumindest in Deutschland. Für die meistenInformatiker in den 1970ern waren denkende Ma-schinen noch kein Thema – für mich war es erstaun-lich, dass jemand wie Turing, den ich bis dahin nuraus der theoretischen Informatik kannte, sich schonJahre vor der berühmten Darthmouth-Konferenz(1956), die als ,,Wiege der Künstlichen Intelligenz“gilt, mit intelligenten Maschinen beschäftigt hatte.Wenn man sich den Stand der Kunst im Bereich derdigitalen Computer aus dieser Zeit ansieht, ist derAufsatz von Alan Turing unglaublich visionär.

Im vorliegenden Artikel lehne ich mich eng anTurings Aufsatz an, indem ich mich weitgehend anseine Struktur halte, seine Argumente wiedergebeund mit modernen KI-Entwicklungen in Beziehungsetze.

Das ImitationsspielTuring schlägt ein ,,Imitationsspiel“ vor, welches zei-gen soll, ob ein Computer intelligent ist. Mittlerweilewird dieses Spiel als Turing-Test bezeichnet:

Stellen wir uns einen Raum mit zwei Personenvor, A ist männlich und B ist weiblich. Ein Fra-gesteller beliebigen Geschlechts befindet sich ineinem anderen Raum, von dem aus er schrift-

lich mit A und B kommunizieren kann, ohnesie zu sehen.Das Ziel des Spieles für den Fragesteller ist nun,zu ermitteln, welche der beiden Personen derMann und welche die Frau ist. Die Rolle derPerson B, also der Frau, ist es, dem Fragestel-ler zu helfen; Turing schlägt vor, dass dies ambesten möglich sei, wenn sie die Wahrheit sagt.Person A dagegen muss mit seinen Antwortenversuchen den Fragesteller zu täuschen. Tu-ring ersetzt nun die Person A in diesem Spieldurch eine Maschine und stellt die Frage, obin dieser Konfiguration des Spieles der Frage-steller genauso oft getäuscht wird wie in derVersion ohne Maschine. Diese Frage verstehter als verfeinerte Version der ursprünglichenFrage ,,Können Maschinen denken?“

Bevor wir das Experiment diskutieren und mit aktu-ellen Entwicklungen in Beziehung bringen, werfenwir noch einen Blick auf die Zeit und den Standder Computertechnik. Nach seinem Erfolg bei derDechiffrierung der Enigma hatte sich Turing nachdem Zweiten Weltkrieg in verstärktem Maße derEntwicklung von programmierbaren digitalen Com-putern zugewendet. Der Aufsatz [11] ist währendseiner Zeit an der University of Manchester entstan-den, wo Turing an der Entwicklung der ManchesterMark I beteiligt war. Turing verfasste auch das Pro-gammierhandbuch für diese Maschine, welches

DOI 10.1007/s00287-012-0623-6© Springer-Verlag 2012

Ulrich FurbachUniversität Koblenz-Landau, KoblenzE-Mail: [email protected]

280 Informatik_Spektrum_35_4_2012

Page 2: Turing und Künstliche Intelligenz

Abb. 1 Imitationsspiel –Links: Computer und Manngeben sich als Frau aus.Rechts: Computer undMensch geben sich alsMensch aus

zahlreiche Programme enthält, zumeist arithmeti-sche Funktionen, die in einer Art Assembler-Spracheprogrammiert waren.

Vor seiner Arbeit an der Dechiffrierung derEnigma verbrachte Turing einige Jahre in Princeton,wo er bei Alonzo Church studierte und auch 1938promovierte. Zuvor hatte er schon das theoretischeKonzept der Turing-Maschine eingeführt, mit derenHilfe es ihm gelungen ist, Hilberts Entscheidungs-problem im negativen Sinne zu lösen. Aus dieserZeit finden sich auch Hinweise, dass Turing sich imZusammenhang mit Gödels Unvollständigkeitsre-sultat mit Begriffen wie Kreativität und Intuitionbeschäftigt hat. Beispielsweise hat er bereits in sei-ner Dissertation Ordinal-Logiken vorgestellt, welcheRaum für die mathematische Intuition lassen; erdiskutiert dort in einem gesondertem Abschnittdie Rolle der Intuition und der Erfindungsgabe(ingenuity) beim Suchen formaler Beweise.

Die Arbeiten jener Zeit, in der einige der heuteweltbekannten Mathematiker an Hilberts Entschei-dungsproblem geforscht haben, können als direkteFortsetzung der Ideen von Leibniz verstanden wer-den. Wäre Hilberts Vermutung richtig gewesen,wäre dies die Erfüllung von Leibniz’ Traum des,,Calculemus“ gewesen, wo statt philosophischenArgumentationen einfach Berechnungen verwendetwerden könnten, um beliebige Probleme zu lösen.Eine ausführliche Diskussion der Straße, die vonLeibniz über Frege, Cantor, Hilbert und Gödel bishin zu Turing führt ist in [4] zu finden. Vor die-sem Hintergrund ist es gar nicht so erstaunlich,sich mit der Frage, ob Maschinen denken können,auseinanderzusetzen.

Zurück zum Experiment! In der ersten Versiondes ,,Imitationsspieles“, wo noch alle Parts von Men-schen übernommen werden, spielt das Geschlecht

der beteiligten Personen eine maßgebliche Rolle.In der weiteren Diskussion kommt Turing schließ-lich zu einer Version des Imitationsspiels, wo Part Adurch den Computer übernommen wird und Part Bdurch einen Mann und beide sich für eine Frau aus-geben müssen (Abb. 1, links). Mittlerweile wird inder Literatur die folgende Variante als Turing-Testbezeichnet (Abb. 1, rechts). Das Spiel wird zwischeneiner Maschine A, einem Menschen B und einemFragesteller C gespielt. C soll herausfinden, wel-cher der beiden Konversationspartner A oder B einMensch ist.

Der ComputerIn einem ausführlichen Abschnitt erklärt Turing,was er unter einem digitalen Computer und insbe-sondere einem, der die Rolle der Maschine in demImitationsspiel übernehmen soll, versteht. Wennman bedenkt, dass der übliche Sprachgebrauch zudieser Zeit derart war, dass man unter ,,Compu-ter“ an einen Menschen dachte, der Berechnungendurchführt, ist es nicht verwunderlich, dass Turinggründlich erläutert, an welche Art von Computerer hier denkt. Er beschreibt die Architektur einesdigitalen Computers, der aus Speicher, Rechenwerkund einer Kontrolleinheit besteht. Ausführlich gehter auf die Programmsteuerung eines solchen Com-puters ein und kommentiert dabei auch, dass dieKontrolle von Maschinen auch ein Zufallselemententhalten könnte, wodurch man solchen Maschinensogar eine Art ,,freien Willen“ zusprechen könnte.

In einem gesondertem Abschnitt erläutertTuring, dass der digitale Computer, wie er ihnbeschrieben hat, eine ,,discrete state machine“ dar-stellt, die aber gleichzeitig universellen Charakterhat. Jede andere neue Maschine, die man sich aus-denkt, um bestimmte Berechnungen durchzuführen,

Informatik_Spektrum_35_4_2012 281

Page 3: Turing und Künstliche Intelligenz

{ TURING UND KÜNSTLICHE INTELLIGENZ

ist (prinzipiell) unnötig; die gleiche Berechnungkann von einem geeignet programmierten digitalenComputer ausgeführt werden.

Damit formuliert Turing das Imitationsspielgenauer, indem er fragt ,,Gibt es einen digitalenComputer, der im Imitationsspiel die Rolle der Ma-schine in befriedigender Weise übernehmen kann?“Er beantwortet die Frage auch sofort positiv. Nachseiner Meinung wird es in 50 Jahren möglich sein,Computer so zu programmieren, dass sie das Spielso beherrschen, dass ein durchschnittlicher Befragermit nicht mehr als 70 % Wahrscheinlichkeit die Ma-schine nach fünf Minuten Fragezeit erkennen kann.Nun ist diese Vorhersage nicht eingetroffen – aberso ist das recht oft mit Prophezeiungen. Wichtigererscheint mir Turings Aussage, dass sich bis dahindie allgemeine Meinung so geändert haben wird,dass man dann keinen Widerspruch erwarten wird,wenn man von denkenden Maschinen spricht.

Nachdem Turing seine Meinung kurz und knappformuliert hat, geht er ausführlich auf verschiedeneGegenargumente zu seiner These ein. Einige davonwollen wir im Folgenden diskutieren; vorher jedochwerfen wir noch einen Blick auf einen Wettbewerb,der sich eng an den Turing-Test anlehnt.

Im Jahre 1991 schrieb Hugh Gene Loebner einPreisgeld von $ 100 000 aus für das Programm, wel-ches als erstes den Turing-Test besteht. Seitdem gibtes den jährlichen Loebner-Wettbewerb, bei demProgramme versuchen, genau wie von Turing ge-fordert, einen menschlichen Befrager zu täuschen.Mit $ 2000 wird jedes Jahr das Programm prämiert,welches es schafft, die meisten Juroren zu täuschen.Hier wird allerdings zugelassen, dass das Themader Unterhaltung stark beschränkt wird. Zweifel-haft ist, ob dieser Wettbewerb das Gebiet der KIvoranbringt; sicher ist lediglich, dass sich Chatbot-Entwickler immer neue Techniken einfallen lassen,um die Befrager des Wettbewerbs zu täuschen.Marvin Minsky, einer der Doyens der KI, sah imLoebner-Preis eine ,,abscheuliche und unproduktivejährliche Publicity-Kampagne“ und bot ein Preis-geld von $ 100 für denjenigen, der Loebner davonabbringt, diesen Wettbewerb zu veranstalten. Loeb-ner hat darauf reagiert, indem er argumentiert,dass der erste Gewinner des Wettbewerbs, alsoder $ 100 000-Gewinner, den Wettbewerb beendetund damit die $ 100 von Minsky zusätzlich erhal-ten muss. Folglich sei Minsky jetzt Co-Sponsor desLoebner-Preises.

Turings Einwände

Theologie und Kopf in den SandTuring diskutiert und widerlegt in seinem Aufsatznun einige der möglichen Einwände. Kurz geht erauf einen möglichen ,,Theologischen Einwand“ ein,wenn nämlich argumentiert wird, dass Gott demMenschen eine unsterbliche Seele gegeben hat, abernicht Tieren und Maschinen. Turing widerlegt dasArgument, indem er schließt, dass Gott auch Elefan-ten eine Seele geben könnte, da er ja allmächtig sei;genauso gut könne er aber auch zulassen, dass Ma-schinen eine Seele haben. Und überhaupt, wenn manan Galileo denke, könne man den Verdacht bekom-men, dass in der Vergangenheit diese Art Argumentezweifelhaft gewesen seien.

Ebenfalls kurz geht Turing auf das ,,Kopf in denSand Argument“ ein: Die Konsequenzen denken-der Maschinen seien furchtbar. Deshalb müsse manhoffen und glauben, dass Maschinen nicht denkenkönnen. Obwohl Turing dieses Argument nicht wei-ter für diskussionswürdig hielt, lohnt es sich, daraufeinzugehen. Überträgt man es nämlich auf Robo-ter, insbesondere Androide, so kann man sehr oftEinwände dieser Art gegen die Entwicklung undden Einsatz menschenähnlicher Roboter hören. Ins-besondere in der Science-Fiction-Literatur werdenRoboter oft als bedrohlich dargestellt; sie bedroheneinzelne Menschen (wie etwa in ,,Terminator“) odersind gar für die gesamte Menschheit eine Gefahr(zum Beispiel in ,,Matrix“). Bekannt sind natürlichauch die Asimov’schen Gesetze, die Roboter befolgenmüssten, um Menschen keinen Schaden zuzufügen.Interessanterweise sind im Umgang mit Roboterndurchaus kulturelle Unterschiede festzustellen. Sokann man in weiten Teilen Asiens einen viel unge-zwungeneren Umgang mit Robotern beobachten,als dies in unserer christlich geprägten Kultur derFall ist. Der Grund dafür könnte vielleicht doch inder Seele liegen – so vertreten asiatische Religionenzumeist ein animistisches Weltbild, nach dem nebenMenschen auch alle anderen Dinge in der Natur be-seelt sind. Dabei ist es dann kein weiter Schritt, auchRoboter als beseelt und damit als gleichberechtigtanzusehen (Ausführlicheres dazu ist in [1] zu finden).

MathematikTuring führt an, dass Mathematiker argumentierenkönnten, dass ja seit Gödel klar ist, dass die Mäch-tigkeit von Maschinen, also digitalen Computern

282 Informatik_Spektrum_35_4_2012

Page 4: Turing und Künstliche Intelligenz

(sogar mit unendlichem Speicher), beschränkt ist.Es gibt Fragen, die nicht richtig mit ,,ja“ oder ,,nein“beantwortet werden können. Daraus könnte manableiten, dass diese Unfähigkeit die Maschine demmenschlichen Intellekt unterlegen sein lässt. Turingargumentiert nun, dass zum einen gar nicht klar ist,dass Fehlerfreiheit eine Notwendigkeit für Intelli-genz ist und dass ja auch Menschen durchaus Fehlermachen und falsche Antworten geben und trotzdemmitunter als intelligent eingestuft werden.

BewusstseinSchon vor der Veröffentlichung des Turing’schenAufsatzes gab es zahlreiche Diskussionen über den-kende Maschinen; so war 1950 bereits Wieners Buchüber Kybernetik erschienen und auch die Arbei-ten von McCulloch und anderen über Lernen inneuronalen Netzen waren bekannt. Turing geht indiesem Abschnitt über Bewusstein von einem Auf-satz von Geoffrey Jefferson aus dem Jahr 1949 aus,in dem postuliert wird, dass Maschinen nur den-ken können, wenn sie Bewusstsein haben. Turingentgegnet, dass die einzige Methode, wirklich zuwissen, ob eine Maschine denkt, darin bestünde,selbst diese Maschine zu sein. Das gleiche Argumentträfe allerdings auch auf Menschen zu, wobei aberein solcher solipsistischer Ansatz bei Menschen üb-licherweise nicht angewendet wird – warum alsodann bei Maschinen?

Die Betonung des Bewusstseins kann man im-mer wieder in der philosophischen Diskussionüber Künstliche Intelligenz finden. Thomas Met-zinger formuliert sogar den Turing-Test neu [7];dieses von ihm Metzinger-Test genannte Kriteriumbesagt, dass wir ein System erst dann als eigen-ständiges Objekt behandeln sollten, wenn ,,es eineeigene Theorie des Bewusstseins vertritt, d. h. wennes mit eigenen Argumenten in die Diskussion umkünstliches Bewusstsein einzugreifen beginnt.“ Met-zinger führt zwar eine Reihe von Kriterien an, diefür die Entwicklung von Bewusstsein notwendigsind – dazu gehören zum Beispiel Situiertheit ineiner dynamischen Umwelt und erlebte Gegenwart –einen Test im Sinne von Turings Imitationsspielgibt Metzinger nicht an. Sein Anliegen ist es viel-mehr zu betonen, dass wir gar nicht erst versuchensollten, ein ,,postbiotisches Bewusstsein“ zu er-zeugen. Grob gesagt, würde ein solches Systemauch Leid fühlen, wir hätten also zusätzliches Leidgeschaffen, was nach Metzinger in der akademi-

schen Forschung unbedingt vermieden werdensollte.

Andererseits ist eine gewisse Form des Be-wusstseins – oder nennen wir es an dieser StelleSelbsteinschätzung – notwendig, um Systeme intel-ligent handeln zu lassen. Nehmen wir als Beispielein IBM System, welches nach einem der Gründerdes Unternehmens Watson getauft wurde. Watsongelang es Anfang 2011 in der in den USA sehr belieb-ten Quizshow Jeopardy! die zwei RekordchampionsKen Jennings und Brad Rutter in einem dreitägigenTurnier zu besiegen. Watson muss dazu über sehrgutes Allgemeinwissen verfügen, denn schließlichkönnen die Fragen aus vielerlei Wissensgebietenkommen. Watson muss auch die natürlichsprach-lichen Fragen verstehen, die bei Jeopardy! häufigWortspiele und Andeutungen enthalten.1 Es warein erstaunlicher Wettkampf – zumal Watson jaauch schnell sein musste, da die Spieler hier unterstarkem Zeitdruck stehen. In den Videoaufzeich-nungen des Ratespiels kann man nach jeder Fragedie Antwortkandidaten von Watson sehen, zusam-men mit einem Konfidenzmaß, welches das Systembenutzt, um zu beurteilen, ob die Antwort gut genugist, um sie zu nennen. Dabei kommt es durchausvor, dass Watson einen richtigen Antwortkandi-daten hat, ihn aber nicht nennt, weil er sich nichtsicher genug ist. Dieses Konfidenzmaß setzt sichaus sehr vielen verschiedenen Komponenten, diebei der Suche nach den Antwortkandidaten eineRolle gespielt haben, zusammen. In einem ande-ren natürlichsprachlichen System, welches Fragenauf der Basis der Wikipedia beantwortet, wirddas Konfidenzmaß mittels verschiedener syntak-tischer, aber auch semantischer Kriterien gebildet[6]. Dabei wird keine vordefinierte Funktion fürdie Berechnung verwendet, vielmehr wird das Maßdurch maschinelle Lernverfahren gelernt, sodasssich das Selbsteinschätzungsverfahren im Laufe derZeit auch verändern und verbessern kann. Einesolche Eigenschaft kann sicher nicht schon Be-wusstsein genannt werden, aber es scheint mir eindeutlicher Schritt in die von Metzinger geforderteRichtung zu sein. Metzinger würde allerdings zwi-schen Selbst-Modellen mit und ohne Bewusstseinunterscheiden [8] und Watson vermutlich nur einbewusstloses Selbst-Modell zubilligen.

1 Eigentlich sind es keine Fragen, sondern Antworten und die Spieler müssen diezugehörigen Fragen finden.

Informatik_Spektrum_35_4_2012 283

Page 5: Turing und Künstliche Intelligenz

{ TURING UND KÜNSTLICHE INTELLIGENZ

LernenDas Stichwort Lernen spielt in Verbindung mit In-telligenz eine wichtige Rolle. In einem Abschnittgeht Turing auf ein Argument ein, welches manrecht oft – auch heute noch – hört, wenn man ei-nem Laien versucht zu erklären, was die Ziele derKI-Forschung sind: ,,Ein Computer kann doch nurausführen, was man ihm vorher programmiert hat.“Lady Lovelace war sicherlich eine der ersten, diedies formuliert hatte. Sie ist unter Informatikerndafür bekannt, dass sie vermutlich das erste Com-puterprogramm für die ,,Analytical Engine “ vonCharles Babbage geschrieben hat. 1843 übersetztesie eine Beschreibung der Analytical Engine ausdem Französischen und fügte dieser Übersetzungzahlreiche Anmerkungen hinzu, welche auch meh-rere Passagen enthalten, in denen sie betont, dassdie Maschine nicht denken kann. Explizit formu-liert sie, dass die Maschine nur das ausführen kann,von dem wir wissen, wie wir es beschreiben kön-nen. Turing geht ausführlich auf Ada Lovelace einund führt dabei auch das Argument an, dass Ma-schinen lernen können. Turing beschreibt, wie manLernverfahren, die sich an der Entwicklung und amLernprozess eines Kindes orientieren, entwerfenkönnte. Er beschreibt Vorgehensweisen, die wir inder KI als ,,Reinforcement Learning“ bezeichnenund die mittlerweile sehr erfolgreich in komplexenintelligenten Systemen eingesetzt werden. Turingstellt hier auch Vergleiche mit evolutionären Ver-fahren an – er spricht sogar davon, wie sinnvollund wichtig die Einführung von Zufallselementenin die Entwicklung und in das Lernen ist. Wir wissenheute, dass dies notwendig für die Konvergenz vonmaschinellem Lernen ist, wenn genetische Verfahrenverwendet werden.

Turing und Nouvelle AITuring erwähnt auch, dass lernende Maschineneingeschränkt bezüglich ihrer Aktuatoren und Sen-soren sind und dass deshalb die Anweisungen andie Maschine eher intellektueller Art sein müssten.Zum Schluss seines Artikels formuliert Turing dieHoffnung, dass Maschinen sich in allen rein intel-lektuellen Gebieten mit Menschen messen werden.Die Schwierigkeit dabei sei, welche Aufgaben mandazu auswählen solle; abstrakte Aktivitäten wiez. B. Schach, oder solle man Maschinen mit mög-lichst guten Sensoren ausrüsten und ihnen Sprachebeibringen?

In der Tat war dies auch viele Jahre eine wich-tige Strategie für die Entwicklung intelligenterSysteme: Man nehme eine ausgeklügelte und effi-ziente Maschinerie, versehe sie allenfalls mit einpaar Sensoren und versuche eine ,,intellektuelleAufgabe “ zu lösen. Beispiele sind Schachspielen,Verstehen von natürlichsprachlichen Texten, Bild-analyse oder Theorembeweisen. Wir haben in vielendieser Gebiete spektakuläre Erfolge gesehen undnatürlich gibt es in diesen Teilgebieten der KI wei-tere interessante und herausfordernde Aufgaben.Trotzdem hat sich seit den späten 1980er-Jahren eineSichtweise etabliert, die damals mit ,,Nouvelle AI“bezeichnet wurde. Rodney Brooks war einer derWegbereiter dieser neuen Art der KI, die er sehreingängig in seinem Aufsatz ,,Elephants don’t playChess“ [3] beschreibt. Anstatt sich zur Entwicklungintelligenter Systeme ausschließlich auf die Symbol-Verarbeitungs-Hypothese zu stützen, schlägt er vor,Systeme in der physikalischen Welt mittels Sensorenund Aktuatoren zu verankern. Nur so sei es möglich,Intelligenz zu erzeugen. Als Beispiel führt Brooksdie Evolution an – er plädiert dafür, künstlichenSystemen zunächst Bewegung, Reagieren und all dasfür das Überleben Notwendige beizubringen. Erstdann könne Schließen, Problemlösen, Sprache undExpertenwissen in Angriff genommen werden.

Die Sichtweise hat in der KI-Forschung zahl-reiche fruchtbare Diskussionen angestoßen, wiez. B. die Frage, ob Wissen sub-symbolisch odersymbolisch repräsentiert werden soll. Insgesamtlässt sich mittlerweile feststellen, dass erfolgreicheKI-Systeme sehr oft eine Mischung aus verschiede-nen Paradigmen realisieren – künstliche neuronaleNetze, genetische Algorithmen, statistische undsymbolbasierte Lernverfahren sind nebeneinanderin komplexen Systemen zu finden.

ChinesischesAus philosophischer Sicht bleibt jedoch die Fragenach der Qualia, den subjektiven und bewussteninternen mentalen Zuständen eines Systems. Einvielzitiertes Argument ist ,,Searle’s ChinesischesZimmer“ [10]: Ein englischsprechender Menschbefindet sich in einem abgeschlossenen Raum, dervoller Schachteln mit chinesischen Schriftzeichenist. Der Mensch versteht kein Chinesisch, verfügtaber über ein umfangreiches Regelwerk, mit demchinesische Schriftzeichenfolgen in andere chi-nesische Schriftzeichenfolgen überführt werden

284 Informatik_Spektrum_35_4_2012

Page 6: Turing und Künstliche Intelligenz

können. Die Person bekommt nun eine Sequenzvon Zeichen übermittelt, ohne zu wissen, dass essich um eine Frage in chinesischer Sprache handelt.Sie manipuliert die Sequenz mithilfe des Regelwerksund übermittelt das Resultat nach außen, wo es alsAntwort auf die Frage verstanden wird. Die Per-son allerdings hat weder die chinesisch gestellteFrage noch die generierte Antwort verstanden. NachSearl ist es demnach unmöglich, ein verstehendes,denkendes System mittels symbolmanipulierendenRegeln zu konstruieren. In einer rein funktionalisti-schen Sichtweise dagegen würde man dem gesamtenSystem, also der Einheit bestehend aus Zimmer,Menschen und Regelwerk, die Fähigkeit chinesischzu verstehen zusprechen. Interessant ist auch BlocksVariante [2]: Er verpflichtet in diesem Gedanken-experiment alle Einwohner Chinas und nimmt an,dass jeder über ein Telefon und eine Liste von Num-mern verfügt, die er anklingeln muss, nachdem seinTelefon geklingelt hat. Dabei wird keine Botschaftübermittelt, lediglich angerufen – die Analogie zueinem neuronalen Netz mit vorgegebener Verbin-dungsstruktur ist offensichtlich. Deklariert mannun bestimmte Chinesen als ,,Inputs“ und andereals ,,Output“, kann man kodierte Fragen eingebenund schließlich nach einer Verbreitung aller Klin-gelsignale eine kodierte Antwort an den Outputsablesen. Auch hier kann keine einzelne der Perso-nen verstanden haben, um was es geht. Zwar solltenbeide Gedankenexperimente die Argumentation derFunktionalisten widerlegen – andererseits drängtsich gerade bei letzterem die Frage auf, ob ich vonirgendeinem der Neuronen meines Gehirns erwarte,dass es die Zeilen, die ich gerade schreibe, versteht.

In diesem Zusammenhang sollte auch das Eu-ropean Flagship Project HBP – The Human BrainProject – erwähnt werden.2 Hier ist es das Ziel einesgroßen europäischen interdisziplinären Konsorti-ums, eine Simulation des gesamten menschlichenGehirns anzufertigen. Man hätte damit ein Modellzur Verfügung, das es uns erlauben würde, unzähligeFragestellungen aus den Neurowissenschaften, derKognitionsforschung oder eben aus der Philosophiezu untersuchen.

Alternative Turing-TestsTurings Imitationsspiel zur Beantwortung der Frage,ob Maschinen denken können, hat nun seit über

2 http://www.humanbrainproject.eu, abgerufen im März 2012

60 Jahren zu fruchtbaren und spannenden Diskus-sionen geführt. Natürlich bleibt es da nicht aus, dassauch zahlreiche Erweiterungen und Modifikationendes Tests vorgeschlagen wurden. Im Übersichtsarti-kel [9] sind einige davon erläutert. Eine Erweiterung,die der Diskussion um die Nouvelle AI Rechnungträgt, ist der ,,totale Turing-Test“ (TTT). Hier wirdgefordert, dass die Maschine nicht nur auf verbaleEingaben reagiert, sondern auch über sensomo-torischen Fähigkeiten verfügt, also ein Roboter ist.Verschärft werden kann dieser Test noch zum tota-len totalen Turing-Test (TTTT), wenn man fordert,dass das künstliche Gehirn nicht nur funktional vommenschlichen ununterscheidbar ist, sondern diesemauch auf neuromolekularer Ebene gleicht. Wem dieseForderung zu chauvinistisch erscheint, kann auch dieVariante TTT∗ wählen, wo statt neuromolekularerÄhnlichkeit die Ununterscheidbarkeit bezüglich derWirkungsweise (flowchart match) gefordert wird.

Andere Varianten des Turing-Tests versuchendurch ihr Design auszuschließen, dass Architektu-ren mittels endlicher Automaten bestehen können.So wird z. B. im ,,Kugel-Test“ gefordert, dass dieMaschine unendlich viele Runden des Tests gewinnt,was natürlich nicht mit einem endlichen Automatenerreicht werden kann.

Den Bezug zur Evolution stellt der TRTTT (trulytotal Turing-Test) her: Bevor Roboter an einem Test,wie dem Turing-Test, teilnehmen dürfen, müssen siesich als ,,Rasse“ weiterentwickelt haben. Sie müsseneine eigene Sprache oder Spiele wie Schach erfun-den haben. Erst wenn dieses Entwicklungsstadiumeingetreten ist, dürfen einzelne Exemplare am Testteilnehmen. Natürlich könnte man sich auch vorstel-len, dass diese Roboter wiederum künstliche Systemebauen, die sich selbst wieder entwickeln würden, umden TRTTT zu bestehen, wodurch diese wiederum ...

Schließlich sei noch eine Variante des Turing-Tests erwähnt, der Sie sich sicherlich schonunterzogen haben. Um Bots von Menschen zu un-terscheiden, wird nämlich auf vielen Webseiten dieCAPTCHA-Technik benutzt. In der visuellen Vari-ante wird der Betrachter aufgefordert, ein Bild zuinterpretieren und das Ergebnis textuell in eine Ein-gabemaske einzutragen. CAPTCHA ist das Akronymfür ,,Completely Automated Public Turing-Test toTell Computers and Humans Apart“.

Dieser Artikel begann mit dem ersten Satz ausTurings Aufsatz aus dem Jahr 1950. Ich möchte

Informatik_Spektrum_35_4_2012 285

Page 7: Turing und Künstliche Intelligenz

{ TURING UND KÜNSTLICHE INTELLIGENZ

ihn auch mit dem letzten Satz aus jenem Aufsatzbeenden:

“We can only see a short distance ahead, but wecan see plenty there that needs to be done.”

Literatur1. Barthelmeß U, Furbach U (2011) IRobot – uMan. Springer2. Block N (1978) Troubles with functionalism. Minn Stud Philos Sci 9:261–3253. Brooks RA (1990) Elephants don’t play chess. Robotics Auton Syst 6:3–154. Davis M (2000) The Universal Computer: the Road from Leibniz to Turing.

W. W. Norton & Co., New York, NY, USA

5. Feldman J, Feigenbaum EA (eds) (1963) Computers and Thought: a Collection ofArticles. McGraw-Hill, New York, NY, USA

6. Furbach U, Glöckner I, Pelzer B (2010) An application of automated reasoning innatural language question answering. AI Commun 23(2–3):241–265

7. Metzinger T (2001) Postbiotisches Bewusstsein: Wie man ein künstliches subjektbaut – und warum wir es nicht tun sollten. http://www.hnf.de/veranstaltungen/paderborner_podium/05_Computer_Gehirn_und_Bewusstsein/Vortrag_Prof._Dr._Thomas_Metzinger.asp, letzter Zugriff 25.5.2012

8. Metzinger T (2007) Self models. Scholarpedia 2(10):41749. Saygin AP, Cicekli I, Akman V (2000) Turing test: 50 years later. Minds Mach

10(4):463–51810. Searle JR (1980) Minds, brains, and programs. Behav Brain Sci 3:417–42411. Turing AM (1950) Computing machinery and intelligence. MIND: Quart Rev Psy-

chol Philos 59(236):433–460. Reprinted in [5, 12]12. Turing AM (1992) Mechanical intelligence. Collected works of A.M. Turing. North-

Holland, Amsterdam

286 Informatik_Spektrum_35_4_2012