28
WOFÜR SPRECHEN DIE DATEN? THOMAS BARTELBORTH SUMMARY. What Do the Data Tell Us? Justification of scientific theories is a three- place relation between data, theories, and background knowledge. Though this should be a commonplace, many methodologies in science neglect it. The article will elucidate the significance and function of our background knowledge in epistemic justification and their consequences for different scientific methodologies. It is argued that there is no simple and at the same time acceptable statistical algorithm that justifies a given theory merely on the basis of certain data. And even if we think to know the probability of a theory, that does not decide whether we should accept it or not. Key words: Bayesiamism, coherence, epistemology, holism, interence to the best explana- tion, statistical testing, theory choice 1. EINLEITUNG Nach klassischer empiristischer Ansicht genügt es, in der Wissenschaft auf die Daten zu „hören“. 1 Sie allein sagen uns, welche Theorien wir akzeptieren sollten. Man könnte das als ein weiteres Dogma des Empi- rismus bezeichnen, das ich das „Dogma der einfachen Rechtfertigung“ (DER) nennen werde. Es besagt, dass schon die Daten allein für oder gegen eine bestimmte Theorie sprechen bzw. weitergehend, dass es hier eine lineare Rechtfertigungsbeziehung von Daten zu Theorien gibt, so dass sich die Rechtfertigung von Theorien letztlich ganz auf bestimmte Daten zurückführen lassen muss. Das Dogma selbst ist sicher etwas unscharf, aber es geht mir hier nicht darum, genauer zu rekonstruieren, wie es von verschiedenen Empiristen jeweils verstanden wird. Im Vordergrund wird hier die These stehen, dass Daten (-sätze) für sich genommen nicht für oder gegen bestimmte Theorien sprechen, sondern nur im Lichte weiteren Hintergrundwissens. 2 Das möchte ich unter dem Stichwort zusammenfas- sen, dass Rechtfertigung nicht zweistellig, sondern mindestens dreistellig ist. Diese Einsicht sollte in der Wissenschaftstheorie inzwischen eigentlich Journal for General Philosophy of Science 35: 13–40, 2004. © 2004 Kluwer Academic Publishers. Printed in the Netherlands.

Wofür sprechen die Daten?

Embed Size (px)

Citation preview

Page 1: Wofür sprechen die Daten?

WOFÜR SPRECHEN DIE DATEN?∗

THOMAS BARTELBORTH

SUMMARY. What Do the Data Tell Us? Justification of scientific theories is a three-place relation between data, theories, and background knowledge. Though this should bea commonplace, many methodologies in science neglect it. The article will elucidate thesignificance and function of our background knowledge in epistemic justification and theirconsequences for different scientific methodologies. It is argued that there is no simple andat the same time acceptable statistical algorithm that justifies a given theory merely on thebasis of certain data. And even if we think to know the probability of a theory, that doesnot decide whether we should accept it or not.

Key words: Bayesiamism, coherence, epistemology, holism, interence to the best explana-tion, statistical testing, theory choice

1. EINLEITUNG

Nach klassischer empiristischer Ansicht genügt es, in der Wissenschaftauf die Daten zu „hören“.1 Sie allein sagen uns, welche Theorien wirakzeptieren sollten. Man könnte das als ein weiteres Dogma des Empi-rismus bezeichnen, das ich das „Dogma der einfachen Rechtfertigung“(DER) nennen werde. Es besagt, dass schon die Daten allein für odergegen eine bestimmte Theorie sprechen bzw. weitergehend, dass es hiereine lineare Rechtfertigungsbeziehung von Daten zu Theorien gibt, so dasssich die Rechtfertigung von Theorien letztlich ganz auf bestimmte Datenzurückführen lassen muss. Das Dogma selbst ist sicher etwas unscharf,aber es geht mir hier nicht darum, genauer zu rekonstruieren, wie es vonverschiedenen Empiristen jeweils verstanden wird. Im Vordergrund wirdhier die These stehen, dass Daten (-sätze) für sich genommen nicht füroder gegen bestimmte Theorien sprechen, sondern nur im Lichte weiterenHintergrundwissens.2 Das möchte ich unter dem Stichwort zusammenfas-sen, dass Rechtfertigung nicht zweistellig, sondern mindestens dreistelligist. Diese Einsicht sollte in der Wissenschaftstheorie inzwischen eigentlich

Journal for General Philosophy of Science 35: 13–40, 2004.© 2004 Kluwer Academic Publishers. Printed in the Netherlands.

Page 2: Wofür sprechen die Daten?

14 THOMAS BARTELBORTH

schon ein alter Hut sein, wird aber trotzdem immer wieder vergessen undin vielen Methodologien noch nicht umgesetzt. Genau genommen bestehtdie Rechtfertigung einer Theorie sogar in einer vielfältigen Verknüpfungmit verschiedenen Teilen unseres Hintergrundwissens. Rechtfertigung hatdamit eine ganz andere Form als zum Beispiel eine logische Ableitung.

Vor allem die weiteren Konsequenzen aus der Einsicht, dass die Da-ten für sich genommen nicht „sprechen“, sollen Thema dieses Artikelssein. Das hat große Bedeutung für die Wissenschaftspraxis, die ich auf-zeigen möchte. Mein eigener Vorschlag richtet sich dort vor allem gegendie Annahme, wir könnten die Theorienwahl anhand einfacher statistischerVerfahren vornehmen. Beginnen werde ich mit einigen Erläuterungen, in-wiefern die Daten auf weiteres Hintergrundwissen angewiesen sind, um ineine bestimmte Richtung deuten zu können.

2. DIE DUHEM-QUINE THESE

Das beschriebene Phänomen können wir anhand von Beispielen gut erken-nen, und es ist in etwas anderer Form unter dem Namen Duhem-Quine-These angesprochen worden. Die besagt, dass wir nicht einzelne Überzeu-gungen der Erfahrung gegenüber stellen können, sondern immer nur ganze„Weltbilder“. Im Fall von Konflikten mit der Erfahrung ist dann nicht fest-gelegt, welche unserer Überzeugungen wir aufgeben sollten. Nach Quinekönnten wir sogar die Zweiwertigkeit der Logik über Bord werfen. So weitmöchte ich nicht mitgehen. Das sind zwar formal gesehen Möglichkeiten,die uns offen stehen, aber methodologisch ist das kaum akzeptabel (vgl.Bartelborth 1993).

Jedenfalls haben holistische Empiristen wie Quine das Dogma DERdamit schon unterlaufen. Aber nicht in einer Weise, die hilfreich erscheint.Sie beschreiben kein praktikables Verfahren für unsere epistemische Praxismehr und helfen uns bei der Analyse tatsächlicher Theorienbegründungin den Wissenschaften nicht weiter. Ein Wissenschaftler muss einzelneTheorien bewerten und wird dabei andere Teile seines Überzeugungssys-tems als mehr oder weniger unproblematisch einsetzen. Er kann nicht beijedem Experiment das ganze System zur Disposition stellen und auf deranderen Seite alle Beobachtungen dazu heranziehen. Wir müssen den Ho-lismus daher sehr stark einschränken, wenn wir eine einigermaßen re-alistische Rekonstruktion der wissenschaftlichen Praxis erhalten wollen(vgl. Gähde & Stegmüller 1988). Ein radikaler Holismus wird den unter-schiedlichen Funktionen verschiedener Teile unseres Hintergrundwissensin einem Theorientest nicht gerecht.3 Es ist normalerweise eben nicht so,dass wir die Hilfsannahmen oder Randbedingungen dabei genauso testen

Page 3: Wofür sprechen die Daten?

WOFÜR SPRECHEN DIE DATEN? 15

wie die Theorien selbst. Statt nun zu sagen, Rechtfertigung wäre wei-terhin zweistellig, wobei nur die Relata sehr umfangreich würden, sollhier die Idee verfolgt werden, dass man zwischen den Hypothesen undweiterem Hintergrundwissen, das zum Hypothesentest herangezogen wird,unterscheidet.4

Trotzdem weist schon die Duhem-Quine These auf einen wichtigenUmstand hin, den zum Beispiel auch Kohärenztheoretiker immer wiederbetonen: Einzelne Daten (-sätze) sprechen für sich allein genommen nichtfür oder gegen bestimmte Theorien. Diese grundlegende Einsicht möchteich gerne konservieren und weiter verfolgen.

3. RECHTFERTIGUNG IST DREISTELLIG

Moderne Empiristen wie Elliott Sober (1991, 59 ff.) argumentieren heutedafür, dass Rechtfertigung eine dreistellige Angelegenheit zwischen Da-ten, Theorien und weiterem Hintergrundwissen ist. Und wir kennen dasauch aus vielen einfachen und wissenschaftlichen Beispielen. Wieso spre-chen etwa Fingerabdrücke am Tatort gegen einen bestimmten Verdäch-tigen? Weil wir wissen, dass die Wahrscheinlichkeit für gleiche Finger-abdrücke bei verschiedenen Personen sehr gering ist, wir sie relativ gutidentifizieren können, und sie nicht leicht zu fälschen sind, was zusam-men genommen dafür spricht, dass der Verdächtige im Lichte dieses Hin-tergrundwissens am Tatort gewesen sein muss. Warum spricht die Rot-verschiebung in den Spektrallinien entfernter Sterne dafür, dass sie sichvon uns wegbewegen? Weil das bei Zugrundelegen des Dopplergesetzeseine gute Erklärung für das Phänomen bietet und die anderen Erklärungs-hypothesen, die uns einfallen, keine plausiblen Kandidaten für eine Er-klärung darstellen. Solche Einschätzungen von Plausibilität, auf die wirbei induktiven Schlüssen immer angewiesen sind, beruhen aber selbst aufweiterem Hintergrundwissen, das auch hier nur zu einem kleinen Teil ge-nannt wurde. Plausibilitätseinschätzungen führen so zu weiterreichendenVernetzungen unserer Rechtfertigungen mit unserem Hintergrundwissen.

Die erkenntnistheoretischen Paradoxien belegen ebenfalls dieses Phä-nomen. Sobald wir die Pfade unseres normalen Hintergrundwissens oderunserer normalen Vorgehensweise verlassen, ergeben sich neue Schluss-folgerungen aus denselben Daten. Ein Beispiel finden wir im „grue“ –Paradox (vgl. Goodman 1965). Dass grüne Smaragde für uns für die Thesesprechen, dass alle Smaragde grün und nicht „grue“ sind, hängt an unserenweiteren Annahmen über die Welt (vgl. Sober 1991, 55 ff.). Sie sorgendafür, dass uns die „grue“ – Hypothese von vornherein als nicht seriöserscheint und unseres Erachtens durch gefundene grüne Smaragde nicht

Page 4: Wofür sprechen die Daten?

16 THOMAS BARTELBORTH

wirklich gestützt wird. Goodmans eigene Lösung des grue-Paradoxes, diesich auf die Verankerung der Farbprädikate in unserer vergangenen Induk-tionspraxis stützt, geht in dieselbe Richtung, wenn sie auch sicher nichtdas letzte Wort in dieser Angelegenheit darstellt. Ebenso zeigte uns Good(1967) am Beispiel der Rabenparadoxie, dass ein schwarzer Rabe bei ent-sprechend ausgefallenem Hintergrundwissen sogar gegen die Annahmesprechen kann, dass alle Raben schwarz sind.

Und auch Wittgensteins Beispiel des Zeitungslesers ist von unseremHintergrundwissen über die Situation abhängig. In dem notorischen Bei-spiel, dass es doch nicht sinnvoll sein kann, ein Exemplar derselben Zei-tung zweimal zu kaufen, um etwas zu überprüfen – sagen wir eine Be-hauptung p, die wir in der ersten gelesen haben –, ist unser Hintergrund-wissen entscheidend. Im Normalfall sagt es uns, dass das kein seriösesVerfahren ist und die zweite Information unser Vertrauen in p nicht wirk-lich stärken sollte. Haben wir aber Grund zu der Annahme, dass die ersteZeitung eventuell „gefälscht“ sein könnte und sich im Inhalt also von ande-ren Exemplaren unterscheiden könnte, so würde das die Situation komplettverändern.

Wäre ich etwa ein Spion, der erste Anzeichen dafür hat, dass er enttarntist, und läse dann eine Meldung, die bestimmte Reaktionen meinerseitsverlangt (etwa sofort das Land zu verlassen), so wüsste ich gerne, ob essich dabei nicht nur um eine Finte der Gegenspionage handelt. Ich würdemir also mit guten Gründen weitere Exemplare der Zeitung kaufen, umzu prüfen, ob das eine „echte“ Meldung der Zeitung ist. Außerdem müs-ste ich überlegen, wie einflussreich und clever die Gegenseite tatsächlichist, um herauszufinden, ob sie eventuell weitere gefälschte Zeitungsexem-plare an Kiosken in meiner Nähe deponiert haben könnte oder sogar dieZeitung direkt beeinflusst beziehungsweise getäuscht haben könnte. Alsprofessionellem Spion wäre mir wohl klar, welche Szenarien ich ernsthaftzu betrachten hätte und welche doch zu wenig zu meinem Bild von derArbeit der Gegenseite passen würden. Solche Überlegungen führen unsjedenfalls weit in unser weiteres Hintergrundwissen hinein, das nicht durchAnsammlungen von Beobachtungen zu ersetzen ist.

Im Normalfall wird eine Hypothese durch ihre Instanzen gestützt. Aberselbst dieses Prinzip gilt nicht allgemein, wie die Debatten um das Instan-zenmodell der Rechtfertigung gezeigt haben. Nehmen wir an, ich möchteauf die Behauptung wetten, dass kein Mensch 2,50 m groß werden kann.Dann werden mich die meisten tatsächlich gemessenen Größen von Men-schen in dieser Vermutung bestätigen. Wenn ich aber von einigen Men-schen aus Sibirien erfahre, die 2,48 m und 2,45 m groß sind, so solltemich das eher verunsichern, obwohl es sich ebenfalls um Instanzen meiner

Page 5: Wofür sprechen die Daten?

WOFÜR SPRECHEN DIE DATEN? 17

Vermutung handelt. Nur sagt mir mein Hintergrundwissen, dass es nichtmehr allzu unmöglich erscheint, dass Menschen dann noch etwas größersein können, als 2,48 m, wenn es überhaupt erst einmal Menschen derGröße 2,48 m gibt.

Die Verbindungen zu unserem Hintergrundwissen sind vielfältig undkönnen überraschend sein. Lord Kelvin war einer der prominentesten Kri-tiker Darwins, dessen Überlegungen auch Darwin verunsicherten. Er hattenämlich innerphysikalische Gründe dafür, dass die Sonne noch nicht sehrlange brennen konnte (er kannte noch keine Kernfusion), und der Evo-lution hätte dann nicht genügend Zeit zur Verfügung gestanden, um zu sokomplexen Lebewesen zu gelangen. So können Erkenntnisse aus der Kern-physik von entscheidender Bedeutung für die Beurteilung biologischerTheorien sein.

Gerade in der Wissenschaft ist ein (oft theoretisches) Hintergrundwis-sen unumgänglich, wenn wir experimentelle Rohdaten mit unseren The-orien in Verbindung bringen wollen. Die Probleme sind zu vielfältig, alsdass ich sie hier eingehend erörtern könnte. Einige Beispiele beschreibtChalmers (2001, 28ff.). So ist selbst Heinrich Hertz, ein brillanter Ex-perimentator und Physiker, zu vielen falsche Schlussfolgerungen anhandvon experimentellen Ergebnissen gelangt. Er nahm an, gezeigt zu haben,dass Kathodenstrahlen nicht aus elektrisch geladenen Teilchen bestehenund kam zu falschen Ergebnissen bezüglich der Geschwindigkeit von elek-tromagnetischen Wellen. In beiden Fällen war er ein genauer Beobachter,aber es gab Effekte, mit denen er nicht gerechnet hatte. Im ersten Fallvermutlich gewisse elektromagnetische Störfelder durch Ionisierung derLuft und im zweiten waren seine Laborräume so klein, dass es zu Reflexi-onen der Wellen kam, die seine Messungen beeinflussten. Hier hilft unsnur weiteres (theoretisches) Hintergrundwissen, um die Daten richtig zuinterpretieren. Würden die Daten so einfach zu uns sprechen, wäre daseigentlich unverständlich, wo doch Hertz als besonders guter „Zuhörer“gelten darf.

Gerade das moderne kontrollierte Experiment verlangt Entscheidungenanhand unseres Hintergrundwissens. Wir versuchen zum Beispiel die Wir-kung bestimmter Größen zu ermitteln, indem wir nur diese variieren undmöglichst alle anderen relevanten Faktoren konstant halten. Wir könnenaber nicht alle Faktoren konstant halten und müssen erkennen, welcherelevant sind, um diese zu kontrollieren. Normalerweise wird dazu wederdas Frühstück des Experimentators noch die Farbe seiner Socken gehören,weil wir mit guten Gründen annehmen, dass beide nicht kausal relevant fürdie untersuchten Zusammenhänge sind. Allerdings finden sich trotzdemimmer wieder überraschende Effekte und Konfusionen von kausalen Fak-

Page 6: Wofür sprechen die Daten?

18 THOMAS BARTELBORTH

toren wie im Simpson Paradox (vgl. Pearl 2000, Kap. 6), denen man mitunterschiedlichen Methoden (wie doppelt blind Experimenten, Zufalls-auswahl etc.) zu begegnen versucht. Die sind jedoch häufig nicht wirklichumsetzbar. Das zeigt wiederum, dass wir erstens auf unser Hintergrund-wissen angewiesen sind, um die relevanten Faktoren auszuwählen, unddass das zweitens keine einfache Angelegenheit ist, sondern größere Teileunseres Hintergrundwissens zumindest indirekt betreffen kann, denn a pri-ori können wir keine Faktoren als irrelevant einstufen. Es findet also bei derexperimentellen Überprüfung wissenschaftlicher Theorien eine komplexeVernetzung mit dem Hintergrundwissen statt.

Man könnte noch viele weitere Beispiele anführen, die die komplexenBeziehungen zwischen Daten, Theorien und Hintergrundwissen aufzei-gen. Das ist auch ein wichtiger Aspekt der Kuhnschen Analyse der Wis-senschaftsgeschichte und seiner Kritik an Popper. Er rekonstruiert vieleBeispiele, in denen zwar deutlich ist, dass die experimentellen Daten dieMotivation für eine Theorienentwicklung darstellen, aber ebenso klar wird,dass sie nicht so einfach gegen Theorien sprechen, wie sich Popper dasnoch erhoffte. Versteckte Annahmen werden häufig erst sichtbar, wennwir auf der Suche nach einer Rettung für unsere Theorie sind. Zum Bei-spiel die Annahme, dass die Versuchsapparatur beim Durchgang durchden Äther starr bleibt, wurde erst entdeckt und in Zweifel gezogen, alsman die Äthertheorie mit den Michelson-Ergebnissen aussöhnen wollte.Diese Fälle führen uns immer wieder vor Augen, wie selbstverständlicheigentlich die Behauptung sein sollte, dass Rechtfertigung dreistellig ist.

4. ZUR ROLLE DES HINTERGRUNDWISSENS IN UNSEREN

RECHTFERTIGUNGSVERFAHREN

Außer in den Beispielen erkennen wir die Funktion des Hintergrundwis-sens aber vor allem in den tatsächlich eingesetzten und rekonstruiertenRechtfertigungsverfahren.

Denken wir zunächst an einfache Rechtfertigungsverfahren wie die kon-servative Induktion oder Extrapolation, die nach dem Motto „more of thesame“ verfährt. Sie scheint frei zu sein von Überlegungen, die sich auf un-ser Hintergrundwissen stützen. Doch wenn wir genauer hinschauen, siehtdas schon anders aus. Wir können das Verfahren nur unter bestimmtenVoraussetzungen anwenden, deren Vorliegen anhand unseres Hintergrund-wissens überprüft werden muss. So schließen wir zwar im Fall von 5 un-tersuchten Pfirsichen mit Kernen, dass vermutlich alle Pfirsiche einen Kernhaben, aber im Fall von 5 bärtigen Philosophen werden wir nicht gleich so

Page 7: Wofür sprechen die Daten?

WOFÜR SPRECHEN DIE DATEN? 19

verallgemeinern. Hier spielen z.B. Annahmen über die Homogenität desjeweiligen Gegenstandsbereichs eine wichtige Rolle.

Oder: Ein optimistischer Politiker mag vermuten, dass wir – wie bisher– immer wieder neues Öl finden, sobald die bisherigen Funde zur Neigegehen. Aber wir wissen, dass diese Entwicklung irgendwo zu Ende seinmuss, weil unsere Welt endlich ist. Also sollten wir nicht vorschnell soschließen.

Über diese Randbedingungen und darüber, wie wir überprüfen können,ob sie vorliegen, entscheidet unser Hintergrundwissen. Das wird unter an-derem über die benutzten Begriffe ins Spiel gebracht. Nehmen wir an, wirerfahren nur, dass sich in einem Raum drei Gegenstände befinden, vondenen wir aber nicht wissen, welcher Art sie sind. Wir erfahren nun wei-ter, dass zwei der Gegenstände rot sind. Hilft uns diese Information, einebegründete Vermutung über die Farbe des dritten Gegenstandes anzustel-len? Das scheint uns in dieser Situation kaum plausibel. Um hier einenInduktionsschluss auf die Farbe des dritten Gegenstandes ziehen zu kön-nen, benötigen wir mehr. Etwa, dass die drei Gegenstände unter denselbenBegriff fallen. Handelt es sich zum Beispiel immer um dieselbe exotischeFrucht, dann könnte uns diese Information weiterhelfen, weil durch denBegriff Hintergrundwissen importiert wird, das besagt, dass Früchte in sol-chen Eigenschaften wie Farbe meist ähnlich beschaffen sind. Erst dadurchlässt sich die Information über die ersten beiden Gegenstände auswertenund gibt uns einen Hinweis auf den dritten, wonach es wahrscheinlicherwird, dass auch der rot ist.

Das Hintergrundwissen hat dabei eine andere Funktion als die zu tes-tende Hypothese bzw. Theorie. Es wird herangezogen, um die Daten mitder Theorie in Verbindung zu bringen, beziehungsweise um die Daten zuinterpretieren. So nutzen wir etwa unser Wissen über die Funktionsweiseeines Amperemeters, um seine Zeigerstellung auf „3“ als „hier fließt einStrom von 3 mA“ zu deuten. Wenn wir eine Theorie in einem ExperimentE testen, so steht für uns im Normalfall die Theorie zur Disposition, abernicht unsere weiteren Hintergrundannahmen A. Sie werden nicht primärdurch dieses Experiment getestet, sondern sind durch anderes Hintergrund-wissen gestützt. Natürlich kann das spezielle Experiment E ebenfalls unserMisstrauen gegen A wachrufen, aber das ändert nichts daran, dass wir indiesem Experiment methodisch zwischen unserer Theorie und den Hin-tergrundannahmen unterscheiden. Daher spricht meines Erachtens allesdafür, das Hintergrundwissen als dritten Teilnehmer am Rechtfertigungs-spiel zu betrachten, dem eine eigene Funktion zukommt, die es genauer zuuntersuchen gilt.

Page 8: Wofür sprechen die Daten?

20 THOMAS BARTELBORTH

Entsprechende Funktionen des Hintergrundwissens finden sich auch fürfalsifikationistische Vorgehensweisen. Wenn wir hoffen, uns durch Falsi-fikationen der Wahrheit anzunähern, sind dabei erkennbar weitere Hinter-grundannahmen im Spiel. Zunächst benötigen wir Hilfsannahmen, um auseiner Theorie überprüfbare Beobachtungsaussagen abzuleiten. Dabei soll-ten natürlich nur Annahmen zum Zuge kommen, die selbst plausibel sind.Anderenfalls besteht sogar die Gefahr, dass wir ad-hoc-Immunisierungenzulassen. Selbst die recht gewagte Annahme der Phlogistontheoretiker,dass der Feuerstoff Phlogiston ein negatives Gewicht haben könnte, ist na-türlich nicht mit logischen Mitteln allein oder mit einem einfachen Krite-rium auszuschließen, sondern nur mit Hilfe weiteren empirischen Wissensals unplausibel zu erweisen. Außerdem kommen wir mit einem Elimi-nationsverfahren nur dann weiter, wenn wir annehmen, dass es nur end-lich viele plausible Hypothesen gibt. Anderenfalls helfen uns Falsifikati-onen nicht wirklich weiter, weil auch nach noch so vielen Falsifikationenunendlich viele Hypothesen übrig bleiben. Für wissenschaftliche Hypo-thesen und auch in Mordfällen scheint es allerdings oft plausibel zu sein,dass wir genügend Hintergrundwissen besitzen, um uns mit guten Gründenauf eine endliche Menge von Hypothesen bzw. Verdächtigen beschrän-ken zu können. Dann greift die eliminative Induktion, aber wiederum nurim Lichte weiteren Hintergrundwissens. Da statistische Verfahren wie dieklassischen Signifikanztests im Sinne von Fisher grundsätzlich auch aufder Idee der eliminativen Induktion beruhen, deutet sich hier schon an, inwelcher Form sie auf Hintergrundwissen angewiesen sind.5

Und selbst Bayesianisten wie Earman (1992, Kap. 7) bemängeln, dassder Bayesianismus dem eliminativen Induktionsverfahren nicht genügendAufmerksamkeit geschenkt hat. Das wäre dann ein wesentlicher Schritt hinzu einer konkreteren Einbeziehung von Hintergrundwissen und ein wichti-ger Schritt hin zum Schluss auf die beste Erklärung. Andererseits bemühtsich der Bayesianist schon, das Hintergrundwissen explizit zu berücksich-tigen. So spricht er davon, dass wir eigentlich immer nur bedingte Wahr-scheinlichkeiten verwenden sollten, etwa der Form p(T|K), wobei K un-ser Hintergrundwissen symbolisieren soll. Insbesondere sind die entspre-chenden vorher-Wahrscheinlichkeiten nicht nur als vollkommen beliebigeZahlen zu sehen, sondern Ausdruck der anfänglichen Plausibilität einerTheorie T im Lichte unseres Hintergrundwissens. Nur leider kann der Bay-esianist nicht weiter erklären, wie unser Hintergrundwissen ausgewertetwerden soll. Das K wird als ein Parameter mitgeschleppt (oder manchmalzwecks Vereinfachung auch weggelassen), ohne dass etwas über die in-nere Struktur von K oder darüber, welche Informationen aus K in unsereAusgangswahrscheinlichkeiten eingehen, zur Sprache kommt. Außerdem

Page 9: Wofür sprechen die Daten?

WOFÜR SPRECHEN DIE DATEN? 21

muss der Bayesianist die unrealistische Annahme machen, dass unser Hin-tergrundwissen im starken Sinne Wissen ist und die Wahrscheinlichkeit 1besitzt. Es ist dann zumindest im klassischen Bayesianismus nicht mehrrevidierbar.

Moderne statistische Testverfahren wie die Signifikanztests von Fisheroder Neyman-Pearson sehen auf den ersten Blick zweistellig aus, sindaber ebenso eindeutig vom jeweiligen Hintergrundwissen abhängig. Hierist nicht der geeignete Ort, sie gründlich zu diskutieren. Daher müsseneinige Bemerkungen und Hinweise genügen: Sie beruhen meist auf ei-ner Zufallsstichprobe aus einer Gesamtpopulation. Dabei benützen wir einstatistisches Modell zur Darstellung dieser Situation sowie eine Zufallsva-riable daraus als Prüfgröße. Das Modell stützt sich selbst schon auf empi-rische Annahmen, die keineswegs trivial sind und oft sogar unrealistischerscheinen (vgl. Berk/Freedman 2001). Auch Howson und Urbach (1993,Kap. 8) zeigen in verschiedenen Anwendungen der Theorie wie stark dieErgebnisse dieses Testverfahrens von der Beschreibung der Daten und z.B.der Einteilung der Ergebnisse in Klassen abhängen.

Die Grundidee des klassischen Signifikanztests ist sehr einfach: Manzeigt, dass in einem Experiment oder einer Beobachtung mit Resultat Edie Bedingungen so sind, dass bei Wahrheit von H das Resultat nur einesehr kleine Wahrscheinlichkeit p (etwa < 0,05 oder sogar < 0,01) gehabthätte und betrachtet dann H als falsifiziert, wenn E tatsächlich auftritt.Wie bei den deduktiv-hypothetischen Theorientests muss man hier wiederHilfsannahmen berücksichtigen, die wir darin zusammenfassen können,dass ein bestimmtes statistisches Modell die Situation richtig beschreibt.Dadurch kommt unser Hintergrundwissen ins Spiel.

Nehmen wir an, wir würfeln in einem Experiment 720 mal. Dabei solldie Hypothese getestet werden, dass jemand über außergewöhnliche men-tale Kräfte verfügt, mit denen er das Ergebnis zugunsten der Sechs beein-flussen kann, und es wird tatsächlich 143 mal eine Sechs gewürfelt. Dasist hochsignifikant häufiger, als es zu erwarten war. Beweist das die beson-deren Kräfte der Versuchsperson? Leider nein. Es deutet nur darauf hin,dass wir es vermutlich nicht mit einer reinen Zufallsschwankung zu tunhaben. Was aber die Ursache dieser Abweichung ist, darüber sagt uns diestatistische Auswertung allein noch nichts. Erst wenn wir andere Mög-lichkeiten ausschließen können, wie, dass der Würfel nicht fair ist odersogar bestimmte Tricks angewandt wurden, ist das Ergebnis ein Hinweisauf außergewöhnliche Kräfte. (vgl. Freedman et al., 1998, 562 f.)

Und auch dann bleibt die Frage offen, mit welcher Rechtfertigung wirin solchen Fällen die Nullhypothese als falsifiziert betrachten dürfen. Hierkönnte sich ein falsches Verständnis von Wahrscheinlichkeit äußern, das

Page 10: Wofür sprechen die Daten?

22 THOMAS BARTELBORTH

mit der so genannten Cournot-Regel verknüpft ist. Danach treten Ereig-nisse, die nur eine sehr kleine Wahrscheinlichkeit besitzen, einfach nichtauf. Wie irreführend eine solche Idee sein kann, zeigt ein kleines Beispielvon Beck-Bornholdt/ Dubben (1998, S. 210 ff.).

Stellen wir etwa fest, (E) dass eine zufällig ausgewählte Person imLotto einen Hauptgewinn erhalten hat (6 Richtige), so schließen wir nor-malerweise durchaus begründet, (H) dass er Lotto gespielt hat. Doch wiegroß ist eigentlich p(E|H)? Jedenfalls kleiner als 1 zu 13 Millionen. Sohätten wir im Sinne des Signifikanztests anhand von E hochsignifikantdie Annahme H widerlegt. Besser wäre es aber, nicht einfach blind solcheVerfahren anzuwenden, sondern lieber unser übriges Wissen einzubringen.Was sind alternative Erklärungen für E? Wie hoch ist wohl die Wahrschein-lichkeit, dass man einen Hauptgewinn erzielt, wenn man überhaupt nichtgespielt hat? Wohl noch einmal sehr viel kleiner. (Mir ist jedenfalls keinsolcher Fall bekannt.)

Ein besseres Maß für die Stützung von H durch E ist daher wohl derLikelihoodquotient p(E|H)/p(E|non-H) (vgl. Royall 1997, Forster/Sober2001). Er kann als erster Anhaltspunkt dafür dienen, welche der möglichenErklärungshypothesen die besten Erklärungen bietet. Schneidet eine deut-lich besser ab als alle anderen, spricht das ceteris paribus klar für sie. Daslässt sich in unserem Fall so interpretieren, dass zwar bei Vorliegen von Hdie Wahrscheinlichkeit für einen Lottogewinn immer noch sehr klein ist,sie aber trotzdem in sehr hohem Maße für H sprechen kann, weil die Alter-nativen noch viel unwahrscheinlicher sind. Wenn also ein unwahrschein-liches Ereignis eingetreten ist, ist die beste Erklärung unser eindeutig be-ster Tipp, wenn (ceteris paribus) der Likelihoodquotient p(E|H)/p(E|non-H) beziehungsweise die entsprechenden Quotienten p(E|H)/p(E|H∗) füralternative Erklärungshypothesen H∗ groß sind. Der klassische Signifi-kanztest betrachtet hier nur die absoluten Wahrscheinlichkeiten der ei-nen Hypothese, die uns in die Irre führen können, wenn wir sie isoliertbetrachten.

Er kann daher vermutlich nur in bestimmten Situationen als ein ersterIndikator betrachtet werden, dass ein bestimmtes Ergebnis nicht eine reineZufallsschwankung darstellt (vgl. Chow 1998). Möchte ich wissen, ob eineMünze fair ist, werde ich sie mehrfach werfen und dann überlegen, obdie Abweichung, der Anzahl der Köpfe vom erwarteten Wert noch alsZufallsschwankung durchgeht oder schon ein erstes Indiz für eine syste-matische Abweichung darstellt. Kommen wir zu dem Schluss, dass es sichum eine systematische Abweichung handelt, sagt uns der Signifikanztestallerdings noch nicht, welche genaue Ursache die hatte. Das kann nurweiteres Hintergrundwissen leisten. Für diesen ersten Schluss wird man

Page 11: Wofür sprechen die Daten?

WOFÜR SPRECHEN DIE DATEN? 23

neben den Signifikanztests natürlich eine physikalische Untersuchung derMünze oder ihres Herstellungsprozesses und andere Daten über die Be-dingungen der Würfe zu Rate ziehen, um die Betrugsvermutung definitivzu entscheiden. Erst all diese Überlegungen ergeben zusammengenommeneine begründete Ansicht in dieser Frage.6

Im Testverfahren von Neyman-Pearson setzen wir eine Auswahl vonzwei konkurrierenden Hypothesen H1 und H2 voraus, die es ermöglichensoll, die Fehler 1. und 2. Art abzuschätzen und zu minimieren. Der Fehler1. Art, der darin besteht, die zentrale Hypothese H1 zurückzuweisen, ob-wohl sie wahr ist, wird durch die Wahrscheinlichkeit (bzw. Likelihood)p(E|H) ausgedrückt. H wird dabei nur abgelehnt, wenn p(E|H) sehr kleinist, also es recht unwahrscheinlich ist, dass E zu beobachten war, wenn Hwahr ist. Der Fehler der 2. Art, dass H1 falsch ist, aber trotzdem akzeptiertwird, wird im Prinzip durch p(E|non-H1) ausgedrückt. Eine entsprechendeWahrscheinlichkeit ist aber in der Regel kaum bestimmbar, weil non-Hkeine bestimmte Hypothese darstellt und somit keine definiten Wahrschein-lichkeiten für irgendwelche Ereignisse behauptet.7 Dann benötigen wireine Alternativhypothese H2 und gehen davon aus, dass wenn H1 falschist, H2 wahr ist, d.h. wir setzen (H1 oder H2) voraus. Dann lässt sichp(E|non-H1) durch p(E|H2) ersetzen, was bei gehaltvollen HypothesenH2 eher einen Wert liefert. Welches hier die tatsächlich konkurrierendenHypothesen sein sollten, ist aber natürlich keine Frage der Logik, sondernunseres Hintergrundwissen (zu weiteren Problemen s.a. Howson 1993,Kap. 9). Das Verfahren ähnelt so schon wieder stärker der eliminativenInduktion.

Ein recht abstrakter Punkt ist hierbei, dass all diese Verfahren nacheiner speziellen Induktionstheorie verlangen, schon weil die einzig ver-fügbaren Wahrscheinlichkeitswerte immer nur von der Form p(E|H) (bzw.von der Form p(E|H&M) mit den Modellannahmen M) sind. Wir erhal-ten als nicht-Bayesianisten nie einen Zugriff auf p(H|E) oder sogar p(H)und haben daher keine Chance, uns bei der Induktion nur auf die Wahr-scheinlichkeitstheorie zu stützen (was aber auch nicht helfen würde s.u.).Eine spezielle Induktionstheorie, die in unserer Welt funktionieren soll, istselbst natürlich nicht a priori zu begründen (vgl. Bartelborth 1996, 254 ff.).Welche Induktionsverfahren in unserer Welt wie gut funktionieren, hängtvon speziellen Eigenschaften unserer Welt ab – etwa der Gleichförmig-keit in der Verteilung bestimmter Eigenschaften in bestimmten Bereichen– und ist selbst einer empirischen Erfolgskontrolle zu unterwerfen. Wiewir also in konkreten Fällen (in bestimmten Bereichen) schließen sollen,ist von weiteren Annahmen über unsere Welt abhängig.8 Für eine inter-nalistische Erkenntnistheorie ist diese Idee längst selbstverständlich, weil

Page 12: Wofür sprechen die Daten?

24 THOMAS BARTELBORTH

dabei auch das jeweilige Induktionsverfahren als Bestandteil unseres Über-zeugungssystems betrachtet wird, der selbst einen Teil unserer Begrün-dungen darstellt. Es bringt daher schon immer Beziehungen zu unseremempirischen Hintergrundwissen ins Spiel.9 Jedenfalls ist die Auswahl ei-ner geeigneten Induktionskonzeption eine Angelegenheit, die vielfältigeVernetzungen mit unserem Hintergrundwissen aufweist und einen wesent-lichen Aspekt einer jeden Rechtfertigung darstellt. Wie man damit nunumgeht, sollte in jedem Fall eine schwierige Herausforderung für Vertreterder Hypothese (DER) sein.

Darüber hinaus hat der Bayesianist offensichtlich Recht, dass wir fürInduktionsschlüsse berücksichtigen müssen, wie plausibel eine Annahmevorher war. Nehmen wir z.B. an, wir hätten einen ziemlich zuverlässigenTest auf Blinddarmentzündung und einen ebenso zuverlässigen auf Beu-lenpest und zwei positiv getestete Personen (eine auf Blinddarmentzün-dung und eine auf Beulenpest). Da die Beulenpest hier nicht sehr verbrei-tet ist, würden wir dann von den beiden Testergebnissen nicht dieselbenSchlüsse auf das Vorhandensein der Krankheiten ziehen, sondern natürlichunser Hintergrundwissen dazu entsprechend berücksichtigen und mit denTestergebnissen „zusammenrechnen“ .

Und besonders schwierig wird es für (DER) im Falle mehrerer Tes-tergebnisse (etwa von Signifikanztests), die sich sogar „widersprechen“können. Dann wird ein sorgsames Abwägen der Indizien im Lichte un-seres Hintergrundwissens erforderlich, das auf jeden Fall weit über dieursprünglichen Verfahren hinausführt.

Auch bei den modernen Verfahren der Kausalanalyse finden wir ent-sprechende Phänome. Sie stellen einen besonders wichtigen Spezialfallvon induktivem Schließen dar. Zunächst scheint hier es so, als ob es inzwi-schen rein statistische Verfahren gäbe, wie die statistische Regressions-analyse bzw. das „causal modelling“ oder modernere Nachfahren davonwie die von Pearl (2000) und Spirtes/Glymour/Scheines (2000) ausgear-beiteten Verfahren, um von Daten direkt zu Kausalbeziehungen zu gelan-gen. Diese Verfahren versuchen, aus einzelnen Korrelationen beziehungs-weise einem Netz von Korrelationen direkt auf ein kausales Netz (oderauch „Diagramm“) von Beziehungen zwischen Variablen zu schließen.Doch Humphreys/Freedman (1996, 1999) zeigen uns überzeugend, dasses wiederum nicht so einfach ist. Außerdem erläutert uns David Freedman(1999) an Beispielen, warum das auch nicht zu erwarten war. Die Suchenach Ursachen ist vielmehr eine komplexe Detektivarbeit, die auf kreativeEinfälle des Wissenschaftlers und ein sorgfältiges Zusammensetzen vielerIndizien angewiesen ist. Sein Fazit zu den Fallstudien lautet daher:

Page 13: Wofür sprechen die Daten?

WOFÜR SPRECHEN DIE DATEN? 25

„The strength of the case rests on the size and coherence of the effects, the design of theunderlying epidemiologic studies, and on replication in many contexts. Great care wastaken to exclude alternative explanations for the findings. Even so, the argument dependson a complex interplay among many lines of evidence. regression models are peripheral tothe enterprise.“10

Außerdem gehören hierhin jeweils viele weitere Fragen, die im Rah-men des Experimentierens und Messens anhand unseres Hintergrundwis-sen zu klären sind. Wie die bereits genannte, welche Größen man auswählt,aber auch, wie man sie misst und welche Annahmen (meist theoretischerArt) dabei wieder eingehen usf.

Wir können nun die Funktionen des Hintergrundwissens bei der Recht-fertigung bestimmter Annahmen schon etwas genauer benennen: UmSchlüsse aus einer Hypothese ziehen zu können, die dann als empirischerTest der Hypothese dienen können, sind wir auf Hilfsannahmen aus un-serem Hintergrundwissen angewiesen. Diese sollten selbst vor allem alsplausibel gelten können, und darüber hat unser Hintergrundwissen zu ent-scheiden. Es stellt eine Verbindung zwischen Daten und Theorie her. Außer-dem sollte auch die Theorie selbst bereits eine gewisse Plausibilität mit-bringen, also zu unseren anderen Theorien und Ansichten darüber passen,welche grundlegenden Kräfte in unserer Welt wirken. Jedenfalls beein-flusst die vorher-Plausibilität zusammen mit unseren empirischen Datenunsere Entscheidung, ob wir die Hypothese akzeptieren oder zumindestfür gut begründet halten. Weiterhin sind die Daten selbst zu bewerten, obes sich nicht um Messfehler, Ausreißer oder Konfusionen verschiedenerWirkungen handeln könnte.

Wie die dabei geforderten Plausibilitätschecks aussehen können, wirderst die Kohärenztheorie und das Abduktionsverfahren genauer beschrei-ben. Plausibilität ist natürlich eine Sache des Grades, und je mehr dieKohärenz unseres Hintergrundwissens durch Hinzufügen einer AnnahmeH erhöht wird und je weniger sie unter Umständen durch ebenfalls auftre-tende Inkohärenzen verringert wird, umso plausibler ist diese Annahme imLichte dieses Hintergrundwissens.

Außerdem hat die Rechtfertigung einer Hypothese immer damit zu tun,welche konkurrierenden Erklärungen es für bestimmte Daten gibt, wie gutdiese die Daten erklären und wie plausibel sie und die dort benötigtenHilfsannahmen sind. Es geht letztlich um Kohärenzvergleiche bzw. umeinen Vergleich, welche Kohärenzänderungen die konkurrierenden Hypo-thesen jeweils mit sich bringen. Alternative Erklärungen für ein Phänomen,die z.B. Dämonen oder Außerirdische ins Spiel bringen, lassen sich natür-lich immer finden. Aber die meisten davon interessieren uns nicht, weil dieInkohärenzen, die sie in unser Überzeugungssystem einbringen würden, sogroß sind, dass wir uns keine positiven Gesamteffekte von ihnen erwarten

Page 14: Wofür sprechen die Daten?

26 THOMAS BARTELBORTH

können. Es gibt in der Regel daher nur wenige plausible Kandidaten undunser Hintergrundwissen muss uns helfen, die auszusondern. Am bestenlässt sich das Verfahren im Rahmen eines Schlusses auf die beste Er-klärung verstehen, der in eine umfassendere Kohärenztheorie eingebettetwird. Er scheint geradezu das Paradigma für wissenschaftliches Begründendarzustellen.

5. ABDUKTION UND KOHÄRENZ

Die Abduktion oder der Schluss auf die beste Erklärung geht auch vonvorliegenden Daten aus, versucht aber dann nicht, diese einfach zu ex-trapolieren, sondern die beste Erklärung dafür zu finden. Handelt es sichschließlich auch noch um eine relativ gute Erklärung, wird die Hypotheseakzeptiert.11 Das Verfahren lässt sich zwecks besserer Übersichtlichkeit inzwei Aspekte zerlegen, die ich hier wie Schritte in einem einfachen Ablaufbeschreiben möchte. In einem ersten Schritt suchen wir zu bestimmtenDaten nach einigermaßen plausiblen Erklärungshypothesen, und in einemzweiten Schritt wählen wir dann die beste Erklärung unter den Alternativenaus.

Wie funktioniert dieser Schluss nun genau? Am einfachsten wird dasvielleicht in der Arbeit eines Detektivs deutlich. Übrigens schließt auchSherlock Holmes so, selbst wenn er uns manchmal nahe legt, es könntesich bei ihm um deduktive Folgerungen handeln (vgl. Bartelborth 1996,Kap. IV.A.3). Nehmen wir an, unser Detektiv soll einen Mordfall aufklä-ren. Herr Y ist mit einem Messer ermordet worden und in seiner Wohnungfinden sich einige Spuren (u.a. ein Messer mit seinem Blut und Fingerab-drücken von jemand anderem darauf).

Der Detektiv versucht nun eine Geschichte zu ersinnen, die all diegefundenen Spuren erklären kann und dabei auch zu weiterem Hinter-grundwissen z.B. über die Umstände der Tat passt. Genauer gesagt, wirder sich ebenfalls eines zweistufigen Vorgehens bedienen. In einem erstenSchritt hat er eine Gruppe potentieller Täter nach einfachen Kriterien aus-zuwählen, also etwa: Wer hatte ein Motiv und die Gelegenheit und wurdein der Nähe des Tatortes gesehen? So findet er eine erste Gruppe vonkonkurrierenden Erklärungshypothesen für die ermittelten Indizien (wozuich hier auch Zeugenaussagen rechne). Diese Vorauswahl ist notwendig,da wir sonst mit potentiell unendlich vielen Erklärungsansätzen arbeitenmüssten. Diese Auswahl treffen wir oft automatisch und unbewusst. Sodenken wir nicht lange darüber nach, ob eventuell Außerirdische auf derErde gelandet sein könnten, Herrn Y ermordet haben und dann entspre-chende Spuren hinterließen, obwohl das nicht mit rein logischen Mitteln

Page 15: Wofür sprechen die Daten?

WOFÜR SPRECHEN DIE DATEN? 27

auszuschließen ist. Bestimmte Möglichkeiten ziehen wir sinnvollerweisenicht in Betracht, weil sie sich offensichtlich nicht kohärent in unser Hin-tergrundwissen einbetten ließen.

Im zweiten Schritt, den Sherlock Holmes zumindest im Nachhineinseinem Freund Dr. Watson genauer erläutert, wählen wir unter den aus-gewählten Erklärungshypothesen die beste Erklärung, d.h. hier die Person,anhand derer sich alle Indizien am besten zu einem Gesamtbild zusam-menfügen lassen. Dabei haben wir sorgfältig abzuwägen, ob eine von unsentworfene Geschichte des Tathergangs tatsächlich eine gute Erklärung derFakten liefert. Können wir verstehen, warum der Täter seine Tat begangenhat? Dazu gehört ein Motiv, aber auch ein plausibles Profil der Persönlich-keit des Verdächtigen, in das wir eine solch brutale Tat integrieren können.Passt diese Erklärung weiterhin zu unserem weiteren Hintergrundwissenwie z.B. dem über die Einzigartigkeit von Fingerabdrücken etc.?

Den ersten Schritt können wir als einen groben und noch recht libe-ralen Kohärenztest (vgl. Bartelborth 1996, Kap. IV zum Kohärenzbegriff)betrachten, wo wir nach solchen Hypothesen suchen, deren Akzeptierenzumindest nicht allzu große Inkohärenzen in unser Überzeugungssystemeinbringen würde, die aber als erste Erklärungen der Indizien dienen kön-nen. Die Außerirdischen-Hypothese passt nicht hierhin, weil sie zu un-serer Überzeugung, dass wir bisher keine Besuche von Außerirdischenauf der Erde hatten und die vermutlich auch Besseres zu tun hätten, inWiderspruch stünde. Gäbe es besondere Hinweise in dieser Richtung oderließe sich ansonsten keine brauchbare Erklärung finden, kann sie natür-lich hinzugenommen werden und dann im zweiten Schritt mit in unsereGesamtbewertung einbezogen werden.

Der zweite Schritt weist Ähnlichkeiten zur eliminativen Induktion auf.Wir versuchen durch Elimination von Hypothesen (Verdächtigen) die Aus-wahl immer stärker einzuschränken, was gerade Sherlock Holmes gegenü-ber Watson betont. Das ist aber noch nicht alles: Die übrig bleibende Er-klärung muss auch gut sein. Das Verfahren ist also kein rein eliminati-ves Verfahren, sondern vergleicht genauso die positiven Erklärungsstärkenmiteinander. Außerdem ist nicht garantiert, dass wir alle Hypothesen bisauf eine falsifizieren können. Eigentlich handelt es sich im zweiten Schrittdaher um eine komplexe Kohärenzabschätzung, bei der jeweils die Ko-härenz der Überzeugungssysteme verglichen wird, die entstehen, wennwir eine der betreffenden Hypothesen zu unserem Hintergrundwissen dazunehmen.

Unter Kohärenz wird dabei verstanden, dass die Überzeugungen ei-nes Meinungssystems gut zusammenpassen und sich gegenseitig stützen.Laurence BonJour hat die Grundidee gut beschrieben:

Page 16: Wofür sprechen die Daten?

28 THOMAS BARTELBORTH

„What then is coherence? Intuitively, coherence is a matter of how well a body of belief’hangs together’: how well its component beliefs fit together, agree or dovetail with eachother, so as to produce an organized, tightly structured system of beliefs, rather than eithera helter-skelter collection or a set of conflicting subsystems. It is reasonably clear that this’hanging together’ depends on the various sorts of inferential, evidential, and explanatoryrelations which obtain among the various members of a system of beliefs, and especiallyon the more holistic and systematic of these.“ Laurence BonJour (1985, 93)

Für BonJour werden die Verbindungen zwischen den Überzeugungenüberwiegend, aber nicht ausschließlich durch Erklärungsbeziehungen ge-stiftet, und es bleibt natürlich noch zu erläutern, was mit Erklärung gemeintist und wie sich Erklärungen bewerten lassen.

Um ein Phänomen zu erklären und zu verstehen, haben wir zu zei-gen, dass es eine Instanz eines allgemeinen Musters ist, das wir in derWelt erkennen können (vgl. Bartelborth 2002). Nach Hempel sollte essich bei diesem Muster um einen gesetzmäßigen Zusammenhang handeln,doch zahlreiche Beispielerklärungen aus den Sozialwissenschaften, aberauch aus den Naturwissenschaften, zeigen, dass Erklärungen oft anhandschwächerer Regularitäten möglich sind. Für Wesley Salmon (1984) soll-ten die Muster vor allem kausal sein. Das werden die meisten wohl auchsein, aber wiederum ließen sich viele Erklärungen finden, die nicht gutin den kausalen Ansatz passen (vgl. Bartelborth 1996, VIII.D.2). Außer-dem sind die allermeisten Ursachen in der Ursachenkette eines Ereignis-ses nichterklärend. Der kausale Ansatz ist daher wenigstens ergänzungs-bedürftig. Dabei bleiben die statistischen Muster und Erklärungen wei-terhin ein Problem, da z.B. Salmons Common-Cause-Muster keineswegsunproblematisch sind (vgl. Sober 2001). Wichtiger für die Erklärungs-kraft scheint mir vielmehr die vereinheitlichende Kraft der Muster zu sein.Auch wenn die Muster nur statistischer Art oder nur für eingeschränkteAnwendungsbereiche Gültigkeit besitzen, so können sie dennoch infor-mativ sein. Man verlangt daher vor allem eine gewisse Invarianz bzw.Stabilität gegenüber Änderungen der Randbedingungen (d.h. eine gewisseVereinheitlichungsleistung), damit sie erklären können (vgl. Woodward1997).

Erklärungen sind somit informative Einbettungen in vereinheitlichen-den Theorien. Die wichtigsten Parameter für ihre Beurteilung sind hierbeider empirische Gehalt der erklärenden Theorie, der Umfang der Verein-heitlichung durch die Theorie sowie ihre organische Einheitlichkeit (vgl.Bartelborth 2002). Dieser Vereinheitlichungsansatz der Erklärung zähltneben der Anzahl der Phänomene, die in die Modelle der Theorie eingebet-tet werden können, auch den „Informationsgehalt“, den diese Einbettunghat, d.h., wie viel sie verbietet, denn es sollen triviale Vereinheitlichun-gen durch inhaltsleere Theorien ausgeschlossen werden. Für die organi-

Page 17: Wofür sprechen die Daten?

WOFÜR SPRECHEN DIE DATEN? 29

sche Einheitlichkeit wird verlangt, dass die Theorie nicht eine einfacheKonjunktion von Teiltheorien ist. Eine solche Konjunktion könnte natür-lich trivialerweise mehr Phänomene einbetten als die einzelnen Theorien.Doch das hat nichts mit Erklärungskraft oder echter Vereinheitlichung zutun. Eine genauere Explikation dieser Parameter ist im modelltheoreti-schen Rahmen der strukturalistischen Theorienauffassung möglich (vgl.Bartelborth 2002).

In manchen Fällen lassen sich einige Parameter präzise bestimmen bzw.vergleichen. So sollte zum Beispiel für zwei statistische Theorien T1 undT2, die beide ein beobachtetes Phänomen E erklären, indem sie eine be-stimmte Wahrscheinlichkeit für das Auftreten von E vergeben, der entspre-chende Likelihoodquotient p(E/T1)/p(E/T2) dem Quotienten der Erklä-rungsstärken entsprechen, wenn die anderen Parameter übereinstimmen.Die Likelihoods lassen sich als Gradmesser für die Stärke bzw. den empiri-schen Gehalt deuten, mit der die Theorien E vorhersagen. Er allein genügtallerdings nicht, um die Erklärungsstärke festzulegen. Im Extremfall be-steht die eine Theorie nur aus der Behauptung E. Dann sagt sie zwar genauE vorher und p(E/T) = 1, aber sie hat natürlich keine vereinheitlichendeKraft und bietet damit keine Erklärung für E.12

Es ist also offensichtlich, dass die Likelihoodquotienten nicht das al-leinige Kriterium für die relative Güte von Hypothesen darstellen können.Wie schwierig es ist, das Likelihoodprinzip tatsächlich anzuwenden, siehtman auch in der philosophischen Debatte um das Design-Argument, dasSober mit Hilfe des Likelihoodprinzips rekonstruiert. Nur mit großen „Ver-renkungen“ gelingt es Elliott Sober (2002), überhaupt einen Punkt gegendiesen Gottesbeweis zu erhalten. So befürworten er und Malcolm For-ster inzwischen den so genannten Akaike-Ansatz, den man als eine Artvon Weiterentwicklung des Likelihoodismus betrachten kann, weil der esgestattet, neben den Wahrscheinlichkeiten auch noch andere Werte – indiesem Fall die Einfachheit der Hypothesen – zu berücksichtigen (vgl.Forster & Sober 2001). Der Kohärenzansatz sagt demgegenüber, dass Ein-fachheit richtig verstanden zwar ein Aspekt der Erklärungsstärke ist, denner hängt natürlich mit der Erklärungsstärke einer Theorie zusammen, aberauch er ist nicht der alles bestimmende. Das Hauptziel ist es, gute Er-klärungen zu produzieren und damit Verstehen zu bewirken, und genau daswird im Kohärenzansatz mit der Wahrscheinlichkeit (sollte die bestimmbarsein) verrechnet.

Wenn man diese Zusammenhänge besser verstehen will, muss man alsomehr darüber wissen, was zur Kohärenz eines Aussagensystems beiträgtund wann es kohärenter ist als ein anderes. Dazu kann ich hier nur ei-nige Hinweise anbieten. Klar dürfte sein: Es genügt nicht, dass das Aus-

Page 18: Wofür sprechen die Daten?

30 THOMAS BARTELBORTH

sagensystem konsistent ist. Entscheidend ist vielmehr, dass die Aussa-gen nicht isoliert nebeneinander stehen, sondern untereinander inferentiellmiteinander verbunden sind, dass sie sich also gegenseitig stützen. Diewichtigsten Verbindungen liefern dabei vereinheitlichende Theorien, diemöglichst viele Phänomene erklären können. Sie stiften zum einen einemöglichst große Vernetzung, zum anderen kommt es aber auch darauf,wie groß die jeweilige Erklärungskraft ist (dazu später mehr) und wie dieVerbindungen genau verteilt sind.

In puncto Verteilung muss man etwa „isolierte Subsysteme“ – d.h. Be-reiche unseres Überzeugungssystem, die nur unterdurchschnittlich mit demrestlichen System zusammenhängen – bereits als störende Inkohärenzenbetrachten. Ebenso störend sind Erklärungsanomalien oder sogar Inkon-sistenzen logischer und auch probabilistischer Art. Um zunächst mit wi-dersprüchlichen Ausgangsmengen arbeiten zu können, verfahren moderneKohärenzprogramme etwa so, dass sie aus einer umfassenden Menge vonDaten und möglichen Hypothesen eine Akzeptanzmenge aussondern, fürdie die Daten und die besten erklärenden Hypothesen nach dem Gesichts-punkt größtmöglicher Verknüpfung ausgewählt werden (vgl. Thagard 2000,Kap. 2).

Bei diesem Vorgehen können auch Daten als Irrtümer oder Fälschungenzurückgewiesen werden. Dazu sind allerdings epistemische Überzeugun-gen zweiter Stufe zu berücksichtigen, die schon erste Bewertungen abge-ben, wie zuverlässig die Erhebung bestimmter Daten ist. Auch diese Über-zeugungen zweiter Stufe stehen natürlich letztlich wieder zur Dispositionund werden anhand ihres Erfolgs bzw. Misserfolgs bei der Kohärenzerzeu-gung beurteilt. Das zeigt erneut den holistischen Ansatz der Kohärenzthe-orie. Es geht letztlich immer um die Beurteilung eines Gesamtpakets, auchwenn wir daran nur lokal „arbeiten“ .

Der Wissenschaftler ähnelt hier dem Detektiv oder dem Löser einesPuzzles. Er versucht die Daten oder Indizien, über die er verfügt, zu einemgrößeren Gesamtbild zusammen zu setzen. Er kann dabei an unterschied-lichen Stellen eingreifen. Er kann Zeugenaussagen oder gerichtsmedizi-nische Befunde anzweifeln oder neue Hypothesen über den Tathergangentwickeln und sie nach und nach an die Indizien anpassen. Dabei sind esvor allem die Erklärungsbeziehungen, durch die wir ein zusammenhängen-des Bild erhalten, das uns die Geschehnisse begreifen lässt. In dem Bild desPuzzles sind unsere Meinungen die Steinchen des Puzzles und die wech-selseitigen Erklärungsbeziehungen bestimmen, welche Teile zueinanderpassen. Einige kleine Steine werden vorgegeben (etwa durch Beobach-tungen), andere größere (die Theorien) müssen wir erst entwerfen, um diekleinen Steine zu einem Gesamtbild zusammenfügen zu können. Sollten

Page 19: Wofür sprechen die Daten?

WOFÜR SPRECHEN DIE DATEN? 31

die allerdings überhaupt nicht passen, dürfen wir unter bestimmten Bedin-gungen (etwa einer Erklärung, wie es zu fehlerhaften „Daten“ kommenkonnte) auch bestimmte kleine Steinchen einfach wieder „wegwerfen“.

Ob wir dabei das richtige Bild (bzw. eine wahre Theorie) im Augehaben, wird allerdings erst mit der Zeit deutlich. Entscheidend für das Bildist vor allem die Wahl der großen Steine, also der Theorien, denn nur sieerlauben es, ein verständliches Muster zu erkennen oder eigentlich erstzu entwerfen. Sie können sogar darüber mitentscheiden, welche kleinenSteine wir akzeptieren und welche wir zurückweisen oder verändern.

Für jede einzelne Aussage ist für ihre Beurteilung wesentlich, wie gutsie in das System eingebunden ist und wie viel sie zur Erklärungskohärenzdes Gesamtssystems beitragen kann. In den bisherigen Kohärenzprogram-men zur Ermittlung der kohärentesten Gesamtmengen von Aussagen wirddiese Beurteilung anhand eines einfachen „Zusammenrechnens“ von infe-rentiellen Beziehungen mit Hilfe von Parametern etwa für die Erklärungs-stärke vorgenommen (vgl. Thagard 2000, Kap. 2; Schoch 2000).13

6. THEORIENWAHL IST KEINE FRAGE DER WAHRSCHEINLICHKEITEN

Gegen Kohärenztheorien und vor allem gegen den Schluss auf die besteErklärung wird immer wieder ins Feld geführt, dass er sich doch eigent-lich genauso nach Wahrscheinlichkeitsüberlegungen zu richten habe wieprobabilistische Ansätze und daher durch sie überflüssig würde. Das istmeines Erachtens aus zwei Gründen falsch. Erstens verfügen wir normaler-weise nicht über die entsprechenden Wahrscheinlichkeiten wie z.B.pvorher(H) und p(H/E) und sind daher auf andere Verfahren angewiesen,um z.B. die anfängliche Plausibilität von Hypothesen zu bestimmen. Aberzweitens – und noch wichtiger – sollte sich unsere Theorienwahl nichtallein an Wahrscheinlichkeiten orientieren. Kommt der abduktive Schlussalso zu anderen Ergebnissen als eine Bayesianistische Analyse, spricht dasnicht unbedingt gegen den Schluss auf die beste Erklärung.

Ein Punkt, der hier immer wieder zu Missverständnissen geführt hat,soll nun explizit zur Sprache kommen. In Folge der empiristischen Erkennt-nistheorie ist die Auffassung entstanden, wir dürften nur die Überzeu-gungen akzeptieren, die eine möglichst hohe Wahrscheinlichkeit aufwei-sen. Doch tatsächlich sollte sich unsere Wahl von Theorien und anderenÜberzeugungen keinesfalls nur an deren Wahrscheinlichkeit orientieren.

Das ist ein Punkt, den Popper schon sehr klar gesehen hat, der abereventuell deshalb noch nicht so allgemein akzeptiert ist, weil Popper ihnzum Teil übertrieben hat, indem er gleich behauptete, die Unmöglichkeiteiner Induktionslogik beweisen zu können, oder indem er ihn zu stark mit

Page 20: Wofür sprechen die Daten?

32 THOMAS BARTELBORTH

seiner speziellen Methodologie verknüpft hat, nach der Theorien schlichtumso besser sind je riskanter sie sind, je unwahrscheinlicher sie also sind.Damit eine Hypothese möglichst falsifizierbar ist, sollte sie starke inhalt-liche Behauptungen aufstellen und damit natürlich auch unwahrscheinli-cher sein als schwächere Behauptungen. Wer nun aber nicht Falsifizier-barkeit als das wichtigste Kriterium für wissenschaftliche Theorienbildungansieht, wird mit Poppers Argument nicht zu beeindrucken sein. Dochauch die Wissenschaftspraxis spricht hier für einen bescheidenen Popper.

Beginnen wir dazu mit einer kleinen Anekdote. Ein Soziologe, ein Phy-siker und ein Logiker fahren in die Schweiz. Kurz nach der Grenze se-hen sie eine braun gefleckte Kuh. Daraufhin der Soziologe: „Auch in derSchweiz sind die Kühe braun gefleckt.“ Der Physiker ist schon vorsich-tiger und meint: „In der Schweiz gibt es wenigstens eine braun gefleckteKuh.“ Doch dem Logiker geht selbst das schon zu weit: „In der Schweizgibt es wenigstens eine auf einer Seite braun gefleckte Kuh.“ Wer ist nunder beste Wissenschaftler von den dreien? Keiner. Worauf wir schließenkönnen und sollten, ist eine Frage weiteren Hintergrundwissens. Es sollteaber klar sein, dass wir mit Schlüssen vom Typ des Logikers zwar zuAussagen mit hohen Wahrscheinlichkeiten gelangen, aber keine informa-tiven Aussagen erhalten, die interessante wissenschaftlichen Einsichtendarstellen. Popper hat in diesem Punkt Recht, dass wir uns dazu schonviel weiter aus dem Fenster lehnen und auch Aussagen akzeptieren müs-sen, die aufgrund ihrer Universalität nur eine geringe Wahrscheinlichkeitbesitzen können – wenn man hier überhaupt von Wahrscheinlichkeitensprechen möchte. Das besagt aber nur, dass unsere Induktionsverfahrennicht allein aus Wahrscheinlichkeitseinschätzungen bestehen können. Wei-tergehende Schlussfolgerungen Poppers müssen wir deswegen noch nichtübernehmen.

Nehmen wir etwa den Bayesianismus und gehen einmal davon aus, eswäre in sinnvoller Weise möglich, Wahrscheinlichkeiten auch für Hypo-thesen zu erhalten. Ein nahe liegendes Kriterium der Theorienwahl wäredann etwa das, immer nur sehr wahrscheinliche Theorien zu akzeptierenoder als gute Theorien zu betrachten. Doch die besten Theorien wärendann Tautologien mit Wahrscheinlichkeit 1. Warum sollte ich ein größeresRisiko eingehen und wie sollte es mit anderen Zielen verrechnet werden?Der Bayesianismus erweist sich hier als theoriefeindlich.14 Er weiß nichtzu schätzen, dass uns Theorien Erklärungen und damit zugleich ein Ver-stehen der Welt bieten, für das wir jeweils ein höheres Risiko eingehenmüssen. Der Kohärenzansatz leistet natürlich genau dies. Er schätzt vorallem die guten Erklärungsleistungen einer Theorie, behält aber danebendie weiteren inferentiellen Zusammenhänge der Theorie zu anderen Teilen

Page 21: Wofür sprechen die Daten?

WOFÜR SPRECHEN DIE DATEN? 33

unseres Hintergrundwissens genau im Auge, die der Theorie Plausibilitätbzw. eine höhere Wahrscheinlichkeit verleihen.

Besonders „grundlegende“ Theorien T, aus denen sich viele phäno-menale Gesetze ableiten lassen, werden von uns am meisten geschätzt.Das kann nicht an ihrer besonders hohen Wahrscheinlichkeit liegen, dennihre Wahrscheinlichkeit muss schließlich geringer oder gleich der Wahr-scheinlichkeit ihrer logischen Folgerungen sein. Gestattet eine Theorie esnun, viele Hypothesen H1,...,Hn abzuleiten und diese Hypothesen sind imÜbrigen unabhängig voneinander, so ist p(T) nicht größer als das Pro-dukt der Wahrscheinlichkeiten für die Hypothesen. Je erklärungsstärkerT also wird, umso kleiner sollte seine Wahrscheinlichkeit sein. Intuitivbetrachten wir solche erklärungsstarken Theorien, wenn sie sich dann auchnoch empirisch bewähren, aber als besonders gut gestützt und zumindestals besonders erstrebenswert. Sie fördern unser Verstehen mehr als diephänomenalen Gesetze.

Verstehen bedeutet dabei, dass wir bestimmte Beobachtungen oder Tat-sachen kohärent in unser Hintergrundwissen einbetten können (vgl. Bar-telborth 2001). Erklärungen und Verstehen sind so von unserem weiterenHintergrundwissen abhängig, was einfachen empiristischen Ansätzen wie-derum den Zugang zu diesem holistischen Phänomen versperrt. So hilfteinem Menschen der Antike eine isolierte Darstellung der Elektrodyna-mik nicht viel zum Verständnis von Blitzen. Wir müssen die Theorie erstsorgfältig in seinem Hintergrundwissen verankern, ehe sie für ihn sinn-voll wird, wozu ihm zunächst aber so viel an weiterem Hintergrundwissenfehlen dürfte, dass dieses Lehrvorhaben wohl langwieriger würde.

Der Bayesianist hat noch ein weiteres Problem, das wieder auf seineAusgangsschwierigkeit zurückführt. Viele neue Theorien führen neue the-oretische Begriffe ein, mit deren Hilfe sie es erst schaffen, Phänomenezu erklären und zu vereinheitlichen. Wenn der Bayesianist kein Hellse-her ist, verfügt er über keine vorher-Wahrscheinlichkeiten für diese Theo-rien bzw. neue Konkurrenten seiner Theorien (er hat auch keine Werte fürpvorher(E/H)). Er muss wiederum eine neue erste Plausibilitätseinschätzungvornehmen. Dafür ist in seinem Apparat aber kein Instrument vorgesehen,das uns sagt, wie die erfolgen soll. Die Kohärenztheorie ist demgegenübernur auf eine Einschätzung der Erklärungsstärken angewiesen, die auch inrecht informell gestalteten Beispielen möglich ist.

Nun sind natürlich noch andere Möglichkeiten denkbar, Wahrschein-lichkeiten in Anschlag zu bringen. Etwa als Theorie der inkrementellenBestätigung. Danach bestätigen Daten E eine Hypothese H, wenn ihrenachher-Wahrscheinlichkeit (gegeben E) zumindest höher ist als ihre vor-her-Wahrscheinlichkeit (ohne Kenntnis von E). Damit sich die Präzision

Page 22: Wofür sprechen die Daten?

34 THOMAS BARTELBORTH

des Bayesianistischen Ansatzes auszahlt, bietet er uns gleich ein Maß fürdie Bestätigung an. Das meistgewählte Maß besteht in der Differenz derbeiden Wahrscheinlichkeiten: pnachher – pvorher (vgl. Fitelson 1999).

Doch auch dieser bescheidene Ansatz führt in größere Schwierigkeiten.Popper und Miller (1987) haben ein Argument gegen den Bayesianismusals Induktionsverfahren formuliert. Das beruht auf dem Bestätigungskon-zept der Differenzen. Das Argument lautet in einer Rekonstruktion vonGillies (1986): Wenn wir als Bestätigungsmaß gerade s(h,e) = p(h/e) – p(h)wählen und annehmen, dass alle Wahrscheinlichkeiten zwischen 0 und 1liegen und e logisch aus h folgt, so finden wir: s(h, e) = s(h ∨¬e, e) + s(h∨ e, e). Da nun h ∨ e logisch aus e folgt, muss s(h ∨ e,e) den deduktivenBestätigungsanteil ausmachen. Wenn es also einen induktiven Anteil ander Bestätigung gibt, sollte der in s(h ∨¬e, e) zu finden sein. Für diesenTerm konnten Popper und Miller aber zeigen, dass er immer negativ ist.Also liegt keine induktive Bestätigung im Sinne des Bayesianismus vor.

Redhead (1985) hat darauf hingewiesen, dass man als Bayesianisti-schen Bestätigungsbegriff statt der Differenz d auch den Quotienten r derbeiden Wahrscheinlichkeiten wählen könnte. Doch Gillies (1986) und Fi-telson (1999) geben gute Gründe dafür an, d gegenüber r zu bevorzugen.15

Fitelson, der die Frage nach dem geeigneten Bestätigungsmaß am syste-matischsten untersucht hat, plädiert überzeugend dafür, den Likelihood-quotienten als Bestätigungsmaß zu verwenden. Doch dann verlieren wirden Bayesianismus immer mehr aus den Augen, denn die vorher-Wahr-scheinlichkeiten der Hypothese und der jeweiligen Daten spielen dannkeine Rolle mehr. Das Einzige, was wir dann noch benötigen, sind dieLikelihoods der Hypothesen relativ zu den Daten und das sollte gege-ben sein, wenn unsere Hypothesen oder Theorien hinreichend definitiveAussagen über die zu beobachtenden Phänomene treffen.16 Tun sie dasnicht, können wir natürlich auch nicht erwarten, dass wir eine objektive,statistische Auswertung der induktiven Stützung unserer Theorie durch dieDaten erhalten. Eine kohärentistische ist selbst dann noch möglich.

Der Likelihoodquotient p(E/H)/p(E/non-H) ist allerdings meist nichtbestimmt, weil non-H wiederum keine Theorie ist und somit kaum eineWahrscheinlichkeitsverteilungfürBeobachtungenliefert.Sinnvollerscheintes hier zu sein, auf einen Vergleich zweier Hypothesen H1 und H2 zu set-zen. Den Likelihoodquotienten zweier Hypothesen p(E/H1)/p(E/H2) konn-ten wir im Rahmen des Schlusses auf die beste Erklärung auch als einenFaktor (allerdings immer unter anderen) für die relative Erklärungsstärkeder beiden Hypothesen betrachten und daher auch im Kohärenzansatz an-gemessen berücksichtigen, wenn wir dafür überhaupt konkrete Werte er-halten. Er vergleicht, wie gut die beiden Hypothesen jeweils unser Datum

Page 23: Wofür sprechen die Daten?

WOFÜR SPRECHEN DIE DATEN? 35

E „abzuleiten“ gestatten und das scheint so ein wichtiger Aspekt einesVergleichs der Erklärungsstärken zu sein (s.o.).

Der Kohärenzansatz kann demnach die relevanten Parameter einer Bay-esianistischen Analyse übernehmen und ihnen den richtigen Stellenwertzuweisen, ist aber nicht auf das Vorhandensein quantitativer Wahrschein-lichkeitswerte angewiesen.

7. WISSENSCHAFTSTHEORETISCHE KONSEQUENZEN DER

DREISTELLIGKEIT

Wir haben gelernt, dass die Daten von sich aus stumm bleiben und erstanhand weiterer Annahmen aus unserem Hintergrundwissen zum Redengebracht werden können. Die damit verbundene Aufgabe des empiristi-schen Dogmas (DER) hat für unsere Rechtfertigungsverfahren und ihreAnwendung vor allem in den Wissenschaften weitreichende Konsequen-zen. Die meisten unserer Rechtfertigungs – bzw. Bewertungsverfahren fürTheorien müssen zumindest ergänzt werden, und es ist meist nicht klar, wieman das Hintergrundwissen dort expliziter berücksichtigen könnte. Fürweit verbreitete statistische Verfahren wie Signifikanztests wird ein grund-legendes Problem deutlich. Sie sind die modernen Überreste des empiris-tischen Denkens, das von einer zu einfachen Struktur von Begründungs-beziehungen ausgeht. Ihre Ergebnisse beruhen wesentlich auf implizitenHintergrundannahmen, und sie müssen mit anderem oft auch nicht quanti-tativen Hintergrundwissen und den Ergebnissen anderer statistischer Testszu einer Gesamtbewertung „zusammengerechnet“ werden.

Unter dem heutigen Publikationsdruck sind einfache Verfahren wie dieSignifikanztests verständlicherweise trotzdem sehr beliebt in der Wissen-schaftspraxis. Es lassen sich schnell irgendwelche Daten erheben und an-hand von Signifikanztests wird sich auch eine Hypothese finden lassen,die durch diese Daten als signifikant ausgezeichnet werden kann. Dochso bequem sind wissenschaftliche Erkenntnisse nicht zu haben. Das solltehöchstens der Startpunkt der Arbeit sein. Der richtige Weg sollte eigent-lich auch allen Beteiligten klar sein. Wir müssen möglichst ausgearbeiteteTheorien entwickeln und diese gegen konkurrierende Theorien vor allemdaraufhin testen, welche der Theorien die besseren Erklärungsleistungenerbringt. Außerdem ist auszuloten, wie gut diese Theorien zu anderen Hin-tergrundannahmen zum Beispiel über die möglicherweise zugrundliegen-den kausalen Mechanismen passen. Bei der Bestimmung der jeweiligenErklärungsstärken sind selbstverständlich auch statistische Überlegungenwichtig, sie sollten nur nicht als Ersatz für die komplexeren Bewertungenbetrachtet werden, sondern nur als Teile dieser umfangreicheren Arbeit.

Page 24: Wofür sprechen die Daten?

36 THOMAS BARTELBORTH

Die Bayesianisten schlagen hier zunächst die richtige Richtung ein,indem sie die Bedeutung des Hintergrundwissens betonen. Sie verdeutli-chen auch, dass es uns auf p(H/E) ankommen sollte, während die anderenVerfahren nur von Werten des Typs p(E/H) ausgehen können, womit nochkeine direkten Aussagen über die Wahrscheinlichkeit von H möglich sind.Wenn wir die einschätzen wollen, müssen wir uns auf weitere Annahmenzum Beispiel über die vorher-Wahrscheinlichkeit von H oder andere In-duktionsverfahren basierend auf p(E/H) einlassen, die nicht so einfach zubegründen sind.

Doch so plausibel die Bayesianistische Überlegung auch ist, dass wirmit p(H/vorher-Hintergrundwissen) starten sollten und die dann „updaten“,so offen bleibt leider, wie wir diesen Ausgangswert sinnvoll bestimmenkönnen. Dazu bleibt uns der Bayesianist meist weitere Hinweise schuldig.17

Viele Wissenschaftstheoretiker haben zu Recht darauf hingewiesen, dasswissenschaftliche Hypothesen sich für uns nicht als Ergebnisse eines durch-schaubaren Zufallsprozesses darstellen, von dem wir wissen, mit welcherQuote hier richtige Ergebnisse zu erwarten sind. Liegen solche Voraus-setzungen vor, kann der Bayesianismus ein probates Mittel sein, um zuden entsprechenden Wahrscheinlichkeiten zu gelangen. Das ist für wis-senschaftliche Hypothesen nur praktisch nie der Fall. Die rein subjektivenWerte, die wir dann noch einsetzen können, sind aber nur biographischeAuskünfte des Autors einer Studie über seine Glaubensgrade und solltendaher nicht in wichtige Resultate eingehen. Was dann übrig bleibt, sindzum Beispiel Likelihoodquotienten als wichtige statistische Parameter, diedas Ergebnis der Studie repräsentieren (vgl. Royall 1997).

Außerdem würden selbst die Wahrscheinlichkeiten vom Typ p(H/E)allein nicht ausreichen. Das sollte Abschnitt 6 zeigen. Hier ist vielmehrder empirische Gehalt der Hypothese bzw. primär ihre Erklärungskraft zuberücksichtigen. Die Likelihoodquotienten sind dafür unsere aussagekräf-tigsten statistischen Größen, die dann in eine umfassendere Kohärenzbe-wertung eingehen können. Genau genommen kann erst diese umfassendereBewertung unsere Entscheidungen begründen. In dem Kohärenzverfahrenwerden die vielen lokalen Zusammenhänge zu einer umfassenden Ein-schätzung zusammengerechnet.

Letztlich kommt also auch die Auswertung statistischer Daten nichtum eine Kohärenzbewertung herum. Einfache Tricks, mit denen wir dieDaten zum Sprechen bringen könnten, gibt es also leider nicht. Für wel-chen Täter bestimmte Indizien sprechen, können wir nur anhand weiterenHintergrundwissens feststellen. Das kann ein gewiefter Verteidiger natür-lich wiederum in Zweifel ziehen, und so erhalten wir oft umfangreicheProzesse, die eine umfangreiche Beweiswürdigung verlangen, und keine

Page 25: Wofür sprechen die Daten?

WOFÜR SPRECHEN DIE DATEN? 37

einfachen Entscheidungsverfahren. Wissenschaftliche „Prozesse“ um dierichtigen Theorien sind auch nicht einfacher zu führen.

Die Auswertung von Daten und die Begründung von Hypothesen istwie die Arbeit eines Detektivs. Es gibt keine einfachen Methoden, dieuns von den Indizien zu dem Täter hinführen, sondern nur das mühsameZusammensetzen aller Belege in einem Gesamtbild, dessen Stimmigkeit(Kohärenz) dann ein wichtiger Anhaltspunkt für uns ist, dass wir den wah-ren Täter dingfest gemacht haben.

ANMERKUNGEN

∗ Ich danke Herrn Dr. Mark Siebel, Dr. Christoph Jäger, Dr. Frank Stahnisch und HerrnBaggatini für ihre hilfreichen Kommentare zu früheren Versionen des Artikels, der imRahmen des DFG-Projekts „Erklärungskohärenz“ entstanden ist.1 Darauf sind Empiristen als erkenntnistheoretische Fundamentalisten angewiesen, da fürsie alle Rechtfertigung letztlich auf die Beobachtungsbasis zurückzuführen sein soll.2 Mit „Hintergrundwissen“ sollen hier nur die Überzeugungen gemeint, sein, die wir alswahr akzeptieren, ohne dass damit schon impliziert wird, sie seien tatsächlich wahr. Insbe-sondere gehören aber auch Theorien und sogar Überzeugungen 2. Stufe dazu und nicht nurweitere Beobachtungen. Manchmal spreche ich auch von „Hintergrundannahmen“.3 Dieser umfassende Holismus ist auch erkenntnistheoretisch keine wirklich akzeptablePosition (vgl. Bartelborth 1996, III.B.5.b.).4 Ausgangspunkt der Argumentation für epistemische Normen kann m.E. hier nur dieerfolgreiche epistemische Praxis etwa in den Wissenschaften sein (vgl. Bartelborth 1996,II.A.3). Das scheint Quine (1979) zu akzeptieren, denn er versucht für seine Auffassungebenfalls Beispiele aus der Wissenschaftspraxis heranzuziehen.5 Die deduktiv-hypothetischen Ansätze sind selbstverständlich in ähnlicher Weise vonunserem Hintergrundwissen infiziert, da wir zur Ableitung von Annahmen aus Theorienimmer auch auf plausible Zusatzannahmen und Randbedingungen angewiesen sind unduns nach alternativen Theorien umsehen sollten, die dasselbe oder mehr abzuleiten gestat-ten.6 Für das induktiv-statistische Schließen oder die nicht-monotone Logik entspricht das derForderung nach der totalen Evidenz, die für nicht-monotones Schließen charakteristisch ist(vgl. Schurz 2001).7 Was natürlich auch schon für H selbst gelten kann, z.B. für disjunktiv zusammengesetzteHypothesen, aber im Normalfall ist es noch eher möglich – etwa anhand von Durchschnitts-bildungen über die Likelihoods der verschiedenen Möglichkeiten (Unterhypothesen) –p(E|H1) zu bestimmen.8 Sober argumentiert in (1991) dafür, dass auch die Frage, was jeweils mit Einfachheit inInduktionsschlüssen gemeint ist, nur bereichsspezifisch zu verstehen ist.9 Und nur die internalistischen Aspekte von Rechtfertigung interessieren in unserem Kon-text, weil per definitionem nur sie als Wegweiser zur Wahrheit dienen (vgl. Bartelborth1996, Kap. III).10 Elliott Sober (2001) gibt Beispiele dafür an, dass Korrelationen zumindest nicht immer(im Sinne von Reichenbachs "Common Cause"-Prinzip) auf Kausalbeziehungen zurück-zuführen sind.

Page 26: Wofür sprechen die Daten?

38 THOMAS BARTELBORTH

11 Verfügen wir nur über relativ schlechte Erklärungen (z.B. anhand vieler unplausiblerad-hoc Annahmen) so ist natürlich auch die beste davon noch kein heißer Tipp. Das wirdbei der eliminativen Induktion manchmal vergessen.12 Hier finden sich wichtige Zusammenhänge zu einem statistischen Verfahren zur Hypo-thesenbewertung, das man als Likelihoodismus bezeichnet (vgl. Edwards 1992, Royall1997). Edwards geht schon in (1992, Kap. 10.2) auf das Problem ein und betont dortselbst die Bedeutung von Hintergrundwissen und dem Informationsgehalt und der Ver-einheitlichungskraft von Hypothesen für Erklärungen, die auch für ihn das umfassendereThema darstellen. Allerdings weiß er kein Verrechnungsverfahren zwischen diesen Größenanzugeben.13 Man beachte aber, dass das ganze Verfahren keineswegs vollständig mechanisch abläuft.Das Erfinden von Hypothesen und die Beurteilung einzelner Erklärungen wird von denProgrammen als Input verlangt.14 Entsprechende Phänome zeigten auch schon die Ansätze zur logischen Wahrscheinlich-keit. Carnaps Problem, Gesetzen eine andere Wahrscheinlichkeit als 0 zuzuerkennen, bzw.Keynes antirealistische Ansichten sind Belege dafür (vgl. Gower 1997, Kap. 9 & 11).15 So ist r z.B. vollkommen unsensibel für die Stärke von h. Wir erwarten aber, dassdasselbe e logisch stärkere Hypothesen weniger stützt als schwächere.16 Das ist jedenfalls so, wenn wir als Bayesianisten das so genannte „principal principle“akzeptieren, wonach wir die physikalische Wahrscheinlichkeit zum Maßstab unserer sub-jektiven Wahrscheinlichkeit nehmen (psubjekt iv(e/pobjekt iv(e) = x) = x; vgl. Howson &Urbach 1993, 343 ff.).17 Ausgenommen sind hier die objektiven Bayesianisten, wie z.B. E.T. Jaynes, die andereProbleme zu bewältigen haben und natürlich auch noch der zweiten Kritik am Bayesianis-mus bzw. probabilistischen Ansätzen unterliegen, dass die Wahrscheinlichkeit nicht alleinfür die Theorienwahl zählt.

LITERATUR

Bartelborth, T.: 1993, ‘Hierarchy Versus Holism. A Structuralist View on General Relati-vity’, Erkenntnis 39, 383–412.

Bartelborth, T.: 1996, ‘Begründungsstrategien. Ein Weg durch die analytische Erkenntnis-theorie, Akademie Verlag, Berlin.

Bartelborth, T.: 2001, ‘Abduktion und Verstehen’, in Thomas Rentsch (Hg.), Sprache,Erkenntnis, Verstehen. Grundfragen der theoretischen Philosophie der Gegenwart,Dresden, 77–102.

Bartelborth, T.: 2002, ‘Explanatory Unification’, Synthese 130, 91–207.Beck-Bornholdt, H.-P. and Dubben, H.-H.: 1998, Der Hund, der Eier legt. Erkennen von

Fehlinformationen durch Querdenken, rororo.Berk, R. A. and Freedman, D. A.: 2001, ‘Statistical Assumptions as Empirical Commit-

ments’, in T .G. Blomberg and S. Cohen (eds), Law, Punishment, and Social Control:Essays in Honor of Sheldon Messinger, 2nd ed. de Gruyter, NewYork, to appear.

BonJour, L.: 1985, The Structure of Empirical Knowledge, Harvard University Press.Chalmers, A. F.: 2001, Wege der Wissenschaft, Springer Verlag, Berlin.Chow, S. L.: 1998, ‘Précis of Statistical Significance: Rationale, Validity, and Utility’,

Behavioral and Brain Sciences 21, 169–239.Earman, J.: 1992, Bayes or Bust? A Critical Examination of Bayesian Confirmation

Theory, MIT Press, Cambridge/Mass.

Page 27: Wofür sprechen die Daten?

WOFÜR SPRECHEN DIE DATEN? 39

Edwards, A. W. F.: 1992 (1. Auflage 1972), Likelihood, John Hopkins University Press.Fitelson, B.: 1999, ‘The Plurality of Bayesian Measures of Confirmation and the Problem

of Measure Sensitivity’, Philosophy of Science 66, 362–78.Forster, M. R. and Sober, E.: 2001, ‘Why Likelihood’, forthcoming in Mark Taper and Sub-

hash Lele (eds), Likelihood and Evidence, Chicago and London: University of ChicagoPress.

Freedman, D. A.: 1999, ‘From Association to Causation: Some Remarks on the History ofStatistics’, Statistical Science 14, 243–58.

Freedman, D. A. and Humphreys, P.: 1999, ‘Are there algorithms that discover causalstructure?’, Synthese 121, 29–54.

Freedman, D. A., Pisani, R. and Purves, R.: 19983, Statistics, W. W. Norton and Company,New York.

Gähde, U. and Stegmüller, W.: 1988, ‘An Argument in Favor of the Duhem-Quine-Thesis:From the Structuralist Point of View’, in Lewis Edwin Hahn and Paul Arthur Schilpp(eds), The Philosophy of W. V. Quine, – 3. pr. – La Salle, Ill.: Open Court: 1988, S.116–136.

Gillies, D.: 1986, ‘In Defense of the Popper-Miller Argument’, Philosophy of Science 53,110–113.

Good, I. J.: 1967, ‘The White Shoe is a Red Herring’, British Journal for the Philosophyof Science 17, 322.

Goodman, N.: 1965, Fact, Fiction, and Forecast, Bobbs Merrill, Indianapolis.Gower, B.: 1997, Scientific Method. An Historical and Philosophical Introduction, Rout-

ledge, New York.Howson, C. and Urbach, P.: 1993, Scientific Reasoning: The Bayesian Approach, Open

Court.Humphreys, P. and Freedman, D. A.: 1996, ‘The Grand Leap’, British Journal of the

Philosophy of Science 47, 113–23.Pearl, J.: 2000, Causality. Models, Reasoning, and Inference, Cambridge UP.Popper, K. R. and Miller, D. W.: 1987, ‘Why Probabilistic Support is not Inductive’,

Philosophical Transactions of the Royal Society of London A 321, 569–591.Quine, W. v. O.: 1979, ‘Zwei Dogmen des Empirismus’, in W. V. O. Quine, Von einem

logischen Standpunkt, Ullstein, Frankfurt a.M.Royall, R.: 1997, Statistical Evidence – A Likelihood Paradigm, Boca Raton: Chapman

and Hall.Salmon, W. C.: 1984, Scientific Explanation and the Causal Structure of the World,

Princeton University Press, Princeton.Redhead, M.: 1985, ‘On the Impossibility of Inductive Probability’, The British Journal

for the Philosophy of Science 36, 185–191.Schoch, D.: 2000, ‘A Fuzzy Measure for Explanatory Coherence’, Synthese 122, 291-311.Schurz, G.: 2001, ‘Normische Gesetzeshypothesen und die wissenschaftsphilosophische

Bedeutung des nichtmonotonen Schließen’, Journal for General Philosophy of Science32, 65–107.

Sober, E.: 1991, Reconstructing the Past. Parsimony, Evolution, and Inference, MIT Press,Cambridge/Mass.

Sober, E.: 2001, ‘Venetian Sea Levels, British Bread Prices, and the Principle of theCommon Cause’, British Journal for the Philosophy of Science 52, 331–346.

Sober, E.: 2002, The Design Argument, to appear in the Blackwell Guide to Philosophy ofReligion.

Thagard, Paul: 2000, Coherence in Thought and Action, MIT Press: Cambridge/Mass.

Page 28: Wofür sprechen die Daten?

40 THOMAS BARTELBORTH

Woodward, J.: 1997, ‘Explanation, Invariance, and Intervention’, Philosophy of Science64 (Proceedings), 26-41.

Institut für Logik und WissenschaftstheorieUniversität LeipzigBeethovenstraße 1504107 Leipzig([email protected])