64
1 NATURWISSENSCHAFTLICHE METHODE UND ERKENNTNIS Richard Dawid Skriptum Ein paar Bemerkungen zur Prüfung: Die Prüfung will das Schwergewicht auf das Erfassen der wesentlichen Gedanken die im Skriptum dargestellt sind legen. Es soll primär darum gehen, diese Gedanken nachzuvollziehen und auch wiedergeben zu können. Historische oder wissenschaftliche Details stehen nicht im Vordergrund. Jahreszahlen etwa sollen eine chronologische Einordnung ermöglichen, sind aber nicht Prüfungsstoff. Einige Unterkapitel gehen über die Grundideen der Vorlesung hinaus und werden nicht geprüft. (wird auch vor dem jeweiligen Unterkapitel noch extra angegeben.) Es sind dies Kapitel 1.4, 2.6, 2.10 und 2.11. Die Vorlesung will Naturwissenschaft aus zwei Perspektiven betrachten. Im ersten Teil wollen wir verstehen wie die naturwissenschaftliche Methode funktioniert. Im zweiten Teil werden wir fragen welchen Status die Resultate wissenschaftlicher Untersuchungen haben. Wir werden sehen, dass die beiden Fragen zwar voneinander unterschieden werden müssen, aber doch eng verknüpft sind. Oft werden wir Sachverhalten und Beispielen die wir bereits aus dem ersten Teil kennen im zweiten Teil wieder begegnen und sie dort aus einem etwas anderen Blickwinkel betrachten.

NATURWISSENSCHAFTLICHE METHODE UND ERKENNTNIShomepage.univie.ac.at/dawidr8/Eigene Texte/Skriptum...Antike Logik, insbesondere Die Syllogistik des Aristoteles und die avancierte Logik

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

  • 1

    NATURWISSENSCHAFTLICHE METHODE UND ERKENNTNIS

    Richard Dawid

    Skriptum

    Ein paar Bemerkungen zur Prüfung: Die Prüfung will das Schwergewicht auf das Erfassen der

    wesentlichen Gedanken die im Skriptum dargestellt sind legen. Es soll primär darum gehen,

    diese Gedanken nachzuvollziehen und auch wiedergeben zu können. Historische oder

    wissenschaftliche Details stehen nicht im Vordergrund. Jahreszahlen etwa sollen eine

    chronologische Einordnung ermöglichen, sind aber nicht Prüfungsstoff.

    Einige Unterkapitel gehen über die Grundideen der Vorlesung hinaus und werden nicht

    geprüft. (wird auch vor dem jeweiligen Unterkapitel noch extra angegeben.) Es sind dies

    Kapitel 1.4, 2.6, 2.10 und 2.11.

    Die Vorlesung will Naturwissenschaft aus zwei Perspektiven betrachten. Im ersten

    Teil wollen wir verstehen wie die naturwissenschaftliche Methode funktioniert. Im

    zweiten Teil werden wir fragen welchen Status die Resultate wissenschaftlicher

    Untersuchungen haben. Wir werden sehen, dass die beiden Fragen zwar

    voneinander unterschieden werden müssen, aber doch eng verknüpft sind. Oft

    werden wir Sachverhalten und Beispielen die wir bereits aus dem ersten Teil kennen

    im zweiten Teil wieder begegnen und sie dort aus einem etwas anderen Blickwinkel

    betrachten.

  • 2

    I DIE NATURWISSENSCHAFTLICHE METHODE

    0 Was ist die Wissenschaftliche Methode? Die naturwissenschaftliche Methode ist eine wesentliche Basis unseres modernen Weltbildes, unseres Umgangs mit der Welt.

    Sie hat unser Verständnis der Welt substantiell verändert .

    Sie ist treibende Kraft der technologischen Entwicklung.

    Sie strahlt von den Naturwissenschaften in Geistes und Sozialwissenschaften aus.

    Sie prägt heute auch das Denken in vielen anderen Bereichen des Lebens. In der Folge wollen wir versuchen, die Kerncharakteristika und die Funktionsweise der Methode nachzuvollziehen.

    Wir wollen einen gemeinsamen Nenner erfassen der die wissenschaftliche Methode von anderen Formen des Denkens über die Welt unterscheidet.

    Und wir wollen verstehen worin das Erfolgsgeheimnis der Methode besteht. Ebenso wichtig wie diese Gemeinsamkeiten allen wissenschaftlichen Denkens zu sehen ist es jedoch zu betonen, dass es die eine kanonische und unverrückbare wissenschaftliche Methode nicht gibt. Wie wir sehen werden hat sich die wissenschaftliche Methode über lange Zeit herausgebildet und weiterentwickelt. Leitlinie hierbei war und ist der Erfolg den die Methode gewährleistet.

    Die Qualität der wissenschaftlichen Methode ist selbst nicht a priori erschließbar sondern hängt an der Beschaffenheit der Welt. Wir erkennen Funktionstüchtigkeit oder auch Modifikationsbedarf der Methode wenn wir in die Welt schauen und auf dieser Basis die Effektivität der Methode feststellen.

    Neue Beobachtungen führen daher nicht nur zu neuen Theorien sondern in weiterem Rahmen auch zu Verschiebungen von Spezifika der wissenschaftlichen Methode selbst.

    Auch funktioniert die wissenschaftliche Methode in unterschiedlichen Forschungsfeldern die mit ganz unterschiedlichen Herausforderungen und Formen empirischer Daten konfrontiert sind recht unterschiedlich.

    Um die Vielschichtigkeit dessen was heut als wissenschaftliche Methode gilt besser zu verstehen wollen wir im Folgenden zunächst ihre historische Entwicklung skizzieren. Wir werden 4 wesentliche Entwicklungsschritte unterscheiden und betrachten:

    Antike Wissenschaft,

    frühe Neuzeit,

    19.Jh

    die aktuelle Situation.

  • 3

    Motiv für diese historische Betrachtung ist (abgesehen davon dass es eine schöne und spannende Geschichte ist), dass sich im Nachzeichnen dieser Entwicklung Elemente der wissenschaftlichen Methode sozusagen „separieren“ lassen. Je weiter man zeitlich zurückgeht, umso mehr Elemente „fehlen“ noch. Man sieht dabei, wie einzelne Elemente der wissenschaftlichen Methode für sich genommen funktionieren, wie weit sie reichen und wohin sie eben noch nicht reichen.

    1 Historische Perspektive

    1.1: antike Wissenschaft

    In der griechischen Antike entwickelte sich ein außerordentlich hohes Niveau rationaler Analyse von Naturphänomenen.

    Nach Naturphilosophischen Vorläufern seit etwa 600 v. Chr. erreicht diese Entwicklung im späteren 4. Jh ein Stadium in dem man eine ganze Reihe wissenschaftsähnlicher Charakteristika erkennen kann.

    Der Höhepunkt der antiken Wissenschaft liegt um 200 v. Chr., danach nimmt die Dynamik ab.

    Der Zusammenbruch der antiken Wissenschaft hängt mit dem Durchbruch des Christentums zusammen. Nach 400 n.Chr. ist wissenschaftliches Denken weitgehend verschwunden.

    Wir sehen also ein etwa 7 Jahrhunderte währende wissenschaftsähnliche Denktradition, eine längere Zeitspanne als jene seit dem Erwachen der neuzeitlichen Wissenschaft im 17. Jahrhundert.

    Worin nun ist antikes Denken wissenschaftlich und worin unterscheidet es sich von neuzeitlicher Wissenschaft?

    In antiker Wissenschaft bereits sehr stark ausgeprägt ist die Betonung logisch konsistenter Argumentation. Antike Logik, insbesondere Die Syllogistik des Aristoteles und die avancierte Logik der Stoa, erfassen die logischen Grundlagen des Argumentierens und schärfen damit das Bewusstsein für die Bedeutung eines konsistenten Arguments.

    In der griechischen Antike ebenfalls bereits hoch entwickelt ist die Mathematik, die auch durchaus in Naturbeschreibung, insbesondere der Astronomie, Verwendung findet.

    Auch wird präzise und umfassende Naturbeschreibung in antiker Wissenschaft, insbesondere in der Tradition des Aristoteles sehr wichtig genommen.

    o Was der antiken Wissenschaft fehlt ist das Verständnis für die Bedeutung des Experiments.

    Antikes Denken räumt dem Rationalismus höhere Kraft ein als moderne Wissenschaft. Sowohl allgemeine rationale Prinzipien als auch Mathematik werden als Idealkonstruktionen verstanden denen die irdischen Phänomene in etwa folgen.

  • 4

    Detailabweichungen von diesen Prinzipien gelten als weniger erhellend als die Analyse der Idealprinzipien selbst. Deshalb scheinen Experimente nicht notwendig wenn man die Welt wie sie sich darstellt einmal erfasst hat.

    a) ARISTOTELES ALS GRUNDLAGE WISSENSCHAFTLICHEN DENKENS:

    Heute erscheint Aristoteles als der Inbegriff des antiken Wissenschafts-verständnisses. Aristotelisches Denken ist in der Antike keineswegs unangefochten sondern stellt eine naturphilosophische Denkschule unter mehreren dar – andere sind:

    der Atomismus, beginnend mit den Vorsokratikern Demokrit und Leukippos sowie seiner späteren Ausprägung im Rahmen des Epikuräismus.

    Die stoische Philosophie, die ebenfalls eine eigenständige und voll ausgebildete Naturphilosophie entwickelt.

    Der Aristotelismus erlangt jedoch im Mittelalter beinahe Monopolstellung. Als die neuzeitliche Wissenschaft entsteht definiert sie sich als Gegenkonzept zum mittelalterlichen Aristotelismus (der allerdings in einigen Punkten wissenschaftsferner ist als sein antikes Vorbild). Andererseits aber bilden aristotelische Elemente auch die Basis für die entsehung des wissenschaftlichen Paradigmas. Der Aristotelismus ist daher als Vorbereiter wie auch Gegenbild zum neuen wissenschaftlichen Denken von zentraler Bedeutung. Sich Aristoteles etwas genauer anzusehen ist nicht zuletzt auch deshalb interessant, weil es zeigt, dass streng rationales und beobachtungsbasiertes Denken noch nicht zur wissenschaftlichen Methode führt. In zwei grundlegenden Punkten definiert Aristoteles den Rahmen, in dem sich Wissenschaft abspielt.

    1. Aristoteles erkennt, dass eine genaue Analyse der Natur auf der Einhaltung logischer Prinzipien in der Argumentation beruht. Indem er solche in Form seiner Aussagenlogik entwickelt, schärft er die Präzision des naturphilosophischen Denkens in einer Weise, die auch für die spätere Entwicklung des wissenschaftlichen Paradigmas der Neuzeit noch wesentlich sein wird.

    2. Aristoteles führt jene elementare Struktur des wissenschaftlichen Schließens ein, die bis heute seiner Grundidee nach gültig bleibt. Demnach verallgemeinert der Wissenschaftler zunächst von seinen Beobachtungen auf allgemeine Sätze (Induktion). Danach leitet er von diesen Sätzen Prognosen bezüglich neuer Beobachtungen ab. Das Schema hat also die Form:

    Beobachtung 1

    Induktion

    Erklärendes Prinzip Deduktion

    Beobachtung 2

  • 5

    Als Beispiel nehme man die wissenschaftliche Prognose einer Sonnenfinsternis: Man beobachtet die Bewegung von Sonne und Mond, und irgendwann auch

    eine Sonnenfinsternis. (Beobachtung 1). Dann entwickelt man auf dieser Basis all dieser Daten eine Theorie von der

    ‚absoluter‘ Position und Bewegung von Sonne und Mond. (Induktionsschluss auf ein erklärendes Prinzip)

    Schließlich berechnet man auf Basis der Fortsetzung der Bahnen von Sonne und Mond deren zukünftige Position und kommt zu der Schlussfolgerung, dass zu einem bestimmten Zeitpunkt eine neue Sonnenfinsternis passieren

    wird. (Deduktion der Beobachtung 2 vom erklärenden Prinzip). Der wesentliche Schritt in Richtung wissenschaftlichen Denkens besteht hier darin, dass Aristoteles keine andere Quelle des Wissens über die Welt anerkennt als die Beobachtung und ihre systematische Verallgemeinerung auf der Grundlage logisch stringenter Analyse. Für Aristoteles führt also weder das voraussetzungslose Denken auf der Basis allgemeiner philosophischer Prinzipien (wie die vorsokratischen Philosophen meinten) noch die Offenbarung von Wahrheit über Kanäle jenseits der nüchternen Beobachtung (wie es etwa Platon in seiner Ideenlehre oder auch Offenbarungsreligionen vertreten) zu gültigen Aussagen über die Welt. (Der mittelalterliche Aristotelismus hat zweiteren Aspekt der Lehre des Aristoteles freilich ignoriert.) Zentrale Motivation für die Philosophie des Aristoteles ist der Versuch, die Vielfalt der beobachteten Phänomene zufriedenstellend zu erklären. Aus heutiger Sicht sind dies Phänomene, deren Erklärungen sehr unterschiedlichen Wissenschaften zuzuschreiben sind. Physikalisch-astronomische wie die Bewegung von Planeten oder Objekten auf der Erde. Aber auch biologische wie die Lebenszyklen von Pflanzen und Tieren. Aristoteles möchte Prinzipien finden, die all diesen Phänomenen Rechnung tragen und ihre Eigenheiten als wesentlich für den Aufbau der Welt anerkennen. Das kann zu seiner Zeit nicht auf Basis eines Reduktionismus auf physikalische Prinzipien im heutigen Sinne gelingen. (Einen Reduktionismus solcher Art vertritt in der Antike, im Gegensatz zu Aristoteles, der Atomismus.) Wie könnte man etwa die Entwicklung einer Blume aus einem Samen auf Grundlage physikalischer Bewegungsgesetze erklären? Schon aus diesem Grund bleiben die Prinzipien des Aristoteles oft etwas vage und nicht mathematisierbar.

  • 6

    Damit im Zusammenhang steht eine zentrale Eigenschaft des aristotelischen Weltbildes: Die fundamentale Trennung zwischen Himmel und Erde. Himmelsphänomene sind in ihrer Regelmäßigkeit vollständig mathematisch beschreibbar. Phänomene auf der Erde sind dies nur zum Teil. Um diesem Unterschied Rechnung zu tragen und auf beide Situationen optimal eingehen zu können nimmt Aristoteles an, dass die himmlische Sphäre aus einer anderen Substanz besteht (dem Äther) als die irdische (dort sind es Wasser Feuer, Erde und Luft). Die unterschiedlichen Substanzen folgen auch unterschiedlichen Bewegungsprinzipien: am Himmel jenem der regelmäßigen und unveränderlichen kreisförmigen Bewegung, auf der Erde dem Prinzip des natürlichen Ortes den jedes Element besitzt und auf den es zustrebt. Ein wesentliches Charakteristikum des aristotelischen Weltbildes ist ein allgemeiner epistemischer Optimismus: A. geht davon aus, dass die Natur korrekt zu erfassen ist wenn man genau hinsieht. Sie täuscht den Beobachter nicht. Diese Annahme hat philosophische Gründe, im Wesentlichen fungiert sie als Absicherung gegen Skeptizismus, also die Position, dass ich überhaupt nichts über die Welt wissen kann. Für Aristoteles ist daher genaue Beobachtung eine ausreichende Grundlage für eine adäquate Naturbeschreibung. Nicht nötig ist dagegen die Entwicklung artifizieller Versuchsanordnungen (Experimente) um jene Aspekte der Natur zu isolieren, die im natürlichen Kontext verborgen bleiben. Die Natur so wie Aristoteles sie versteht verbirgt nichts. Im Gegenteil erschiene eine künstliche Versuchsanordnung aus Sicht des Aristoteles oft zweifelhaft, weil das komplexe Netz diverser Ursachen und Prinzipien die Möglichkeit offen lässt, dass der artifizielle Aufbau einen Aspekt beseitigt der im natürlichen Zusammenhang wesentlich wäre. (Ein entsprechendes –vorwissenschaftliches – Argumentationsmuster wird von Astrologen und anderen Esoterikern angewandt, wenn sie erklären, dass die von ihnen postulierten Phänomene nicht empirisch belegbar sind weil jeder künstliche Eingriff in den Vorgang irgendwie den Effekt zerstört.)

    b) ANTIKER ATOMISMUS Es ist interessant für das Verständnis von Rolle und Bedeutung der naturwissenschaftlichen Methode, sich im Vergleich zum Aristotelismus eine zweite antike Denktradition anzusehen, den Atomismus.

    Die Grundidee des Atomismus ist ganz abstrakt philosophisch motiviert und besagt: Es gibt nur Atome und den leeren Raum.

    Auf dieser Basis entwickelt sie ein radikal reduktionistisches Verständnis von der Welt.

  • 7

    Die atomistische These ist verglichen mit dem Aristotelismus viel weniger auf konkrete Naturbeschreibung anwendbar weil rein philosophisch begründet und von den Details der Naturbeobachtung weitgehend entkoppelt. Die Grundprinzipien des Atomismus können zwar in manchen Bereichen von Empirie inspiriert sein, werden aber häufig durch reines Denken erschlossen. Die beobachteten Formen, Qualitäten, etc, sind ihrem Verständnis nach alle auf die einfachen Eigenschaften der Atome reduzierbar, allerdings ist die konkrete Konstruktion dieser Reduktion im Detail (also dort, wo reines Denken sie nicht erweisen kann) so unzugänglich, dass sie von den Atomisten gar nicht ernsthaft versucht wird. Der Atomismus hat daher in der Antike kaum unterstützende Funktion für wissenschaftliche Untersuchungen.

    Ein weiterer Punkt macht Aristoteles wissenschaftsnäher als die Atomisten:

    Aristoteles sieht klarer als die Vorsokratiker die Gefahr, durch unpräzise Formulierung ungedeckte Folgerungen zu machen. (Das Bewusstsein für diese Gefahr ist wohl ein Motiv für seine Abwertung rein rationaler Analyse ohne Unterstützung durch Beobachtung.) Aristoteles erhöht daher deutlich den Anspruch an seine Begriffsschärfe. Er ist der erste, der eine Logik als Grundlage sauberer Argumentation entwickelt und sich damit von den eher vagen und intuitiv motivierten Argumentationsketten der Vorsokratiker entfernt.

    Die Atomisten/Epikuräer haben wenig Interesse an der Entwicklung einer systematischen Logik. Möglicherweise besteht ein implizites Bewusstsein, dass präzisere Begriffsdefinitionen und Schlussregeln die Gültigkeit der atomistischen Argumentationslinie insgesamt gefährden würden.

    Aristoteles ist also in methodischer Hinsicht wesentlich wissenschaftsnäher als die Atomisten.

    In Anbetracht dieser methodischen Vorzüge des Aristotelismus ist es umso bemerkenswerter, dass dem Atomismus von der modernen Wissenschaft in den inhaltlichen Grundzügen in so vieler Hinsicht gegenüber Aristoteles recht gegeben wird. DER VORTEIL DES ATOMISMUS GEGENÜBER ARISTOTELES GEHT AUF DIESER EBENE ÜBER DIE WISSENSCHAFTLICHE BESTÄTIGUNG DES EINFACHEN SATZES: ‚ES GIBT ATOME‘ WEIT HINAUS!

    Hier eine Bilanz, hinsichtlich welcher Aussagen sich nach heutigem Wissensstand Atomismus und Aristotelismus bewährt (+) und nicht bewährt (-) haben. Vor dem Schrägstrich die Bewertung des Atomismus, nach dem Schrägstrich jene des Aristotelismus. (Die Thesen des Aristoteles die hier angesprochen werden sind oft Vorwegnahmen. Einige von ihnen werden wir erst im kommenden Kapitel etwas genauer besprechen.)

    +/- Das Konzept des Aufbaus der Welt aus Atomen hat sich bewährt. Die Atomisten nehmen Atome an – Aristoteles lehnt sie ab. +/- Aristoteles vertritt eine 5-Elementenlehre (Grundelemente Wasser, Luft, Erde, Feuer, Himmelsäther) – Die Atomisten lehnen sie ab. Sie gilt seit dem 18. Jh. als widerlegt. +/- Himmel und Erde werden von den Atomisten nach gemeinsamen Prinzipien beschrieben – Aristoteles nimmt unterschiedliche Gesetze für Erde und Himmel an. Die heutige Physik hat die gleichen Gesetze für Himmel und Erde.

  • 8

    +/- Aristoteles nimmt eine teleologische Ursache (also eine Letzterklärung eines Phänomens über sein Ziel) als eines der fundamentalen Erklärungsprinzipien der Phänomene an. Die Atomisten lehnen sie ab. In der modernen Wissenschaft hat sie keinen Platz. +/- Der Zufall spielt eine wesentliche Rolle im Weltbild der Atomisten. Aristoteles steht dem reinen Zufall skeptisch gegenüber. In moderner Physik erscheint (zumindest derzeit) der Zufall als wesentliches Element der Weltbeschreibung. +/- Atomisten führen sekundäre Eigenschaften (wie Geschmack, Geruch, Farbe) auf Primär-eigenschaften (Form und Bewegung der Atome) zurück. Aristoteles lehnt einen solchen Reduktionismus ab. Das moderne physikalische Weltbild folgt dem reduktionistischen Ansatz der Atomisten. +/- Das Prinzip der Erhaltung der Bewegung ist Grundlage moderner Physik und entspricht der Grundidee der Atomisten. Die Bewegung der Objekte auf ihre natürlichen Orte hin, die Aristoteles stattdessen annimmt, kommen in moderner Physik nicht vor. +/- Die Atomisten nehmen aus philosophischen Gründen viele Welten an, was in erstaunlicher Weise das moderne astronomische Verständnis einer sehr großen Anzahl von Sonnen und Galaxien vorwegnimmt.

    Wir sehen, dass der Atomismus sich in vielen physikalischen Grundfragen als zukunftsweisend erwiesen hat. Wir sind also mit der verwirrenden Situation konfrontiert, dass die Entwicklung einer Vorform der wissenschaftlichen Methode in der Antike offenbar nicht die treffsicherste Basis dafür war, zukunftsweisende Grundprinzipien physikalischer Theorienkonstruktion zu finden. Das ist erstaunlich und in seiner philosophischen Relevanz bis heute nicht wirklich verstanden. Irgendetwas hat dem aristotelischen Ansatz noch gefehlt um in allgemeinen physikalischen Fragen über einen rationalistisch naturphilosophischen Ansatz wie jenen der Atomisten wirkungsvoll hinauszugreifen.

    1.2: Das neuzeitliche Konzept der wissenschaftlichen Methode

    Das wissenschaftliche Paradigma entstand in seinen Grundzügen im Laufe des 17. Jahrhunderts. Eine zentrale Rolle spielen dabei Francis Bacon (1561-1626), der in seinen philosophischen Analysen die zentrale Rolle des Experiments betont, Galileo Galilei (1564-1642), den man als ersten Physiker bezeichnen kann, der naturwissenschaftliche Methodik auf höchstem Niveau realisiert und Rene Descartes (1596-1650), dessen Überlegungen wesentlich zum frühmodernen Verständnis der Rolle der Mathematik in den Naturwissenschaften beitragen. Zum Abschluss kommt dieses Paradigma mit den universalen Theorien Newtons. Das neue wissenschaftliche Denken unterscheidet sich in einer Reihe von Punkten grundlegend vom im Mittelalter vorherrschenden Aristotelischen Denken.

  • 9

    1. Der epistemische Optimismus des Aristoteles wird verworfen. Das Experiment wird zentraler Baustein der Naturbetrachtung. Der phänomenologische Schein kann trügen. Um Irrtümer zu vermeiden, wird zwei Elementen der Argumentation größere Bedeutung eingeräumt. Zunächst sollen möglichst präzise und allgemeine Argumente die Möglichkeiten solcher Irrtümer aufzeigen. (führt letztlich in Richtung stärkerer Mathematisierung.) Auf dieser Grundlage sollen Situationen künstlich hergestellt werden, in denen zwischen den theoretischen Alternativen klar unterschieden werden kann (führt zum Experiment). Dieser Punkt erweist das Experiment als notwendige Methode, verborgene Eigenschaften der Welt zu sichtbar zu machen.

    Galileo Galilei bringt Beobachtungsargumente gegen den epistemischen Optimismus. Er argumentiert, dass man in manchen Zusammenhängen tatsächlich systematisch von seiner Beobachtung getäuscht werde und es erst dann bemerke, wenn man aus dem Rahmen heraustrete, innerhalb dessen die Beobachtungen gemacht wurde. Beispiel ist das Segelboot auf hoher See ohne Wolken und ohne Land in Sicht. Wenn man an Deck liegt und den Mast vor dem Himmel betrachte, hat man den Eindruck von Ruhe, auch wenn das Boot tatsächlich fährt.

    2. Die Mathematik erhält eine neue Rolle. Die Entwicklung des Konzepts der mathematischen Funktion durch Descartes basiert auf einem neuen Verständnis der Beziehung zwischen Mathematik und Natur und gibt diesem Verständnis eine formale Grundlage. Während in der Antike die Mathematik Idealbilder entwickelte denen sich die irdischen Phänomene in einer mathematisch nicht weiter spezifizierbaren Form annäherten, erlaubt die Flexibilität der Funktion im Prinzip, jedes beobachtete Phänomen mathematisch zu nähern. Die mathematische Methode erringt dadurch ein Monopol auf gültige Beschreibung der Natur auf elementarer Ebene.

    3. Ein Reduktionismus wird etabliert. An die Stelle des epistemischen Optimismus tritt etwas, was man als „reduktionistischen Optimismus“ bezeichnen könnte. Galilei geht davon aus, dass die künstliche Herstellung experimenteller Situationen Zusammenhänge offenbart, die dann auch in allgemeineren Kontexten ihre Gültigkeit bewahren, dort zwar von Störungen überlagert werden aber dennoch in ihrer Relevanz immer noch nachweisbar sind. Dieses neue Paradigma basiert auf dem mathematischen Ansatz des Kräfte-parallelogramms. Naturgesetze oder Kräfte überlagern einander, können aber getrennt identifiziert und getestet werden. Dieser Punkt rechtfertigt das Experiment als allgemeingültige Methode zur Erkennung allgemeiner Naturgesetze. Letztere wirken auch dort, wo sie aufgrund der Überlagerung durch andere Einwirkungen nicht mehr direkt wahrnehmbar sind (kontra epistemischer Optimismus). Gemeinsam mit Punkt 1 ist damit das Experiment als Eckpfeiler der wissenschaftlichen Naturbetrachtung etabliert.

    Der physikalische Reduktionismus reduziert alle Phänomene auf raumzeitliche Zustände deren Charakter, gemäß des neuen Verständnisses der Rolle der Mathematik für die Naturbeschreibung, vollständig mathematisch beschrieben

  • 10

    werden kann. Man spricht also ausschließlich von Objekten die in Raum und Zeit lokalisierbar sind und entsprechend aufzufindender Gesetzmäßigkeiten Position und Lage verändern können. Dies impliziert, wiederum im Gegensatz zu Aristoteles, die Differenzierung zwischen primären und sekundären Qualitäten. (von John Locke exemplarisch präsentiert). Für Aristoteles sind alle beobachtbaren Qualitäten gleichberechtigt. Farben oder Wärme haben ebenso fundamentalen Charakter wie Position oder Geschwindigkeit. Das neue physikalische Weltbild unterscheidet zwischen primären sekundären Qualitäten: Primäre sind jene, die raumzeitlich definierbar sind und auf dieser Basis der externen Welt als Eigenschaften zugeordnet werden. Sekundär sind alle anderen, also etwa Farben, Töne oder Wärme. Von ihnen wird angenommen, dass sie ein Resultat des Beobachtungsprozesses sind, die Eigenschaften der externen Welt die ihnen entsprechen jedoch auf primäre Qualitäten reduzierbar sind. Man beachte, dass dieses Prinzip in der frühen Physik vertreten wird ohne dass man über wirklich überzeugende Konzepte der Reduktion verfügt die über Spekulationen und Hypothesen hinausgehen.

    4. Universelle Naturgesetze werden angestrebt. Punkt 3 legt eine stärkere Betonung von Universalität nahe. Der „reduktionistische Optimismus“ macht die Annahme plausibel, dass physikalische Prinzipien auch dort gültig sind, wo sie nicht unmittelbar empirisch erkannt werden können. Universalität wird daher von Galilei im Rahmen seiner Formulierung exakter quantitativer Naturgesetze angestrebt. Die endgültige Vereinigung von Himmelsmechanik und terrestrische Physik wird schließlich von Newton realisiert.

    5. Das Kausalitätskonzept wird auf die Wirkursache verengt. Die teleologische Ursache wird nicht mehr als fundamentales Naturprinzip anerkannt sondern als Ausdruck der subjektiven menschlichen Perspektive verstanden. Der aristotelische Anspruch, alle Reguaritätsformen der Phänomene auf gleichberechtigte elementare Prinzipien zurückzuführen wird damit aufgegeben. Dies bildet schließlich die Grundlage für die Herausbildung einer spezifischen Wissenschaft der mathematisch beschreibbaren Phänomene: der Physik. Komplexere Phänomene wie die Entwicklung und Entfaltung lebender Organismen bleiben auf dieser Basis zunächst weitgehend unverstanden. Einzelwissenschaften die auf physikalischer Grundlage komplexere scheinbar teleologisch getriebene Regularitäten erklären (Evolutionstheorie, Genetik, etc.) werden erst wesentlich später entwickelt.

  • 11

    Zwei Beispiele frühneuzeitlicher naturwissenschaftlicher Betrachtung: a) Die Planeten Eine ganz wesentliche Rolle für die Herausbildung der wissenschaftlichen Denkweise spielt die Astronomie.

    Aristoteles/Ptolemäus

    Das aristotelische Weltbild war geozentrisch.

    Ein zentrales Argument dafür war der epistemische Optimismus. Wenn wir davon ausgehen, dass die Natur uns nicht täuscht, spricht alles dafür, dass die Erde ruht. Wir spüren keine Bewegung der Erde, wie wir sie normalerweise auf bewegten Objekten spüren.

    Ein zweites im Mittelalter wesentliches Argument war theologisch. Die Rolle des Menschen als Krone der Schöpfung erschien mit seiner Entfernung aus dem Zentrum der Welt nicht vereinbar.

    Astronomie war die erste Disziplin, die auf präzise Beobachtung und mathematische Beschreibung setzte. Dies hängt mit der klassischen Regelmäßigkeit der Himmelsphänomene zusammen, die zum einen jeder Bewegung allgemeine Bedeutung verleihen und als Ausdruck eines Gesetzes erscheinen lassen (schon der frühe Vorsokratiker Anaximander nimmt die Bewegung der Himmelskörper zum Ansatzpunkt eines Konzeptes von Naturgesetz), zum anderen mathematische Beschreibung machbar erscheinen lassen.

    Aristoteles setzte die Kreisbahn als Grundprinzip der Himmelsbewegungen an. Nachdem die tatsächlichen Planetenbewegungen aber kompliziertere Kurven (mit Schleifen in den Bahnen) beschreiben, versuchte die Antike durch komplizierte Konstruktionen auf dem Ausgangskreis sich drehender kleinerer Kreise (sogenannter Epizyklen) die beobachteten Bahnen zu reproduzieren. Ptolemäus ist der Autor des elaboriertesten überlieferten Modells dieser Art. Je genauer die Beobachtungen wurden, umso mehr Epizyklen und andere Korrekturterme mussten eingeführt werden.

    Kopernikus

    Kopernikus war der erste neuzeitliche Astronom, der erkannte, dass ein heliozentrisches Modell in verschiedener Hinsicht überzeugender war als das geozentrische. (Siehe Teil II)

    Für Galilei, der das heliozentrische Weltbild übernimmt, ist die Frage der Erdbewegung ein klassisches Beispiel für das Scheitern des epistemischen Optimismus. Aus der Tatsache, dass wir keine Erdbewegung wahrnehmen dürfen wir eben nicht schließen, dass es sie nicht gibt. Es besteht kein prinzipieller Unterschied zwischen dem Boot in Galileis zuvor erwähntem Beispiel und der Erde. (Wir können letztere nur schwerer verlassen.)

  • 12

    Galilei liefert empirische Argumente für das heliozentrische Weltbild indem er mit seinem Fernrohr Monde des Jupiter entdeckt und damit das Prinzip widerlegt, dass sich alle Himmelskörper um die Erde drehen.

    Im neuzeitlichen Sinn wissenschaftlicher als der Geozentrismus ist der Heliozentrismus in zweierlei Hinsicht:

    Er verabschiedet sich vom aristotelischen epistemischen Optimismus.

    Er verabschiedet sich vom christlich aristotelischen dogmatischen Argument für eine Theorie (Geozentrismus muss wahr sein, weil die christlichen Dogmen es sagen.)

    b) Bewegungs- und Fallgesetze

    Nach Aristoteles fallen schwere Gegenstände schneller als leichte.

    Demgegenüber „erkennt“ Galilei, dass die fundamentalen Fallgesetze gleiche Fallgeschwindigkeiten für Körper jeden Gewichts vorschreiben.

    Der fundamentale Unterschied zwischen Aristoteles und Galilei liegt im philosophischen Ansatz.

    Um diesen Unterschied zu verstehen sehen wir uns zuerst den Ansatz des Aristoteles etwas genauer an.

    Aristoteles will nicht Idealisierungen oder einfache Modelle der Welt beschreiben sondern die beobachtete Welt in ihrer vollen Entfaltung. In der Welt wie wir sie auf der Erde beobachten gibt es keine kräftefreie Bewegung. Unsere gesamte Umgebung ist von Luft erfüllt die jede Bewegung abbremst. Dabei ist der Geschwindigkeitsverlust schwererer Gegenstände geringer als jener leichterer von gleicher Form. Das ist es, was Aristoteles qualitativ beschreiben will, und das beschreibt er korrekt.

    Falsch liegt er, wenn er auf Basis der beobachteten Welt und seiner darauf aufbauenden philosophischen Konzepte auch die Möglichkeit eines leeren Raumes ausschließt. (Allerdings gibt es vor dem 17. Jahrhundert keine Experimente, die ein Vakuum erzeugen können, A. widerspricht also bis zu diesem Zeitpunkt nicht unmittelbar den Phänomenen.)

    Aristoteles hat ein abstraktes Argument, das auf seinem Verständnis von der Ursache von Bewegung basiert:

    Bei Aristoteles haben alle Körper ihre natürlichen Orte. Bei irdischen materiellen Objekten ist das im Prinzip der Erdmittelpunkt. Allerdings gibt es hier auch eine natürliche Hierarchie: Je schwerer (er sollte korrekterweise sagen dichter) ein Körper ist, umso mehr Anspruch hat er auf eine Position nahe des Erdmittelpunktes.

  • 13

    Befinden sich Körper in Positionen, die nicht dieser Hierarchie entsprechen, werden sie sich mit der Zeit wieder in die richtige Ordnung umgruppieren.

    Bewegungen sind nach Aristoteles dann beschleunigt wenn sie auf den natürlichen Ort des jeweiligen Objektes zuführen und enden dort. Durch Interventionen verursachte Bewegungen die nicht auf den natürlichen Ort zuführen (etwa Bewegungen auf einer Ebene entlang der Erdoberfläche) verlangsamen sich und enden irgendwo.

    Diese Vorstellung des Aristoteles basiert auf Beobachtung der natürlichen Verhältnisse (Bewegungen enden in der Tat i.a. nach endlicher Zeit) und auf (mitunter irrigen) Verallgemeinerungen.

    Galileo Galilei testet die Bewegungseigenschaften experimentell.

    Berühmt ist sein Experiment auf der schiefen Ebene, das ihn zur Aufstellung eines universalen Fallgesetzes führt.

    Nach Galilei fallen Körper im leeren Raum unabhängig von ihrem Gewicht mit einer Geschwindigkeit die mit der Zeit gleichmäßig zunimmt.

    Gebremste Beschleunigung leichter Objekte versteht er als Korrektur zu diesem Naturgesetz das durch andere Effekte (Luftwiderstand) hervorgerufen wird.

    Wichtig ist, dass die Experimente alleine nicht zu Galileis Thesen führen. Galilei führt keine reibungsfreien Experimente im Vakuum durch. (Er hatte nicht einmal eine genaue mechanische Uhr sondern musste Wasseruhren einsetzen.)

    Galilei kann also durch seine Experimente die von ihm postulierten Naturgesetze nur annähern. Wenn er diese Näherung plausibel erklären kann, versteht er das als experimentellen Beleg für seine These.

    Zentral ist dabei die Idee eines idealen Naturgesetzes das immer gilt, allerdings von Korrekturen überlagert ist.

    In Galileis Vorgangsweise manifestieren sich also Punkte 1 und 2 aus Kapitel 1.2.

    Man beachte den Unterschied zwischen Aristoteles und Galilei hinsichtlich des Verständnisses der Rolle von Naturbeschreibung.

    Aristoteles schließt aus was er nicht sehen kann.

    Galilei baut seine Rekonstruktion der beobachteten Welt aus idealisierte Prinzipien auf die in reiner Form unbeobachtbar sind.

    Dieser Schritt ist von zentraler Bedeutung für das wissenschaftliche Denken. Er ist Voraussetzung dafür, eine weitreichende Mathematisierung der Wissenschaft zu entwickeln.

  • 14

    In den einfachen Experimenten des Galilei ist der Unterschied zwischen idealem Prinzip und realer Beobachtung noch ziemlich groß. Die hochentwickelte Technologie moderner physikalischer Experimente und die elaborierten Theorien die auf deren Basis entwickelt werden machen ihn wesentlich kleiner. Das Grundprinzip aber bleibt.

    Das Prinzip der Universalität wird schließlich in Newtons Mechanik und Gravitationstheorie paradigmatisch eingelöst. Newton führt auch die Mathematisierung der Physik zu einem eindrucksvollen vorläufigen Höhepunkt.

    1.3: Abstraktion im 19. Jahrhundert

    In den Jahren zwischen etwa 1820 und 1870, lässt sich eine substantielle Veränderung der Methodik und Perspektive in der Mathematik beobachten.

    Rigorosität

    Am Beginn dieser Entwicklung steht der Schritt zu einem rigoroseren Verständnis des mathematischen Beweises.

    Während noch zu Ende des 18. Jahrhunderts die mathematischen Argumente von Newton und Leibniz für ausreichend gehalten wurden, setzte sich später das Verständnis durch, dass deren Argumentation lückenhaft war und zu sehr auf impliziten Rückgriffen auf intuitive Anschauung aufbaute.

    Das neue Prinzip war, den formalen Beweis weitestgehend von solchen intuitiven Aspekten freizumachen und ein Prinzip rein formaler unanfechtbarer Stringenz zu etablieren.

    Dies führt zu der Konzeption eines formalen mathematischen Beweises, die bis heute im Wesentlichen gültig ist.

    Die Schlüsselfigur in der Realisierung der neuen Standards ist Augustin Louis Cauchy, der 1821 die mathematische Disziplin der „Analysis“ auf Basis von Grenzwerten von Reihen formal entwickelt.

    Unanschaulichkeit

    Ein zweiter Schritt führt die Mathematik von der Strukturierung der Anschauung weg hin zur mathematischen Definition anschaulich nicht mehr vorstellbarer Strukturen.

    Das Mathematikverständnis bis ins 18. Jahrhundert sah die Mathematik als Instrument zur Vermessung der Anschauung. Der Mensch nimmt die Welt wahr und die Mathematik erlaubt ihm, die quantitativen Charakteristika des Wahrgenommenen präzise festzumachen bzw. auf universelle mathematische Grundprinzipien zurückzuführen.

    Das Mathematikverständnis des 18. Jahrhunderts spiegelt sich philosophisch sehr schön in Immanuel Kants Verständnis von Raum und Zeit als Anschauungsformen die synthetisch a priori gegeben sind.

  • 15

    Kant sagt, dass Urteile über Raum (mit euklidischer Struktur, die die einzige war die man zu seiner Zeit kannte) und Zeit zwar mehr sind als einfach Begriffszerlegungen (also keine analytischen Urteile) aber nicht durch Erfahrung gewonnen werden (also a priori sind).

    Die Plausibilität dieser Idee basiert darauf, dass die mathematische Analyse unmittelbar mit der Analyse unserer intuitiven Vorstellungen identifiziert wird. Dies erlaubt eine Engführung der räumlichen Anschauung mit der mathematischen Struktur des euklidischen Raumes.

    Die Idee dass Mathematik mehr sein kann als die exakte Analyse unserer Vorstellungen ist Kant noch fremd.

    Klassisches Beispiel für die Ablösung der Mathematik von der Intuition ist folgerichtig die Begründung der nicht-euklidischen (also gekrümmten) Geometrie durch Bolyai, Lobachevsky und Gauss in den 18030er und 40er Jahren und deren Entwicklung in ausgereifter Form durch Riemann 1854.

    Die Idee dabei ist die intuitiv nicht vorstellbare Verallgemeinerung der Oberflächenkrümmung auf Räume höherer Dimension sowie eine mathematische Beschreibung dieser Krümmung, die intrinsisch im gekrümmten Raum selbst verankert ist und nicht auf einen ungekrümmten Raum höherer Dimension, in dem der gekrümmt Raum eingebettet ist, Bezug nimmt.

    Mathematik ist hier nicht mehr die „Vermessung“ der Anschauung, sondern eine Technik, die ausgehend von einem Satz von Grundannahmen mithilfe logischer Schlüsse Strukturen erzeugen kann, die über die menschliche Anschauung weit hinausgehen.

    Auswirkung auf Wissenschaftsverständnis

    Dieser Paradigmenwechsel führt nicht zuletzt auch zu einem neuen Verständnis der Relation zwischen Mathematik und Physik. Sie eröffnet für physikalische Konzeptionen neben der Front zum nicht Beobachtbaren eine zweite Front zum nicht Vorstellbaren.

    Das neue Mathematikverständnis bildet den Hintergrund für die wissenschaftliche Entwicklung der kommenden Jahrzehnte. Es zeigt sich, dass die abstrakten mathematischen Ansätze sehr fruchtbar zur Lösung anstehender wissenschaftlicher Probleme einsetzbar sind. Dies führt hin zu spezieller und allgemeiner Relativitätstheorie und Quantenmechanik und prägt den Umgang mit abstrakten Theorien bis heute.

    Es führt zu einem breiteren Verständnis dessen, worin wissenschaftliche Theorienbildung besteht und was sie darf und kann. Schon im 19. Jahrhundert entwickelt sich das Ideal, dass wissenschaftliche Analyse vollkommen losgelöst von menschlicher Anschauung rein auf Basis abstrakter Mathematik agieren soll. Das führt mitunter zu interessanten Meinungsverschiedenheiten hinsichtlich der korrekten wissenschaftlichen Methode.

  • 16

    Ein spannendes Beispiel ist die Diskussion um den Atomismus im ausgehenden 19. Jh. Der Atomismus hatte im späten 19. Jh bereits beachtliche empirische Erfolge in Physik und Chemie (etwa die kinetische Gastheorie in der Physik oder Daltons Erklärung des Gesetzes konstanter Proportionen in der Chemie.) Die Atomisten, etwa Boltzmann und Maxwell, vertraten auf dieser Basis die These, dass die Empirie die Übernahme atomistischer Theorien gewissermaßen erzwang. Wer die empirischen Erfolge des Atomismus voll verstand, konnte ihrer Meinung nach nicht leugnen, dass Atomistische Theorien ihren Alternativansätzen weit überlegen waren. Antiatomisten wie etwa Ernst Mach oder Pierre Duhem dagegen argumentierten im Kern, dass der Atomismus als auf ‚naiver‘ Intuition basierender Ansatz dem modernen Wissenschaftsprinzip der Abstraktion von intuitiver Anschauung widersprach, also gewissermaßen noch Wissenschaft des 18. Jahrhunderts war. Was aus heutiger Sicht als eigentümlicher Konservativismus unter Missachtung der empirischen Datenlage erscheint war also damals für die Antiatomisten die Durchsetzung modernen wissenschaftlichen Denkens gegen überkommene veraltete Denkweisen.

    Wir haben hier ein Beispiel vor uns wo zwei unterschiedliche Prinzipien wissenschaftlicher Methodik – das Prinzip der Empirie auf der einen Seite und das Prinzip der mathematischen Abstraktion auf der anderen – zu entgegengesetzten Forschungsstrategien führen. Erst rückblickend kann man sagen, welcher methodische Ansatz erfolgreicher war.

    1.4: Das 21. Jahrhundert [nicht prüfungsrelevant] Die bisher erzählte Geschichte zeigt eindrücklich drei Dinge.

    1) Wissenschaftliche Methode ist kein monolithischer Block sondern besteht aus einem Bündel von Prinzipien die nicht notwendigerweise zusammen auftreten.

    2) Das Zusammenwirken der Elemente der wissenschaftlichen Methode ist auch, wie im letzten Beispiel deutlich wurde, keineswegs immer spannungsfrei. Es ist nicht immer evident, welches Prinzip in einem gegebenen Fall letztlich stärker forciert werden soll um erfolgreiche Wissenschaft zu machen.

    3) Dennoch gibt es eine Folgerichtigkeit die im historische Ablauf, getrieben von Erkenntnissen und dadurch erzeugten neuen Fragestellungen, Schritt für Schritt die einzelnen Elemente zusammenfügt.

    Die Entwicklung der wissenschaftlichen Methode ist ein von konzeptioneller Dynamik und empirischen Einflüssen getragener Prozess. In diesem Licht erscheint es unplausibel die wissenschaftliche Methode gerade heute als vollendet oder stabil zu sehen. Wissenschaftliche Methodik unterscheidet sich klar nachvollziehbar von Forschungsfeld zu Forschungsfeld. Schwieriger ist es, nachhaltige aktuelle

  • 17

    Verschiebungen in einem bestimmten Kontext zu erkennen wenn sie gerade stattfinden. Anders als das wissenschaftliche Weltbild, das durch revolutionäre Theorien mitunter radikal umgestoßen werden kann ändert sich wissenschaftliche Methode im allgemeinen langsam und graduell. Es gibt aber „Kandidaten“ für heute ablaufende Veränderungen:

    a) Nichtempirische Theorienbewertung Wir sehen uns heute in der Hochenergiephysik und Kosmologie einer sehr interessanten Situation gegenüber. Es gibt eine Reihe von Theorien die bereits in den 1970er oder 1980er Jahren entwickelt wurden und die bis heute keine oder keine konklusive empirische Bestätigung erfahren haben. Die zwei hervorstechenden Beispiele dafür sind

    Stringtheorie als universelle Beschreibung aller Wechselwirkungen

    Inflationäre Kosmologie als Theorie der sehr frühen Entwicklung unseres Universums.

    Das interessante ist nun, dass diese Theorien, und insbesondere die zwei genannten

    1) heute in der fundamentalen Physik sehr einflussreich sind. 2) von vielen ihrer Exponenten mit sehr viel Vertrauen in ihre Gültigkeit

    ausgestattet sind. Sie werden oft gerade so behandelt als wären sie in ihren Grundzügen empirisch bestätigt.

    Diese Situation wurde in den letzten 10-15 Jahren von einer Reihe von Physikern sehr stark kritisiert. (In der Stringtheorie ist das primär Kritik von außen, in inflationärer Kosmologie Kritik innerhalb der Community.) Es wird argumentiert, dass

    empirisch unbestätigte Theorien niemals diesen Status erreichen dürften

    unzulässige Kriterien der Theorienbewertung angewendet würden.

    soziologische Faktoren eine wesentliche Rolle im Zustandekommen der Bewertung spielten.

    Demgegenüber vertreten die Exponenten der Theorie die Ansicht es gäbe sehr überzeugende theoriebasierte Argumente dafür, der jeweiligen Theorie zu vertrauen. Auch von den Verteidigern des Vertrauens in die erwähnten Theorien wird so etwas wie ein soziologisches Argument verwendet: Mangelnde Aufgeschlossenheit gegenüber dem wissenschaftlichen Fortschritt würde demnach eine wesentliche Rolle dabei spielen, dass im gegebenen Fall das Expertenprinzip (also das Prinzip, dass man in einer reifen wohletablierten wissenschaftlichen Disziplin dem Urteil der Experten in ihrem Feld vertraut) nicht eingehalten wird. Die Debatte hat starke öffentliche Sichtbarkeit.

  • 18

    Was man hier beobachten kann ist der Ansatz einer Verschiebung eines Elements der Naturwissenschaftlichen Methode, nämlich der Prinzipien der Theorienbewertung in einem Teil der Physik. Es gibt jene, die diesen Schritt unterstützen und jene die ihn vehement ablehnen. Es ist a priori weder zulässig diese Veränderung zu verwerfen weil sie überkommenen Prinzipien widerspricht. Noch ist a priori klar, in welchem Ausmaß die Verschiebung sich durchsetzen wird.

    b) Anthropisches Prinzip Letztlich müssen sich neue Elemente der Methode im Wissenschaftsprozess langfristig bewähren. Was wir heute als potentielle Verschiebung erkennen kann als erst im Nachhinein gültig bewertet werden. Ein ebenso kontroversielles wie spannendes aktuelles Beispiel ist die Verwendung anthropischer Argumentation in physikalischem Rahmen.

    Ein Problem, das die Physik seit langer Zeit beschäftigt ist die Präzision mit der diverse Parameterwerte in unserer Welt so „eingestellt“ sind, dass sie menschliches Leben erlauben. In manchen Fällen, etwa im Fall der kosmologischen Konstante die eine bedeutende Rolle im Expansionsverhalten des Universums spielt, ist diese spezifische „Einstellung“ noch dazu ein extrem kleiner Wert, der auch ohne die Perspektive auf die Existenz menschlichen Lebens erklärungsbedurftig erscheint: warum ist die kosmologische Konstante so klein und hat keinen „durchschnittlichen“ Wert?

    Eine Möglichkeit, an das Problem heranzugehen ist zu sagen: Gegeben, dass wir die Welt beobachten, sind nur jene Werte der Konstante möglich, die unsere Existenz erlauben. Das „erklärt“ in einem sehr schwachen Sinn diese Werte. Eine solche Argumentationsform nennt man anthropisch. In der beschriebenen Form liefert das anthropische Argument aber keinerlei physikalische Erklärung. Schließlich ist unsere Existenz keine physikalische Notwendigkeit.

    Stringtheorie in Verbindung mit inflationärer Kosmologie bietet aber eine Basis, anthropische Überlegungen in einer physikalisch sinnvollen Art einzusetzen.

    Grob gesagt läuft das Argument so: In der Stringtheorie werden Werte von Parametern wie der kosmologischen Konstante aus der Dynamik der Theorie hergeleitet. Sie sind aber damit nicht eindeutig determiniert. Vielmehr wird ihr Wert im Rahmen eines Quantenprozesses gemäß einer statistischen Wahrscheinlichkeitsverteilung gewählt. Es gibt eine sehr große Anzahl an Parameterwerten die hierbei physikalisch möglich sind.

    Auf der anderen Seite impliziert das Multiversum-Szenario der inflationären Kosmologie eine sehr hohe Zahl von Universen die im Rahmen einer kausal verbundenen Entwicklung der Welt (des Multiversums) entstehen. Jedes dieser Universen nimmt auf Basis der statistischen Wahrscheinlichkeiten einen der

  • 19

    erlaubten Werte für die kosmologische Konstante ein. Wenn die Zahl der Universen wie auch die Zahl der in der Stringtheorie möglichen Werte für die kosmologische Konstante ausreichend groß sind, dann lässt sich der von uns gemessene sehr kleine Wert der kosmologischen konstante auf dieser Basis anthropisch erklären:

    Die Physik sagt statistisch voraus, dass es im Multiversum unter den sehr vielen Universen mit verschiedenen kosmologischen Konstanten mit großer Wahrscheinlichkeit zumindest ein Universum gibt, das einen Wert hat der etwa so klein ist wie der den wir messen. Das heißt, die Physik sagt voraus, dass irgendwo im Multiversum die kosmologische Konstante so klein ist, dass Leben entstehen kann. Sie erklärt damit, dass wir irgendwo im Multiversum entstehen können. Und das anthropische Argument fügt hinzu, dass dort wo wir entstanden sind wir dann naturgemäß eine dementsprechend kleine kosmologische Konstante messen müssen.

    Diese Art der Argumentation reicht über klassische physikalische Argumentation hinaus. Sie ist daher sehr umstritten und hat eine Reihe von konzeptionellen Problemen. Erst die Zukunft wird zeigen, ob sie sich als legitime physikalische Argumentationsform durchsetzen wird.

  • 20

    2 Konzeptionelle Perspektive Wir wollen jetzt etwas mehr im Detail anschauen, wie die naturwissenschaftliche Methode aussieht. Parallel wollen wir auch immer begleitend die Frage stellen: warum gerade so? Was legitimiert die naturwissenschaftliche Methode? Warum hat sie sich gegenüber anderen naturphilosophischen Ansätzen so eindeutig durchgesetzt? Illustrierend werden wir immer wieder zum klassischen Fall der These des heliozentrischen Weltbildes zurückkommen.

    2.1. Theoriengeladenheit der Beobachtung

    Grundprinzip der Naturwissenschaften ist die Basis der Beobachtung Eine erste Antwort auf die Frage nach den Gründen für den Erfolg die man geben könnte wäre: Während andere Formen des Denkens über die Welt von dogmatischen, erdachten Setzungen ausgehen, ist es oberstes Prinzip der wissenschaftlichen Methode, sich nur an den beobachteten Fakten zu orientieren. Eine wissenschaftliche Theorie wäre demnach der Versuch, die beobachteten Fakten bestmöglich zu strukturieren ohne irgendetwas durch Beobachtungen nicht gedecktes hinzuzufügen. Also etwa: Religion nimmt religiöse Dogmen an, die nicht durch Beobachtungen begründet sind. Auf dieser Basis schlossen Theologen irrigerweise auf die notwendige Gültigkeit des Geozentrischen Weltbildes. Astrologie nimmt astrologische Prinzipien an die nicht durch Beobachtung erschlossen sind. Auf dieser Basis macht sie irrige Behauptungen über den Einfluss von Himmelsphänomenen auf den Menschen. Astronomie als Wissenschaft basiert dagegen nur auf der präzisen Beobachtung des Himmels und sucht nach der besten Strukturierung dieser Beobachtungen. Sich an die beobachteten Fakten zu halten gewährleistet objektive Gültigkeit der wissenschaftlichen Theorien. Da ist schon etwas dran. Bei genauerer Analyse stellt sich aber ein Problem: Was sind die von der Wissenschaft beobachteten Fakten? Der naive Ansatz wäre, elementare Beobachtungssätze als Basis anzunehmen, die als unhinterfragbare Grundlage wissenschaftlicher Theorien fungieren.

  • 21

    Schon der logische Empirismus seit den 1930er-Jahren des 20 Jahrhunderts, der konzeptionell eine Rückführbarkeit wissenschaftlicher Aussagen auf Beobachtungssätze vertrat, hat aber mit dem Problem gerungen, dass es den unhinterfragbaren Beobachtungssatz nicht gibt. Egal auf welcher Ebene ich solche Sätze ansetze, es wird und muss – gerade im Sinne wissenschaftlicher Kritikfähigkeit – immer möglich sein, einen solchen Satz auch zu verwerfen. Es gibt auf verschiedensten Ebenen eindrucksvolle Beispiele für scheinbar evidente Beobachtungen die letztlich zu verwerfen sind. Angefangen von einer Unzahl optischer Täuschungen: gleich lange Linien erscheinen unterschiedlich lang, gleiche Farbtöne erscheinen ungleich, ruhendes bewegt, etc. Lange dachte man zum Beispiel, dass man unterschiedliche Durchmesser von Sternen beobachten könne. Heute weiß man, dass der Durchmesser jedes Sterns weit unterhalb der Wahrnehmungsgrenze liegt. Die gleiche Beobachtung wird also sehr anders interpretiert und damit auch anders beschrieben. Die Erkenntnis, wie man sie korrekt beschreibt basiert selbst auf einem Analyseschritt. Die Beobachtungsaussage ist also nicht unverrückbar. In komplexen Fällen ist eine wissenschaftliche Ausbildung nötig um eine Beobachtung sinnvoll zu beschreiben. Medizinisch Gebildete sehen etwas ganz anderes in einem Röntgenbild als der Laie. Das alles impliziert nicht, dass es keine objektive Grundlage für das Wahrgenommene gibt. Aber jede Wahrnehmung ist geprägt von angeborenen und erlernten mentalen Verarbeitungsprozessen, deren Resultat nicht von ‚reinen‘ Sinnesdaten trennbar ist. Und die Grundlage für die Entwicklung einer wissenschaftlichen Theorie ist immer unser „Datenmodell“. Theorien über die Sternengrösse vor Galilei, um noch einmal auf das Beispiel zurückzukommen, waren dem Beobachtungsverständnis angepasst das davon ausging, dass man Ausdehnung von Sternen beobachtete. Wenn es aber keine absolute objektive Beobachtungsbasis gibt, woran lässt sich dann die wissenschaftlicher Objektivität festmachen? Eine Antwort besteht in der Idee, dass man wenn ausreichend Zeit und guter Wille auf beiden Seiten da ist, jedem Laien das wissenschaftlich korrekte Lesen eines Datenbefundes beibringen und erklären kann. Das Datenmodell das der Wissenschaftler verwendet ist also insofern intersubjektiv als es dem entspricht wie man wenn man gut ausgebildet und intelligent ist die Beobachtungen modellieren sollte. Aber dieser Standard kann sich mit der Zeit ändern. Auch das liefert also keine solide Grundlage für eine objektive Ausgangsbasis der wissenschaftlichen Analyse.

  • 22

    Aus der Sicht des zukünftigen Wissenschaftlers kann man also die Frage so formulieren: Warum soll ich die Techniken die Beobachtungen zu lesen lernen? Wer sagt mir, dass dies die richtige Art ist sie zu lesen?

    2.2: Das Phänomen des prognostischen Erfolges wissenschaftlicher Theorien:

    Galilei war in einer Situation wie der eben beschriebenen als er seine Beobachtungen mit dem Fernrohr machte. Galilei verteidigte die Theorie Keplers, dass die Erde und die Planeten in elliptischen Bahnen um die Sonne kreisen gegen die Verteidiger des ptolemaischen Weltbildes nach dem die Erde im Zentrum steht und Sonne, Mond und Planeten um die Erde kreisten. Er beobachtete unter anderem Monde des Jupiter. Diese Beobachtung war für Galilei ein klarer Hinweis auf die Gültigkeit des heliozentrischen Weltbildes. Seine Gegner aber sagten, die Beobachtungen könnten Effekte des Fernglases sein die Galilei nur auf Basis seiner Ausgangsthesen als Monde interpretierte. Galilei antwortet auf diesen Einwand auf ganz bestimmte Art: Er prognostiziert zukünftige Positionen der Monde. Der Erfolg neuer Prognosen ist immer noch kein Beweis dafür, dass es keine andere Erklärung für eine Beobachtung gibt die die gleichen Prognosen macht. Aber er stärkt massiv eine wissenschaftliche These. Galilei konnte mit seinem prognostischen Erfolg einige Kritiker überzeugen.

    In diesem Licht versuchen wir eine zweite Antwort auf die Frage woran sich die objektive Qualität der wissenschaftlichen Methode festmachen lässt: Was die naturwissenschaftliche Methode auszeichnet ist der prognostische Erfolg. Es zeigt sich, dass Wissenschaft die Fähigkeit besitzt, Regularitäten der Welt zu erfassen, die auch in die Zukunft fortsetzbar sind. Eine Schlüsselfrage zur Bewertung einer wissenschaftlichen Theorie: Nehmen wir an, eine Theorie bildet bestimmte Daten ab. Ein neuartiges Phänomen tritt auf und verschwindet wieder. So etwas wie ein Komet. Wir haben zwei Forschergruppen auf 2 Inseln, ohne Interaktionsmöglichkeit. Die erste Forschergruppe wartet ab bis das Phänomen wieder verschwindet, sammelt alle Daten D, und baut dann eine Theorie T1 die den Daten genügt. Die zweite Gruppe findet schon nach der Hälfte der Zeit in der das Phänomen beobachtbar ist ihre Theorie T2 und testet sie in der 2. Hälfte der Zeit. Alle gemachten Prognosen treffen zu. Nach Ende des Phänomens weiß also auch die zweite Gruppe, dass ihre Theorie T2 allen Daten D genügt.

  • 23

    Nach Ende des Phänomens warten beide Gruppen auf dessen Wiederkehr um weitere Untersuchungen zu machen. Die Frage ist: Beide Gruppen wissen, dass ihre Theorie die Daten D korrekt abbildet. T1 ist nur an Daten angepasst gebaut. T2 hat erfolgreich prognostiziert. Hat Gruppe 2 mehr Grund ihrer Theorie zu trauen? Die Frage ist in der Wissenschaftstheorie hochumstritten. Wenn es aber nicht um einzelne Theorien geht sondern um die Bewertung der wissenschaftlichen Methode als ganze, dann scheint klarer, dass Prognosen wichtig sind um die Qualität der wissenschaftlichen Methode zu demonstrieren.

    2.3: Induktion und Abduktion

    Wir haben uns an den prognostischen Erfolg wissenschaftlicher Theorien gewöhnt, dennoch bleibt die Frage nach seinen Ursachen.

    Das Induktionsprinzip:

    Eine klassische Interpretation dieses Erfolges basiert auf dem Induktionsprinzip. Wir sehen auch im Alltag ständig Regelmäßigkeiten des Ablaufes der beobachteten Phänomene. Unser Umgang mit der Welt basiert darauf, die zukünftige Stabilität dieser Regularitäten vorauszusetzen sofern wir keine Gründe haben sie anzuzweifeln.

    Schon dieser Schritt ist aber keineswegs philosophisch trivial. Das Kernproblem das dabei auftritt ist Humes Induktionsproblem: Aus gesammelten Daten ist niemals ein Regularitätsprinzip strikt herleitbar. Es besteht immer die logische Möglichkeit, dass beim nächsten Schritt die Regel nicht mehr gilt. Schönes Beispiel Bertrand Russels: Das Huhn glaubt solange, dass der Bauer immer wenn er kommt Futter bringt bis er kommt es zu schlachten. Dennoch hat es sich einfach bewährt, nach Regularitäten zu suchen.

    Nun kann man die These vertreten, die wissenschaftliche Methode wäre einfach eine verbesserte Methode Induktionsschlüsse zu ziehen.

    Wissenschaft schaut einfach ‚genauer hin‘ (experimentelle Methode) und analysiert präziser ((Mathematisierung), tut aber sonst nichts anderes als das, was jeder im Alltag wenn er einen Induktionsschluss zieht auch tut.

    Es gibt dieser Ansicht nach kein neues philosophisches Problem hinsichtlich des prognostischen Erfolges von Wissenschaft das über das Induktionsproblem hinausgeht.

    Als grober erste Annäherung funktioniert diese Perspektive wohl.

  • 24

    Allerdings gibt es einige Überlegungen, die diesen Ansatz im Detail unzureichend erscheinen lassen. Diese Überlegungen führen zur Formulierung eines neuen Prinzips.

    Das Prinzip der Abduktion (Inferenz auf die beste Erklärung):

    Sicherlich gibt es Formen wissenschaftlichen Schließens die ganz gut im Sinne eines reinen Induktionsschlusses zu sehen sind. Nehmen wir zum Beispiel den Schluss von der Bewegung eines Planeten gemäß den Newtonschen Gravitationsgesetzen darauf, dass sich dieser Planet und alle anderen Himmelskörper in der Zukunft auch diesen Gesetzen gemäß verhalten werden. Das ist eine sehr starke Aussage (die auch nicht wirklich korrekt ist), sie lässt sich aber gut als wissenschaftliche Erweiterung des Induktionsprinzips das wir aus dem Alltag kennen verstehen.

    In anderen Fällen aber gehen die Prognosen einer physikalischen Theorie weit über das hinaus, was man im Alltag unter Induktion verstehen würde. Und zwar dann, wenn auf Basis einer Theorie ein ganz neues Phänomen vorhergesagt wird. Ein gutes Beispiel ist Einsteins Prognose der Lichtbeugung an massiven Objekten auf Basis der allgemeinen Relativitätstheorie. Newtons Theorie sagt so eine Lichtbeugung nicht voraus und sie wurde vor Einsteins Theorie auch nicht beobachtet. Hier sagt die Theorie also ein neues Phänomen eines Typs voraus, der bisher überhaupt nicht beobachtet wurde. Grundlage dieser Prognose ist die Tatsache, dass jene Theorie, die man zur Beschreibung bestimmter Phänomene gefunden hat, auch das prognostizierte Phänomen impliziert.

    Die in einem solchen Fall angewandte Schlussform nennt man Abduktion oder Inferenz auf die beste Erklärung. Ich kann sie anwenden, wenn ich ein Arsenal möglicher Erklärungen meiner Beobachtungsdaten habe und mit bestehenden Daten konfrontiere. Die beste der vorhandenen Erklärungen wähle ich aus.

    Abduktion tritt nicht nur in der Wissenschaft auf. Sie ist auch im Alltag als Ergänzung zum Induktionsschluss sehr verbreitet. Als (aus van Faassens Buch ‚The Scientific Image‘ entlehntes) Beispiel, nehmen wir an, wir hören in unserer Wohnung seit neuestem häufig ein Kratzen hinter unserem Wandverbau. Wir stellen weiters fest, dass Käsestücke, die wir dort auf den Boden legen, später verschwunden sind. Nun könnten wir rein induktiv schließen, dass wir auch morgen wieder ein Kratzen hören werden oder dass auch morgen wieder Käse den wir auf den Boden legen verschwinden wird. Wir können aber – und werden wohl vernünftigerweise – Schlussfolgerungen ziehen, die weit über diesen engen Rahmen hinausreichen. Wir werden etwa schließen, dass eine Maus in unserem Wandverbau ist und auf dieser Basis alle Schlussfolgerungen ziehen, die sich daraus ableiten lassen: dass Verdauungsüberreste der Maus hinter dem Wandverbau sein werden, dass wir die Maus sehen können, wenn wir uns auf die Lauer legen, etc.

    Der Schluss auf die Maus ist ein Abduktionsschluss. Wir können ihn nicht einfach auf Basis dessen ziehen, dass wir beobachtete Regelmäßigkeiten fortsetzen. Wir müssen dafür viel mehr wissen als für einen einfachen Induktionsschluss: Einerseits, dass es Mäuse gibt und wie sie sich verhalten. Andererseits aber auch, dass das Spektrum der in unserem Lebensbereich ablaufenden Prozesse sonst nicht viel einschließt was den vorhandenen Datenbefund erklären könnte. (So etwa schließen wir Klaubautermänner und Kobolde als Erklärung aus.)

  • 25

    Im Alltag basiert also der abduktive Schluss darauf, einen Überblick über die vorhandenen Phänomene zu haben und bei Bedarf eines derselben einzusetzen.

    In der Physik kann Abduktion aber nicht auf dieser Basis funktionieren, da wir ja eben gerade Erklärungen (Theorien) konstruieren wollen die uns neu sind. Was ist also die Basis für den Abduktionsschluss in der Physik? Auf welcher Grundlage können wir, wenn wir eine Erklärung gefunden haben, annehmen, dass es ‚die beste‘ ist und dass die beste – und wahre – Erklärung uns nicht noch unbekannt ist? Wie wollen wir einen Überblick über Erklärungen haben die wir gar nicht kennen?

    Diese Frage ist eine Kernfrage der Wissenschaftstheorie. Wir werden sie nicht letztgültig beantworten können. Zunächst einmal wollen wir nur einmal festhalten, dass philosophisch betrachtet sowohl das Funktionieren des Induktionsschlusses als auch des Abduktionsschlusses unter Annahme der Gültigkeit des Induktionsprinzips keineswegs eine trivial Sache ist.

    2.4: Falsifikation

    Eine Möglichkeit sich der Frage nach der Basis für erfolgreiche Abduktionsschlüsse anzunähern ist die Rückkehr zu unserer Ausgangsfrage: Wissenschaft ist keineswegs die einzige Methode Regularitäten zu finden. Warum ist die wissenschaftliche Methode prognostisch erfolgreicher als etwa Wahrsagerei? Eine sehr einflussreche Antwort ist Poppers Falsifikationskriterium: Wissenschaftliche Theorien legen im Vorhinein klar fest, unter welchen Bedingungen sie falsifiziert wären. Dadurch entsteht ein Selektionsprozess, der zu immer vorhersagestärkeren Theorien führt. Je leichter eine Theorie zu falsifizieren wäre, umso stärker ist sie. Starke Theorien, die dennoch viele Falsifikationsversuche überleben – deren Prognosen also in vielen unterschiedlichen empirischen Tests mit den empirischen Daten übereinstimmen – sind gute Theorien. Wir haben gute – also prognostisch starke und erfolgreiche - Theorien, weil sie die sind, die überlebt haben. Bas van Fraassen, der heute einflussreichste empiristische Wissenschafts-theoretiker, nennt diesen Ansatz die Darwinistische Erklärung für die hohe Qualität reifer wissenschaftlicher Theorien. Bis heute ist das Prinzip der Falsifikation eines der zentralen Leitbilder wissenschaftlichen Denkens und Handelns. Um klare und verbindliche Prognosen zu machen setzt die wissenschaftliche Methode zwei Prinzipien ein:

  • 26

    1) Definitionen und Thesen werden so präzise wie möglich gemacht. Die

    Logische Struktur eines wissenschaftlichen Arguments muss klar ersichtlich sein und die Logische Konsistenz ist Voraussetzung für dessen Gültigkeit. Es gibt also so etwas wie einen Kern rationaler Argumentationstechnik der wissenschaftliches Denken trägt.

    2) Wann immer möglich wird die Theorie mathematisiert. Auf Basis der

    Mathematisierung können präzise Theorien formuliert werden, die auf der Basis von quantitativ angesetzten Anfangsbedingungen quantitativ präzise Prognosen machen. Das ermöglicht Präzisionstests von Theorien.

    2.5: Hypothetiko-Deduktivismus

    Wie sieht nun die Struktur des Wissenschaftsprozesses aus? Eine klassische Form der Modellierung der Wissenschaftsprozesses ist der Hypothetiko-Deduktivismus: 1: Eine Beobachtung wird gemacht. 2: Die Wissenschaftlerin sucht nach einer Erklärung dieser Beobachtung und stellt schließlich eine Hypothese auf, die diese Erklärung leisten kann. 3: Sie leitet aus dieser Hypothese Prognosen her. 4: Diese Prognosen werden im Experiment getestet Wenn die Prognosen eintreten, wird die Hypothese bestätigt, wenn nicht ist sie wiederlegt und eine neue Hypothese muss gesucht werden. Weitere Beobachtungen werden gemacht, solange bis man eine findet, die nicht mit einer Prognose der Theorie übereinstimmt. => zurück bei 1:

    Beobachtung 1

    Kreativer Schritt

    Hypothese Deduktion

    Prognose

    2 zentrale Elemente deren Zusammenspiel den Wissenschaftsprozess antreibt: 1: die Theorie 2: das Experiment Allgemein wird die Einführung des experimentellen Prinzips als zentrales Element im Durchbruch zur Wissenschaft in der frühen Neuzeit gesehen.

  • 27

    2.6: Experiment vs. Beobachtung [nicht prüfungsrelevant] Das Schema des Hypothetico-Deduktivismus zeigt sehr schön warum das Experiment (also das Hinausgehen über einfache Naturbeobachtung) so wichtig ist. Wenn man aus einer Hypothese Prognosen ableitet, kann man Glück haben und diese Prognosen zeigen sich im ‚natürlichen‘ Ablauf der Dinge. Es kann aber auch passieren, dass die stärksten Prognosen in sehr speziellen Abläufen zu finden sind, wie sie in der Welt wie wir sie auffinden normalerweise nicht auftreten. Der Versuch, diese Prognosen zu testen führt dazu, eine Situation herzustellen in der die Prognosen der Theorie klar zutage treten. Dies ist das Experiment. Nun ist es aber keineswegs so, dass in Naturwissenschaften immer Experimente möglich sind. Astronomie und Kosmologie befassen sich mit Bereichen unserer Welt, die so weit entfernt sind, dass man sie sicher nicht manipulieren kann. In solchen Fällen ist man auf die Beobachtungen angewiesen, die man eben machen kann. Sind Astronomie und Kosmologie deswegen keine „echten“ Wissenschaften? Das Problem ist gegenwärtig in fundamentaler Physik sehr präsent. Seit den 1940er Jahren wurden empirische Daten über die fundamentalen Grundgesetze und Bestandteile der Physik zu einem beträchtlichen Teil aus Kollisionsexperimenten mit Elementarteilchen gewonnen. (Etwa am CERN in Genf). Neuere Theorien jedoch haben charakteristische Energieskalen (also Energieskalen bei denen die Kernvorhersagen der Theorie testbar sind) die von Kollisionsexperimenten nicht mehr erreichbar sind. Das heißt, man muss auf kosmologische Beobachtungen vertrauen, wenn man diese Theorien testen will. Und das wirft genau das oben angesprochene Problem auf:

    Experimente können auf das zu isolierende Phänomen hin gebaut werden.

    Bei kosmologischen Beobachtungen geht das nicht. Man muss nehme was kommt.

    Es ist daher nicht möglich, die spezifischsten Vorhersagen zu testen sondern man muss aus den Daten die Elemente herausfiltern die für eine Theorie sprechen.

    Das ist aber weniger konklusiv als ein experimentelles Ergebnis das im Sinne eines Experimentum Cruxis konstruiert wurde.

    Dennoch ist es keinesfalls so, dass ohne Experiment keine echte Wissenschaft möglich ist. Astronomie –in der keine Experimente möglich sind - war immer eine treibende Kraft der Wissenschaften.

  • 28

    Was man benötigt um mit Beobachtungen Experimente zu „ersetzen“ ist

    1) eine möglichst hohe Präzision der Messung um von der Theorie prognostizierte Phänomene von anderen Effekten unterscheiden zu können.

    2) Ein gutes theoretisches Verständnis des Gesamtkontextes um Phänomene richtig zuzuordnen.

    Ganz aktuelles Beispiel: Präzisionsmessung der kosmischen Hintergrundstrahlung.

    Theorie der kosmischen Inflation: frühe Phase extrem schneller (exponentieller) Ausdehnung des Universums kann das Grunderscheinungsbild des Universums erklären Isotropie, Flachheit des Raumes).

    Es gibt spezifische „Vorhersagen“ der Theorie (bzw ihrer typischen Modelle).

    Messungen von BICEP2 stimmen mit eines dieser Vorhersagen überein. (Polarisationsstruktur der Hintergrundstrahlung.

    Vorhersagen auf Basis der Herleitung eines spezifischen Phänomens aus der Theorie (Gravitationswellen aus der Frühphase des Universums, deren „Fußabdruck“ die Polarisationsstruktur ist.

    Allerdings ist es eine hochkomplexe Frage ob diese Polarisationsstruktur auch anders erklärbar ist (zum Beispiel durch Staub).

    Um die Beobachtung als Signal für Inflation anzuerkennen muss man all diese Alternativen ausschließen, was ein sehr langwieriger Prozess ist und oft neue Experimente erfordert.

    Beim letzten Mal (kosmologische Konstante anhand von Messung der Lichtstärke eines spezifischen Typs Supernova (‚Standard candles‘) dauerte das etliche Jahre.

    Gegensatz Entdeckung des Higgsteilchens im Experiment. Das Experiment selbst sehr kompliziert und langwierig. Man hat aber das Experiment schon vorher durchdacht um es zu optimieren, man hatte also schon sehr gute Kontrolle über alle möglichen Effekte. Sobald die Daten ausreichend signifikant waren, wurden sie sehr bald als Entdeckung des Higgsteilchens anerkannt. Experimente erleichtern also den wissenschaftlichen Prozess, wenn es sein muss

    kann man aber auch ohne Experiment eine Theorie bestätigen.

  • 29

    2.7: Theorienabfolge, Normalwissenschaft, Wissenschaftliche Revolution Wir haben gesehen, dass Falsifikation eine ganz zentrale Rolle im Rahmen des wissenschaftlichen Fortschritts spielt. Theorien werden empirisch getestet und wenn sie nicht mit den Daten übereinstimmen verworfen. Aber wann genau wird eine Theorie verworfen? Das einfachste Bild wäre, man testet bis man einen empirischen Widerspruch mit der Theorie (eine empirische Anomalie) findet und wenn das der Fall ist verwirft man sie und baut eine neue die die neuen Daten reproduzieren kann. Ganz so einfach ist das aber nicht. Es gibt zwei Grundprobleme. Das erste, das wir schon weiter oben angesprochen haben: Es ist nicht klar wo der Grund für die Anomalie liegt. Die getestete Theorie könnte falsch sein. Es könnte aber auch unser Verständnis der Beobachtung oder des Experiments falsch sein, oder das Experiment fehlerhaft. Pierre Duhem, ein bedeutender Wissenschaftstheoretiker der Wende zum 20. Jahrhunderts hat als Prinzip formuliert: Es gibt kein Experimentum cruxis. Ich kann bei jeder Datenlage meine Theorie retten wenn ich ausreichend radikale Veränderungen an anderen Teilen meines Gedankengebäudes zulasse. Es mag sein, dass diese Änderungen so weit hergeholt oder unplausibel erscheinen, dass es nur eine seriös vertretbare Conclusio gibt. Aber es gibt keine Möglichkeit die Alternativen absolut auszuschließen. Es gibt noch ein zweites Problem. Was passiert wenn eine Anomalie auftritt, sich aber keine bessere Theorie finden lässt? Es wäre unsinnig, in einem solchen Fall eine Theorie, die sonst gute Dienste leistet nicht mehr zu verwenden. In diesem Fall lebt die Theorie mit der Anomalie weiter. Es ist in solchen Fällen oft gar nicht klar wie substantiell die Änderungen an der Theorie sein müssen um letztlich doch die Daten zu erklären. Es wäre sehr ineffizient in einem solchen Fall beim Auftreten einer Anomalie gleich das gesamte Konzept der Theorie zu hinterfragen. Es ist also oft so, dass man bei sehr erfolgreichen Theorien auch recht viel an Problemen in Kauf nimmt bevor man ernsthaft an ein substantielles Verwerfen denkt. Statt das zu tun kann man

    die Qualität des Experiments bezweifeln

    die Qualität der Datenanalyse bezweifeln

    Im Rahmen der alten Theorien zu versuchen, durch Zusatzannahmen die Anomalie zu beseitigen. (neuer Planet)

  • 30

    in Betracht ziehen, dass ein ganz neues Phänomen gefunden wurde das unabhängig vom zu untersuchenden ist du den gemessenen Effekt ausmacht.

    annehmen, dass man in Zukunft schon eine mit der Grundtheorie in Einklang stehende Erklärung finden wird.

    Imre Lakatos nennt das Arsenal an möglichen Maßnahmen eine Theorie vor ihr widersprechenden Daten in Schutz zu nehmen den „protektive belt“ (Schutzgürtel) der Theorie. Ein nettes Beispiel für die Stärke des protective belt ist eine berühmte Episode die Max Planck erzählt. Als er um 1880 seine Doktorarbeit beginnen wollte sagte ihm ein bekannter älterer Physiker, er würde an seiner Stelle besser eine andere Wissenschaftsdisziplin suchen, die Physik sei weitgehend abgeschlossen. Es gäbe nicht Wesentliches mehr zu entdecken. Diese Einstellung war im ausgehenden 19. Jh durchaus gängig. Der Witz dieser Episode ist natürlich, dass etwa 20 Jahre später, im Jahre 1900, gerade Planck den ersten wesentlichen Schritt zur fundamentalen Umwälzung der Physik durch die Quantenmechanik machte. Interessant an der Geschichte ist aber auch, dass die zitierte Aussage gemacht wurde obwohl es durchaus Anomalien der klassischen Physik gab. Z.B. konnte die kinetische Gastheorie die gemessene spezifische Wärme nicht überzeugend erklären, was tatsächlich erst in einem quantenmechanischen Rahmen möglich ist. Der „protective belt“ um die klassische Physik war aber so stark, dass die Überzeugung verbreitet war, diese Anomalie müsste ohne substantielle theoretische Änderungen aus der Welt zu schaffen sein. Eine eigene und lange Zeit sehr einflussreiche Perspektive auf diese Situation hat Thomas Kuhn entwickelt. Kuhn führt das Konzept der wissenschaftlichen Paradigmas ein. Ein wissenschaftliches Paradigma ist so etwas wie eine Denkweise über eine wissenschaftliche Problematik, die sich in einer grundlegenden Theorie ausdrückt. Nun gibt es nach Kuhn 2 Denkrahmen in denen Wissenschaftler arbeiten. Der eine ist der Denkrahmen der Normalwissenschaften. Hier wird im Rahmen des vorherrschenden Paradigmas gearbeitet. Ziel ist es, mit den durch das Paradigma bereitgestellten Methoden Probleme zu lösen („puzzle solving“). Wenn eine Anomalie auftritt, dann wird versucht, sie im Rahmen des gegebenen Paradigmas zu beseitigen. Erst wenn sich Anomalien häufen und die Fähigkeit im Rahmen des alten Paradigmas überhaupt noch neue Probleme zu lösen markant abnimmt, wird die Situation als Krise empfunden.

  • 31

    In einer solchen Krise wird nach neuen Paradigmen gesucht. Dies stellt dann die zweite Form des wissenschaftlichen Prozesses dar. Wird ein überzeugendes und produktives neues Paradigma gefunden, kommt es zu einer wissenschaftlichen Revolution. Kuhn meint nun, dass wissenschaftliche Revolutionen so grundlegend sind, dass es eine Inkommensurabilität zwischen altem und neuem Paradigma gibt. Diese Inkommensurabilität führt dazu, dass es in der revolutionären Phase keine rationale Entscheidungsmöglichkeit zwischen den Paradigmen gibt. Erst wenn sich das neue Paradigma länger bewährt hat wird de facto unbezweifelbar, dass es stärker ist als das alte. (Das entspricht grob Plancks bekanntem Satz, dass Theorien sich nicht durchsetzen indem ihre Gegner überzeugt werden sondern indem sie aussterben.) Ein interessanter Aspekt des Paradigmenwechsels ist die unterschiedliche wissenschaftliche Zielsetzung aufeinanderfolgender Paradigmen. Beispiel Planetenbahnen: Für Kepler war es zentral, die Verhältnisse zwischen den Planetenabständen zu erklären (wie das die Quantenmechanik für das Atom ja tatsächlich liefert) Newtons Mechanik erklärt diese Abstände für unerklärbar. Wer also den Keplerschen Anspruch nicht aufgibt, wird nicht zum Newtonschen Paradigma überlaufen. Der überwältigende Erfolg des Newtonschen Paradigmas ließ aber dennoch sehr bald niemandem mehr eine andere Wahl.

    2.8: Theorie und Experiment: was treibt die wissenschaftliche Entwicklung? Die bisher dargestellten Rekonstruktionen, vom Hypothetiko-Deduktivismus bis zu Kuhns Konzeption der wissenschaftlichen Revolutionen gehen von einem Grundverlauf der wissenschaftlichen Entwicklung aus: 1: eine empirische Anomalie wird erkannt. 2: Man sucht eine Theorie die diese neuen Daten erklären kann. 3: wenn man eine gefunden hat wird sie getestet und ihre Reichweite ausgelotet bis man auf eine neue Anomalie stößt. Treibende Kraft des wissenschaftlichen Fortschritts ist also die Empirie. Theorie kann zwar auf Basis ihrer Prognosen über den Status quo der Empirie hinausgreifen, Anstoß zur Theorienbildung sind aber die zu erklärenden Daten.

  • 32

    Nun ist das aber keinesfalls immer die tatsächliche Entwicklung. In der Hochenergiephysik läuft die Entwicklung seit 40 Jahren umgekehrt. Das Standardmodel der Teilchenphysik kann alle bekannten Daten der Hochenergiephysik reproduzieren. Es gibt keine empirische Anomalie. (was eine ausgesprochen ungewöhnliche Situation ist) Dennoch wird seit 4 Jahrzehnten an einer ganzen Reihe von Theorien gearbeitet, die über das Standardmodell hinausgreifen. Wo liegt die Motivation dafür? Es lassen sich 3 verschiedene aber zueinander in Beziehung stehende Gründe erkennen. 1: Parameterwerte können zwar durch die alte Theorie beschrieben werden, sie stehen aber zueinander in einer auffallenden Relation die durch die alte Theorie nicht erklärt werden kann. Oder ein dimensionsloser Parameterwert hat einen auffallend geringen Wert (man nennt das finetuning). Eine solche Situation wird dann als Indiz gewertet, dass es eine grundlegendere Theorie gibt die eine Erklärung liefert. 2: Die Theorie hat eine Form die komplizierter bzw. willkürlicher erscheint als es in dem konzeptionellen Rahmen auf Basis allgemeiner theoretischer Prinzipien nötig wäre. Wenn theoretische Alternativen gesehen werden, die diese Situation vereinfachen, dann erscheinen diese attraktiv und untersuchenswert. 3: Nehmen wir an man hat folgende Situation: Es gibt zwei Theorien die unterschiedliche Sachverhalte beschreiben. Eine Theorie beschreibt Kernkräfte (SM) Eine Theorie beschreibt Gravitation (GR) Alle Messungen die wir bisher machen können liegen in Bereichen in denen entweder nur Kernkräfte oder nur Gravitation in relevantem Ausmaß wirken. Das heißt, nach heutigem Stand gibt es keine empirischen Anomalien. Das theoretische Verständnis sagt einem aber, dass es auch – bisher quantitativen empirischen Messungen unzugängliche – Situationen gibt in denen sowohl Kernkräfte als auch Gravitation stark wirken. Dort bräuchte man also eine konsistente gemeinsame Beschreibung durch beide Theorien. Die sind aber konzeptionell so grundlegend unterscheidlich , dass man sie nicht einfach verknüpfen kann ohne Inkonsistenzen zu erhalten. Wir wissen also auf theoretischer Basis, dass wir bestimmte zukünftige empirische Daten nicht mit den vorhandenen Theorien beschreiben werden können. Das führt zur Suche nach neuen Theorien. (etwa Stringtheorie)

  • 33

    2.9:Universalität Die letzte Motivation ist vielleicht die interessanteste. Sie begründet die Suche nach höherer Universalität wissenschaftlicher Theorien. Sie zeigt, dass Der Universalitätsanspruch in den Wissenschaften kein rein ästhetisches Kriterium ist sondern einen soliden empirischen Hintergrund hat: wenn getrennte Bereiche durch unterschiedliche Theorien beschrieben werden dann ist es oft aus empirischen Gründen nötig eine Theorie zu finden die beide ‚kleineren‘ Theorien umfasst. Die Struktur ist dann die folgende: Beide Teiltheorien sind als Näherungen der grundlegenderen Theorie verstehbar. Ich vernachlässige aber unterschiedliche Parameter weshalb ich ausgehend von der universalen Theorie bei verschiedenen Teiltheorien lande. Hier gibt es einen ganz wesentlichen Unterschied zwischen dem Schritt zu allgemeingültigeren Theorien in der fundamentalen Naturwissenschaft und Verallgemeinerungen etwa in den Geisteswissenschaften. In beiden Fällen beginnen wir mit einer Theorie mit begrenztem Zuständigkeitsbereich und wollen diesen erweitern. Nehmen wir an wir haben eine bestimmte Beobachtung über gesellschaftliche Verhältnisse in einem Dorf zur Zeit t. Wir versuchen diese Beobachtung möglichst präzise zu machen. Dann fragen wir, ob wir einen vergleichbaren Sachverhalt auch in anderen Gegenden, zu anderen Zeiten finden. Wir werden feststellen, dass sich die Situation je mehr wir uns vom Ausgangspunkt entfernen umso deutlicher von der Anfangs beschriebenen unterscheidet. Dennoch kann es sehr erhellend sein, eine These so allgemein zu formulieren, dass sie auf ein breites Spektrum von Orten und Zeiten zutrifft. Je breiter wir dieses Spektrum aber ansetzen, umso allgemeiner wird diese These sein, umso weniger präzise wird sie der Situation im Ausgangsdorf zum Zeitpunkt T gerecht werden. Man steht also immer vor der Abwägung, wo die Verallgemeinerung noch gewinnbringend ist und wo sie nur mehr durch so viele Vagheiten zu erkaufen ist, dass es besser ist eine inhaltlich stärkere aber weniger universelle Aussage zu machen. Ganz anders die Situation in der fundamentalen Naturwissenschaft. Hier sind die limitierteren Theorien Näherungen der universaleren Theorie, die universalere Theorie ist also nicht nur breiter gültig sondern auch präziser. Die Suche nach Universalität ist also zugleich eine Suche nach höherer Präzision. Die Beziehung zwischen grundlegender und effektiver Theorie ist reduktionistisch. Die hohe Bedeutung der Universalität impliziert also auch eine reduktionistische Struktur der Naturwissenschaft.

  • 34

    2.10: Reduktionismus [nicht prüfungsrelevant] Es gibt aber in den Wissenschaftsphilosophie eine einflussreiche Strömung die den reduktionistischen Charakter der Naturwissenschaften bestreitet. Eine Hauptvertreterin dieser Position ist Nancy Cartwright. Sie hebt hervor, dass es häufig nicht möglich ist Berechnungen komplexer Phänomene aus den fundamentalen Theorien herzuleiten. In ‚the dappled world‘ zeichnet sie ein Bild der Wissenschaften in dem einzelne Kontexte Theorien hervorbringen die nicht konsistent miteinander verbunden sind sondern nur durch Näherungen und Vereinfachungen überhaupt funktionieren. Nach Cartwright ist der Reduktionismus in den Naturwissenschaften so etwas wie eine ideologische Parole, die aber im wissenschaftlichen Alltag nicht eingelöst wird. Mit ihrer Perspektive scheint Cartwright jedoch der Denkweise der Naturwissenschaften nicht gerecht zu werden. Auch wenn der Reduktionismus nicht vollständig durchgerechnet werden kann ist die Vorstellung dass die grundlegenderen Theorien die Gesetzmäßigkeiten die in den Theorien komplexerer Phänomene auftreten vollständig herleitbar machen essentiell. Der reduktionistische Grundcharakter der Naturwissenschaften ist ein wesentliches Element ihrer Methode. Er steht wohl als implizite Richtschnur der Bewertung einer Theorie immer im Hintergrund. Eine Situation, in der eine Theorie zwar auf einer spezifischen Komplexitätsebene die Phänomene beschreiben kann, aber mit den entsprechenden Fundamentaltheorien auch im Sinne einer effektiven Beschreibung manifest inkompatibel ist erscheint höchstgradig unbefriedigend und nur als Übergangslösung. Der fortgesetzte Erfolg der Suche nach Universalität stärkt diese wissenschaftliche Perspektive. Es ist wohl richtig, dass das Prinzip des Reduktionismus und der universalen Erklärung in unterschiedlichen naturwissenschaftlichen Forschungsfeldern für die konkrete Theorienbildung unterschiedlich relevant ist. Die größte Rolle spielt sie in den fundamentalen Theorien der Physik. Je komplexer die zu beschreibenden Phänomene, umso wesentlicher werden Näherungsverfahren deren Gültigkeit nicht aus den fundamentalen Theorien selbst herleitbar sind sondern durch ihre eigene empirischen Erfolge etabliert wird. In der Festkörperphysik ist der Reduktionismus weniger präsent als in der Hochenergiephysik. In der physikalischen Chemie wohl weniger ausgeprägt als in der Festkörperphysik.

  • 35

    Der Idealfall ist auch hier der, dass die Reduzierbarkeit gezeigt oder zumindest plausibel gemacht werden kann. Wenn das nicht geht hat die Theorie der komplexen Phänomene aber dennoch Gültigkeit auf Basis des empirischen Erfolges. Die Argumentationslinie aus reduktionistischer Sicht wäre also eher die: Wenn die Theorie nicht als effektive Theorie der fundamentalen Theorien verstehbar wäre dann wäre das, nachdem sie selbst empirisch bestätigt ist, primär ein Problem für die fundamentale Theorie. In weiterer Folge kann jedoch auch hier gerade der Versuch der Reduktion eine fruchtbare Anleitung zum wissenschaftlichen Fortschritt geben. Beispiel: spezifische Wärme lässt sich nicht auf klassischen Atomismus zurückführen. Das ist ein Indiz dafür, dass man eine ganz neue Theorie braucht: die Quantenmechanik.

    2.11: Grenzen der Wissenschaftlichkeit [nicht prüfungsrelevant]

    Wir haben gesehen, dass es einerseits eine ganze Reihe wesentlicher Charakteristika der naturwissenschaftlichen Methode gibt die in vielen Bereichen der Naturwissenschaft zu identifizieren sind und die auch plausible mit dem Erfolg der Methode in Zusammenhang gebrachte werden können. Dass es aber andererseits sowohl historisch als auch feldspezifisch ein breites Spektrum finden lässt hinsichtlich der Art wie und des Ausmaßes in dem diese spezifischen Charakteristika zutreffen. Lassen sich dies Charakteristika also sinnvoll normativ verstehen, also in dem Sinne dass man einer Vorgangsweise die Wissenschaftlichkeit absprechen soll wenn bestimmte Charakteristika nicht erfüllt sind. So wie es etwa Popper mit seinem Falsifikationskriterium macht. Es gab in den 1970er und 80er Jahren in der Wissenschaftstheorie eine sehr einflussreiche Strömung die das dezidiert verneint hat. Bekanntester Repräsentant dieser Strömung war Paul Feyerabend (geborener Österreicher). Feyerabend betont das improvisierende und der konkreten Situation angepasste Element der Naturwissenschaften und hält in diesem Lichte jede Einschränkung der Freiheit des wissenschaftlichen Handelns durch methodische Zwänge für kontraproduktiv. Sein berühmter Satz besagt: Wenn es überhaupt ein allgemein gültiges Prinzip wissenschaftlichen Handelns geben soll, dann wäre das „Anything goes“.

  • 36

    Feyerabends Position ist auch im Kontext damals populärer gesellschaftspolitischer Strömungen zu verstehen (Feyerabend war in den 70er Jahren in Berkeley.) In den letzten Jahrzehnten hat Feyerabends radikale Position zunehmend an Einfluss verloren und wird heute primär als provokante Übertreibung gesehen. Will man den Gehalt seiner Aussage spezifischer festmachen, lassen sich 2 unterschiedliche Ebenen unterscheiden. Auf einer Ebene richtet sich Feyerabend gegen die Idee, dass Wissenschaftsphilosophen, nachdem sie ein spezifisches Verständnis davon erarbeitet haben was die generellen Ziele der Naturwissenschaften sind, auf Basis allgemein philosophischer Analyse Prinzipien entwickeln können und sollen, die als Kriterien naturwissenschaftlichen Handeln allgemeine Gültigkeit haben. Das richtet sich gegen eine normative Wissenschaftstheorie im klassischen Sinn, wie sie etwa von Carl Popper vertreten wurde. Auf dieser Ebene würde ich Feyerabends Kritik für gültig halten. Die Idee einer normativen Wissenschaftstheorie

    wird der historischen Dimension der Entwicklung naturwissenschaftlicher Handlungsprinzipien nicht gerecht,

    Sie unterschätzt ihren kontingenten vom Erscheinungsbild der empirischen Daten selbst abhängigen Charakter.

    Sie kann damit, wie wir in 1.d gesehen haben eine zu konservative und damit fortschrittshemmende Einstellung zur Dynamik wissenschaftlicher Methodik begründen.

    Auf einer zweiten Ebene kann Feyerabends Kritik auch so verstanden werden, dass sie Debatten um die Wissenschaftlichkeit methodischer Strategien in Forschungsfeldern auch im Rahmen dieser Forschungsfelder selbst für fragwürdig hält.

    Diese Interpretation wird durch Feyerabends gesellschaftliche Analogien wie auch durch seine Aussagen zur Unerheblichkeit der Unterscheidung zwischen Wissenschaft und Nichtwissenschaft gestützt.

    Wäre eine solche Interpretation gänzlich fehlgehend, dann müsste Feyerabend auch sein „anything goes“ für genauso unzulässig als Prinzip wissenschaftlichen Handelns ansehen wie jedes andere „philosophische“ Prinzip.

    Diese zweite Interpretation jedoch scheint unhaltbar und keineswegs im Sinne eines funktionierenden Wissenschaftsprozesses.

    Es ist für die Qualität des naturwissenschaftlichen Prozesses sehr wesentlich, dass die Handlungskriterien der involvierten Wissenschaftler intern überwacht werden und jede Veränderung in dieser Hinsicht sorgfältig diskutiert und in breitem Rahmen von der Community geprüft wird.

  • 37

    II WAS IST NATURWISSENSCHAFTLICHE ERKENNTNIS ?

    1. Macht Naturwissenschaft wahre Aussagen?

    Naturwissenschaft macht Aussagen wie diese:

    a. Die Erde ist kugelförmig. b. Das Herz treibt den Blutkreislauf an. c. Himmelskörper bewegen sic