#16 Die wissenschaftliche Methode – und jenseits von Popper
Verfasst: 13. Feb 2018, 22:11
Ich möchte kurz einige Anmerkungen zur wissenschaftlichen Methode, zu Poppers kritischem Rationalismus, und zu darüber hinausweisenden Gedanken darstellen. Die wesentlichen Gedanken folgen dabei David Deutsch.
I
Poppers Argument beginnt mit der Feststellung, dass das sogenannte Induktionsprinzip nicht die Basis für wissenschaftlichen Fortschritt darstellt. Das Induktionsprinzip besagt – verkürzt dargestellt – dass wir aus der Ansammlungen von Beobachtungen und Fakten eine wissenschaftliche Theorie konstruieren. Diese Idee ist an mindestens einer Stelle unzutreffend:
Betrachten wir dazu das heliozentrische bzw. Kopernikanische Weltbild, später übernommen und erweitert bzw. präzisiert von Galilei und insbs. von Kepler. Kepler zufolge befindet sich nicht die Erde im Zentrum und wird von den Planeten und der Sonne umkreist, sondern die Sonne befindet sich im Brennpunkt, während die Planeten sie auf präzise definierten Ellipsenbahnen umlaufen.
Dieses Modell des Sonnensystems ersetzte das jahrhundertelang dominierende geozentrische bzw. Ptolemäische Weltbild, das durch diverse Kunstgriffe insbs. zum sogenannte Epizyklenmodell erweitert wurde. Zur Problematik: Wenn ein äußerer Planet der Erde am nächsten ist, treten rückläufige Bewegungen auf, die aus der Erdperspektive als Schleifenbewegung erscheinen. Dies konnte mit dem geozentrischen Weltbild dadurch in Einklang gebracht werden, indem man zunächst den Umlauf eines gedachten Punktes um die Sonne auf einer Kreisbahn – dem Deferent – ansetzte, und für den Planeten den Umlauf um diesen gedachten Punkt auf einer kleineren Kreisbahn – dem Epizykel – annahm. Zudem steht die Erde nicht exakt im Zentrum des Deferenten, sondern in einem weiteren Punkt – dem Exzenter – und die Geschwindigkeit entlang des Deferenten ist nicht konstant, sondern sie erscheint gleichförmig betrachtet von einem weiteren Punkt – dem Äquanten.
Dem Induktionsprinzip zufolge gelangt man gleichartig zu beiden Theorien, in dem die Theorie auf Basis von Beobachtungen sukzessive verbessert wird.
Naives geozentrisches Weltbild → Deferent und Epizykel → Exzenter und Äquant
Naives heliozentrisches Weltbild → Ellipse mit Sonne im Brennpunkt
Dennoch erscheinen uns die beiden Theorien nicht gleichwertig.
Warum?
II
Popper argumentiert nun, dass das Induktionsprinzip nicht geeignet ist, um Theorien sozusagen semi-automatisch aus Fakten abzuleiten, sondern dass Theorien zunächst als Sammlung von Hypothesen stehen, die durch kritisches, experimentelles Hinterfragen und Prüfen sukzessive verworfen werden, wenn ihre Vorhersagen nicht mit dem Experiment übereinstimmen. Popper zufolge wird eine Theorie gerade nicht durch ihre Übereinstimmung mit immer mehr Fakten bestätigt, sondern sie wird dadurch untermauert, dass sie immer mehr kritische Tests besteht, die zunächst dazu dienen sollen, sie zu widerlegen – was dann scheitert! (nicht jedoch, die Theorie zu bestätigen – was durch geeignete Wahl von Fakten trivialerweise immer möglich ist)
Kurz gesagt, die Theorie „alle Schwäne sind weiß“ wird nicht durch die Beobachtung weiterer weißer Schwäne bestätigt, sondern sie wird durch die Beobachtung eines einzigen schwarzen Schwans widerlegt.
Die „beste wissenschaftliche Theorie“ ist gerade diejenige, die diese kritische Prüfung in einem möglichst allgemeinen Feld am besten besteht.
III
Offensichtlich ist diese – zurecht – im Rahmen des kritischen Rationalismus etablierte wissenschaftliche Methode nicht ausreichend, um zwischen den beiden o.g. Modellen, dem geo- sowie dem heliozentrischen Modell zu unterscheiden (wobei wir hier um des Argumentes willen ignorieren, dass das geozentrische Modell auch in der o.g. Erweiterung nicht alle Beobachtungsdaten erklären kann).
Was fehlt?
An dieser Stelle möchte ich – leider für einen zu kleinen Leserkreis – mit dem Mythos aufräumen, dass es in der Physik NUR um die o.g. Anwendung der Popperschen Methodik ginge.
Betrachten wir dazu erneut zwei Theorien:
Im etablierten Standardmodell der Elementarteilchenphysik startet man mit einem recht einfachen Bild der Quantenelektrodynamik und versucht, diese Methodik zu erweitern und auf andere Teilchen und deren Wechselwirkungen und Kräfte zu übertragen. Dadurch gelangt man zum Standardmodell, das im Wesentlichen mittels zwei (fast) unverbundenen Eichtheorien sowie diverse „Epizyklen“ beschrieben wird; letztere umfassen die Rechts-Links-Asymmetrie der schwachen Wechselwirkung, die spontane Brechung der Symmetrie mittels des Higgs; die Einführung diverser Parameter für die Massen der Teilchen, die drei Fermion-Generationen, die Neutrinomassen, die wohl nicht durch ein einfaches Higgs erklärt werdende können, … sowie weitere hypothetische „Epizyklen“ wie Supersymmetrie, Axionen u.a. Konstrukte.
In einer hypothetischen Theorie gehen wir aus von einer sehr konkreten jedoch höchst komplexen mathematischen Funktion mit ‘zig Termen sowie etlichen präzise angepassten Parametern. Der Input in dieser God-Function bzw. ihre Argumente sind nicht einfach Zahlen, sondern Vektoren von Zahlen, Texten, geometrischen Objekten sowie von uns spezifizierbaren Funktionen (!) Dadurch ist es uns möglich, präzise experimentelle Setups zu konstruieren und diese für die Funktion zugänglich zu machen. Der Output der Funktion besteht ebenfalls aus Zahlen, geometrischen Objekten sowie von der God-Function konstruierten Funktionen. Dieser Output stellt direkt oder indirekt mittels der Funktionen das Ergebnis aller mittels der Inputs spezifizierten Experimente dar. Konkret: ein Satz von Inputs spezifiziert den LHC-Beschleuniger, den ALICE-Detektor usw. sowie die präzisen Einstellungen für Blei-Blei-Kollisionen; ein Satz von Outputs spezifiziert die einzelnen Messwerte der Teilchen im ALICE-Detektor, d.h. Teilchenmasse, -ladung, -energie und -impuls sowie den Winkel zum Strahl bzw. den Ort der Detektion.
Nehmen wir an, dass uns diese Funktion gegeben ist, ohne dass wir ihren Ursprung kennen und ohne dass wir irgendeine Idee hätten, warum sie so aussieht wie sie aussieht. Nehmen wir weiter an, dass die Funktion auf einem Superrechner effizient implementierbar ist und dass sie uns alle experimentellen Ergebnisse präzise, vollständig und korrekt vorhersagt. Nehmen wir des Weiteren an, dass die Funktion auch für weitere Experimente, u.a. auch zur Vorhersage im Rahmen der Astroteilchenphysik in der Lage ist.
Warum gefällt dem Physiker das Standardmodell – trotz seiner Unzulänglichkeiten besser? Und warum würde er jemanden, der die God-Function anwendet und vollständig sowie ohne weiteres Hinterfragen auf sie vertraut, nicht als einen Physiker bezeichnen?
Was kann das Standardmodell, wozu die God-Function nicht in der Lage ist?
Randbemerkung
Nehmen wir spaßeshalber an, das Universum wäre ein gigantischer Computer. Dann wäre die God-Function letztlich nur eine kleine Subroutine. Und das Universum hätte eine andere Subroutine implementiert, die es uns (Simulationen, Subroutinen) erlaubt, den LHC zu konstruieren, sowie einen Computer zu implementieren, auf dem "unsere" God-Function emuliert wird.
Warum sollten wir dann die Emulation der God-Function auf unserem Computer nutzen statt die originale Subroutine d.h. die tatsächliche Durchführung des Experimentes am LHC zu bemühen? Was wäre der Vorteil? Was der Nachteil? Was der prinzipielle Unterschied?
I
Poppers Argument beginnt mit der Feststellung, dass das sogenannte Induktionsprinzip nicht die Basis für wissenschaftlichen Fortschritt darstellt. Das Induktionsprinzip besagt – verkürzt dargestellt – dass wir aus der Ansammlungen von Beobachtungen und Fakten eine wissenschaftliche Theorie konstruieren. Diese Idee ist an mindestens einer Stelle unzutreffend:
Betrachten wir dazu das heliozentrische bzw. Kopernikanische Weltbild, später übernommen und erweitert bzw. präzisiert von Galilei und insbs. von Kepler. Kepler zufolge befindet sich nicht die Erde im Zentrum und wird von den Planeten und der Sonne umkreist, sondern die Sonne befindet sich im Brennpunkt, während die Planeten sie auf präzise definierten Ellipsenbahnen umlaufen.
Dieses Modell des Sonnensystems ersetzte das jahrhundertelang dominierende geozentrische bzw. Ptolemäische Weltbild, das durch diverse Kunstgriffe insbs. zum sogenannte Epizyklenmodell erweitert wurde. Zur Problematik: Wenn ein äußerer Planet der Erde am nächsten ist, treten rückläufige Bewegungen auf, die aus der Erdperspektive als Schleifenbewegung erscheinen. Dies konnte mit dem geozentrischen Weltbild dadurch in Einklang gebracht werden, indem man zunächst den Umlauf eines gedachten Punktes um die Sonne auf einer Kreisbahn – dem Deferent – ansetzte, und für den Planeten den Umlauf um diesen gedachten Punkt auf einer kleineren Kreisbahn – dem Epizykel – annahm. Zudem steht die Erde nicht exakt im Zentrum des Deferenten, sondern in einem weiteren Punkt – dem Exzenter – und die Geschwindigkeit entlang des Deferenten ist nicht konstant, sondern sie erscheint gleichförmig betrachtet von einem weiteren Punkt – dem Äquanten.
Dem Induktionsprinzip zufolge gelangt man gleichartig zu beiden Theorien, in dem die Theorie auf Basis von Beobachtungen sukzessive verbessert wird.
Naives geozentrisches Weltbild → Deferent und Epizykel → Exzenter und Äquant
Naives heliozentrisches Weltbild → Ellipse mit Sonne im Brennpunkt
Dennoch erscheinen uns die beiden Theorien nicht gleichwertig.
Warum?
II
Popper argumentiert nun, dass das Induktionsprinzip nicht geeignet ist, um Theorien sozusagen semi-automatisch aus Fakten abzuleiten, sondern dass Theorien zunächst als Sammlung von Hypothesen stehen, die durch kritisches, experimentelles Hinterfragen und Prüfen sukzessive verworfen werden, wenn ihre Vorhersagen nicht mit dem Experiment übereinstimmen. Popper zufolge wird eine Theorie gerade nicht durch ihre Übereinstimmung mit immer mehr Fakten bestätigt, sondern sie wird dadurch untermauert, dass sie immer mehr kritische Tests besteht, die zunächst dazu dienen sollen, sie zu widerlegen – was dann scheitert! (nicht jedoch, die Theorie zu bestätigen – was durch geeignete Wahl von Fakten trivialerweise immer möglich ist)
Kurz gesagt, die Theorie „alle Schwäne sind weiß“ wird nicht durch die Beobachtung weiterer weißer Schwäne bestätigt, sondern sie wird durch die Beobachtung eines einzigen schwarzen Schwans widerlegt.
Die „beste wissenschaftliche Theorie“ ist gerade diejenige, die diese kritische Prüfung in einem möglichst allgemeinen Feld am besten besteht.
III
Offensichtlich ist diese – zurecht – im Rahmen des kritischen Rationalismus etablierte wissenschaftliche Methode nicht ausreichend, um zwischen den beiden o.g. Modellen, dem geo- sowie dem heliozentrischen Modell zu unterscheiden (wobei wir hier um des Argumentes willen ignorieren, dass das geozentrische Modell auch in der o.g. Erweiterung nicht alle Beobachtungsdaten erklären kann).
Was fehlt?
An dieser Stelle möchte ich – leider für einen zu kleinen Leserkreis – mit dem Mythos aufräumen, dass es in der Physik NUR um die o.g. Anwendung der Popperschen Methodik ginge.
Betrachten wir dazu erneut zwei Theorien:
Im etablierten Standardmodell der Elementarteilchenphysik startet man mit einem recht einfachen Bild der Quantenelektrodynamik und versucht, diese Methodik zu erweitern und auf andere Teilchen und deren Wechselwirkungen und Kräfte zu übertragen. Dadurch gelangt man zum Standardmodell, das im Wesentlichen mittels zwei (fast) unverbundenen Eichtheorien sowie diverse „Epizyklen“ beschrieben wird; letztere umfassen die Rechts-Links-Asymmetrie der schwachen Wechselwirkung, die spontane Brechung der Symmetrie mittels des Higgs; die Einführung diverser Parameter für die Massen der Teilchen, die drei Fermion-Generationen, die Neutrinomassen, die wohl nicht durch ein einfaches Higgs erklärt werdende können, … sowie weitere hypothetische „Epizyklen“ wie Supersymmetrie, Axionen u.a. Konstrukte.
In einer hypothetischen Theorie gehen wir aus von einer sehr konkreten jedoch höchst komplexen mathematischen Funktion mit ‘zig Termen sowie etlichen präzise angepassten Parametern. Der Input in dieser God-Function bzw. ihre Argumente sind nicht einfach Zahlen, sondern Vektoren von Zahlen, Texten, geometrischen Objekten sowie von uns spezifizierbaren Funktionen (!) Dadurch ist es uns möglich, präzise experimentelle Setups zu konstruieren und diese für die Funktion zugänglich zu machen. Der Output der Funktion besteht ebenfalls aus Zahlen, geometrischen Objekten sowie von der God-Function konstruierten Funktionen. Dieser Output stellt direkt oder indirekt mittels der Funktionen das Ergebnis aller mittels der Inputs spezifizierten Experimente dar. Konkret: ein Satz von Inputs spezifiziert den LHC-Beschleuniger, den ALICE-Detektor usw. sowie die präzisen Einstellungen für Blei-Blei-Kollisionen; ein Satz von Outputs spezifiziert die einzelnen Messwerte der Teilchen im ALICE-Detektor, d.h. Teilchenmasse, -ladung, -energie und -impuls sowie den Winkel zum Strahl bzw. den Ort der Detektion.
Nehmen wir an, dass uns diese Funktion gegeben ist, ohne dass wir ihren Ursprung kennen und ohne dass wir irgendeine Idee hätten, warum sie so aussieht wie sie aussieht. Nehmen wir weiter an, dass die Funktion auf einem Superrechner effizient implementierbar ist und dass sie uns alle experimentellen Ergebnisse präzise, vollständig und korrekt vorhersagt. Nehmen wir des Weiteren an, dass die Funktion auch für weitere Experimente, u.a. auch zur Vorhersage im Rahmen der Astroteilchenphysik in der Lage ist.
Warum gefällt dem Physiker das Standardmodell – trotz seiner Unzulänglichkeiten besser? Und warum würde er jemanden, der die God-Function anwendet und vollständig sowie ohne weiteres Hinterfragen auf sie vertraut, nicht als einen Physiker bezeichnen?
Was kann das Standardmodell, wozu die God-Function nicht in der Lage ist?
Randbemerkung
Nehmen wir spaßeshalber an, das Universum wäre ein gigantischer Computer. Dann wäre die God-Function letztlich nur eine kleine Subroutine. Und das Universum hätte eine andere Subroutine implementiert, die es uns (Simulationen, Subroutinen) erlaubt, den LHC zu konstruieren, sowie einen Computer zu implementieren, auf dem "unsere" God-Function emuliert wird.
Warum sollten wir dann die Emulation der God-Function auf unserem Computer nutzen statt die originale Subroutine d.h. die tatsächliche Durchführung des Experimentes am LHC zu bemühen? Was wäre der Vorteil? Was der Nachteil? Was der prinzipielle Unterschied?