#16 Die wissenschaftliche Methode – und jenseits von Popper

Basisforum, in dem immer wieder spannende Themen wie Urknall, schwarze Löcher, Quantenphysik usw. auf Einsteiger-Niveau als kurze Artikel vorgestellt und diskutiert werden

Moderatoren: seeker, tomS

Antworten
Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 9431
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

#16 Die wissenschaftliche Methode – und jenseits von Popper

Beitrag von tomS » 13. Feb 2018, 22:11

Ich möchte kurz einige Anmerkungen zur wissenschaftlichen Methode, zu Poppers kritischem Rationalismus, und zu darüber hinausweisenden Gedanken darstellen. Die wesentlichen Gedanken folgen dabei David Deutsch.


I

Poppers Argument beginnt mit der Feststellung, dass das sogenannte Induktionsprinzip nicht die Basis für wissenschaftlichen Fortschritt darstellt. Das Induktionsprinzip besagt – verkürzt dargestellt – dass wir aus der Ansammlungen von Beobachtungen und Fakten eine wissenschaftliche Theorie konstruieren. Diese Idee ist an mindestens einer Stelle unzutreffend:

Betrachten wir dazu das heliozentrische bzw. Kopernikanische Weltbild, später übernommen und erweitert bzw. präzisiert von Galilei und insbs. von Kepler. Kepler zufolge befindet sich nicht die Erde im Zentrum und wird von den Planeten und der Sonne umkreist, sondern die Sonne befindet sich im Brennpunkt, während die Planeten sie auf präzise definierten Ellipsenbahnen umlaufen.

Dieses Modell des Sonnensystems ersetzte das jahrhundertelang dominierende geozentrische bzw. Ptolemäische Weltbild, das durch diverse Kunstgriffe insbs. zum sogenannte Epizyklenmodell erweitert wurde. Zur Problematik: Wenn ein äußerer Planet der Erde am nächsten ist, treten rückläufige Bewegungen auf, die aus der Erdperspektive als Schleifenbewegung erscheinen. Dies konnte mit dem geozentrischen Weltbild dadurch in Einklang gebracht werden, indem man zunächst den Umlauf eines gedachten Punktes um die Sonne auf einer Kreisbahn – dem Deferent – ansetzte, und für den Planeten den Umlauf um diesen gedachten Punkt auf einer kleineren Kreisbahn – dem Epizykel – annahm. Zudem steht die Erde nicht exakt im Zentrum des Deferenten, sondern in einem weiteren Punkt – dem Exzenter – und die Geschwindigkeit entlang des Deferenten ist nicht konstant, sondern sie erscheint gleichförmig betrachtet von einem weiteren Punkt – dem Äquanten.

Dem Induktionsprinzip zufolge gelangt man gleichartig zu beiden Theorien, in dem die Theorie auf Basis von Beobachtungen sukzessive verbessert wird.

Naives geozentrisches Weltbild → Deferent und Epizykel → Exzenter und Äquant
Naives heliozentrisches Weltbild → Ellipse mit Sonne im Brennpunkt

Dennoch erscheinen uns die beiden Theorien nicht gleichwertig.

Warum?


II

Popper argumentiert nun, dass das Induktionsprinzip nicht geeignet ist, um Theorien sozusagen semi-automatisch aus Fakten abzuleiten, sondern dass Theorien zunächst als Sammlung von Hypothesen stehen, die durch kritisches, experimentelles Hinterfragen und Prüfen sukzessive verworfen werden, wenn ihre Vorhersagen nicht mit dem Experiment übereinstimmen. Popper zufolge wird eine Theorie gerade nicht durch ihre Übereinstimmung mit immer mehr Fakten bestätigt, sondern sie wird dadurch untermauert, dass sie immer mehr kritische Tests besteht, die zunächst dazu dienen sollen, sie zu widerlegen – was dann scheitert! (nicht jedoch, die Theorie zu bestätigen – was durch geeignete Wahl von Fakten trivialerweise immer möglich ist)

Kurz gesagt, die Theorie „alle Schwäne sind weiß“ wird nicht durch die Beobachtung weiterer weißer Schwäne bestätigt, sondern sie wird durch die Beobachtung eines einzigen schwarzen Schwans widerlegt.

Die „beste wissenschaftliche Theorie“ ist gerade diejenige, die diese kritische Prüfung in einem möglichst allgemeinen Feld am besten besteht.


III

Offensichtlich ist diese – zurecht – im Rahmen des kritischen Rationalismus etablierte wissenschaftliche Methode nicht ausreichend, um zwischen den beiden o.g. Modellen, dem geo- sowie dem heliozentrischen Modell zu unterscheiden (wobei wir hier um des Argumentes willen ignorieren, dass das geozentrische Modell auch in der o.g. Erweiterung nicht alle Beobachtungsdaten erklären kann).

Was fehlt?

An dieser Stelle möchte ich – leider für einen zu kleinen Leserkreis – mit dem Mythos aufräumen, dass es in der Physik NUR um die o.g. Anwendung der Popperschen Methodik ginge.

Betrachten wir dazu erneut zwei Theorien:

Im etablierten Standardmodell der Elementarteilchenphysik startet man mit einem recht einfachen Bild der Quantenelektrodynamik und versucht, diese Methodik zu erweitern und auf andere Teilchen und deren Wechselwirkungen und Kräfte zu übertragen. Dadurch gelangt man zum Standardmodell, das im Wesentlichen mittels zwei (fast) unverbundenen Eichtheorien sowie diverse „Epizyklen“ beschrieben wird; letztere umfassen die Rechts-Links-Asymmetrie der schwachen Wechselwirkung, die spontane Brechung der Symmetrie mittels des Higgs; die Einführung diverser Parameter für die Massen der Teilchen, die drei Fermion-Generationen, die Neutrinomassen, die wohl nicht durch ein einfaches Higgs erklärt werdende können, … sowie weitere hypothetische „Epizyklen“ wie Supersymmetrie, Axionen u.a. Konstrukte.

In einer hypothetischen Theorie gehen wir aus von einer sehr konkreten jedoch höchst komplexen mathematischen Funktion mit ‘zig Termen sowie etlichen präzise angepassten Parametern. Der Input in dieser God-Function bzw. ihre Argumente sind nicht einfach Zahlen, sondern Vektoren von Zahlen, Texten, geometrischen Objekten sowie von uns spezifizierbaren Funktionen (!) Dadurch ist es uns möglich, präzise experimentelle Setups zu konstruieren und diese für die Funktion zugänglich zu machen. Der Output der Funktion besteht ebenfalls aus Zahlen, geometrischen Objekten sowie von der God-Function konstruierten Funktionen. Dieser Output stellt direkt oder indirekt mittels der Funktionen das Ergebnis aller mittels der Inputs spezifizierten Experimente dar. Konkret: ein Satz von Inputs spezifiziert den LHC-Beschleuniger, den ALICE-Detektor usw. sowie die präzisen Einstellungen für Blei-Blei-Kollisionen; ein Satz von Outputs spezifiziert die einzelnen Messwerte der Teilchen im ALICE-Detektor, d.h. Teilchenmasse, -ladung, -energie und -impuls sowie den Winkel zum Strahl bzw. den Ort der Detektion.

Nehmen wir an, dass uns diese Funktion gegeben ist, ohne dass wir ihren Ursprung kennen und ohne dass wir irgendeine Idee hätten, warum sie so aussieht wie sie aussieht. Nehmen wir weiter an, dass die Funktion auf einem Superrechner effizient implementierbar ist und dass sie uns alle experimentellen Ergebnisse präzise, vollständig und korrekt vorhersagt. Nehmen wir des Weiteren an, dass die Funktion auch für weitere Experimente, u.a. auch zur Vorhersage im Rahmen der Astroteilchenphysik in der Lage ist.

Warum gefällt dem Physiker das Standardmodell – trotz seiner Unzulänglichkeiten besser? Und warum würde er jemanden, der die God-Function anwendet und vollständig sowie ohne weiteres Hinterfragen auf sie vertraut, nicht als einen Physiker bezeichnen?

Was kann das Standardmodell, wozu die God-Function nicht in der Lage ist?


Randbemerkung

Nehmen wir spaßeshalber an, das Universum wäre ein gigantischer Computer. Dann wäre die God-Function letztlich nur eine kleine Subroutine. Und das Universum hätte eine andere Subroutine implementiert, die es uns (Simulationen, Subroutinen) erlaubt, den LHC zu konstruieren, sowie einen Computer zu implementieren, auf dem "unsere" God-Function emuliert wird.

Warum sollten wir dann die Emulation der God-Function auf unserem Computer nutzen statt die originale Subroutine d.h. die tatsächliche Durchführung des Experimentes am LHC zu bemühen? Was wäre der Vorteil? Was der Nachteil? Was der prinzipielle Unterschied?
Gruß
Tom

«Hier konnte niemand sonst Einlaß erhalten, denn dieser Eingang war nur für dich bestimmt. Ich gehe jetzt und schließe ihn.»

Benutzeravatar
seeker
Ehrenmitglied
Ehrenmitglied
Beiträge: 5065
Registriert: 26. Dez 2009, 10:29

Re: #16 Die wissenschaftliche Methode – und jenseits von Popper

Beitrag von seeker » 14. Feb 2018, 01:00

Danke für dieses schöne Thema!

Ich fange zunächst einmal hiermit an:
tomS hat geschrieben:
13. Feb 2018, 22:11
Naives geozentrisches Weltbild → Deferent und Epizykel → Exzenter und Äquant
Naives heliozentrisches Weltbild → Ellipse mit Sonne im Brennpunkt

Dennoch erscheinen uns die beiden Theorien nicht gleichwertig.

Warum?
Das ist eine gute Frage.
Zunächst möchte ich den letzten Satz dazu etwas farblich markieren:
Dennoch erscheinen uns die beiden Theorien nicht gleichwertig.
Es geht hier um Erscheinung und Wertigkeit, beides sind subjektive Dinge, es sind unsere Erscheinungen sind und unsere Werte.
Wir sind an dem Punkt ganz auf uns selbst zurückgeworfen, können uns zwar die tollsten Argumente ausdenken, müssen aber einsehen, dass wir hier dem Subjektiven mit keinem Mittel ganz entfliehen können. Das ist zu akzeptieren, so abscheulich uns das auch vorkommen mag, so schwer das auch fallen mag.

Ein vernünftiges Argument ist hier u. a. sich auf Ockhams Razor zu berufen, wonach die 'einfachere' Theorie, die Theorie , die (bei gleicher Leistungsfähigkeit) weniger Grundannahmen trifft, zu bevorzugen ist:

Eine Theorie soll nur so viele Annahmen treffen, wie nötig (aber auch nicht weniger)!

Also ist in diesem Fall hier das geozentrische Weltbild zu bevorzugen. Wohlgemerkt: bevorzugen!
Das bedeutet weder dass das heliozentrische Weltbild als wahr anzusehen ist, noch dass das geozentrische Weltbild als falsch anzusehen ist.
Es geht hier nicht um die Unterscheidung von wahr/falsch, sondern um ein logisches Kriterium zur pragmatischen Auswahl der (in unseren Augen) besseren Theorie, also der besseren Theorie für uns.
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 9431
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: #16 Die wissenschaftliche Methode – und jenseits von Popper

Beitrag von tomS » 14. Feb 2018, 01:06

Gute Ideen, aber noch nicht ganz das, worauf wir - d.h. Deutsch und in seinem Gefolge auch ich - hinaus wollen ... Ockham ist es nicht.
Gruß
Tom

«Hier konnte niemand sonst Einlaß erhalten, denn dieser Eingang war nur für dich bestimmt. Ich gehe jetzt und schließe ihn.»

Benutzeravatar
seeker
Ehrenmitglied
Ehrenmitglied
Beiträge: 5065
Registriert: 26. Dez 2009, 10:29

Re: #16 Die wissenschaftliche Methode – und jenseits von Popper

Beitrag von seeker » 14. Feb 2018, 08:23

Nun gut. Weitere Kriterien zur Identifizierung der für uns besseren Theorie können sein:

- Willkürfreiheit
Aus ihr folgt auch die Idee dass das Universum isotrop und homogen sein sollte und dass wir und die Erde keinen besonderen Platz darin einnehmen.
Damit hängt auch zusammen:

- Symmetrie
Damit hängen auch die Erhaltungssätze zusammen und auch Ockham.

- Anschaulichkeit
Diese Forderung wurde in letzter Zeit (vielleicht den letzten 100 Jahren) aus guten Gründen immer mehr aufgegeben, fast könnte man meinen, dass Nicht-Anschaulichkeit heute als Kriterium für eine gute Theorie angesehen wird. :)
In einem weiteren Sinn kann man daraus aber auch etwas anderes ableiten:

- Verstehbarkeit*
Eine Theorie, die ins insofern überfordert, dass sie kein einziger Mensch mehr versteht ist für unsere Erkenntnis relativ wertlos.
Daraus folgt, dass wissenschftliche Theorien mindestens gewisse Abstraktionen/Verallgemeinerungen, also Reduktionen beinhalten müssen, weil nur so erreicht werden kann, dass wir die Welt im Allgemeinen besser verstehen können. Das hängt mit den Begrenzungen unseres Denkapparates und der Art und Weise zusammen, wie wir die Welt naturgemäß begreifen: Man muss die zunächst unüberschaubar-komplexe Welt sozusagen gedanklich auf ihre Essenz eindampfen, um sie dem Menschen begreiflich zu machen.

- Falsifizierbarkeit:
Klare Poppersche Forderung.
Prinzipielle Falsifizierbarkeit ist dabei auch ein gutes Kriterium: Eine Theorie soll Möglichkeiten angeben, wie man sie falsifizieren kann, das beugt Wildwuchs vor.
In der konkreten Realität stellt sich aber gerade die Falsifizierbarkeit als oftmals sehr schwierig heraus, weil sich viele, wenn nicht alle Theorien immunisieren können:
Sobald eine Theorie durch einen Befund falsifiziert scheint, kann man sie so modifizieren, dass der Befund sie nicht mehr falsifiziert: 'Epizyklen über Epizyklen'
Schließlich muss man sich dann doch wieder auf noch andere Kriterien berufen: Falsifizierbarkeit alleine reicht nicht aus.

Die Liste lässt sich fortsetzen.

*: Dieses Kriterium tangiert dann auch den zweiten Teil deines Eingangspostings. Ich wollte darauf erst später kommen.
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 9431
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: #16 Die wissenschaftliche Methode – und jenseits von Popper

Beitrag von tomS » 14. Feb 2018, 19:44

Verstehbarkeit kommt dem ganzen recht nahe; nennen wir es Erklärungskraft, engl. explanatory power.

Bzgl. des Keplerschen- bzw. des Epizyklenmodells kann man recht einfach erkennen, dass die Erklärung mittels Keplerorbits mit recht einfachen und wenigen Annahmen auskommt, während man bei der Erklärung mittels Epizyklen immer kompliziertere Erweiterungen durchführen muss.

Kennt man das Keplermodell und versucht sich dennoch an einer Erklärung mittels Epizyklen, so gelangt man immer wieder in die Situation, eine Erklärung derart zu finden, dass die Epizyklen gerade so eingerichtet sind, dass sie Ergebnisse wie Keplerorbits produzieren; letztere scheinen also einfacher zu sein. Versucht man sich umgekehrt an einer Erklärung mittels Keplerorbits, so wird man nie in die Situation kommen, auf die Epizyklen zurückzugreifen; letztere sind demnach eine überflüssige Verkomplizierung.

Abstraktionen bzw. Verallgemeinerungen spielen eine wesentliche Rolle. Man beachte, dass die Naturgesetze sich erstmals mit Newton dergestalt gewandelt haben, dass konkrete Formen aus abstrakten Gesetzen folgen, während bei Kepler noch die Formen selbst Bestandteil der Gesetze waren.

Das hat natürlich auch etwas mit Einfachheit und somit Ockham zu tun, geht aber m.E. darüber hinaus.

Deutsch erklärt das sehr schön und ausführlich (wobei ich auch einige Vorbehalte bzgl. seiner Argumentation habe).

Eine Immunisierung sehe ich in vielen Bereichen der Physik nicht. Für die Epizyklen mag das zutreffen, aber für moderne Theorien kann ich das nicht erkennen. In den meisten Fällen gibt es aktuell - leider auch keine Alternativen.

Jedenfalls räumt dies gründlich mit der irrigen Annahme auf, Physik sei gemäß Popper - und insbs. gemäß der positivistischen Schule, der Popper immer ablehnend gegenüber stand - ausschließlich an der Falsifizierbarkeit orientiert. Wenn dem so wäre, hätte sich Kepler gegen Ptolemaios erst über einzelne Beobachtungen und nur bei praktizierenden Astronomen durchsetzen können, wohingegen wir doch offensichtlich auch ohne Fernrohr sehen, dass Kepler bzgl. der Erklärungskraft überlegen ist - Übereinstimmung mit dem Experiment natürlich vorausgesetzt.

Dies erklärt u.a. auch, warum Wissenschaftler unsinnige Ideen nicht ernst nehmen und sie aufgrund mangelnder Erklärungskraft ohne jegliche Falsifikation sofort verwerfen. Eine bessere Theorie muss entweder mehr Phänomene erklären, d.h. einen größeren Anwendungsbereich haben (Einstein > Newton > Kepler) oder sie muss zumindest die selben Phänomene besser d.h. schlüssiger erklären (Kepler > Ptolemaios).
Gruß
Tom

«Hier konnte niemand sonst Einlaß erhalten, denn dieser Eingang war nur für dich bestimmt. Ich gehe jetzt und schließe ihn.»

Benutzeravatar
seeker
Ehrenmitglied
Ehrenmitglied
Beiträge: 5065
Registriert: 26. Dez 2009, 10:29

Re: #16 Die wissenschaftliche Methode – und jenseits von Popper

Beitrag von seeker » 15. Feb 2018, 13:38

Im wesentlichen Zustimmung meinerseits!

Was mir an dem Wort "Erklärungskraft" etwas fehlt ist die Sache, dass das Wort so klingt, als gäbe es so etwas in objektiver Form, also unabhängig von uns und unseren Eigenheiten und Begrenzungen. Das ist aber nicht der Fall.
Veilleicht sollte man beides anführen "Erklärungskraft" und "Verstehbarkeit".
Ich sehe das auch im Hinblick auf dein Beispiel mit der God-Function: Wir selbst könnten mit so einer Einheit keine echte Wissenschaft im Sinne von echtem Erkenntnisgewinn betreiben, weil wir die God-Function nicht wirklich verstehen würden, anders denkende, intelligentere Wesen könnten es aber womöglich, dann wenn sie in der Lage wären die God-Function zu durchschauen.
Das ist dann natürlich auch eine zusätzliche Begrenzung, der wir ausgesetzt sind, aber ich finde es immer gut diese zu kennen.

Zum Falsifikationismus möchte ich noch Imre Lakatos ins Spiel bringen, das gefällt mir gut:
Falsifikationismus
Grundproblem

Die Auffassung, dass Theorien ganz aufgegeben werden müssen, wenn sie falsifiziert, d. h. von experimentellen oder empirischen Resultaten widerlegt werden, verwarf Lakatos als „naiven Falsifikationismus“. Seine Kritik betraf dreierlei:

1. Es gibt keine reinen Daten, die nur aus Beobachtung bestünden. Jede Aussage enthält Theorie, und jedwede Beobachtung ist nur möglich, weil ihr eine Theorie zugrunde liegt.

2. Es ist kein ausreichender Grund, eine Theorie zu verwerfen, wenn sie mit den Daten nicht übereinstimmt. Vielmehr sind stets mehrere Aussagen zu betrachten, die hierbei nicht in Einklang miteinander stehen: Erstens die Theorie, zweitens die Daten und drittens die Ceteris-paribus-Klausel und meistens noch weitere Aussagen. Es ist daher keineswegs offensichtlich, wenn die Gesamtheit aller zu betrachtenden Aussagen inkonsistent ist, dass ausgerechnet die Theorie fallen gelassen werden muss.

3. Auch praktisch geht Wissenschaft nicht so vonstatten. Lakatos sucht den realen Verlauf wissenschaftlicher Theorienentstehung logisch-rational nachzuzeichnen. Und in der Praxis verläuft es anders, als der methodologische Falsifikationismus es vorzeichnet. Nach Lakatos existieren vielmehr lediglich verschiedene Theorien, aber keine reine Beobachtung. Jede Theorie steht im Wettstreit mit anderen Theorien.

Eine neue Theorie sollte indessen stets einen epistemologischen und empirischen Gehaltsüberschuss gegenüber der alten Theorie haben („progressive Problemverschiebung“).
https://de.wikipedia.org/wiki/Imre_Lakatos
... auch was sonst noch auf der Seite steht ist nachdenkenswert.

Ansonsten könnte man auch noch anschauen, was Paul Feyerabend und Thomas Kuhn zu sagen haben, das ist auch interessant.
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

Antworten

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast