Skeltek hat geschrieben: ↑25. Jul 2018, 11:42
Drei Möglichkeiten:
1. Die Theorie impliziert etwas, das in der Realität anders gemessen wird als vorhergesagt.
2. Alle Implikationen der Theorie stimmen mit Messbarem überein.
3. Die Theorie sagt Dinge voraus, von denen nur ein Teil messtechnisch verifizierbar ist.
In der Praxis haben wir es immer mit Fall 3. zu tun. Aus jedem mathematisch-theoretischen Formelwerk lassen sich Dinge ableiten oder berechnen, die man als 'unphysikalisch' aussondert oder die nicht messbar sind - das fängt schon mit negativen Wurzeln und negativen Zeiten und mit sehr großen und sehr kleinen eingesetzten Zahlen an. Welche Ableitungen der Theorie unphysikalisch sind, ist dabei nie ganz exakt klar und ist z.T. diskussionswürdig.
Skeltek hat geschrieben: ↑25. Jul 2018, 11:42
Ich denke wir sind uns einig, dass es primär um '2' geht.
Nein, in der Praxis gibt es kein 2. Jede Theorie ist in ihren mathematischen Möglichkeiten 'breiter' als das Messbare, das sie abbilden soll.
Wir müssen uns daher auf 3. konzentrieren.
Skeltek hat geschrieben: ↑25. Jul 2018, 11:42
Die Frage ist eben, ob Komplexität automatisch die Plausibilität schmälert.
Das tut sie nicht. Sie schmälert aber ggf. die Handhabbarkeit und damit auch die Nützlichkeit einer Theorie.
Wenn ich irgendetwas beschreiben will, dann fange ich doch vernünftigerweise so einfach wie möglich damit an.
Erst im weiteren Entwicklungsverlauf probiere ich komplexere Erweiterungen und Ansätze aus. Das tue ich nur dann, wenn es nötig ist, wenn ich also mit der einfachen Theorie noch nicht zufrieden bin.
Skeltek hat geschrieben: ↑25. Jul 2018, 11:42
Für mich ist das allgemeinere Model intuitiv viel plausibler und wahrscheinlicher, auch wenn es ungemein komplexer ist.
Das kann ja sein. Ich will mit meiner Theorie ja aber auch etwas anfangen können. Wenn ich aufhöre die "Wahrheit" meiner Theorie in den Vordergrund zu stellen und stattdessen viel mehr nach der Nützlichkeit frage: "Was kann ich damit beschreiben/berechnen? Was lässt sich damit vorhersagen? Welche nützlichen Dinge kann ich damit bauen?, usw." dann ist die einfachere Theorie praktisch immer im Vorteil. Der komplexe Ansatz nützt mir gar nichts, wenn ich die Gleichungen nicht lösen kann, die sich daraus ergeben und wenn ich die zusätzlichen Vorhersagen aus dieser Theorie nicht messtechnisch prüfen kann. Es gibt auch praktische Sackgassen in der Wissenschaft und es ist oft auch sehr wichtig einfach pragmatisch vorzugehen.
Außerdem: Je komplexer mein Ansatz in seinen Grundannahmen ist, desto unüberschaubarer wird der Pool der möglichen Ansätze mit diesem Grad der Komplexität. Also wird auch das richtige Auswählen dort erheblich schwieriger. Das Grundproblem ist, dass man nie alle Wege verfolgen kann, die prinzipiell verfolgt werden könnten. Man muss daher von vorne herein auswählen.
Skeltek hat geschrieben: ↑25. Jul 2018, 11:42
Meiner Meinung nach steht Ockhams Rasiermesser in diametralem Widerspruch zum Ansatz, dass die allgemeineren Theorien wahrscheinlicher sind und unsere Realität dann nur durch konvergente Zustandsänderungen als einen Grenzfall ergeben.
Das kann sein. Es geht bei Ockham wie gesagt ja auch nicht um Wahrheitsfindung, sondern um einen pragmatischen Weg, wie man in endlicher Zeit und mit begrenzten Mitteln überhaupt zu Erkenntnis kommen kann und zu akzeptablen, vernünftigen Theorien, mit denen sich etwas anfangen lässt.
Skeltek hat geschrieben: ↑25. Jul 2018, 11:42
Mir scheint es einfach so, als ob allgemeinere, an sich einfachere Modelle teilweise einen viel größeren Formelapparat benötigen um von uns beschrieben und gehandhabt zu werden.
Möglich, aber nicht zwingend. Dafür habe ich aber dann auch nur z.B. 5 nicht-überprüfbare Grundannahmen, die falsch sein können, statt z.B. 50.
Lieber so. Wenn man ein Haus bauen will, ist das Fundament am wichtigsten. Am Überbau kannst du später noch viel werkeln und ändern, wenn du aber später noch etwas am Fundament änderst, dann bricht das ganze Haus zusammen und du kannst komplett von vorne anfangen.
Skeltek hat geschrieben: ↑25. Jul 2018, 11:42
Das ist eben gerade der Punkt der Semientscheidbarkeit. Wenn man alle Theorien ausschließt, welche sich im Widerspruch zu unseren Messungen befinden, bleiben ja nur noch Theorien die zu den Punkten '2' und '3' gehören. Der Punkt '1' ist gar nicht der Rede wert.
Es bleiben in der Realität immer nur Theorien zum Punkt 3. - und das ist prinzipiell immer noch eine unendlich große Menge an möglichen Theorien, die übrig bleiben. Wie willst du daraus auswählen? Willst du hier einfach die kompliziertesten Möglichkeiten wählen, die dir gerade einfallen,
weil sie
dir kompliziert erscheinen? Warum? Wo soll dabei der Vorteil sein? Ist es nicht sinnvoller zunächst mit der einfachsten Variante anzufangen und sich dann erst Schritt für Schritt zu den jeweils nächst-komplexeren Möglichkeiten vorzuarbeiten? Immer erst dann, wenn man mit der jeweils einfacheren Variante nicht mehr recht weiterkommt?
Skeltek hat geschrieben: ↑25. Jul 2018, 11:42
Wäre es erst in 50 Jahren möglich gewesen, die erforderlichen Messungen zur Verifikation/Falsifikation der Relativitätstheorie durchzuführen, wären wir bis heute noch beim kartesischen Weltbild geblieben.
Ja. Und? Wäre das schlimm gewesen, wenn wir bis heute eh noch nichts mit einer Relativitätstheorie hätten anfangen können?
Was nützt es mathematische Luftschlösser zu bauen, wenn man mit ihnen weder etwas beobachten noch etwas bauen kann?
Das ist dann doch nur für die reine Mathematik von Interesse. "Spielereien" würden die Nicht-Mathematiker dazu vielleicht sagen.
Skeltek hat geschrieben: ↑25. Jul 2018, 11:42
Wäre es dann falsch gewesen bis dahin schonmal die Theorie zu erweitern und auszubauen, nur weil die Falsifizierbarkeit noch in weiter Ferne liegt?
Falsch sicher nicht. Nur wäre das nicht
eine Erweiterung geworden, sondern eine Unzahl an Erweiterungen, da man ja messtechnisch nichts hätte aussondern können. (Derzeit sind wir z.B. mit den Stringtheorien in etwa in dieser Situation.)
Wie viel Arbeit, Geld sollte dafür sinnvoll aufgewendet werden, wie viel nicht? Die gesamte Manpower der Community sicher nicht, es gibt ja schließlich stets auch noch einen Haufen anderer Problemstellungen, wo nützliche Lösungen in naher Zukunft in Aussicht stehen, wo man wahrscheinlich nächstes Jahr schon etwas davon hat.
Also kann es nur sinnvoll sein für solche Dinge nur einen kleinen Teil der Ressourcen einzusetzen.
Skeltek hat geschrieben: ↑25. Jul 2018, 11:42
Es gibt sicherlich auch einen großen Batzen Theorien, welche möglicherweise erst in 100 Jahren durch neue Technik falsifizierbar würden. Ist es so falsch, jetzt trotzdem schonmal daran zu arbeiten und entsprechende konsistente Konstrukte zu entwerfen?
Wie gesagt, ist das überhaupt nicht falsch, nur sollte es mit dem rechten Maß geschehen. Und manche Dinge lohnt es sogar überhaupt nicht, sie angehen zu wollen, dann, wenn schon von vorne herein mit höchster Wahrscheinlichkeit klar ist, dass da niemals was bei rumkommen wird.
Verschiedene Leute werden dabei natürlich stets verschiedener Meinung sein, das ist klar. Deshalb wird auch viel Blödsinn angefangen. Ob es wirklich Blödsinn war stellt sich dann natürlich immer erst hinterher raus, oft auch gar nicht, weil es irgendwann aufgegeben wird.
Zu deinem Credo nochmals:
Jede einfache Erklärung eines beliebigen Sachverhalts ist falsch.
Jede andere Erklärung auch.