Hinweis auf die DSGVO: Auf unserer Seite werden keine Dritt-Anbieter-Cookies verwendet und nur Daten erfasst, welche für das Minimum an Board-Funktionalität notwendig sind.
Bevor Sie sich registrieren oder das Board verwenden, lesen Sie bitte zusätzlich die DSGVO-Erklärung, welche in der Navigationsleiste verlinkt ist.

Kurzfassung der unserer Meinung nach wichtigsten DSGVO-Punkte:
Es kann vorkommen, dass Benutzer eigenverantwortlich Videos oder sonstige Medien in ihren Beiträgen verlinken, welche beim Aufruf der Forenseite als Teil der Seite samt zugehörigem Material mitgeladen werden. Sollten Sie dies nicht wünschen, verwenden Sie beim Benutzen des Forums einen Blocker wie z.B. uMatrix, welcher das Laden von Inhaltsblöcken von Fremd-URLs effektiv unterbinden kann.
Wir blenden keine Werbung ein und schränken die Inhalte in keinster Weise bei Benutzung von Addblockern ein. Dadurch ist die Grundfunktionalität des Forums auch bei vollständigem Blockieren von Drittanbieter-Inhalten stets gegeben.

Cookies werden unsererseits nur verwendet um das Einloggen des Benutzers für die Dauer der Forenbenutzung zu speichern. Es steht dem Benutzer frei die Option 'Angemeldet bleiben' zu verwenden, damit der Cookie dauerhaft gespeichert bleibt und beim nächsten Besuch kein erneutes Einloggen mehr notwendig ist.
EMail-Adressen werden für Kontakt bei wichtigen Mitteilungen und zur Widerherstellung des Passwortes verwendet. Die verwendeten IPs können von uns ohne externe Hilfsmittel mit keiner realen Person in Verbindung gebracht werden und werden nach spätestens 7 Tagen gelöscht. Diese IPs werden höchstens verwendet um Neuanmeldungen unerwünschter oder gesperrter Nutzer zu identfizieren und zu unterbinden. Wir behalten uns daher vor bei Verdacht, die Frist für die IP-Löschung auf maximal 14 Tage zu verlängern.
Unsere Webseite läuft auf einem virtuellen Linux-Server, welcher von einem externen Anbieter gehostet wird. Etwaige Verstöße der DSGVO-Auflagen seitens dieses deutschen Hosters können wir nicht feststellen und somit auch nicht verfolgen.
Wir halten Backups unserer Datenbanken, welche in regelmäßigen Abständen als Schutz vor Katastrophen, Hackerangriffen und sonstigen Ausfällen erstellt werden. Sollte ein Nutzer die Löschung seiner Daten wünschen, betrachten wir es als Unzumutbar die Backups auch von den Daten zu befreien, da es sich hierbei um eine mehrtägiges Unterfangen handelt - dies ist für eine Einzelperson beim Betrieb eines privaten Forums nicht zumutbar möglich ohne das Backup komplett zu löschen.
Sollten Sie etwas gegen die dauerhafte anonyme Speicherung ihrer EMail-Adresse, ihres Pseudonyms und ihrer Beiträge in einem Backup haben, sehen Sie von der Registrierung in diesem Forum ab. Für Mitglieder, welche vor dem 25.05.2018 registriert waren steht jedoch das Recht im Raum, eine Löschung der Datenbank-Backups zu beantragen.



Wenn dies Ihr erster Besuch hier ist, lesen Sie bitte zunächst die FAQs sowie die wesentlichen Regeln zur Benutzung des Forums.
Um an den Diskussionen teilnehmen zu können, müssen Sie sich zunächst registrieren.

Schöner Artikel über die Krise der Standard-Teilchenphysik

Physik der Elementarteilchen, Teilchenbeschleuniger; insbs. eine einführende Artikelserie in das Thema
Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 9848
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von tomS » 25. Jul 2018, 23:34

Natürlich gibt es derartige Einflüsse, und natürlich kann man geteilter Meinung sein.

Ich denke nicht, dass die Sponsoren bei der Grundlagenforschung einen zu hohen Einfluss auf den Forschungsgegenstand haben, sondern eher, dass sich ein Forschungsgegenstand verselbstständigen kann. Wenn du heute “Physik gegen den Mainstream” machen willst, dann musst du sie zuerst mal irgendwo in einem Seminar gehört haben, und du musst jemanden finden, der dafür Geld und ggf. seinen Namen investiert.

Wenn sich nun Sackgassen etablieren, dann dauert es entsprechend länger, bis sie wieder verlassen werden. Das ändert jedoch nichts daran, dass es Sackgassen sind.
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
seeker
Ehrenmitglied
Ehrenmitglied
Beiträge: 5595
Registriert: 26. Dez 2009, 10:29

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von seeker » 26. Jul 2018, 08:10

Skeltek hat geschrieben:
25. Jul 2018, 11:42
Drei Möglichkeiten:
1. Die Theorie impliziert etwas, das in der Realität anders gemessen wird als vorhergesagt.
2. Alle Implikationen der Theorie stimmen mit Messbarem überein.
3. Die Theorie sagt Dinge voraus, von denen nur ein Teil messtechnisch verifizierbar ist.
In der Praxis haben wir es immer mit Fall 3. zu tun. Aus jedem mathematisch-theoretischen Formelwerk lassen sich Dinge ableiten oder berechnen, die man als 'unphysikalisch' aussondert oder die nicht messbar sind - das fängt schon mit negativen Wurzeln und negativen Zeiten und mit sehr großen und sehr kleinen eingesetzten Zahlen an. Welche Ableitungen der Theorie unphysikalisch sind, ist dabei nie ganz exakt klar und ist z.T. diskussionswürdig.
Skeltek hat geschrieben:
25. Jul 2018, 11:42
Ich denke wir sind uns einig, dass es primär um '2' geht.
Nein, in der Praxis gibt es kein 2. Jede Theorie ist in ihren mathematischen Möglichkeiten 'breiter' als das Messbare, das sie abbilden soll.
Wir müssen uns daher auf 3. konzentrieren.
Skeltek hat geschrieben:
25. Jul 2018, 11:42
Die Frage ist eben, ob Komplexität automatisch die Plausibilität schmälert.
Das tut sie nicht. Sie schmälert aber ggf. die Handhabbarkeit und damit auch die Nützlichkeit einer Theorie.
Wenn ich irgendetwas beschreiben will, dann fange ich doch vernünftigerweise so einfach wie möglich damit an.
Erst im weiteren Entwicklungsverlauf probiere ich komplexere Erweiterungen und Ansätze aus. Das tue ich nur dann, wenn es nötig ist, wenn ich also mit der einfachen Theorie noch nicht zufrieden bin.
Skeltek hat geschrieben:
25. Jul 2018, 11:42
Für mich ist das allgemeinere Model intuitiv viel plausibler und wahrscheinlicher, auch wenn es ungemein komplexer ist.
Das kann ja sein. Ich will mit meiner Theorie ja aber auch etwas anfangen können. Wenn ich aufhöre die "Wahrheit" meiner Theorie in den Vordergrund zu stellen und stattdessen viel mehr nach der Nützlichkeit frage: "Was kann ich damit beschreiben/berechnen? Was lässt sich damit vorhersagen? Welche nützlichen Dinge kann ich damit bauen?, usw." dann ist die einfachere Theorie praktisch immer im Vorteil. Der komplexe Ansatz nützt mir gar nichts, wenn ich die Gleichungen nicht lösen kann, die sich daraus ergeben und wenn ich die zusätzlichen Vorhersagen aus dieser Theorie nicht messtechnisch prüfen kann. Es gibt auch praktische Sackgassen in der Wissenschaft und es ist oft auch sehr wichtig einfach pragmatisch vorzugehen.
Außerdem: Je komplexer mein Ansatz in seinen Grundannahmen ist, desto unüberschaubarer wird der Pool der möglichen Ansätze mit diesem Grad der Komplexität. Also wird auch das richtige Auswählen dort erheblich schwieriger. Das Grundproblem ist, dass man nie alle Wege verfolgen kann, die prinzipiell verfolgt werden könnten. Man muss daher von vorne herein auswählen.
Skeltek hat geschrieben:
25. Jul 2018, 11:42
Meiner Meinung nach steht Ockhams Rasiermesser in diametralem Widerspruch zum Ansatz, dass die allgemeineren Theorien wahrscheinlicher sind und unsere Realität dann nur durch konvergente Zustandsänderungen als einen Grenzfall ergeben.
Das kann sein. Es geht bei Ockham wie gesagt ja auch nicht um Wahrheitsfindung, sondern um einen pragmatischen Weg, wie man in endlicher Zeit und mit begrenzten Mitteln überhaupt zu Erkenntnis kommen kann und zu akzeptablen, vernünftigen Theorien, mit denen sich etwas anfangen lässt.
Skeltek hat geschrieben:
25. Jul 2018, 11:42
Mir scheint es einfach so, als ob allgemeinere, an sich einfachere Modelle teilweise einen viel größeren Formelapparat benötigen um von uns beschrieben und gehandhabt zu werden.
Möglich, aber nicht zwingend. Dafür habe ich aber dann auch nur z.B. 5 nicht-überprüfbare Grundannahmen, die falsch sein können, statt z.B. 50.
Lieber so. Wenn man ein Haus bauen will, ist das Fundament am wichtigsten. Am Überbau kannst du später noch viel werkeln und ändern, wenn du aber später noch etwas am Fundament änderst, dann bricht das ganze Haus zusammen und du kannst komplett von vorne anfangen.
Skeltek hat geschrieben:
25. Jul 2018, 11:42
Das ist eben gerade der Punkt der Semientscheidbarkeit. Wenn man alle Theorien ausschließt, welche sich im Widerspruch zu unseren Messungen befinden, bleiben ja nur noch Theorien die zu den Punkten '2' und '3' gehören. Der Punkt '1' ist gar nicht der Rede wert.
Es bleiben in der Realität immer nur Theorien zum Punkt 3. - und das ist prinzipiell immer noch eine unendlich große Menge an möglichen Theorien, die übrig bleiben. Wie willst du daraus auswählen? Willst du hier einfach die kompliziertesten Möglichkeiten wählen, die dir gerade einfallen, weil sie dir kompliziert erscheinen? Warum? Wo soll dabei der Vorteil sein? Ist es nicht sinnvoller zunächst mit der einfachsten Variante anzufangen und sich dann erst Schritt für Schritt zu den jeweils nächst-komplexeren Möglichkeiten vorzuarbeiten? Immer erst dann, wenn man mit der jeweils einfacheren Variante nicht mehr recht weiterkommt?
Skeltek hat geschrieben:
25. Jul 2018, 11:42
Wäre es erst in 50 Jahren möglich gewesen, die erforderlichen Messungen zur Verifikation/Falsifikation der Relativitätstheorie durchzuführen, wären wir bis heute noch beim kartesischen Weltbild geblieben.
Ja. Und? Wäre das schlimm gewesen, wenn wir bis heute eh noch nichts mit einer Relativitätstheorie hätten anfangen können?
Was nützt es mathematische Luftschlösser zu bauen, wenn man mit ihnen weder etwas beobachten noch etwas bauen kann?
Das ist dann doch nur für die reine Mathematik von Interesse. "Spielereien" würden die Nicht-Mathematiker dazu vielleicht sagen.
Skeltek hat geschrieben:
25. Jul 2018, 11:42
Wäre es dann falsch gewesen bis dahin schonmal die Theorie zu erweitern und auszubauen, nur weil die Falsifizierbarkeit noch in weiter Ferne liegt?
Falsch sicher nicht. Nur wäre das nicht eine Erweiterung geworden, sondern eine Unzahl an Erweiterungen, da man ja messtechnisch nichts hätte aussondern können. (Derzeit sind wir z.B. mit den Stringtheorien in etwa in dieser Situation.)
Wie viel Arbeit, Geld sollte dafür sinnvoll aufgewendet werden, wie viel nicht? Die gesamte Manpower der Community sicher nicht, es gibt ja schließlich stets auch noch einen Haufen anderer Problemstellungen, wo nützliche Lösungen in naher Zukunft in Aussicht stehen, wo man wahrscheinlich nächstes Jahr schon etwas davon hat.
Also kann es nur sinnvoll sein für solche Dinge nur einen kleinen Teil der Ressourcen einzusetzen.
Skeltek hat geschrieben:
25. Jul 2018, 11:42
Es gibt sicherlich auch einen großen Batzen Theorien, welche möglicherweise erst in 100 Jahren durch neue Technik falsifizierbar würden. Ist es so falsch, jetzt trotzdem schonmal daran zu arbeiten und entsprechende konsistente Konstrukte zu entwerfen?
Wie gesagt, ist das überhaupt nicht falsch, nur sollte es mit dem rechten Maß geschehen. Und manche Dinge lohnt es sogar überhaupt nicht, sie angehen zu wollen, dann, wenn schon von vorne herein mit höchster Wahrscheinlichkeit klar ist, dass da niemals was bei rumkommen wird.
Verschiedene Leute werden dabei natürlich stets verschiedener Meinung sein, das ist klar. Deshalb wird auch viel Blödsinn angefangen. Ob es wirklich Blödsinn war stellt sich dann natürlich immer erst hinterher raus, oft auch gar nicht, weil es irgendwann aufgegeben wird.


Zu deinem Credo nochmals:
Jede einfache Erklärung eines beliebigen Sachverhalts ist falsch.
Jede andere Erklärung auch.
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1433
Registriert: 13. Jan 2017, 10:00

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von ralfkannenberg » 26. Jul 2018, 10:12

seeker hat geschrieben:
26. Jul 2018, 08:10
Skeltek hat geschrieben:
25. Jul 2018, 11:42
Drei Möglichkeiten:
1. Die Theorie impliziert etwas, das in der Realität anders gemessen wird als vorhergesagt.
2. Alle Implikationen der Theorie stimmen mit Messbarem überein.
3. Die Theorie sagt Dinge voraus, von denen nur ein Teil messtechnisch verifizierbar ist.
In der Praxis haben wir es immer mit Fall 3. zu tun. Aus jedem mathematisch-theoretischen Formelwerk lassen sich Dinge ableiten oder berechnen, die man als 'unphysikalisch' aussondert oder die nicht messbar sind - das fängt schon mit negativen Wurzeln und negativen Zeiten und mit sehr großen und sehr kleinen eingesetzten Zahlen an. Welche Ableitungen der Theorie unphysikalisch sind, ist dabei nie ganz exakt klar und ist z.T. diskussionswürdig.
Skeltek hat geschrieben:
25. Jul 2018, 11:42
Ich denke wir sind uns einig, dass es primär um '2' geht.
Nein, in der Praxis gibt es kein 2. Jede Theorie ist in ihren mathematischen Möglichkeiten 'breiter' als das Messbare, das sie abbilden soll.
Wir müssen uns daher auf 3. konzentrieren.
Hallo zusammen,

ich will ja nicht pedantisch sein, aber streng genommen liegt stets Fall 1 vor.

Denn andernfalls wäre ja die "endgültig wahre" Theorie gefunden.


Freundliche Grüsse, Ralf

Benutzeravatar
seeker
Ehrenmitglied
Ehrenmitglied
Beiträge: 5595
Registriert: 26. Dez 2009, 10:29

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von seeker » 26. Jul 2018, 10:26

ralfkannenberg hat geschrieben:
26. Jul 2018, 10:12
aber streng genommen liegt stets Fall 1 vor.
Nein. Es liegt prinzipiell stets Fall 3. vor, wenn alle Theorien 1. ausgemustert sind. Den Fall 2. gibt es nicht in bijektiver Form.
Der Fall 1. kann nur eine zeitlang vorliegen, wenn man noch nicht ganz sicher ist, ob sich das Problem nicht doch noch lösen lässt (Messungen evtl. falsch, evtl. kann die Theorie angepasst werden, ...) oder so lange man noch keine bessere Alternative zur Hand hat.
ralfkannenberg hat geschrieben:
26. Jul 2018, 10:12
Denn andernfalls wäre ja die "endgültig wahre" Theorie gefunden.
Nö, warum? Theorien sind stets vorläufig. So lange nicht gemessen wird, was der Theorie widerspricht, besteht sie. Das schließt aber nie aus, dass in Zukunft nicht doch noch etwas gemessen werden könnte, wo das der Fall ist.

Wichtig ist nur:
Die Theorie impliziert etwas, das in der Realität anders gemessen als vorhergesagt werden könnte.

Das meintest du wahrscheinlich. Das gehört aber zu Fall 3.
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1433
Registriert: 13. Jan 2017, 10:00

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von ralfkannenberg » 26. Jul 2018, 10:39

seeker hat geschrieben:
26. Jul 2018, 10:26
Das meintest du wahrscheinlich. Das gehört aber zu Fall 3.
Hallo seeker,

nein. Im Rahmen dieser Diskussion hast Du natürlich recht, aber momentan unterscheidest Du nicht zwischen "konsistent" und "exakt gleich".

Punkt 1 müsste also geringfügig umformuliert werden zu:

1. Die Theorie impliziert etwas, das in der Realität anders gemessen wird als innerhalb der Messungenauigkeit vorhergesagt.


Freundliche Grüsse, Ralf

Benutzeravatar
seeker
Ehrenmitglied
Ehrenmitglied
Beiträge: 5595
Registriert: 26. Dez 2009, 10:29

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von seeker » 26. Jul 2018, 14:35

OK, dann versuchen wir Skelteks Klassen wenigstens noch ein wenig aufzudröseln:
Skeltek hat geschrieben:Drei Möglichkeiten:
1. Die Theorie impliziert etwas, das in der Realität anders gemessen wird als vorhergesagt.
2. Alle Implikationen der Theorie stimmen mit Messbarem überein.
3. Die Theorie sagt Dinge voraus, von denen nur ein Teil messtechnisch verifizierbar ist.
Stattdessen:


I. Theorie und Beobachtung und Natur sind deckungsgleich

Alles was innerhalb der Theorie formuliert werden kann gibt es auch tatsächlich und völlig exakt entsprechend in der Natur bzw. Beobachtung - und nur das. Und umgekehrt wird alles was es in der Natur bzw. Beobachtung gibt von der Theorie abgedeckt - und nur das. Insofern sind Theorie, Beobachtung und Natur sozusagen identisch.

Das wäre für manche das Ideal. Das gibt es aber nicht, das ist völlig illusorisch. Selbst wenn es das gäbe und wir es hätten, könnten wir nicht wissen, dass wir es haben.


II. Theorie und Beobachtung sind nicht deckungsgleich


1. Theorie und Beobachtung sind nicht deckungsgleich. Dort wo sie sich überschneiden gibt es zudem nicht in allen Punkten eine zufriedenstellende Übereinstimmung.

Bei solchen Theorien gibt es ein ernstes Problem. Entweder muss das Problem gelöst werden oder die Theorie muss früher oder später verworfen und durch eine bessere Theorie ersetzt werden.


2. Theorie und Beobachtung sind nicht deckungsgleich. Dort wo sie sich überschneiden aber in vorerst zufriedenstellender Übereinstimmung.
a) Innerhalb der Theorie können Dinge konstruiert werden, die es in der Natur nicht oder anders gibt.
b) Innerhalb der Natur gibt es Dinge, die durch die Theorie nicht oder anders abgedeckt werden.
c) sowohl als auch

Dies ist der Normalfall. Realistisch betrachtet liegt bei einer etablierten Theorie immer der Fall 2.c) vor, beweisbar mindestens 2.a).



Beim Normalfall 2. muss man nun aber noch weiter aufdröseln und fragen: WIE groß ist die Überschneidung, WIE groß ist die Übereinstimmung?
Je nach dem ob die Antwort darauf für uns zufriedenstellend ist, ist es eine zufriedenstellende, "gute" Theorie oder eben nicht.

Wenn die Antwort "Nein" lautet, dann soll eine bessere Theorie gesucht werden. Dies kann der Fall sein, wenn die Vorhersagen der Theorie von der Beobachtung zu oft und/oder zu sehr abweichen, aber auch dann, wenn die Theorie zu viele relevante Vorhersagen macht, die durch die Beobachtung prinzipiell nicht genügend oder praktisch nicht genügend abgedeckt werden können. Und auch dann, wenn die Theorie zu wenige und/oder zu ungenaue Vorhersagen macht, wenn sie also zu wenig von der Beobachtung abdeckt/erklärt.


Zu berücksichtigen ist auch noch folgendes:
Wir können in der Praxis sowohl bei der Beobachtung wie auch bei der Anwendung einer Theorie immer nur sozusagen 'Stichproben' nehmen.

Wir können nicht alles messen, was prinzipiell messbar wäre: Wir können nur hier und jetzt messen, nicht in der Vergangenheit und auch nicht irgendwo anders - und wie weit in der Zukunft, wird die Zukunft zeigen. Und wir können auch nicht das gesamte Universum in ein Labor packen und vollständig und lückenlos und stetig vermessen. Und dann gäbe ja auch noch die Messfehler und Interpretationsfehler...

Bei der Theorie sind wir etwas besser dran, obwohl wir auch dort nicht alles real rechnen können, was gerechnet werden könnte. Dann, wenn wir die mathematische Konsistenz beweisen können, dann können wir auch für den allgemeinen Fall Sicherheit erlangen. (Das ist deshalb der Normalfall dort.) Allerdings kann es dennoch sein, dass wir nicht alle Gleichungen auch lösen können und selbst wenn, kann es oft passieren, dass wir mit technischen Schwierigkeiten der notwendigen Rechenpower und Rechengenauigkeit zu kämpfen haben.
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 9848
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von tomS » 26. Jul 2018, 23:05

Ich versuche das nochmal etwas zu strukturieren:

1) Eine Theorie macht experimentell überprüfbare Vorhersagen, die
1a) mit dem Experiment im Rahmen der systematischen und messtechnischen Unsicherheiten übereinstimmen
1b = ~1a) mit dem Experiment ... nicht übereinstimmen

2) Eine Theorie macht darüberhinaus Vorhersagen, die
2A) gewissermaßen aus (1) extrapoliert werden
2B) praktisch nicht überprüfbar sind
2C) prinzipiell nicht nicht überprüfbar sind

(1a) ist klar, aber normalerweise kommt eben noch (2) hinzu. (1b) ist um Folgenden irrelevant, da die Theorie als widerlegt gilt. Wir befassen uns also mit der Kombination von (1a) und (2).

Beispiele
2A) bei einen Druck von 1 bar siedet Wasser auf einem anderen Planeten bei 100 °C; in der Sonne existiert Helium; im Inneren eines SLs liegt eine glatte Raumzeit vor
2B) die Kopplungskonstanten der starken sowie der elektro-schwachen Wechselwirkungen treffen sich bei 10¹⁶ GeV; die Streuquerschnitte von Elementarteilchen werden bei Energien nahe der Planck-Skala korrekt von der Stringtheorie vorhergesagt
2C) verschiedene (fast) orthogonale Zweige eines quantenmechanischen Zustandes bleiben - im Sinne der Everettschen Interpretation - auch nach einer diesbzgl. Messung real existent; sämtliche Lösungen der Stringtheorie können in einem entsprechenden Multiversum bzw. im Rahmen der Landscape existieren

Die Grenze ist offensichtlich fließend. (2A) ist sozusagen Alltagsgeschäft, bedarf jedoch zusätzlicher Annahmen wie der universellen Gültigkeit der Naturgesetze. (2B) plagt uns heute mehr als früher, da für diverse Theorien realistischerweise davon ausgegangen werden muss, dass sie praktisch nicht überprüfbar bleiben werden. (2C) ist nach Popper eine Katastrophe, folgt jedoch nach etablierten Methoden der Konstruktion von Theorien in recht natürlicher Weise.
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
seeker
Ehrenmitglied
Ehrenmitglied
Beiträge: 5595
Registriert: 26. Dez 2009, 10:29

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von seeker » 27. Jul 2018, 00:40

Schöne Strukturerweiterung, die zum Nachdenken einlädt.

Daher nachgebohrt:

Wo siehst du den prinzipiellen Unterschied zwischen 2A, 2B und 2C?
Gibt es einen oder ist der Unterschied evtl. nur graduell, im Sinne von: "Es ist immer dasselbe Spiel, nur vielleicht eine andere Liga"?

Was ich meine:
Was genau unterscheidet z.B. die nicht direkt messtechnisch geprüfte Annahme, dass Wasser auch auf einem Planeten im Andromedanebel bei 1 bar Druck bei 100°C siedet prinzipiell von der Annahme, dass sich die Kopplungskonstanten der starken und der elektro-schwachen Wechselwirkung bei 10¹⁶ GeV treffen, die ebensowenig messtechnisch direkt geprüft wurde? Gibt es für beides nicht nur zwar gut begründbare aber eben nur indirekte messtechnische Befunde, letztlich nur Indizien? Sind nicht beides in gewisser Weise 'Extrapolationen'? Und zwar rein gedanklich-theoretische?
Und wenn das zuträfe, was wäre dann bei 2C im Vorgehen prinzipiell anders? Sind nicht auch das ganz einfach, ganz genauso 'Extrapolationen'?

Du sagst: "Die Grenze ist offensichtlich fließend", ich frage: Gibt es überhaupt eine Grenze?
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 9848
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von tomS » 27. Jul 2018, 06:42

Ich wollte lediglich darstellen, dass bei Problemen bzgl. der Falsifizierbarkeit einer Theorie graduelle Unterschiede gibt. Während uns (2A) wenig Kopfzerbrechen bereitet, ist (2B) ein ernsthaftes Problem, das jedoch nicht der Theorie anzulasten ist. (2C) stellt unser Theorieverständnis auf eine harte Probe, wobei es eben durchaus gute Argumente gibt, dass (2C) eigtl. eng verwandt ist mit (2A).

Popper hat seine Kriterien ja nicht vor dem Hintergrund der ggw. Situation der Physik formuliert; es wäre interessant zu hören, was er dazu zu sagen hätte.

Es gibt viel schlimmere Auswüchse, siehe z.B. der Rorschachtest; dieser Test ist prinzipbedingt noch nicht mal wiederholbar.
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
seeker
Ehrenmitglied
Ehrenmitglied
Beiträge: 5595
Registriert: 26. Dez 2009, 10:29

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von seeker » 28. Jul 2018, 11:10

tomS hat geschrieben:
27. Jul 2018, 06:42
Popper hat seine Kriterien ja nicht vor dem Hintergrund der ggw. Situation der Physik formuliert; es wäre interessant zu hören, was er dazu zu sagen hätte.
Das ist wahr, das wäre sehr interessant. Aber diese Möglichkeit steht uns leider nicht mehr zur Verfügung. Und man sollte sich eh nicht zu sehr auf Autoritäten verlassen, wir können auch selber versuchen zu denken.
tomS hat geschrieben:
27. Jul 2018, 06:42
Es gibt viel schlimmere Auswüchse, siehe z.B. der Rorschachtest; dieser Test ist prinzipbedingt noch nicht mal wiederholbar.
Oje! :shock: Da hast du allerdings Recht... :)
tomS hat geschrieben:
27. Jul 2018, 06:42
Ich wollte lediglich darstellen, dass bei Problemen bzgl. der Falsifizierbarkeit einer Theorie graduelle Unterschiede gibt.
Das ist klar.
tomS hat geschrieben:
27. Jul 2018, 06:42
Während uns (2A) wenig Kopfzerbrechen bereitet, ist (2B) ein ernsthaftes Problem, das jedoch nicht der Theorie anzulasten ist. (2C) stellt unser Theorieverständnis auf eine harte Probe, wobei es eben durchaus gute Argumente gibt, dass (2C) eigtl. eng verwandt ist mit (2A).
2A würde ich noch etwas umformulieren:

2) Eine Theorie macht darüberhinaus Vorhersagen, die
2A) praktisch nicht oder noch nicht überprüft wurden, die gewissermaßen aus (1) extrapoliert werden
2B) praktisch nicht überprüfbar sind
2C) prinzipiell nicht überprüfbar sind

Im Hinblick darauf kann es sich lohnen tiefer darüber nachzudenken, warum uns das eine eigentlich mehr Kopfzerbrechen bereitet als das andere?

Was wir hier mit Popper getan haben ist ja auch eine Meta-Theorie vorzustellen, also eine Theorie über Theorien.
Damit handeln wir uns mit der Meta-Theorie dieselben Probleme ein, die uns schon bei den Theorien nicht gefallen haben:
Wir schaffen zwar in der Meta-Theorie ein zunächst richtig, exakt und scharf aussehendes Ordnungssystem, wissen aber von vorneherein dass auch die Meta-Theorie nicht mit der Realität deckungsgleich sein kann. Und bei genauerer Betrachtung müssen wir feststellen, dass das Ordnungssystem als scharz/weiß-Idealisierung die Realität, in der es nur ein kontinuierliches Spektrum von Graustufen gibt, nicht nur nicht deckungsgleich abbildet, sondern auch nicht scharf abbildet. Wir können z.B. (um nur ein Beispiel zu nennen) gar nicht mit Sicherheit wissen, ob etwas praktisch oder prinzipiell nicht überprüfbar ist, wir können das nur im Moment für plausibel halten. D.h. wir haben gar keine scharfen Kriterien zur Hand, mit denen sich entscheiden lässt, was in der Wissenschaft "noch geht" und was "nicht mehr geht".
Das ist eine unangenehme Situation.

Deshalb sagte ich, dass am Ende alles von unserem Denken abhängt, Konvention und Meinung ist und abhängig davon was wir in Mehrheit zurzeit noch als plausibel und vernünftig empfinden und was nicht mehr, bzw. wie plausibel und was wann erscheint - und dass man zwar alles gut und ausgiebig begründen kann, dass man da aber dennoch nie niemals nicht herauskommt, aus dieser blöden Situation.
Damit müssen wir leben. Zentraler Gegenstand der Wissenschaft ist nicht die Wahrheit der Welt um uns sondern unsere betrachtende Vernunft in uns.

Ich bin daher etwas nachdenklicher und flexibler geworden. Früher hätte ich jede Abweichung vom Grundsatz der Falsifizierbarkeit kategorisch abgelehnt. Wenn ich nun feststelle, dass dieser Grundsatz gar nicht scharf fixiert und durchgehalten werden kann, wird alles andere auch etwas 'weicher', andersartig zu sehen.
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

Antworten