Hinweis auf die DSGVO: Auf unserer Seite werden keine Dritt-Anbieter-Cookies verwendet und nur Daten erfasst, welche für das Minimum an Board-Funktionalität notwendig sind.
Bevor Sie sich registrieren oder das Board verwenden, lesen Sie bitte zusätzlich die DSGVO-Erklärung, welche in der Navigationsleiste verlinkt ist.

Kurzfassung der unserer Meinung nach wichtigsten DSGVO-Punkte:
Es kann vorkommen, dass Benutzer eigenverantwortlich Videos oder sonstige Medien in ihren Beiträgen verlinken, welche beim Aufruf der Forenseite als Teil der Seite samt zugehörigem Material mitgeladen werden. Sollten Sie dies nicht wünschen, verwenden Sie beim Benutzen des Forums einen Blocker wie z.B. uMatrix, welcher das Laden von Inhaltsblöcken von Fremd-URLs effektiv unterbinden kann.
Wir blenden keine Werbung ein und schränken die Inhalte in keinster Weise bei Benutzung von Addblockern ein. Dadurch ist die Grundfunktionalität des Forums auch bei vollständigem Blockieren von Drittanbieter-Inhalten stets gegeben.

Cookies werden unsererseits nur verwendet um das Einloggen des Benutzers für die Dauer der Forenbenutzung zu speichern. Es steht dem Benutzer frei die Option 'Angemeldet bleiben' zu verwenden, damit der Cookie dauerhaft gespeichert bleibt und beim nächsten Besuch kein erneutes Einloggen mehr notwendig ist.
EMail-Adressen werden für Kontakt bei wichtigen Mitteilungen und zur Widerherstellung des Passwortes verwendet. Die verwendeten IPs können von uns ohne externe Hilfsmittel mit keiner realen Person in Verbindung gebracht werden und werden nach spätestens 7 Tagen gelöscht. Diese IPs werden höchstens verwendet um Neuanmeldungen unerwünschter oder gesperrter Nutzer zu identfizieren und zu unterbinden. Wir behalten uns daher vor bei Verdacht, die Frist für die IP-Löschung auf maximal 14 Tage zu verlängern.
Unsere Webseite läuft auf einem virtuellen Linux-Server, welcher von einem externen Anbieter gehostet wird. Etwaige Verstöße der DSGVO-Auflagen seitens dieses deutschen Hosters können wir nicht feststellen und somit auch nicht verfolgen.
Wir halten Backups unserer Datenbanken, welche in regelmäßigen Abständen als Schutz vor Katastrophen, Hackerangriffen und sonstigen Ausfällen erstellt werden. Sollte ein Nutzer die Löschung seiner Daten wünschen, betrachten wir es als Unzumutbar die Backups auch von den Daten zu befreien, da es sich hierbei um eine mehrtägiges Unterfangen handelt - dies ist für eine Einzelperson beim Betrieb eines privaten Forums nicht zumutbar möglich ohne das Backup komplett zu löschen.
Sollten Sie etwas gegen die dauerhafte anonyme Speicherung ihrer EMail-Adresse, ihres Pseudonyms und ihrer Beiträge in einem Backup haben, sehen Sie von der Registrierung in diesem Forum ab. Für Mitglieder, welche vor dem 25.05.2018 registriert waren steht jedoch das Recht im Raum, eine Löschung der Datenbank-Backups zu beantragen.



Wenn dies Ihr erster Besuch hier ist, lesen Sie bitte zunächst die FAQs sowie die wesentlichen Regeln zur Benutzung des Forums.
Um an den Diskussionen teilnehmen zu können, müssen Sie sich zunächst registrieren.

Schöner Artikel über die Krise der Standard-Teilchenphysik

Physik der Elementarteilchen, Teilchenbeschleuniger; insbs. eine einführende Artikelserie in das Thema
Benutzeravatar
seeker
Ehrenmitglied
Ehrenmitglied
Beiträge: 5865
Registriert: 26. Dez 2009, 10:29

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von seeker » 11. Jul 2018, 08:02

Das stimmt.
Und Kuhn stellt auch plausibel dar, wie sich die Wissenschaft stattdessen wirklich entwickelt.
Aber das ist selbst wieder eine Theorie (von Kuhn), auch sie ist weder wahr noch falsch, sie sagt uns tatsächlich nicht, wie sich Wissenschaft wirklich entwickelt, sie stellt uns auch wieder nur eine abstrahierte Erklärung zur Verfügung, die für uns befriedigend sein kann oder auch nicht, wir können uns entscheiden dem zu folgen oder auch nicht.
Die Fragen kommen stets von uns, die Antworten auch, auch dann noch, wenn sie an der Beobachtung der Natur von uns geprüft sind, dieser Teil der wiss. Entwicklung ist immer selbstbezüglich.

Wie wir neue Theorien entdecken können, können wir wahrscheinlich nur durch Vermuten, Probieren und Verwerfen herausfinden - und durch harte Arbeit, Kreativität und Intuition. So etwas weiß man eigentlich immer nur im Rücklick, wie es ging; in der Vorausschau kann man es noch nicht wissen, man kann dort nur das Eine oder das Andere im Moment für plausibler, richtiger oder besser halten und uns auch entscheiden auf bisherige Erfahrungen zurückzugreifen - oder auch nicht. Mehr geht nicht. Alles Wissen ist und bleibt letztlich Erfahrungswissen und aller Fortschritt beruht letztlich auch auf Entscheidung, die Entscheidung dieses oder jenes zu tun und damit auch diese oder jene Perspektive einzunehmen.
Und allgemein meine ich, dass wiss. Fortschritt weniger darin besteht irgendwelche Antworten zu erhalten, sondern mehr darin besteht immer bessere Fragen stellen zu können - und sich in der Entwicklung immer besser darüber klar zu werden, was man eigentlich will und wohin man will und was und wo das eigentlich ist und was für uns eine bessere Frage eigentlich ist bzw. sein soll.
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

Skeltek
Site Admin
Beiträge: 3491
Registriert: 25. Mär 2008, 23:51
Wohnort: Stuttgart, Germany
Kontaktdaten:

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von Skeltek » 12. Jul 2018, 01:07

Wenn man davon ausgeht, dass die meisten entwickelten Theorien zufällig und willkürlich postuliert würden, gibt Falsifizierbarkeit der Theorie bei naiver Wahrscheinlichkeitsrechnung ja eigentlich nur einen Glaubwürdigkeitsvorteil, da man die Theorieentwickler herausfiltern kann, welche sich einfach nur zufällig etwas zusammenspinnen. Falsifizierbarkeit ist toll, um zu sehen, welche falsifizierbaren Theorien falsch sind, allerdings gibt uns das keinen Anhaltspunkt darüber, welche der nicht falsifizierbare Theorien richtig oder falsch sind. Effektiv wird Nicht-Falsifizierbarkeit verachtet und verboten, aber nicht, weil nicht-falsifizierbare Theorien falsch sind, sondern weil uns das ein problematischer Dorn im Auge ist, der uns einfach nur stört und welchen wir weg haben wollen. Hier wird das Problem der Erkennung von Richtig und Falsch nicht gelöst sondern eifnach vermieden, indem man den Kopf in den Sand steckt oder Nicht-Falsifizierbares grundsätzlich a priori ablehnt.

Ockhams Racor mischt sich da leider auch ein. Zwar will das Prinzip verhindern, dass man überflüssiges in die Theorie einbaut und die Theorie mit der gleichen Aussagenstärke aber weniger Komplexität bevorzugt werden sollte, trotzdem gibt es da eben diesen einen Haken:
Ockhams Rasiermesser sollte eigentlich Theorien bevorzugen, welche weniger Formeln und Parameter haben aber ansonsten Inhaltsgleich sind.

Haben wir eine Theorie mit 7 Formeln und eine weitere Theorie mit denselben aber drei zusätzlichen Formeln, welche nichts zur Prognose oder ähnlichem beitragen, dann ist die Theorie zu bevorzugen, welche Überflüssiges weglässt.
Ockham sollte uns nichts darüber sagen, welche Theorie von zwei völlig unterschiedlichen Modellen zu bevorzugen ist.

Als Beispiel kann man einfache Lebewesen nehmen. Was ist das Ziel eines Lebewesens? Sich 'fortzupflanzen und zu überleben' würde die einfachere Theorie sagen. Das ist aber zum Beispiel auch schlichtweg falsch, da diese Verhaltensweisen lediglich emergente Symptome des eigentlichen viel komplexeren Sacheverhaltes sind, nämlich sark simplifiziert der Entropieumsetzung in Kombination des Aussterbens der Konkurenz.
Das Überleben ist also lediglich Resultat der Regeln der Umwet und des Universums und nicht das eigentliche Ziel. Es ist nur eine Begleiterscheinung.

Ich kann einfach nicht glauben, dass auf allen Größenordnungen exakt die einfachste Teiltheorie verwirklicht sein soll. Wenn wir davon ausgehen, dass in 80% der Fälle die einfachere Variante bzw Theorie durch das Universum realisiert ist, dann können wir durch neue Theorieentdeckungen uns höchstens asymptotisch auf eine 80% vollständige/richtige TOE annähern, aber diese nie erreichen. Wenn man über die 80% hinausgehen will, muss man zwangsläufig akzeptieren, dass ein relevanter Prozentsatz des Formelgebildes der Welt eben doch eine komplexere Theorie verwirklicht hat.

Jetzt ist das physikalische Gebilde inzwischen aber so umfangreich und komplex, dass man vermutlich gar nicht wissen kann wo man ansetzen sollte. Im schlimmsten Fall ist unser Verständnis von Raum und Zeit grundsätzlich falsch und unser Standardmodel nur die emergent scheinbare Verwirklichung eines entarteten Grenzfalls.
"Le's do it now. Le's make the world bedda"
'Sure, right now. I gotta. We gotta"

Unentscheidbarkeit für Dummies: Dieser Satz ist wahr

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10114
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von tomS » 12. Jul 2018, 08:17

seeker hat geschrieben:
11. Jul 2018, 08:02
Wie wir neue Theorien entdecken können, können wir wahrscheinlich nur durch Vermuten, Probieren und Verwerfen herausfinden - und durch harte Arbeit, Kreativität und Intuition. So etwas weiß man eigentlich immer nur im Rücklick, wie es ging; in der Vorausschau kann man es noch nicht wissen, man kann dort nur das Eine oder das Andere im Moment für plausibler, richtiger oder besser halten und uns auch entscheiden auf bisherige Erfahrungen zurückzugreifen - oder auch nicht.
Das ist der Punkt.

Und deshalb läuft sowohl der Anspruch bzgl. Schönheit usw. pro Stringtheorie als auch die Kritik contra gegenwärtige Entwicklung wie seitens Sabine - so wie ich ihn bisher verstanden habe - teilweise ins Leere.
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
seeker
Ehrenmitglied
Ehrenmitglied
Beiträge: 5865
Registriert: 26. Dez 2009, 10:29

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von seeker » 18. Jul 2018, 14:05

tomS hat geschrieben:
12. Jul 2018, 08:17
Und deshalb läuft sowohl der Anspruch bzgl. Schönheit usw. pro Stringtheorie als auch die Kritik contra gegenwärtige Entwicklung wie seitens Sabine - so wie ich ihn bisher verstanden habe - teilweise ins Leere.
Vordergründig gesehen ja. Hintergründig gesehen ganz und gar nicht: Es ist sehr wichtig diese Diskussionen zu führen, es ist gut, dass das passiert. Es geht wie gesagt auch um unsere Entscheidungen und Einordnungen, es geht auch darum was uns wann wie wichtig ist, es geht um Abwägungen.
Und um zu vernünftigen Entscheidungen kommen zu können sind solche Diskussions-Prozesse notwendig.
Wiss. Fortschritt findet nicht per se, in einem objektiven Sinne statt, er ist immer selbstbezüglich: Wir sprechen dann von einem solchen, wenn unsere darauf blickende Bewertung ergibt, dass unsere Fragen, Forderungen, Hoffnungen, Erwartungen nun besser erfüllt werden als früher. Wissenschaftlicher Fortschritt und Erfolg existiert -soweit wir wissen- genau dann -und nur dann- wenn wir das so wahrnehmen.
Man kann dem auch nicht entkommen, indem man versucht diese Geschichte zu abstrahieren, zu definieren, zu objektivieren und dann zu berechnen, weil der Ausgangspunkt dessen auch wieder von uns ausgeht und dem was wir fragen, wollen, denken, erwarten. Solche formalen Berechnungen würden dann letztlich auch wiederum nur auf unseren dann abstrahierten Erwartungen fußen, diesen abhängig entspringen, diese sozusagen an der Welt, dem was der Fall ist messen.
Skeltek hat geschrieben:
12. Jul 2018, 01:07
Wenn man davon ausgeht, dass die meisten entwickelten Theorien zufällig und willkürlich postuliert würden, gibt Falsifizierbarkeit der Theorie bei naiver Wahrscheinlichkeitsrechnung ja eigentlich nur einen Glaubwürdigkeitsvorteil, da man die Theorieentwickler herausfiltern kann, welche sich einfach nur zufällig etwas zusammenspinnen. Falsifizierbarkeit ist toll, um zu sehen, welche falsifizierbaren Theorien falsch sind, allerdings gibt uns das keinen Anhaltspunkt darüber, welche der nicht falsifizierbare Theorien richtig oder falsch sind.
Das Grundproblem am Vorgehen 'Falsifikation' ist m.E. folgendes:

Es gibt prinzipiell für jeden Sachverhalt eine unendlich große Anzahl von möglichen Erklärungen, Theorien.
Durch Falsifikation lassen sich aber immer nur endlich viele Ansätze verwerfen, also bleiben stets unendlich viele mögliche Ansätze übrig, man wird nie fertig, man kann nicht einmal von einer Eingrenzung oder Annäherung an die Wahrheit durch dieses Verfahren sprechen, weil eine Unendlichkeit durch fortlaufende Halbierungen nunmal nicht kleiner wird.
Alles was hier messbar wächst, ist die Anzahl der bis dato ausgeschlossenen/falsifizierten Ansätze, also wächst hier nicht unser Wissen um das was der Fall ist, sondern unser Wissen um das was nicht der Fall ist. Aber immerhin!
Wobei:
Insofern ist die Falsifikation nicht viel besser als die Verifikation: Beide führen nicht zur Wahrheit, sie können aber zu Vertrauen unsererseits führen, zum: "Erfahrungsgemäß schaut es so aus, das hat sich für uns bewährt". Das reicht auch für die meisten Zwecke, schon damit können wir sehr viel anfangen.
Skeltek hat geschrieben:
12. Jul 2018, 01:07
Effektiv wird Nicht-Falsifizierbarkeit verachtet und verboten, aber nicht, weil nicht-falsifizierbare Theorien falsch sind, sondern weil uns das ein problematischer Dorn im Auge ist, der uns einfach nur stört und welchen wir weg haben wollen. Hier wird das Problem der Erkennung von Richtig und Falsch nicht gelöst sondern eifnach vermieden, indem man den Kopf in den Sand steckt oder Nicht-Falsifizierbares grundsätzlich a priori ablehnt.
Das Problem ist: Wenn du die Forderung nach Falsifizierbarkeit fallen lässt, dann öffnest du ein sehr großes Tor sehr weit, die Büchse der Pandora, dann besteht die Gefahr der Beliebigkeit, dann kann man fast alles behaupten und nichts kann oder muss an der Natur geprüft werden.
Wir brauchen einen Filter der Vernunft, das ist notwendig, um uns von vorwissenschaftlichen, abergläubischen, magischen Zeiten abgrenzen zu können.
Es kann hier nicht darum gehen, was richtig und was falsch ist, ein 'richtig', im Sinne von 'wahr' wird uns für immer unzugänglich bleiben, aus prinzipiellen Gründen! Hör auf nach "DER Wahrheit" und nach "richtig" zu fragen, diese erlangen zu wollen, es geht nicht, es ist sinnlos, völlig egal was du tust!

Es geht stattdessen darum, was vernünftig und was nicht vernünftig ist, was vernünftigerweise zu irgendeinem Zeitpunkt von uns "aus gutem Grund für wahrscheinlich nahe an der Wahrheit" gehalten werden soll und was nicht.
Das ist der eigentliche Kern dieser Diskussionen.
Skeltek hat geschrieben:
12. Jul 2018, 01:07
Ockhams Rasiermesser sollte eigentlich Theorien bevorzugen, welche weniger Formeln und Parameter haben aber ansonsten Inhaltsgleich sind.
Ockham's Razor fordert Sparsamkeit bei den (nicht bewiesenen, rein angenommenen/erfundenen Grundannahmen), das hat zunächst nichts mit der Anzahl der Formeln zu tun oder wie komplex/kompliziert eine darauf aufgebaute Theorie letztlich ausschaut.
Das ist im Grunde ein praktischer Rat: Je weniger du postulieren musst (das sind Dinge, die du nicht weißt, die du sozusagen erfindest), desto besser, ganz einfach weil damit die Wahrscheinlichkeit sinkt, dass du falsch liegst und in die Irre gehst. Klingt vernünftig, zur Wahrheit führt das natürlich auch nicht, aber das geht wie gesagt eh nicht, man sollte das besser akzeptieren, es bringt nichts den Kopf vor dieser Wahrheit in den Sand zu stecken.
Skeltek hat geschrieben:
12. Jul 2018, 01:07
Als Beispiel kann man einfache Lebewesen nehmen. Was ist das Ziel eines Lebewesens? Sich 'fortzupflanzen und zu überleben' würde die einfachere Theorie sagen. Das ist aber zum Beispiel auch schlichtweg falsch, da diese Verhaltensweisen lediglich emergente Symptome des eigentlichen viel komplexeren Sacheverhaltes sind, nämlich sark simplifiziert der Entropieumsetzung in Kombination des Aussterbens der Konkurenz.
Das Überleben ist also lediglich Resultat der Regeln der Umwet und des Universums und nicht das eigentliche Ziel. Es ist nur eine Begleiterscheinung.
Das Leben hat per se kein Ziel. Jede Theorie, auch zum Leben, ist letzlich 'falsch', wenn du so möchtest (in einem strengen Sinne), ganz gleich welche Erklärung du ersinnst.
Nochmal: Es geht nicht um richtig/falsch, es geht um für uns möglichst befriedigende Antworten auf die von uns erfundenen Fragen.
Skeltek hat geschrieben:
12. Jul 2018, 01:07
Ich kann einfach nicht glauben, dass auf allen Größenordnungen exakt die einfachste Teiltheorie verwirklicht sein soll. Wenn wir davon ausgehen, dass in 80% der Fälle die einfachere Variante bzw Theorie durch das Universum realisiert ist, dann können wir durch neue Theorieentdeckungen uns höchstens asymptotisch auf eine 80% vollständige/richtige TOE annähern, aber diese nie erreichen. Wenn man über die 80% hinausgehen will, muss man zwangsläufig akzeptieren, dass ein relevanter Prozentsatz des Formelgebildes der Welt eben doch eine komplexere Theorie verwirklicht hat.
Versuche deinen Blickwinkel zu ändern, es geht nicht um richtig/falsch, auch nicht um x% richtig, das ist sinnlos.
Es geht in deinem Beispiel darum, ob uns die Verfolgung eines einfacheren oder eines komplexeren Ansatzes vielversprechender dabei erscheint uns mehr Befriedigung unserer Neugier zu verschaffen. Es kann gut sein, dass das eines Tages der komplexere Ansatz ist, das hängt stark davon ab, wie wir uns selbst weiterentwickeln, was wir bevorzugt wollen werden und es hängt auch stark von ganz pragmatischen Sachen ab: welche Mittel und Werkzeuge stehen zur Verfügung, was ist von uns überhaupt wie weit verfolgbar, machbar?

Warum haben wir denn gerade diese Diskussion in der Physik, wo einige alte Werte wie die Falsifizierbarkeit hinterfragt werden, ganz vorzugsweise gerade von den Theoretikern?
Wir haben sie deshalb, weil die Theoretiker im Moment schneller sind, nicht zuletzt wegen den Möglichkeiten der modernen Computertechnik, weil die messtechnische Seite der Physik zunehmend hinterher hinkt, zu wenig Input liefert und sich das absehbar auch nicht mehr ändern wird.
Wir tun stets das, was geht. Und wenn sich die Randbedingungen ändern, dann fragen wir, ob wir nicht auch unsere Vorgehensweise und unsere Werte ändern sollten, das ist etwas ganz normales, gesundes, dass das jetzt diskutiert wird.
Skeltek hat geschrieben:
12. Jul 2018, 01:07
Jetzt ist das physikalische Gebilde inzwischen aber so umfangreich und komplex, dass man vermutlich gar nicht wissen kann wo man ansetzen sollte. Im schlimmsten Fall ist unser Verständnis von Raum und Zeit grundsätzlich falsch und unser Standardmodel nur die emergent scheinbare Verwirklichung eines entarteten Grenzfalls.
Es ist ganz sicher grundsätzlich falsch, weil es kein richtig für uns gibt.
Ja, es ist heute schwerer denn je von der Pike auf etwas ganz Neues aufzubauen, um dann vielleicht erst in 50 Jahren zu sehen, ob das irgendwo hinführt, das besser ist, aber wir haben ja Zeit. :wink:
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

Benutzeravatar
seeker
Ehrenmitglied
Ehrenmitglied
Beiträge: 5865
Registriert: 26. Dez 2009, 10:29

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von seeker » 23. Jul 2018, 18:37

Hier einmal noch etwas Konkreteres, zu den anscheinend gerade laufenden Grundsatzdiskussionen, am Beispiel der kosmischen Inflation:

Die Kosmische Inflation und die Suche nach Raum-Zeit-Fossilien
https://www.heise.de/tp/features/Die-Ko ... 09978.html
15. Juli 2018, Raúl Rojas

Der Text ist interessant, schaut ruhig einmal hinein, es könnte sich lohnen...



Sabine Hossenfelders kritische Analyse zu diesem Thema:

Is the inflationary universe a scientific theory? Not anymore.
http://backreaction.blogspot.com/2017/1 ... tific.html

Ich übersetze euch das einmal ins Deutsche (genauer: ich lasse übersetzen, mit nur wenigen, kleineren Korrekturen meinerseits :)):
Freitag, 13. Oktober 2017

Ist das inflationäre Universum eine wissenschaftliche Theorie? Nicht mehr.

Wir sind aus gestreckten Quantenschwankungen gemacht. Zumindest ist das die derzeit populärste Erklärung der Kosmologen. Nach ihrer Theorie begann die Geschichte unserer Existenz vor einigen Milliarden Jahren mit einem - nun fehlenden - Feld, das das Universum in eine Phase rasanter Expansion, die "Inflation" genannt wird. Als die Inflation endete, zerfiel das Feld und seine Energie wurde in Strahlung und Partikel umgewandelt, die noch heute vorhanden sind.

Die Inflation wurde vor mehr als 35 Jahren unter anderem von Paul Steinhardt vorgeschlagen. Aber Steinhardt ist zu einem der leidenschaftlichsten Kritiker der Theorie geworden. In einem aktuellen Artikel in Scientific American hält sich Steinhardt zusammen mit Anna Ijjas und Avi Loeb nicht zurück. Die meisten Kosmologen, so behaupten sie, sind unkritische Gläubige:

"Die Kosmologie-Gemeinschaft hat keinen kalten, ehrlichen Blick auf die Urknall-Inflationstheorie geworfen oder den Kritikern, die sich fragen, ob die Inflation stattgefunden hat, große Aufmerksamkeit geschenkt. Vielmehr scheinen die Kosmologen die Behauptung der Befürworter zu akzeptieren, dass wir der Inflationstheorie glauben müssen, weil sie die einzige einfache Erklärung für die beobachteten Merkmale des Universums bietet."

Und es ist sogar noch schlimmer, argumentieren sie, Inflation ist nicht einmal eine wissenschaftliche Theorie:

"Inflationäre Kosmologie, wie wir sie heute verstehen, kann nicht mit der wissenschaftlichen Methode bewertet werden."

Als Alternative zur Inflation fördern Steinhardt et al. einen "Big Bounce", bei dem der Expansion des Universums eine Phase der Kontraktion vorausging, die ähnliche Vorteile wie die Inflation brachte.

Der Kampf der Gruppe gegen die Inflation ist nichts Neues. Sie haben ihre Argumente in den letzten Jahren in einer Reihe von Vorträgen dargelegt (zu denen ich hier bereits Stellung genommen habe). Aber das jüngste SciAm-Stück namens The Defenders Of Inflation auf der Bühne. Angeführt von David Kaiser unterzeichneten sie einen Brief an Scientific American, in dem sie sich darüber beschwerten, dass das Magazin der Inflationskritik Raum gab.

Die Liste der Unterzeichner ist eine merkwürdige Auswahl von Forschern, die selbst an der Inflation arbeiten, und von Physik-Koryphäen, die wenig oder gar nichts mit Inflation zu tun haben. Interessanterweise hat Slava Mukhanov - einer der ersten, der Vorhersagen aus der Inflation ableitet - nicht unterschrieben. Und nicht deshalb, weil er nicht gefragt wurde. In einem energiegeladenen Vortrag auf der Geburtstagskonferenz von Stephen Hawking vor zwei Monaten machte Mukhanov deutlich, dass er das meiste vom inflationären Modellbau für reine Zeitverschwendung hält.

Ich stimme Muhkanovs Einschätzung zu. Der Steinhardt et al. Artikel ist nicht gerade ein Meisterwerk des wissenschaftlichen Schreibens. Es ist auch bedauerlich, dass sie SciAm benutzen, um eine andere Theorie darüber zu fördern, wie das Universum begann, anstatt an ihrer Kritik an der Inflation festzuhalten. Aber etwas Kritik ist überfällig.

Das Problem der Inflation ist nicht die Idee an sich, sondern die Überproduktion nutzloser Inflationsmodelle. Es gibt buchstäblich Hunderte dieser Modelle, und sie sind - wie die Philosophen sagen - stark unterbestimmt. Das heißt, wenn man Modelle extrapoliert, die aktuelle Daten in ein noch ungetestetes Regime einpassen, ist das Ergebnis mehrdeutig. Unterschiedliche Modelle führen zu sehr unterschiedlichen Vorhersagen für noch nicht durchgeführte Beobachtungen. Gegenwärtig ist es daher völlig sinnlos, sich mit den Details der Inflation zu beschäftigen, denn es gibt buchstäblich unendlich viele Modelle, die man sich ausdenken kann.

Anstatt sich dieses Überproduktionsproblems anzunehmen, konzentrieren sich Steinhardt et al. in ihrem SciAm-Stück jedoch auf das Versagen der Inflation, die Probleme zu lösen, die sie lösen sollte. Aber das ist eine idiotische Kritik, denn die Probleme, die die Inflation lösen sollte, sind zunächst keine Probleme. Ich meine es ernst. Schauen wir uns die einzeln an:

1. Das Monopolproblem

Guth erfand die Inflation, um das "Monopolproblem" zu lösen. Wenn das frühe Universum einen Phasenübergang durchlief, zum Beispiel weil die Symmetrie der großen Vereinigung gebrochen war - dann hätten topologische Defekte, wie Monopole, reichlich produziert werden müssen. Wir sehen jedoch keinen von ihnen. Inflation verdünnt die Dichte der Monopole (und anderer Sorgen), so dass es unwahrscheinlich ist, dass wir jemals einem begegnen werden.

Aber eine plausible Erklärung dafür, warum wir keine Monopole sehen, ist, dass es keine gibt. Wir wissen nicht, dass es eine große Symmetrie gibt, die im frühen Universum gebrochen wurde, oder wenn es eine gibt, wissen wir nicht, wann sie gebrochen wurde, oder ob das Brechen irgendwelche Fehler verursacht hat. Tatsächlich sind alle Suchenden nach Beweisen für große Symmetrie - meist durch Protonenzerfall - negativ ausgefallen. Diese Motivation ist heute nur noch aus historischen Gründen interessant.

2. Das Flachheitsproblem

Das Flachheitsproblem ist ein Finetuning-Problem. Das Universum scheint derzeit fast flach zu sein, oder wenn es eine Krümmung hat, dann muss diese sehr klein sein. Der Beitrag der Krümmung zur Dynamik des Universums nimmt jedoch im Vergleich zur Materie zu. Das heißt, wenn der Parameter Krümmungsdichte heute klein ist, muss er in der Vergangenheit noch kleiner gewesen sein. Die Inflation dient dazu, den anfänglichen Krümmungsbeitrag um etwa 100 Größenordnungen zu verringern.

Das soll eine Erklärung sein, aber es erklärt nichts, denn jetzt kann man sich fragen, warum war die ursprüngliche Krümmung nicht größer als eine andere Zahl? Der Grund, warum einige Physiker glauben, dass hier etwas erklärt wird, ist, dass Zahlen nahe bei 1 nach den aktuellen Beauty-Standards hübsch sind, während das Zahlen viel kleiner als 1 Zahlen nicht sind. Das Flachheitsproblem ist also ein ästhetisches Problem, und ich glaube nicht, dass es ein Argument ist, das ein Wissenschaftler ernst nehmen sollte.

3. Das Horizont-Problem

Der Kosmische Mikrowellenhintergrund (CMB) hat in alle Richtungen fast die gleiche Temperatur. Das Problem ist, wenn man den Ursprung der Hintergrundstrahlung ohne Inflation zurückverfolgt, dann stellt man fest, dass die Strahlung, die uns aus verschiedenen Richtungen erreicht hat, nie in kausalen Kontakt miteinander stand. Warum hat es dann in alle Richtungen die gleiche Temperatur?

Um zu sehen, warum dieses Problem kein Problem ist, muss man wissen, wie die Theorien, die wir derzeit in der Physik verwenden, funktionieren. Wir haben eine Gleichung - eine "Differentialgleichung" - die uns sagt, wie sich ein System (z.B. das Universum) von einem Ort zum anderen und von einem Moment zum anderen verändert. Um diese Gleichung nutzen zu können, benötigen wir aber auch Startwerte oder "Ausgangsbedingungen".

Das Horizontproblem fragt "warum diese Ausgangssituation" für das Universum. Diese Frage ist gerechtfertigt, wenn eine Ausgangssituation im Sinne eines hohen Informationsbedarfs kompliziert ist. Aber eine homogene Temperatur ist nicht kompliziert. Es ist dramatisch einfach. Und es gibt nicht nur nicht viel zu erklären, die Inflation beantwortet auch nicht einmal die Frage "warum diese Ausgangssituation", weil sie noch eine Ausgangssituation braucht. Es ist nur ein anderer Anfangszustand. Es ist nicht einfacher und erklärt nichts.

Ein anderer Weg, um zu sehen, dass dies kein Problem ist: Wenn man ohne Inflation weit genug in der Zeit zurückgehen würde, würde man schließlich zu einer Zeit kommen, in der die Materie so dicht und gekrümmt war, dass die Quantengravitation wichtig war. Und was wissen wir über die Wahrscheinlichkeit von Anfangsbedingungen in einer Theorie der Quantengravitation? Nichts. Absolut nichts.

Dass wir die Quantengravitation benötigen würden, um die Ausgangssituation für das Universum zu erklären, ist jedoch ein äußerst unbeliebter Standpunkt, da nichts berechnet werden kann und keine Vorhersagen gemacht werden können.

Inflation hingegen ist ein wunderbar produktives Modell, das es Kosmologen erlaubt, Papiere zu produzieren.

Sie finden die oben genannten drei Probleme religiös wiederholt als Motivation für die Inflation, in Vorträgen und Lehrbüchern und populärwissenschaftlichen Seiten überall auf der Welt. Aber diese Probleme sind keine Probleme, waren nie Probleme und erforderten nie eine Lösung.

Obwohl die Inflation bei der Konzeption unmotiviert war, stellte sich später heraus, dass sie tatsächlich einige reale Probleme löste. Ja, manchmal arbeiten Physiker an den falschen Dingen aus den richtigen Gründen, und manchmal arbeiten sie an den richtigen Dingen aus den falschen Gründen. Die Inflation ist ein Beispiel dafür.

Die Gründe, warum viele Physiker heute denken, dass so etwas wie Inflation passiert sein muss, sind nicht, dass sie angeblich die drei oben genannten Probleme lösen. Einige Merkmale des CMB haben Korrelationen (das "TE-Leistungsspektrum"), die von der Größe der Schwankungen abhängen und eine Abhängigkeit von der Größe des Universums implizieren. Dieser Zusammenhang lässt sich daher nicht einfach durch die Wahl einer Ausgangsbedingung erklären, da es sich um Daten handelt, die auf unterschiedliche Zeiten zurückgehen. Es sagt uns wirklich etwas darüber aus, wie sich das Universum mit der Zeit verändert hat, nicht nur, wo es angefangen hat.

Zwei weitere überzeugende Merkmale der Inflation sind, dass das Modell unter relativ allgemeinen Umständen auch das Fehlen bestimmter Korrelationen in der CMB (den "Nicht-Gauß-Szenarien") erklärt und wie viele CMB-Schwankungen es von beliebiger Größe gibt, quantifiziert durch den so genannten "Skalenfaktor".

Aber hier ist der Haken. Um Vorhersagen über die Inflation zu treffen, kann man nicht einfach sagen: "Es gab einmal eine exponentielle Expansion und sie endete irgendwie." Nein, um etwas berechnen zu können, braucht man ein mathematisches Modell. Die aktuellen Modelle für die Inflation arbeiten durch die Einführung eines neuen Feldes - der "inflaton" - und geben diesem Feld eine potentielle Energie. Die potentielle Energie hängt von verschiedenen Parametern ab. Und diese Parameter können dann auf Beobachtungen bezogen werden.

Der wissenschaftliche Ansatz wäre, ein Modell zu wählen, die Parameter zu bestimmen, die am besten zu den Beobachtungen passen, und dann das Modell bei Bedarf zu überarbeiten - d.h., wenn neue Daten eintreffen. Aber das ist nicht das, was Kosmologen derzeit tun. Stattdessen haben sie so viele Varianten von Modellen produziert, dass sie heute so ziemlich alles "vorhersagen" können, was in absehbarer Zeit gemessen werden könnte.

Es ist diese Fülle nutzloser Modelle, die die Kritik hervorruft, dass Inflation keine wissenschaftliche Theorie ist. Und deshalb ist die Kritik berechtigt. Das ist keine gute wissenschaftliche Praxis. Es ist eine Praxis, die, um es unverblümt zu sagen, alltäglich geworden ist, weil sie zu Papieren führt, nicht weil sie die Wissenschaft voranbringt.

Ich war daher bestürzt, dass die Kritik von Steinhardt, Ijas und Loeb so schnell von einer Gemeinschaft, die sich zu sehr mit sich selbst vertraut gemacht hat, abgewiesen wurde. Inflation ist nützlich, weil sie bestehende Beobachtungen mit einem zugrunde liegenden mathematischen Modell in Beziehung setzt, ja. Aber wir haben noch nicht genug Daten, um daraus verlässliche Vorhersagen zu machen. Wir haben nicht einmal genügend Daten, um Alternativen überzeugend auszuschließen.

Es hat keinen Nobelpreis für Inflation gegeben, und ich denke, das Nobelkomitee hat mit dieser Entscheidung gut getan.

Es gibt kein Warnschild, wenn man die Grenze zwischen Wissenschaft und Blabla-Land überschreitet. Aber der inflationäre Modellbau hat längst vernünftige wissenschaftliche Spekulationen hinter sich gelassen. Ich für meinen Teil bin froh, dass zumindest einige Leute darüber sprechen. Und deshalb befürworte ich die Kritik von Steinhardt et al.
von Sabine Hossenfelder, gefunden hier:
http://backreaction.blogspot.com/2017/1 ... tific.html
übersetzt mit DeepL Translator

Also ich finde das schon interessant zu lesen und ganz einfach von der Hand zu weisen scheinen mir die Argumente auch nicht zu sein.
Seht das auch bitte einmal als ein Beispiel an - es gibt andere Bereiche in der Physik, wo meiner Wahrnehmung nach ganz ähnliche Diskussionen stattfinden.
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1510
Registriert: 13. Jan 2017, 10:00

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von ralfkannenberg » 23. Jul 2018, 19:08

seeker hat geschrieben:
23. Jul 2018, 18:37
Sabine Hossenfelder, Is the inflationary universe a scientific theory? Not anymore. hat geschrieben: Freitag, 13. Oktober 2017

Ist das inflationäre Universum eine wissenschaftliche Theorie? Nicht mehr.

(...)

1. Das Monopolproblem

Guth erfand die Inflation, um das "Monopolproblem" zu lösen. Wenn das frühe Universum einen Phasenübergang durchlief, zum Beispiel weil die Symmetrie der großen Vereinigung gebrochen war - dann hätten topologische Defekte, wie Monopole, reichlich produziert werden müssen. Wir sehen jedoch keinen von ihnen. Inflation verdünnt die Dichte der Monopole (und anderer Sorgen), so dass es unwahrscheinlich ist, dass wir jemals einem begegnen werden.

Aber eine plausible Erklärung dafür, warum wir keine Monopole sehen, ist, dass es keine gibt. Wir wissen nicht, dass es eine große Symmetrie gibt, die im frühen Universum gebrochen wurde, oder wenn es eine gibt, wissen wir nicht, wann sie gebrochen wurde, oder ob das Brechen irgendwelche Fehler verursacht hat. Tatsächlich sind alle Suchenden nach Beweisen für große Symmetrie - meist durch Protonenzerfall - negativ ausgefallen. Diese Motivation ist heute nur noch aus historischen Gründen interessant.
Hallo zusammen,

also diesen Einwand verstehe ich jetzt nicht, denn niemand hat je irgendetwas anderes behauptet. Alan Guth und ein Forscherkollege haben an den Grand Unified Theories theoretisch Arbeiten geleistet und in diesem Kontext trat natürlich das Problem der fehlenden magnetischen Monopole auf.

Das hat nichts damit zu tun, "ob es keine gibt", denn im Rahmen der damals untersuchten Grand Unified Theories hätte es solche magnetischen Monopole geben müssen. Und die Inflation kann eben erklären, warum es - unter Annahme der Gültigkeit der Grand Unified Theories, die Alan Guth auch explizit tätigt - keine magnetischen Monopole gibt. Daraus den Autoren einen Strick drehen zu wollen ist nicht angemessen.


seeker hat geschrieben:
23. Jul 2018, 18:37
Sabine Hossenfelder, Is the inflationary universe a scientific theory? Not anymore. hat geschrieben: 2. Das Flachheitsproblem

Das Flachheitsproblem ist ein Finetuning-Problem. Das Universum scheint derzeit fast flach zu sein, oder wenn es eine Krümmung hat, dann muss diese sehr klein sein. Der Beitrag der Krümmung zur Dynamik des Universums nimmt jedoch im Vergleich zur Materie zu. Das heißt, wenn der Parameter Krümmungsdichte heute klein ist, muss er in der Vergangenheit noch kleiner gewesen sein. Die Inflation dient dazu, den anfänglichen Krümmungsbeitrag um etwa 100 Größenordnungen zu verringern.

Das soll eine Erklärung sein, aber es erklärt nichts, denn jetzt kann man sich fragen, warum war die ursprüngliche Krümmung nicht größer als eine andere Zahl? Der Grund, warum einige Physiker glauben, dass hier etwas erklärt wird, ist, dass Zahlen nahe bei 1 nach den aktuellen Beauty-Standards hübsch sind, während das Zahlen viel kleiner als 1 Zahlen nicht sind. Das Flachheitsproblem ist also ein ästhetisches Problem, und ich glaube nicht, dass es ein Argument ist, das ein Wissenschaftler ernst nehmen sollte.
Auch diesen Einwand verstehe ich nicht. Der Punkt ist doch nicht der, dass ein ästhetisches Problem auftritt, sondern der Punkt ist der, dass das Problem des Finetunings mit der Inflation verschwindet: ohne Inflation muss da ein Parameter auf 12 Kommastellen genau "vorhanden" gewesen sein, weil sonst das Universum entweder innert kürzester Zeit wieder in sich zusammengefallen wäre oder eben das Universum sich so schnell ausgedünnt hätte, dass die uns bekannten grossen Strukturen (Sterne etc., somit auch Planeten, somit auch Lebewesen auf Planeten etc.) nie hätten entstehen können.

Mit der Inflation wird indes diese Zahl dank der Inflation zu 1 "gedehnt", sofern der Anfangswert auch nur halbwegs vernünftig war, wobei dank der Stärke der Inflation das "halbwegs" sehr grosszügig bemessen sein darf.


Freundliche Grüsse, Ralf

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10114
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von tomS » 23. Jul 2018, 21:15

ralfkannenberg hat geschrieben:
23. Jul 2018, 19:08
... also diesen Einwand verstehe ich jetzt nicht, denn niemand hat je irgendetwas anderes behauptet. Alan Guth und ein Forscherkollege haben an den Grand Unified Theories theoretisch Arbeiten geleistet und in diesem Kontext trat natürlich das Problem der fehlenden magnetischen Monopole auf.

Das hat nichts damit zu tun, "ob es keine gibt", denn im Rahmen der damals untersuchten Grand Unified Theories hätte es solche magnetischen Monopole geben müssen. Und die Inflation kann eben erklären, warum es - unter Annahme der Gültigkeit der Grand Unified Theories, die Alan Guth auch explizit tätigt - keine magnetischen Monopole gibt. Daraus den Autoren einen Strick drehen zu wollen ist nicht angemessen.
Doch, in diesem Fall ist der Einwand schon berechtigt.

Schauen wir uns die Argumentation mal näher an:
- man setzt voraus, dass eine GUT-Phase existiert
- daraus folgt die Existenz vieler magnetischer Monopole
- diese werden jedoch nicht beobachtet
- daher benötigen wir eine Erklärung, die die GUT-Hypothese rettet
- diese Erklärung wird von der Inflation geliefert, welche ihrerseits wiederum ein Inflatonfeld voraussetzen muss

Nun ist es jedoch so, dass die o.g. Argumentationskette nicht funktioniert:
- man setzt voraus, dass eine GUT-Phase existiert
- daraus folgt u.a. der Protonenzerfall
- dieser wird jedoch nicht beobachtet
- daher benötigen wir eine Erklärung, die die GUT-Hypothese rettet
- eine derartige Erklärung ist heute nicht bekannt, d.h. man muss die GUT-Hypothese verwerfen

Damit löst die Inflation ein Problem, das aus einer Hypothese folgt, die ihrerseits verworfen werden muss. Und damit ist die Inflation diesbzgl. irrelevant. Es handelt sich also um eine Art Strohmann-Argument.

Natürlich kann man auch diverse künstliche GUT-Modelle konstruieren, die der o.g. Argumentation entkommen. Damit fängt man sich jedoch in der selben Falle wie die Inflation - was Sabine zutreffend kritisiert - dass man diese offenbar so anpassen kann, dass letztlich alles folgt.

Ich möchte nicht soweit gehen wie Steinhardt, der ja auch eine eigene Theorie promoten möchte. Und ich möchte nicht soweit gehen wie Sabine, die unterschiedlich starke Argumente gleichrangig präsentiert. Aber beide haben schon einen Punkt.


Ein interessanter Aspekt ist, dass die LQG Indizien liefert, denenzufolge die Inflation generisch aus der Quantengeometrie folgt, ohne dass man ein zusätzliches Inflatonfeld annehmen muss. D.h. die Inflation ist keine Hypothese mehr, und das Problem des fehlenden Inflatonfeldes stellt sich nicht. Argumentiert man in diesem Kontext, so ist die Inflation schon ein relevantes Paradigma.
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1510
Registriert: 13. Jan 2017, 10:00

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von ralfkannenberg » 23. Jul 2018, 21:32

Hallo Tom,

jetzt möchte ich aber doch ein bisschen vorsichtiger argumentieren:
tomS hat geschrieben:
23. Jul 2018, 21:15
Schauen wir uns die Argumentation mal näher an:
- man setzt voraus, dass eine GUT-Phase existiert
- daraus folgt die Existenz vieler magnetischer Monopole
- diese werden jedoch nicht beobachtet
- daher benötigen wir eine Erklärung, die die GUT-Hypothese rettet
Bis hierhin bin ich einverstanden.

tomS hat geschrieben:
23. Jul 2018, 21:15
- diese Erklärung wird von der Inflation geliefert, welche ihrerseits wiederum ein Inflatonfeld voraussetzen muss
Wenn ich mich recht entsinne setzt Alan Guth setzt ein "passendes" Higgs-Feld voraus und dann folgt mit diesem Phasenübergang der GUT die Inflation.

tomS hat geschrieben:
23. Jul 2018, 21:15
Nun ist es jedoch so, dass die o.g. Argumentationskette nicht funktioniert:
- man setzt voraus, dass eine GUT-Phase existiert
Na ja, das war aber auch naheliegend, nach der elektro-magnetischen Vereinigung und später der elektroschwachen Vereinigung auch eine Vereinigung zu suchen, die auch die starke Wechselwirkung umfasst. Also alles noch ohne Gravitation.

tomS hat geschrieben:
23. Jul 2018, 21:15
- daraus folgt u.a. der Protonenzerfall
- dieser wird jedoch nicht beobachtet
Moment: der war mit den damaligen Möglichkeiten auch gar nicht nachweisbar ! - Ebenso wie mit den heutigen Möglichkeiten die Hawkingstrahlung zwar plausibel ist, aber nicht nachweisbar ist.

tomS hat geschrieben:
23. Jul 2018, 21:15
- daher benötigen wir eine Erklärung, die die GUT-Hypothese rettet
- eine derartige Erklärung ist heute nicht bekannt, d.h. man muss die GUT-Hypothese verwerfen
Das mag aus heutiger Sicht stimmen, aber in den 1970iger Jahren konnte man nicht beurteilen, ob ein solcher Protonenzerfall stattfindet oder nicht, man wusste nur, dass der - wenn es ihn gibt - eine riesige Halbwertszeit von 10^32 Jahren oder so hat. Zum Vergleich: das Alter des Universums sind ~10^17 Sekunden.

tomS hat geschrieben:
23. Jul 2018, 21:15
Damit löst die Inflation ein Problem, das aus einer Hypothese folgt, die ihrerseits verworfen werden muss. Und damit ist die Inflation diesbzgl. irrelevant. Es handelt sich also um eine Art Strohmann-Argument.
Das mag aus heutiger Sicht zutreffen, wobei ich über die aktuelle experimentelle Situation um den Protonenzerfall nicht im Bilde bin: kann man den wirklich schon ausschliessen ?


Freundliche Grüsse, Ralf

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10114
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von tomS » 23. Jul 2018, 21:42

ralfkannenberg hat geschrieben:
23. Jul 2018, 21:32
tomS hat geschrieben:
23. Jul 2018, 21:15
Nun ist es jedoch so, dass die o.g. Argumentationskette nicht funktioniert:
- man setzt voraus, dass eine GUT-Phase existiert
Na ja, das war aber auch naheliegend, nach der elektro-magnetischen Vereinigung und später der elektroschwachen Vereinigung auch eine Vereinigung zu suchen, die auch die starke Wechselwirkung umfasst.
War damals naheliegend, und insofern war dieses Argument für die Inflation damals ebenfalls naheliegend. Sieht heute jedoch anders aus.
ralfkannenberg hat geschrieben:
23. Jul 2018, 21:32
tomS hat geschrieben:
23. Jul 2018, 21:15
- daraus folgt u.a. der Protonenzerfall
- dieser wird jedoch nicht beobachtet
Moment: der war mit den damaligen Möglichkeiten auch gar nicht nachweisbar !
Der Protonenzerfall wird spätestens seit den 80igern untersucht; und seither muss die Konstruktion der GUT ständig angepasst werden.
ralfkannenberg hat geschrieben:
23. Jul 2018, 21:32
tomS hat geschrieben:
23. Jul 2018, 21:15
- daher benötigen wir eine Erklärung, die die GUT-Hypothese rettet
- eine derartige Erklärung ist heute nicht bekannt, d.h. man muss die GUT-Hypothese verwerfen
Das mag aus heutiger Sicht stimmen, aber in den 1970iger Jahren ...
Aber es geht um die heutige Sicht.
ralfkannenberg hat geschrieben:
23. Jul 2018, 21:32
tomS hat geschrieben:
23. Jul 2018, 21:15
Damit löst die Inflation ein Problem, das aus einer Hypothese folgt, die ihrerseits verworfen werden muss. Und damit ist die Inflation diesbzgl. irrelevant. Es handelt sich also um eine Art Strohmann-Argument.
Das mag aus heutiger Sicht zutreffen, ...
Aber es geht um die heutige Sicht.
ralfkannenberg hat geschrieben:
23. Jul 2018, 21:32
wobei ich über die aktuelle experimentelle Situation um den Protonenzerfall nicht im Bilde bin: kann man den wirklich schon ausschliessen ?
http://pdg.lbl.gov/2017/tables/rpp2017-sum-baryons.pdf
https://en.m.wikipedia.org/wiki/Proton_decay
Proton decay is one of the key predictions of the various grand unified theories (GUTs) proposed in the 1970s, another major one being the existence of magnetic monopoles. Both concepts have been the focus of major experimental physics efforts since the early 1980s. To date, all attempts to observe these events have failed; however, these experiments have been able to establish lower bounds on the half-life of the proton. Currently the most precise results come from the Super-Kamiokande water Cherenkov radiation detector in Japan: a 2015 analysis placed a lower bound on the proton's half-life of 1.67×10³⁴ years via positron decay, and similarly, a 2012 analysis gave a lower bound to the proton's half-life of 1.08×10³⁴ years via antimuon decay close to a supersymmetry (SUSY) prediction of 10³⁴–10³⁶ years. An upgraded version, Hyper-Kamiokande, probably will have sensitivity 5–10 times better than Super-Kamiokande.
D.h. dass viele „natürlichen“ GUT-Kandidaten ausgeschlossen werden oder zumindest unwahrscheinlich werden. Man ist bzgl. der Energie- bzw. GUT-Skala ja nicht völlig frei; sie folgt ja grob aus der Renormierung bzw. den laufenden Kopplungen des Standardmodells. Der fehlende Protonzerfall ist nicht das einzige Problem der GUTs. SUSY-GUTs haben aufgrund der fehlende SUSY ihre eigenen Probleme.

Generell stammt das Festhalten an SUSY, GUTs u.a. inzwischen kaum noch der konkreten und einfachen Lösung bekannter Probleme. Insbs. im Umfeld der Asymptotic Safety (Reuter, Wetterich et al.) sowie der nicht-kommutativen Geometrie (Connes et al.) werden vermehrt Ansätze diskutiert, bei denen das Standardmodell bis auf minimal notwendige Erweiterungen erhalten bleibt, und keine vollständig neuartige Theorie konstruiert werden muss.

https://en.m.wikipedia.org/wiki/Asympto ... um_gravity
https://en.m.wikipedia.org/wiki/Physics ... fe_gravity

https://en.m.wikipedia.org/wiki/Noncommutative_geometry
https://en.m.wikipedia.org/wiki/Noncomm ... dard_model
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1510
Registriert: 13. Jan 2017, 10:00

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von ralfkannenberg » 24. Jul 2018, 00:22

tomS hat geschrieben:
23. Jul 2018, 21:42
Der Protonenzerfall wird spätestens seit den 80igern untersucht; und seither muss die Konstruktion der GUT ständig angepasst werden.
Hallo Tom,

hält man denn noch an der Idee der GUTs fest oder ist man inzwischen der Meinung, dass sich die Starke Wechselwirkung nicht mit den anderen Wechselwirkungen - lassen wir die Gravitation erneut aussen vor - einbinden lässt, sondern auch im Hochenergie-Bereich eine völlig eigenständige Wechselwirkung ist ?


Freundliche Grüsse, Ralf

Benutzeravatar
seeker
Ehrenmitglied
Ehrenmitglied
Beiträge: 5865
Registriert: 26. Dez 2009, 10:29

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von seeker » 24. Jul 2018, 08:18

Die Kernpunkte bei Sabine Hossenfelders Kritik sind für mich diese:
Das Problem der Inflation ist nicht die Idee an sich, sondern die Überproduktion nutzloser Inflationsmodelle. Es gibt buchstäblich Hunderte dieser Modelle, und sie sind - wie die Philosophen sagen - stark unterbestimmt. Das heißt, wenn man Modelle extrapoliert, die aktuelle Daten in ein noch ungetestetes Regime einpassen, ist das Ergebnis mehrdeutig. Unterschiedliche Modelle führen zu sehr unterschiedlichen Vorhersagen für noch nicht durchgeführte Beobachtungen. Gegenwärtig ist es daher völlig sinnlos, sich mit den Details der Inflation zu beschäftigen, denn es gibt buchstäblich unendlich viele Modelle, die man sich ausdenken kann.
Auf diese Weise etwas "vorherzusagen" ist dann auch keine Kunst mehr. Und dann hinterher zu argumentieren, wie man das bei den Vorhersagen beim Bau des Teilchen-Standardmodells getan hat (Teilchen wurde vorhergesagt, später gefunden -> Erfolg der Methode/des Ansatzes), sähe hier dann im Unterschied schon deutlich nach Zirkelschluss aus.
die Probleme, die die Inflation lösen sollte, sind zunächst keine Probleme. Ich meine es ernst. Schauen wir uns die einzeln an:
...
1. Das Monopolproblem
...
2. Das Flachheitsproblem
...
3. Das Horizont-Problem
...
Und das ist sieht für mich eben schlüssig aus.

Stattdessen scheinen das hier die wirklich tragfähigen Argumente für die Inflation zu sein:
Die Gründe, warum viele Physiker heute denken, dass so etwas wie Inflation passiert sein muss, sind nicht, dass sie angeblich die drei oben genannten Probleme lösen. Einige Merkmale des CMB haben Korrelationen (das "TE-Leistungsspektrum"), die von der Größe der Schwankungen abhängen und eine Abhängigkeit von der Größe des Universums implizieren. Dieser Zusammenhang lässt sich daher nicht einfach durch die Wahl einer Ausgangsbedingung erklären, da es sich um Daten handelt, die auf unterschiedliche Zeiten zurückgehen. Es sagt uns wirklich etwas darüber aus, wie sich das Universum mit der Zeit verändert hat, nicht nur, wo es angefangen hat.


Und dieser Punkt ist für mich von allgemeiner Wichtigkeit:
Es ist diese Fülle nutzloser Modelle, die die Kritik hervorruft, dass Inflation keine wissenschaftliche Theorie ist. Und deshalb ist die Kritik berechtigt. Das ist keine gute wissenschaftliche Praxis. Es ist eine Praxis, die, um es unverblümt zu sagen, alltäglich geworden ist, weil sie zu Papieren führt, nicht weil sie die Wissenschaft voranbringt.
Es ist alltäglich geworden "Papers herauszuhauen", wird da behauptet... und ich habe so etwas auch schon an anderer Stelle wahrgenommen, auch bei Postern und Vorträgen über "alte Hüte" und unwesentliche Details, die machmal mehr den Charakter einer Werbeaktion hatten als dem Wissensaustausch zu dienen und echte Neuerungen vorzustellen. Und das betrifft nicht nur die Inflationstheoretiker, nein es betrifft anscheinend die gesamte Wissenschaft. Das ist nämlich ein strukturelles Problem:

Wenn man Strukturen schafft, die sich zu sehr auf die Quantität und zu wenig auf die Qualität von Veröffentlichungen konzentrieren, weil man ersteres ja so schön objektiv zählen, also "objektiv"-quantitativ erfassen, messen und bewerten kann, letzteres aber nicht und daher dann das Fortkommen von Wissenschaftlern, ihre Karriere und ihre Finanzierung davon über das rechte Maß hinaus abhängig gemacht wird (-> Veröffentlichungszwang), dann braucht man sich nicht zu wundern.

Und wieder nein, es betrifft sogar die gesamte Menschheit, so ist eben auch die Wissenschaft betroffen:
Wir leben in Zeiten, wo der Schein mehr zählt als das Sein, Anschein und Präsentation mehr als echte Substanz und Wissen, Werbung und Marke mehr als das Produkt an sich, Konkurrenz mehr als Zusammenarbeit, wo wir auch in der alltäglichen 'Informationsflut' zu ertrinken drohen, die zu einem guten Teil gar keine Information mehr ist, sondern Junk.
Das Pendel ist an der Stelle zu weit ausgeschlagen, es wäre an der Zeit zu überlegen, wie man zurückrudern kann. Und Kritik zu üben und das offen zu sagen ist an der Stelle sehr wichtig.
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1510
Registriert: 13. Jan 2017, 10:00

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von ralfkannenberg » 24. Jul 2018, 10:57

seeker hat geschrieben:
24. Jul 2018, 08:18
Auf diese Weise etwas "vorherzusagen" ist dann auch keine Kunst mehr. Und dann hinterher zu argumentieren, wie man das bei den Vorhersagen beim Bau des Teilchen-Standardmodells getan hat (Teilchen wurde vorhergesagt, später gefunden -> Erfolg der Methode/des Ansatzes), sähe hier dann im Unterschied schon deutlich nach Zirkelschluss aus.
Hallo seeker,

ich stimme dem zumindest in dieser Form nicht zu: natürlich gibt es sehr viele mögliche Lösungen, das ist bei all den hochkomplexen Modellen inzwischen so, aber die grosse Kunst besteht ja gerade darin, von dieser riesigen Zahl der Modelle mit immer weiter verfeinerten Experimenten immer mehr ausschliessen zu können.

Es ist m.E. nicht schlimm, dass es eine hohe Anzahl Modelle gibt, viel schlimmer ist es meines Erachtens, wenn es eine zu grosse Zahl an Postulaten gibt, die nicht wirklich physikalisch begründet sind.

Das mag in der Anfangsphase eines Modells durchaus sinnvoll sein, auch als nicht-physikalisch empfundene Postulate zu nutzen, weil man damit Probleme lösen kann, aber dann muss es eine Konsolidierungsphase geben, in der man erkennt, dass diese Postulate eben doch physikalisch sind.

seeker hat geschrieben:
24. Jul 2018, 08:18
die Probleme, die die Inflation lösen sollte, sind zunächst keine Probleme. Ich meine es ernst. Schauen wir uns die einzeln an:
...
1. Das Monopolproblem
...
2. Das Flachheitsproblem
...
3. Das Horizont-Problem
...
Und das ist sieht für mich eben schlüssig aus.
Für mich nicht. Das sieht ja geradezu danach aus, dass die Physiker, die diese 3 Probleme "entdeckt" haben, nicht seriös gewesen seien, weil man diese Probleme ja ganz einfach umschiffen könne.

Mit dem Horizontproblem habe ich mich bislang zu wenig beschäftigt als dass ich hier mitreden möchte, d.h. hier verlasse ich mich auf die damaligen Fachleute; was aber das Monopolproblem und das Flachheitsproblem anbelangt, so gab und gibt es gute Gründe dafür.

Gewiss, sie mögen veraltet sein, aber eben: der Wunsch nach einer Vereinheitlichung, die auch die Starke Wechselwirkung umfasst, ist meines Wissens nach wie vor in der Physik vorhanden, und damit hat man eben das Problem des nicht nachgewiesenen Protonenzerfalls, oder fast noch schlimmer formuliert, das Problem der Nichterhaltung der Baryonenzahl.

Und hier muss man sich eben überlegen, was man will: unter welchen Umständen ist es akzeptabel, eine Erhaltungsgrösse aufzugeben, und unter welchen Umständen ist es akzeptabel, eine Vereinheitlichung aufzugeben.

Zumal die Aufgabe der Erhaltung der Baryonenzahl - im Gegensatz zur Aufgabe der Erhaltung der Leptonenzahl, der Energie, des Impulses, der Ladung oder des Drehimpulses durchaus physikalisch erklärbar wäre.

Letztlich sind das die beiden Fragestellungen, die es zu betrachten gilt, und nicht irgendwelche magnetische Monopole oder Protonenzerfälle, die auch heute an der Grenze der Nachweisbarkeit liegen und die man nicht beobachtet hat. Das man hier in den vergangenen 40 Jahren zwei Grössenordnungen, also einen Faktor hundert, in der Halbwertszeit der Protonen gewonnen hat, ist natürlich bedeutsam, ja es ist sogar sehr bedeutsam, aber es stellt sich die Frage, ob es wirklich so bedeutsam ist, dass man deswegen die Vereinheitlichung aufgibt.


Ich habe eher den Eindruck, dass diese Phänomene tatsächlich vorhanden sind, dass aber ihre richtige Rolle im grossen Zusammenhang der Physik noch nicht verstanden ist.


Freundliche Grüsse, Ralf

Benutzeravatar
seeker
Ehrenmitglied
Ehrenmitglied
Beiträge: 5865
Registriert: 26. Dez 2009, 10:29

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von seeker » 24. Jul 2018, 11:21

ralfkannenberg hat geschrieben:
24. Jul 2018, 10:57
Gewiss, sie mögen veraltet sein, aber eben: der Wunsch nach einer Vereinheitlichung, die auch die Starke Wechselwirkung umfasst, ist meines Wissens nach wie vor in der Physik vorhanden
Dass sich das viele von uns wünschen, heißt noch lange nicht, dass das der richtige Weg ist.
Darum geht es. Und so lange wir zu wenig empirische Daten haben, ist es falsch sich allzusehr darauf zu verlassen.
Es geht nicht darum die Inflation zu verwerfen, es geht darum, wie weit man das theoretisch treiben soll, so lange keine Daten vorliegen und ob man diesen Weg bis dahin als den 'allein seligmachenden' ansehen sollte und ob sich alle Fachleute allein auf diesen Weg konzentrieren sollten.
ralfkannenberg hat geschrieben:
24. Jul 2018, 10:57
Und hier muss man sich eben überlegen, was man will: unter welchen Umständen ist es akzeptabel, eine Erhaltungsgrösse aufzugeben, und unter welchen Umständen ist es akzeptabel, eine Vereinheitlichung aufzugeben.
Hier liegt ein Kernpunkt drinne! Eben! Mindestens so lange keine oder zu wenig Daten vorliegen, geht es darum, "was man will"!
Das ist dann aber im Grunde keine reine, ideale, objektive Wissenschaft mehr, von der viele lange glaubten, es gäbe so etwas.
Ich behaupte: Es gab sie nie!
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10114
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von tomS » 24. Jul 2018, 12:46

Man muss wohl mal detaillierter erklären, was es mit dieser Inflation der Inflationsmodelle auf sich hat. Vergleichen wir das mit dem Standardmodell:

Standardmodell = Eichsymmetrie SU(3) * SU(2) * U(1), SU(2) * U(1) chiral, außerdem SU(6) Flavor gebrochen, 3 Fermiongenerationen, Higgs

Nach diesem Schema kann man unendlich viele Theorien konstruieren; nur eine davon stimmt mit dem beobachteten Teilchengehalt überein, alle weiteren enthalten i) zusätzliche Felder und Symmetrien, deren geeignete Brechung das Teilchenspektrum zu genügend hohen Energien verschiebt.

Im Falle der Inflation nützt man die letztgenannte Freiheit aus und generiert ii) zusätzliche Inflatonmodelle; dabei muss (i) berücksichtigt werden, und die Modelle müssen das beobachtete Spektrum der CMB reproduzieren.

D.h. die Freiheit in der Modellbildung ist bereits aufgrund (i) groß, und sie wird durch (ii) vergleichsweise wenig beschränkt. Man beachte: die CMB bzw. deren Spektrum ist eine relevante Zielgröße, für das Standardmodell haben wir dagegen buchstäblich tausende, nämlich für alle möglichen Kollisionspartner eine.

Wenn diese Modelle jedoch lediglich die richtige CMB vorhersagen und ansonsten bzgl. weiterer physikalischer Größen indifferent bleiben, dann ist nichts gewonnen.

Letztlich ist die Schlussfolgerung gerade nicht, dass wir spezielle Inflationsmodelle selektieren, sondern eher, dass die Inflation eine generische Eigenschaft ist, die aus einer sehr großen Klasse von Modellen folgt. Dies ist in etwa vergleichbar mit der Situation beim Standardmodell, dass wir nämlich eine konsistent quantisierbare = anomalienfreie und renormierbare Theorie benötigen. Damit selektieren wir aus unendlich vielen Feldtheorien eine unendlich große Teilmenge. Um aus dieser Teilmenge jedoch die eine „richtige“ Theorie zu selektieren, benötigen wir weitere Merkmale, nämlich den o.g. Teilchengehalt. Ein derartiges Kriterium fehlt offensichtlich bei der Inflation, d.h. diese allein bestimmt allerhöchstens vernünftige Randbedingungen, keinesfalls jedoch mehr.
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10114
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von tomS » 24. Jul 2018, 12:59

ralfkannenberg hat geschrieben:
24. Jul 2018, 10:57
Der Wunsch nach einer Vereinheitlichung, die auch die Starke Wechselwirkung umfasst, ist meines Wissens nach wie vor in der Physik vorhanden, und damit hat man eben das Problem des nicht nachgewiesenen Protonenzerfalls ...

... und nicht irgendwelche Protonenzerfälle, die auch heute an der Grenze der Nachweisbarkeit liegen und die man nicht beobachtet hat.
Siehe zunächst mein voriges Argument: zunächst spricht nichts gegen eine Vereinheitlichung; zum Protonenzerfall: dass dieser in einem sehr großen Bereich ausgeschlossen werden kann bedeutet, dass einfache GUT-Modelle ausgeschlossen werden können; Ähnliches gilt für die SUSY.

Damit fallen diverse Ansätze weg, uns bleibt ein eher unbefriedigendes Bild, das offenbar nicht mehr den Prinzip der maximalen Einfachheit in einem etablierten Kontext gehorcht. D.h. dieses Prinzip und dieser Kontext sind in Frage zustellen. Sabine plädiert - wie inzwischen viele andere auch - dafür, diese explizit zu tun, statt weiterhin Scheinprobleme mit neuen Scheinlösungen zu bekämpfen und dadurch weitere neue Scheinprobleme zu generieren.
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Skeltek
Site Admin
Beiträge: 3491
Registriert: 25. Mär 2008, 23:51
Wohnort: Stuttgart, Germany
Kontaktdaten:

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von Skeltek » 24. Jul 2018, 13:48

Ja, aber geht es nicht letztlich nur um Konsistenz? Kann man gegebenenfalls Falsifizierbarkeit irgendwie definieren? Konsistente Theorien sind ja grundsätzlich nicht falsifizierbar, da sie ja per se nicht in Widerspruch zu Beobachtungen stehen können.

Das einzige was man machen kann ist Prognosen zu stellen. Das Problem ist ja grundsätzlich nur semi-entscheidbar.
Falsche Theorien sind (teilweise) falsifizierbar, wenn jedoch eine Theorie wahr ist kann sie weder falsifiziert noch bestätigt werden.
Irgendwie ist das ja ein sprachliches Unding. Von falschen Theorien fordert man Falsifizierbarkeit, andererseits können wahre Theorien ja grundsätzlich nicht widerlegt oder bestätigt werden.
seeker hat geschrieben: Ockham's Razor fordert Sparsamkeit bei den (nicht bewiesenen, rein angenommenen/erfundenen Grundannahmen), das hat zunächst nichts mit der Anzahl der Formeln zu tun oder wie komplex/kompliziert eine darauf aufgebaute Theorie letztlich ausschaut.
Das ist im Grunde ein praktischer Rat: Je weniger du postulieren musst (das sind Dinge, die du nicht weißt, die du sozusagen erfindest), desto besser, ganz einfach weil damit die Wahrscheinlichkeit sinkt, dass du falsch liegst und in die Irre gehst. Klingt vernünftig, zur Wahrheit führt das natürlich auch nicht, aber das geht wie gesagt eh nicht, man sollte das besser akzeptieren, es bringt nichts den Kopf vor dieser Wahrheit in den Sand zu stecken.
Die Grundbedingung an z.B. die Anzahl der Axiome zu stellen, dass es so wenige wie möglich sein sollen ist aber meiner Meinung nach völlig unsinnig. Solange die Theorie konsistent ist, ist die Anzahl der Axiome eher sekundär (wenn auch nicht unwichtig).
Ganz im Gegenteil: Weniger Axiome bedeuten weniger Angriffsfläche für Falsifizierungsversuche. Umso weniger Axiome ein System hat, umso unwahrscheinlicher sind widersprüchliche Implikationen, welche sich aus diesen ergeben.

Umso größer und komplexer das Gebilde ist, welches sich aus Axiomen ergibt, umso erstaunlicher ist es, wenn sich eine Schnittmenge dieses Konstruktes nicht mit tatsächlichen Beobachtungen widerspricht.


Zu den Monopolen: Kann mir jemand mal erklären, wieso die sich nicht gegenseitig aufheben sollten? Sind diese in Bewegung, mit c oder <c ? Werden diese durch die Inflation ins unerkenntliche gedehnt und überlagern sich mit ihren Antipolen? Ich hab von magnetischen Monopolen nicht viel Ahnung und glaube noch weniger an deren tatsächliche nicht rein phänomenologische Existenz, allerdings hätte ich intuitiv gedacht, dass diese sich bereits kurze Zeit nach Urknall lediglich als paarweiser untrennbarer Verbund als eine Art Spin oder ähnliches äußern. Makroskopisch bliebe dann höchstens noch etwas übrige was sich in der Anordnung von Materie äußert oder so, ohne jegliche Rückschlüsse auf die Monopole mehr zu erlauben.
"Le's do it now. Le's make the world bedda"
'Sure, right now. I gotta. We gotta"

Unentscheidbarkeit für Dummies: Dieser Satz ist wahr

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1510
Registriert: 13. Jan 2017, 10:00

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von ralfkannenberg » 24. Jul 2018, 14:09

Skeltek hat geschrieben:
24. Jul 2018, 13:48
Konsistente Theorien sind ja grundsätzlich nicht falsifizierbar, da sie ja per se nicht in Widerspruch zu Beobachtungen stehen können.
Hallo Skeltek,

das verstehe ich nicht: die vor-relativistische Physik, also mit der Galileo-Transformation statt der Lorentz-Transformation, oder mit der Zeitkonstanz anstelle der Konstanz der Vakuum-Lichtgeschwindigkeit unter gleichmässig bewegten Inertialsystemen ist doch in sich konsistent, aber eben nicht konsistent zu den Beobachtungen.

Oder meinst Du etwas anderes ?

Skeltek hat geschrieben:
24. Jul 2018, 13:48
Die Grundbedingung an z.B. die Anzahl der Axiome zu stellen, dass es so wenige wie möglich sein sollen ist aber meiner Meinung nach völlig unsinnig. Solange die Theorie konsistent ist, ist die Anzahl der Axiome eher sekundär (wenn auch nicht unwichtig).
Meines Wissens ist hier die Idee, dass man bei 2 Theorien mit gleicher "Leistung" diejenige bevorzugen soll, die mit weniger Annahmen auskommt.

Skeltek hat geschrieben:
24. Jul 2018, 13:48
Zu den Monopolen: Kann mir jemand mal erklären, wieso die sich nicht gegenseitig aufheben sollten? Sind diese in Bewegung, mit c oder <c ? Werden diese durch die Inflation ins unerkenntliche gedehnt und überlagern sich mit ihren Antipolen? Ich hab von magnetischen Monopolen nicht viel Ahnung und glaube noch weniger an deren tatsächliche nicht rein phänomenologische Existenz, allerdings hätte ich intuitiv gedacht, dass diese sich bereits kurze Zeit nach Urknall lediglich als paarweiser untrennbarer Verbund als eine Art Spin oder ähnliches äußern. Makroskopisch bliebe dann höchstens noch etwas übrige was sich in der Anordnung von Materie äußert oder so, ohne jegliche Rückschlüsse auf die Monopole mehr zu erlauben.
Hier kannst Du etwas über diese GUT-Monopole lesen. Insbesondere sind sie selten und haben eine riesige Ruhemasse, die derjenigen eines Bakteriums entspricht.

Bei der Inflation wird die ohnehin schon geringe Dichte dieser (hypothetischen) Elementarteilchen nochmals massiv ausgedünnt.


Freundliche Grüsse, Ralf

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10114
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von tomS » 24. Jul 2018, 14:32

Skeltek hat geschrieben:
24. Jul 2018, 13:48
Ja, aber geht es nicht letztlich nur um Konsistenz? Kann man gegebenenfalls Falsifizierbarkeit irgendwie definieren? Konsistente Theorien sind ja grundsätzlich nicht falsifizierbar, da sie ja per se nicht in Widerspruch zu Beobachtungen stehen können.
Konsistent bedeutet lediglich mathematisch konsistent; das hat noch nichts mit einer experimentellen Überprüfung zu tun.
Skeltek hat geschrieben:
24. Jul 2018, 13:48
Falsche Theorien sind (teilweise) falsifizierbar, wenn jedoch eine Theorie wahr ist kann sie weder falsifiziert noch bestätigt werden.
Irgendwie ist das ja ein sprachliches Unding. Von falschen Theorien fordert man Falsifizierbarkeit, andererseits können wahre Theorien ja grundsätzlich nicht widerlegt oder bestätigt werden.
Man fordert für jede Theorie Falsifizierbarkeit. Damit eine Theorie potentiell zutreffend sein kann, müssen konkrete Tests zur Falsifizierbarkeit (d.h. Experimente9 scheitern.
Skeltek hat geschrieben:
24. Jul 2018, 13:48
Die Grundbedingung an z.B. die Anzahl der Axiome zu stellen, dass es so wenige wie möglich sein sollen ist aber meiner Meinung nach völlig unsinnig. Solange die Theorie konsistent ist, ist die Anzahl der Axiome eher sekundär (wenn auch nicht unwichtig).
Keineswegs.

Die Theorie hat einen Bereich physikalischer Phänomene zum Inhalt - z.B. die Elektrodynamik. Je weniger Axiome ich benötige, um diesen Bereich zu beschreiben, desto besser.
Skeltek hat geschrieben:
24. Jul 2018, 13:48
Ganz im Gegenteil: Weniger Axiome bedeuten weniger Angriffsfläche für Falsifizierungsversuche. Umso weniger Axiome ein System hat, umso unwahrscheinlicher sind widersprüchliche Implikationen, welche sich aus diesen ergeben.
Die Axiome sollen selbstverständlich widerspruchsfrei sein.

Gemäß Ockham diskutieren wir nicht die interne Konsistenz des Axiomensystems - diese setzen wir voraus - sondern die Übereinstimmung der sich daraus ergebenden Schlussfolgerungen - die dann in sich konsistent sind - mit der Beobachtung.
Skeltek hat geschrieben:
24. Jul 2018, 13:48
Umso größer und komplexer das Gebilde ist, welches sich aus Axiomen ergibt, umso erstaunlicher ist es, wenn sich eine Schnittmenge dieses Konstruktes nicht mit tatsächlichen Beobachtungen widerspricht.
Das wäre im o.g. Sprachgebrauch der Bereich der physikalischen Phänomene, auf die die Theorie anwendbar ist.
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
seeker
Ehrenmitglied
Ehrenmitglied
Beiträge: 5865
Registriert: 26. Dez 2009, 10:29

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von seeker » 24. Jul 2018, 16:03

Skeltek hat geschrieben:
24. Jul 2018, 13:48
Ja, aber geht es nicht letztlich nur um Konsistenz?
Konsistenz bedeutet logische bzw. mathematische Konsistenz, Widerspruchsfreiheit. Das bedeutet, dass eine Theorie vernünftig, rational sein soll.
Das ist das allerwichtigste Prinzip, um Wissenschaft von reinem Glauben, Aberglauben, Phantasterei, Beliebigkeit unterscheiden zu können.

Als nächstes fordert man Übereinstimmung mit den Beobachtungen, das könntest du auch "Konsitenz zu den Beobachtungen" nennen, normalerweise nennt man das m.W.n. halt nicht so.
Skeltek hat geschrieben:
24. Jul 2018, 13:48
Konsistente Theorien sind ja grundsätzlich nicht falsifizierbar, da sie ja per se nicht in Widerspruch zu Beobachtungen stehen können.
Eine etablierte Theorie ist immer vorläufig, also derzeit nicht im Widerspruch zu den Beobachtungen, jedenfalls nicht zu sehr und nicht unauflösbar, das heißt aber nicht, dass nicht doch irgendwann noch ein Widerspruch gefunden werden kann, darin liegt ja gerade die wiss. Arbeit, die Methode. Beispielsweise Newtons Mechanik ist dem zum Opfer gefallen, was mit der EInführung der ART als wiss. Fortschritt gewertet wurde.
Skeltek hat geschrieben:
24. Jul 2018, 13:48
Falsche Theorien sind (teilweise) falsifizierbar, wenn jedoch eine Theorie wahr ist kann sie weder falsifiziert noch bestätigt werden.
Ja. Genau deshalb können wir nie wissen, ob eine wahre Theorie, die von uns vielleicht gefunden wurde, tatsächlich auch wahr IST, genau deshalb gibt es für uns keine Wahrheit in dem Sinne: Es ist kann nie ausgeschlossen werden, dass in Zukunft nicht doch noch ein Widerspruch zur Beobachtung gefunden wird. Wir könnten zwar zufällig eine wahre Theorie finden und formulieren, aber wir können nie wissen, ob sie wahr ist.
Deshalb macht das Konzept "Wahrheit" m.E. in der Wissenschaft keinen Sinn, man sollte sich davon besser endgültig und in aller Deutlichkeit lösen, nicht nur immer nur sagen: "Jaa, wir beschreiben die Natur ja nur!" sondern das auch wirklich meinen, mit voller Ernsthaftigkeit und mit aller Konsequenz. Inkonsequent ist man m.E. z.B. dann, wenn man trotz allem immer noch glaubt, man könne dennoch noch sagen die Theorie sei "ungefähr wahr" oder "zu 98% wahr": Was soll das bedeuten? Wenn man 100% wahr nicht wissen kann, kann man 98% wahr auch nicht wissen. Woran, an welchem Maß sollten die 98% festgelegt werden, wenn man die 100% nicht kennt? Das macht also auch keinen Sinn.

Aber eine Theorie kann sich prinzipiell immer bewähren, auch wenn wir nie wissen, ob sie wahr ist. Das tut sie dann, wenn sie lange Zeit verlässlich ist, wenn lange Zeit trotz aller Anstrengungen keine Beobachtung gemacht werden kann, die im Widerspruch zur Theorie steht, dann entsteht Vertrauen unsererseits. Allerdings ist das dann immer nichts weiter als Erfahrungswissen, nie etwas Endgültiges: Vertrauen ist nicht dasselbe wie (endgültiges) Wissen.
Skeltek hat geschrieben:
24. Jul 2018, 13:48
Die Grundbedingung an z.B. die Anzahl der Axiome zu stellen, dass es so wenige wie möglich sein sollen ist aber meiner Meinung nach völlig unsinnig. Solange die Theorie konsistent ist, ist die Anzahl der Axiome eher sekundär (wenn auch nicht unwichtig).
Vielleicht sollte man einmal ein einfaches Beispiel konstruieren, um klar zu machen, dass das keineswegs unsinnig ist:

Theorie I:
Das Leben beruht vollständig auf der Materie und deren Dynamik, so wie sie auch in Chemie und Physik im Detail beobachtet, beschrieben und nachvollzogen werden kann.

Theorie II:
Das Leben beruht auf der Materie und deren Dynamik, so wie sie auch in Chemie und Physik im Detail beobachtet, beschrieben und nachvollzogen werden kann.
Zusätzlich beruht es aber auch auf einer sprituellen (nicht messbaren) Lebenskraft, deren Energie alle Lebewesen durchströmt und die auch der Urgrund des Bewusstseins und der Seele ist. Diese Lebenskraft steht in Verbindung zu einer jenseitigen, messtechnisch nicht nachweisbaren Geisterwelt, wo Götter und Geistwesen wohnen.
Aus diesem Grund gibt es auch Geistheiler, Medien, Kontakte ins Jenseits, Telepathie, ein Leben nach dem Tod, usw.
Außerdem ist es so, dass die Einflüsse aus dieser Welt nicht im isolierten Labor nachgewiesen werden können: Die Geistwesen merken das, wenn wir etwas untersuchen und nehmen dann keinen Einfluss, jedenfalls nicht reproduzierbar. Nur wenn wir nicht hinschauen, wenn wir nicht messen, wenn keine Laborbedingungen herrschen, dann nehmen sie Einfluss auf die Materie und das Leben und nur dann kann auch ein Kontakt hergestellt werden und Energien ausgetauscht werden.

Beide Theorien stehen nicht im offensichtlichen Widerspruch zur Datenlage.
Welche Theorie ist dennoch die bessere, welche hat weniger Grundannahmen?

Bemerke: Ich frage explizit nicht danach, welche Theorie die wahre ist! Welche wahr ist, wissen wir nicht und können wir nicht wissen.
Alles was wir tun können ist uns zu entscheiden welche Theorie wir eher für wahr halten wollen, welcher wir eher glauben und vertrauen wollen - und Gründe dafür angeben warum diese und nicht jene.
Skeltek hat geschrieben:
24. Jul 2018, 13:48
Weniger Axiome bedeuten weniger Angriffsfläche für Falsifizierungsversuche. Umso weniger Axiome ein System hat, umso unwahrscheinlicher sind widersprüchliche Implikationen, welche sich aus diesen ergeben.
Ja. Nur ist das ein Vorteil, ein Qualitätskriterium, nicht etwa das Gegenteil. Falsifikation darf ruhig schwer sein, je besser und weit entwickelt die Theorie schon ist, desto schwieriger ist das oftmals. Nur soll die Falsifikation nicht schon von vorne herein unmöglich sein, weil man sonst alles behaupten kann (s.o.).
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10114
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von tomS » 24. Jul 2018, 22:34

seeker hat geschrieben:
24. Jul 2018, 16:03
Nur soll die Falsifikation nicht schon von vorne herein unmöglich sein, weil man sonst alles behaupten kann.
Das ist genau der springende Punkt.

Eine logisch-mathematische Theorie ist prinzipiell falsifizierbar, da für eine präzise gegebene Situation eine präzise Vorhersage möglichst.

Die Theorie ist evtl. praktisch nicht falsifizierbar, da diese Vorhersage nicht abgeleitet werden kann, weil uns die mathematischen Methoden zur Lösung der Gleichungen fehlen. Oder sie ist praktisch nicht falsifizierbar, weil wir die experimentelle Situation aufgrund mangelnder technischer Voraussetzungen nicht herbeiführen können.

Eine prinzipiell falsifizierbare und zugleich zutreffende Theorie wird in der Praxis nicht falsifiziert, eben weil sie zutreffend ist. Diese Sichtweise ist jedoch praktisch irrelevant, da wir ja nicht wissen können, dass die Theorie zutreffend ist. Was wir praktisch feststellen ist, dass die Theorie sich ihrer Falsifizierung widersetzt, d.h. dass sie bei jedem konkreten Versuch zur Widerlegung tatsächlich bestätigt wird. Damit wächst unser Vertrauen in die Theorie.
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Benutzeravatar
seeker
Ehrenmitglied
Ehrenmitglied
Beiträge: 5865
Registriert: 26. Dez 2009, 10:29

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von seeker » 25. Jul 2018, 00:58

Unser Dilemma liegt darin, dass wir einerseits zwingend Abgrenzungkriterien brauchen, um Wissenschaft von Pseudowissenschaft und Phantastereien unterscheiden zu können, dass diese Kriterien aber andererseits allesamt "weich" sind: Wir können nicht wissen, ob wir mit den Abgrenzungs- und Qualitätskriterien (Konsistenz, Falsifizierbarkeit, Natürlichkeit, Schönheit, Sparsamkeit, Eindeutigkeit, Verständlichkeit, usw. - und unserem Verständnis davon), die wir für unsere Wissenschaften gewählt haben, dahin kommen, wo wir in der Wissenschaft hinkommen möchten, wenn wir uns letztlich als Ziel setzen "alles wissen zu wollen, was es zu wissen gibt", wir können damit nur sicherstellen, dass wir nicht dahin kommen, wo wir nicht hinmöchten (zur Pseudowissenschaftlichkeit). D.h.: Wir können auch nicht wissen, ob unsere Kriterien richtig (im Sinne von zielführend) sind, insbesondere nicht, ob sie in exakt dieser Form, wie sie festgelegt wurden, richtig sind - mindestens nicht im Voraus. Wir können das nur hoffen und abwarten ob's funktioniert.

Wichtig ist auch:
Diese Kriterien sind unsere Festlegungen, sie sind nicht von der Natur vorgegeben, sie sind das Ergebnis unserer Überlegungen, Diskussionen und Konsensfindungen/Beschlüsse - und sie sind in der konkreten Anwendung nie exakt umsetzbar, schon deshalb, weil immer Interpretationsspielraum in der Auslegung der Kriterien bleibt. Es gibt dort immer diskussionswürdige Grauzonen. Außerdem können solche Kriterien im Laufe der Zeit eine Evolution erfahren, sie sind also auch nicht fix. Uns sie sagen uns auch nicht wie wir vorankommen, sie schränken nur ein, was wir auf dem Weg dorthin tun wollen/dürfen und was nicht, sie sagen uns nur, wie wir nicht vorankommen (wenn wir sie nicht befolgen).
Grüße
seeker


Mache nie eine Theorie zu DEINER Theorie!
Denn tut man das, so verliert man zumindest ein Stück weit seine Unvoreingenommenheit, Objektivität.

Benutzeravatar
tomS
Administrator
Administrator
Beiträge: 10114
Registriert: 19. Nov 2007, 20:29
Wohnort: Nürnberg

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von tomS » 25. Jul 2018, 07:02

seeker hat geschrieben:
25. Jul 2018, 00:58
Unser Dilemma liegt darin, dass wir einerseits zwingend Abgrenzungkriterien brauchen, um Wissenschaft von Pseudowissenschaft und Phantastereien unterscheiden zu können, dass diese Kriterien aber andererseits allesamt "weich" sind: Wir können nicht wissen, ob wir mit den Abgrenzungs- und Qualitätskriterien, die wir für unsere Wissenschaften gewählt haben, dahin kommen, wo wir in der Wissenschaft hinkommen möchten
Ja.

Ich gehe soweit zu behaupten, dass es nicht einerseits die Wissenschaft und andererseits diese Kriterien gibt, sondern dass beide zusammengehören. Diese Kriterien sind integraler Bestandteil unseres heutigen Wissenschaftsverständnisses.
seeker hat geschrieben:
25. Jul 2018, 00:58
Es gibt dort immer diskussionswürdige Grauzonen. Außerdem können solche Kriterien im Laufe der Zeit eine Evolution erfahren, sie sind also auch nicht fix.
Das erleben wir gerade jetzt, insbs. im Kontext der Teilchenphysik und der Stringtheorie.
seeker hat geschrieben:
25. Jul 2018, 00:58
Uns sie sagen uns auch nicht wie wir vorankommen, sie schränken nur ein, was wir auf dem Weg dorthin tun wollen/dürfen und was nicht.
Das ist letztlich Kuhns Einwand gegen Popper: Popper stellt einen Rahmen für „gute“ wissenschaftliche Theorien auf, lässt und jedoch damit alleine, wie wir ihn konkret füllen sollen. Auch in der Literatur macht mich die Kenntnis der Orthographie und der Grammat8noch nicht zu einem Romanautor.

Auch das ist eine Diskussion, wir wir gerade wieder führen. Zum einen steckt die Physik in gewisser Weise in einer Sackgasse, da die o.g. praktische Falsifizierbarkeit zunehmend weniger erreichbar ist. Zum anderen werden jedoch Begriffe wie Ästhetik u.a. zunehmend inflationär gebraucht. Ich denke, man sollte ehrlicherweise die Probleme der Physik offen ansprechen, nicht heimlich die Kriterien verbiegen. Das stört einige Leute, so auch mich. Manchmal habe ich dennEindruck, gewisse Theorien sind sozusagen too big to fail.

Ich glaube übrigens nicht, dass sich die etablierte Physik selbst dadurch langfristig grundsätzlich ändern wird, sondern dass dies eher zu einem mittelfristigen Schaden für die etablierte Physik führt. Spätestens wenn Forschungsgelder wegfallen, wird ein Umdenken einsetzen. Aber man muss es ja nicht so weit kommen lassen.
Gruß
Tom

«while I subscribe to the "Many Worlds" theory which posits the existence of an infinite number of Toms in an infinite number of universes, I assure you that in none of them am I dancing»

Skeltek
Site Admin
Beiträge: 3491
Registriert: 25. Mär 2008, 23:51
Wohnort: Stuttgart, Germany
Kontaktdaten:

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von Skeltek » 25. Jul 2018, 11:42

Mit konsistent meinte ich nicht nur in sich konsistent, sondern auch mit den Beobachtungen konsistent.
Mir wäre neu, wenn sich dieses Wort rein auf die mathematisch-logische Widerspruchsfreiheit beschränken sollte.

Falsifizierbar ist ja grundsätzlich nur das, was die Theorie an Messbarem impliziert.
Drei Möglichkeiten:
1. Die Theorie impliziert etwas, das in der Realität anders gemessen wird als vorhergesagt.
2. Alle Implikationen der Theorie stimmen mit Messbarem überein.
3. Die Theorie sagt Dinge voraus, von denen nur ein Teil messtechnisch verifizierbar ist.

Ich denke wir sind uns einig, dass es primär um '2' geht. Hier gibt es sicherlich mehrere Theorien zur Auswahl. Die Frage ist eben, ob Komplexität automatisch die Plausibilität schmälert.
Schauen wir uns mal die Betrachtungsweise der Raumzeit an, bei welcher es primär darum geht, dass die Hyperfläche 'Gegenwart' konsistent bleibt.
Es ist eine Verallgemeinerung des kartesischen Weltbildes. Das kartesische Weltbild nur ein Grenzfall des viel allgemeineren heutigen Bildes.
Für mich ist das allgemeinere Model intuitiv viel plausibler und wahrscheinlicher, auch wenn es ungemein komplexer ist.

Allein die Tatsache, dass es mathematisch eine Verallgemeinerung des Spezialfalls des kartesischen Raumes ist, macht das ganze meiner Meinung nach viel plausibler und wahrscheinlicher. Die Formeln werden trotzdem als viel komplexer empfunden. Klar gibt es komplizierte Mechanismen, welche die Welt dann für uns mehr oder weniger kartesisch aussehen lassen, aber es ist trotz allem ein größerer Apparat/Mechanismus nötig um dann phänomenologisch einen stablisierten kartesischen Raum zu erklären.

Mir ist z.B. eine komplexe allgemeinere Theorie mit einem Mechanismus welcher dann egal vom Ausgangspunkt aus durch konvergente Zustandsänderungen unsere Realität als stabilsten Zustand bzw Grenzfall ergibt viel lieber, als eine einfache simple Theorie, welche ihren eigenen Zustand nicht erklären kann.
Meiner Meinung nach steht Ockhams Rasiermesser in diametralem Widerspruch zum Ansatz, dass die allgemeineren Theorien wahrscheinlicher sind und unsere Realität dann nur durch konvergente Zustandsänderungen als einen Grenzfall ergeben.

Mir scheint es einfach so, als ob allgemeinere, an sich einfachere Modelle teilweise einen viel größeren Formelapparat benötigen um von uns beschrieben und gehandhabt zu werden.

Das ist eben gerade der Punkt der Semientscheidbarkeit. Wenn man alle Theorien ausschließt, welche sich im Widerspruch zu unseren Messungen befinden, bleiben ja nur noch Theorien die zu den Punkten '2' und '3' gehören. Der Punkt '1' ist gar nicht der Rede wert.
Mir liegt eben auch viel daran zu entscheiden, ob Theorien welche allgemeiner und daher wahrscheinlicher erscheinen, nicht zwangsläufig einen nicht falsifizierbaren Teil haben müssten.

Nehmen wir an, wir hätten eine minimale Theorie A, welche unsere Messungen und prinzipiell alle gerade von uns messbaren Voraussagen sich damit decken.
Jetzt haben wir mehrere Erweiterungen bzw Verallgemeinerungen der Theorie A, und zwar mit Namen B, C, D, E und F, welche allerdings nicht messbare Wirk- und Formel-Konstrukte haben.
Nun ist die Wahrscheinlichkeit doch viel höher, dass die tatsächliche Realisierung des Universums in einer Verallgemeinerung von A liegt und unser gemessenes nur einen Spezialfall darstellt. Trotzdem schließt man B, C, D, E, F gezielt aus, weil da halt nach Ockham 'Überflüssiges' drin ist oder es unsere Berechenbarkeit verkompliziert.

Wäre es erst in 50 Jahren möglich gewesen, die erforderlichen Messungen zur Verifikation/Falsifikation der Relativitätstheorie durchzuführen, wären wir bis heute noch beim kartesischen Weltbild geblieben. Wäre es dann falsch gewesen bis dahin schonmal die Theorie zu erweitern und auszubauen, nur weil die Falsifizierbarkeit noch in weiter Ferne liegt?
Es gibt sicherlich auch einen großen Batzen Theorien, welche möglicherweise erst in 100 Jahren durch neue Technik falsifizierbar würden. Ist es so falsch, jetzt trotzdem schonmal daran zu arbeiten und entsprechende konsistente Konstrukte zu entwerfen?
"Le's do it now. Le's make the world bedda"
'Sure, right now. I gotta. We gotta"

Unentscheidbarkeit für Dummies: Dieser Satz ist wahr

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1510
Registriert: 13. Jan 2017, 10:00

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von ralfkannenberg » 25. Jul 2018, 12:36

Skeltek hat geschrieben:
25. Jul 2018, 11:42
Mit konsistent meinte ich nicht nur in sich konsistent, sondern auch mit den Beobachtungen konsistent.
Mir wäre neu, wenn sich dieses Wort rein auf die mathematisch-logische Widerspruchsfreiheit beschränken sollte.
Hallo Skeltek,

"konsistent" muss immer zu irgendetwas konsistent sein.

Eine Theorie kann also beispielsweise zu den Experimenten konsistent sein, d.h. dass die Theorie ein Messergebnis innerhalb einer vorgegebenen Toleranz vorhergesagt hatte, oder sie ist beispielsweise in sich konsistent, d.h. sie ist widerspruchsfrei. Wobei der strenge Nachweis der Widerspruchsfreiheit in den meisten Fallen sehr schwierig ist, d.h. hier ist es eher so, dass man nu reinfache Überprüfungen machen kann und dann "davon ausgeht", dass die Theorie in sich konsistent ist, und erst wenn man Widersprüche findet, die Theorie überarbeitet bzw. dann wohl in den meisten Fallen verwirft, weil man - zumindest in der Physik - keine widerspruchsbehafteten Theorien verfolgt.


Freundliche Grüsse, Ralf

Benutzeravatar
ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 1510
Registriert: 13. Jan 2017, 10:00

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von ralfkannenberg » 25. Jul 2018, 12:42

tomS hat geschrieben:
25. Jul 2018, 07:02
Spätestens wenn Forschungsgelder wegfallen, wird ein Umdenken einsetzen. Aber man muss es ja nicht so weit kommen lassen.
Hallo Tom,

auch wenn das nur ein Nebenaspekt ist, so bin ich der Meinung, dass der "Kapitalismus" einen viel zu grossen Einfluss auf die Forschung hat.

Man muss ja heutzutage seine Forschungsergebnisse wie auf einem Viehmarkt anpreisen, masslos übertrieben und eine irrsinnig hohe Relevanz nachweisen können, damit man überhaupt Forschungsgelder erhält.

Damit macht sich die Forschung vom Geld abhängig, und wer zahlt, der bestimmt letztlich, auf welchem Gebiet geforscht wird. - Ich sage (und glaube auch) nicht, dass der Sponsor auch gleich das Ergebnis mitbezahlt, wie von manchen Cranks und Verschwörungstheoretikern gerne behauptet wird, aber ich bin auch der Meinung, dass der Forschungsgegenstand von der Forschung und nicht vom Sponsor entschieden werden sollte, was dann natürlich wieder auf eine staatlich geförderte Forschung mit all' ihren Nachteilen hinausläuft.


Freundliche Grüsse, Ralf

Antworten