Seite 1 von 1

Am Ende der Natürlichkeit

Verfasst: 9. Apr 2018, 09:43
von Frank
Wer die Bahn des Mondes berechnen will, muss nichts von Atomphysik verstehen: Dieses Grundprinzip der Physik galt Forschern jahrzehntelang als Wegweiser auf der Suche nach einer Weltformel. Hat es sie in die Irre geführt?
von Robert Gast
https://www.spektrum.de/news/am-ende-de ... it/1556794

Das ist ein sehr langer , aber faszinierender Artikel wie ich meine.(den ich jetzt schon dreimal gelesen habe, aber noch immr nicht ganz verstanden)

Kann mir aber jemand mal in einfachen Worten erklären, was mit dieser Natürlichkeit genau gemeint ist?
Der Einleitungssatz oben reicht da für mich nicht aus.

Re: Am Ende der Natürlichkeit

Verfasst: 9. Apr 2018, 15:02
von seeker
Ja, gute Frage...

Also in dem von dir verlinkten Text steht folgendes:
Ein Formelwerk gilt als natürlich, wenn Naturgesetze auf einer Größenordnung nicht die Regeln auf einer ganz anderen beeinflussen. »Man muss nicht wissen, wie Quarks in Atomkernen zusammenspielen, wenn man die Bahn des Mondes beschreiben will«, sagt der Aachener Physiker Michael Krämer. »Dieser Gedanke zieht sich durch die gesamte bekannte Physik.«
https://www.spektrum.de/news/am-ende-de ... it/1556794

Aber ganz trifft das m.E. nicht die Sache, um die es im Text geht.
Konkreter geht es in dem Text um etwas, das auch hier angesprochen wird:

Das Problem mit der Feinjustierung

https://www.weltderphysik.de/gebiet/tei ... ustierung/

Besonders die dortige Grafik "Nackte Masse und Strahlungsmasse" ist aufschlussreich:

Dort sieht man zwei 32-stellige Zahlen, die erst einmal nichts miteinander zu tun haben und die sich aber erst ab der 30sten Stelle unterscheiden.
Das läuft darauf hinaus, dass es wie ein extrem großer Zufall ausschaut, wenn sich diese beiden mit einer solchen Exaktheit gerade so ähneln und dann gerade so ausgleichen, dass diese vergleichsweise extrem kleine Masse des Higgsbosons herauskommt. Und das empfindet man als unnatürlich, also vermutet man zunächst, dass da mehr dahinterstecken müsste und sucht seit einiger Zeit danach. Nur wirklich gefunden hat man leider noch nix.

Also gibt es erste Stimmen, die fragen, ob das wirklich unnatürlich ist und wo denn genau die Grenze sei, ab der es natürlich wäre und man sich nicht mehr wundern müsste, wie groß darf eine 'natürliche' Übereinstimmung in Form einer Koinzidenz (https://de.wikipedia.org/wiki/Koinzidenz) also genau sein, ohne dass man gleich ein Naturgesetz dahinter vermuten muss?
Und diese Stimmen werden in letzter Zeit lauter, davon handelt der Bericht.

Andere wiederum versuchen das Problem zu lössen, indem sie postulieren, dass die Natur eben alle möglichen Kombinationen auch tatsächlich in einem ebenso postulierten Multiversum durchspielt, womit es dann eben auch Universen geben muss, wo diese beiden Zahlen sehr nahe beieinander liegen, in einem davon leben wir. Das ist aber auch irgendwie nicht ganz befreidigend.

Und dann gibt es eben Leute, die ein dahinterliegendes Naturgesetz suchen, das solche Übereinstimmungen erklären soll. Der Gedanke dabei ist: Wenn die Übereinstimmung naturgesetzlich herleitbar ist, dann ist es kein 'unnatürlich großer' Zufall mehr, also Problem gelöst.

M. E. vergessen diese Leute aber eines: Im Grunde wird das Problem damit nur verschoben, sozusagen 'von der Zahl zum Naturgesetz', denn bei dem dann formulierten Naturgesetz könnte ich es ja auch wieder als extrem unwahrscheinlich bzw. unnatürlich empfinden, dass das Naturgesetz zufällig gerade so ist und nicht anders. Ich könnte das sogar als noch unwahrscheinlicher empfinden als vorher bei den zwei nackten Zahlen.

Re: Am Ende der Natürlichkeit

Verfasst: 9. Apr 2018, 15:53
von deltaxp
soweit wie ich das verstanden habe geht es um zwei dinge.

Phyikalische Theorien sind typischerweise immer effektive Theorien die auf einer bestimmten skale (länge, zeit, energie ) gültig. phyiskalische Prozesse, die auf ganz anderen skalen arbeiten, wirken sich nicht (oder nur ganz wenig aus). das ist eher ein Prinzip denn ein gesetz: ein Beispiel wurde oben bereits gebracht:

die bahn des mondes (grosse skale) wird nicht durch den atomistischen aufbau des mondes beeinflußt. man kann also über die mikroskopische Freiheitsgrade mitteln. und dagt einfach: der hat eine masse und einen druchmesser.

in vielen fällen der klassischen Mechanik vernachlässigt man sogar die Ausdehnung der Objekte und fast sie zu eiem effektiven punktteilchen zusammen.

andere Beispiele.

wenn ich das verhalten einer Flüssigkeit untersuche will verwende ich die hydrondynamischen differentialgleichungen. dort kommt eben solche Parameter wie dichte und Viskosität vor. diese größen erscheinen durch Mittelung über die mikroskopischen Wechselwirkungen der einzelnen Moleküle. ich brauche aber diese kleine skala nicht zu betrachten, sondern nur die effektiven Parameter und die Gleichungen der großen skala.

gas-Temperatur ergibt sich aus MITTLEREN kinetischen Energie der Teilchen. ich brauche nicht alle teilchenenergien einzeln kenn. ich mittlere über den mikroskopische skale und fasse das als Temperatur zusammen und betrachte auf der grossen skale nur doch diese. ebenso wie sich der druck aus der Mittelung der stösse der Moleküle ergibt.
oder klassische Mechanik bei kleinen Geschwindigkeiten: ich brauche da nicht relativistische Effekte bei grossen Geschwindigkeiten berücksichtigen.

und dieses verfahren funktionierte auch ganz gut in der renorbierbaren quantenfeldtheorie. dort kann man mittelt hochfrequente (oder Prozesse auf ganz kleinen längen) zu endlich vielen physikalischen gemessenen parametern bei einer gegebenen energieskale wie massen, kopplungskonstanten (Ladung) zusammenfassen. die massen und kopplungskonstanten hängen dann natürlich von der energieskale ab. bei Fermionen (also Teilchen mit halbzahligen spin) funktioniert das recht gut, weil die strahlungsbeiträge nur langsam (logarithmisch) groß werden, so das sich , wie dort geschrieben wurde, die nackte masse be der cut-off skala Lambda, jetzt nicht so riesig von dem strahlungsbeitrag unterscheided. cut-off skala sind max 10^-33 cm bzw 10^19 GeV (höhere Energien bei dieser länge machen direkt schwarze löcher so die annahme ...).

auch das Standardmodell ist prinzipiell auch mit higgs (gerade desqegen) renormierbar. nur das der strahlungsbeitrag nicht logarithmisch sondern quadratisch steigern bis zu cut-off skala, was heisst dass sich nackte masse und strahlungsmasse bis auf 30 stellen nach dem komma, also über den gesamten Energiebereich von der gemessen higgsmasse 125 GeV bis zur cut off (10^19 GeV) also über einen riesen grossen skalenbereich aufheben müssen um so klein zu bleiben. (das nennt man auch hierarchieproblem).

Und diese Beeinflussung oder nennen wir es Feinabstimmung über soviele skalen, kennt man nicht aus bisherigen Theorien. Es kann Zufall sein, möglich, aber die meisten Physiker glaubten sehr lange, das es eben doch eine physikalische Methode gibt, mit der man auch wieder nur einen geringen strahlungsbeitrag zur masse des higgs generieren kann. wie z.b. supersymmetrie. denn der supersymetrische Partner des higgs, würde cancelned wirken, wie Teilchen und antitielhcen bei den Fermionen. aber dazu dürften die supersymmetrischen Partner nicht zu schwer sein, sonst erfüllen sie den zweck nicht. Und dann gibt es gemäss dem Theorem noch andere Modelle, um dies zu bewerkstellen (sie haben das dort Relaxion-feld, oder twin-higgs-mechanismus genannt).

aber seit 2012 gibt es nach dem higgs-fund eben nur grosses schweigen. viele supersymmetrische modelle konnten offenbar schon ausgeschlossen werden. und do langsam setzt halt die sorge ein: was wenn wir mit Natürlichkeit auf falsche Prinzip gesetzt haben, dann brauchen wir natürlich andere mathematische Vorgehensweisen.

Re: Am Ende der Natürlichkeit

Verfasst: 10. Apr 2018, 10:05
von Frank
deltaxp hat geschrieben:
9. Apr 2018, 15:53


aber seit 2012 gibt es nach dem higgs-fund eben nur grosses schweigen. viele supersymmetrische modelle konnten offenbar schon ausgeschlossen werden. und do langsam setzt halt die sorge ein: was wenn wir mit Natürlichkeit auf falsche Prinzip gesetzt haben, dann brauchen wir natürlich andere mathematische Vorgehensweisen.
Bedeutet dann das nicht auch , dass wir z.B. dunkle Materie mit der bisherigen Vorgehensweise gar nicht erst finden können?

Re: Am Ende der Natürlichkeit

Verfasst: 10. Apr 2018, 12:59
von deltaxp
Heiße Kandidaten für dunkle Materie waren ja die leichtesten supersymmetrischen Teilchen (LSP's). aber es geht ja auch um die dunkle Energie. da liegt das SM um 120 Größenordnungen daneben zum gemessenen Wert. Für die QFT ist es egal, aber nicht für die ART. Aber wenn Supersymmetrie nicht in der Natur realisiert ist, können die LSPs natürlich auch keine Kandidaten für DM sein und DE kann ebenfalls nicht dadurch versucht werden zu lösen.

Die Frage die in dem Artikel gestellt wird, ist letzlich, will man weiterhin versuchen, das Hierarchie-Problem durch "natürliche" Theorien zu lösen (also Theorien, die auf gewissen Skalen gültig sind und hochfrequente aka mikroskopische Unterstrukturen/Prozesse durch in endlich viele Parameter für die betrachtete Skale robust - also ohne Feintuning bis auf zig stellen nach dem Komma), weil diese Vorgehensweise in den vergangenen Jahrzehnten oder allgemein sogar Jahrhunderten gut funktionierte. Oder wird es Zeit auf neue Pferde zu setzen.

Aber in der tat, wir kennen auch Phänomene wo das schon heute nicht gut funktioniert mit effektiven Theorien. Strömungsmechanik: Insbesondere Turbulenz.
Die Navier-Stokes-Gleichung die das Fluid beschreiben sind selber nicht so kompliziert, aber sie bringen unter bestimmten Bedingungen aufgrund ihrer Nichtlinearität eben Verwirbelungen , also Turbulenzen hervor. Der Witz, das sich dir Turbulenzen also die Wirbel ihre Energie bis auf immer kleinere Gebiete übertragen, bis runter zu wenigen Molekülen. Es gibt kein effektives Turbulenzmodell dass die mikroskopisch kleinen Wirbel in Parameter zusammenfassen kann und IMMER gut auf größeren Skalen funktioniert. Mal passt ein effektives Turbulenzmodell besser, bei anderen Randbedingungen ein anderes. Wenn man die Turbulenzen richtig numerisch berechnen will muss man auf sehr feine Gitter setzen, letztlich bis eben fast auf Molekülniveau. das ist numerisch-technisch vorsichtig ausgedrückt sehr anspruchsvoll. Also Windkanal oder eben spezielle Modelle die unter bestimmten Bedingungen gut funktionieren. Wer weiss, vielleicht sind effektive QFTS eben an Ihrer Grenze und man brauch letztlich eine Theorie die skalenübergreifend arbeitet.

Das Hauptproblem für die Theoretiker ist aber leider, dass von den Experimenten kein Hinweis kommt, wie neue Physik auszusehen hat, eben nur das Higgs und sonst nix. Das macht es für die Theoretiker schwer physikalische Theorien zu entwickeln, die Modelle der Realität sind. Das einzige, woran sie festhalten können: es darf nicht gesicherten Erkenntnissen widersprechen und sie müssen mathematisch konsistent sein, wenn möglich auch anaomalie frei. diese heilige kuh darf man nicht aufgeben, weil die eine Grundregel für die Naturwissenschaft ist. Wenn man die aufgibt, ist es einfach keine Naturwissenschaft mehr, sonder ka. Physikotherik oder Physikologie, aber keine Physik mehr.

Re: Am Ende der Natürlichkeit

Verfasst: 10. Apr 2018, 14:10
von ralfkannenberg
deltaxp hat geschrieben:
9. Apr 2018, 15:53
aber seit 2012 gibt es nach dem higgs-fund eben nur grosses schweigen. viele supersymmetrische modelle konnten offenbar schon ausgeschlossen werden. und do langsam setzt halt die sorge ein: was wenn wir mit Natürlichkeit auf falsche Prinzip gesetzt haben, dann brauchen wir natürlich andere mathematische Vorgehensweisen.
Hallo deltaxp,

bitte beachte bei dieser Aussage, dass das Higgs-Boson auch erwartet worden war, es war ja das letzte noch experimentell ausstehende Teilchen vom Standardmodell, welches schon zahlreiche Teilchen richtig vorhergesagt hatte und auch mehrere Nobelpreise dafür erhalten hatte.

Mit der Entdeckung des Higgs-Bosons war das Standardmodell nun experimentell vollständig überprüft.


Natürlich sucht man nach einer mehr umfassenden Theorie, aus der sich gewisse Grössen direkt ergeben. In der Wikipedia finden wir hierzu:
Es gibt dennoch Gründe für die Annahme, dass das Standardmodell nur ein Aspekt einer noch umfassenderen Theorie ist. Dunkle Materie und Dunkle Energie werden vom Standardmodell nicht beschrieben. Seine Aussagen führen bei hohen Energien, wie sie beim Urknall auftraten, zu Widersprüchen mit der allgemeinen Relativitätstheorie. Außerdem müssen 18 Parameter, deren Werte nicht aus der Theorie hervorgehen, anhand von experimentellen Ergebnissen festgelegt werden. Es wird dadurch recht „biegsam“ und kann sich in einem gewissen Rahmen den tatsächlich gemachten Beobachtungen anpassen. Es gibt auch zahlreiche Bemühungen, das Standardmodell zu erweitern oder abzulösen.
Auch die inzwischen bestätigte, von Null verschiedene Ruhemasse der Neutrinos führt über die Theorie des Standardmodells hinaus.

Und bei dieser Erweiterung des Standardmodells kommt man nach wie vor nicht weiter. Das ist das "grosse Schweigen", welches Du oben genannt hast. Fairerweise muss aber auch gesagt werden, dass die Möglichkeit, dass der LHC einfach nicht stark genug ist, auch ohne jegliche philosophische Betrachtung eine durchaus realistische Option ist, d.h. die korrekte Theorie ist vielleicht auch ohne "grundlegend neue Ansätze" schon formuliert, kann mit den derzeitigen Mitteln aber nicht experimentell erhärtet werden.


Freundliche Grüsse, Ralf

Re: Am Ende der Natürlichkeit

Verfasst: 10. Apr 2018, 15:57
von tomS
Supersymmetrie erst bei deutlich höheren Energien als am LHC ist auch keine gute bzw. natürliche Lösung, da wiederum geklärt werden müsste, woher eine weitere und deutlich höhere Massenskala stammt. Außerdem müssen die supersymmetrieschen Erweiterungen diverse Verträglichkeitstests bestehen, und da wird’s bei zu hohen Energien auch ziemlich eng.

Einige Physiker diskutieren die Idee, dass das Standardmodell mit einem weiteren schweren Higgs-artiges Multiplett o.ä. gilt, und dass die Neutrinomassen aus dem See-Saw-Mechanismus stammen. D.h. es gäbe noch weitere, extrem schwere Partner-Neutrinos. Dieser Ansatz könnte ohne SUSY funktionieren und stabil bzw. “natürlich” sein, d.h. die Massen würden nicht zur Planck-Skala “weglaufen”. Es gibt sogar Ansätze, dass dies zu einer nicht-perturbativen Renormierbarkeit der Gravitation passen würde.

Rein praktisch könnte das funktionieren, rein theoretisch wäre es natürlich die absolute Katastrophe, da man eine konsistente Theorie mit über 20 Parametern hätte, in der die Wechselwirkungen nicht vereinheitlicht nebeneinander existieren.

Re: Am Ende der Natürlichkeit

Verfasst: 10. Apr 2018, 22:51
von Skeltek
Die gängigen Theorien haben einen bottom-up Ansatz: Vertreter von Teilchenklassen universel äquivalenter Teilchenarten schließen sich zu größeren Strukturen zusammen.
Ich hielt eigentlich schon immer den unbeliebten weil unpraktischen top-down Ansatz für sinnvoller und logischer.

Kräfte, Teilchen und Felder entstanden aus einem größeren homogeneren Feld/Etwas, nachdem sich die Urkraft gesplittet und der Rest fraktalsmäßig in Teilchenarten kondensiert hatte.
Es ist eher sogar zu erwarten, dass die komplementären Kräfte in dieselbe Größenordnung fallen, die Dynamik des Urknalls fordert das denke ich einfach. Man kann genausowenig einen Apfel in zwei Stücke schneiden und sich dann wundern, weshalb die beiden zusammen fast exakt ein Ganzes ergeben.
Das Higgs-Feld war letzten Endes auch zuerst da.

Seeker hat denke ich ganz gut verlinkt und das Beispiel mit den zwei fast exakt gleich großen Zahlen ist ziemlich aussagestark. Es wäre auch einfach ein Mechanismus vorstellbar, der beim Urknall erst Materiebildung zuließ, nachdem entsprechende Parameter bereits fast angeglichen waren.

Re: Am Ende der Natürlichkeit

Verfasst: 11. Apr 2018, 12:55
von deltaxp
ralfkannenberg hat geschrieben:
10. Apr 2018, 14:10
bitte beachte bei dieser Aussage, dass das Higgs-Boson auch erwartet worden war, es war ja das letzte noch experimentell ausstehende Teilchen vom Standardmodell, welches schon zahlreiche Teilchen richtig vorhergesagt hatte und auch mehrere Nobelpreise dafür erhalten hatte.
Mit der Entdeckung des Higgs-Bosons war das Standardmodell nun experimentell vollständig überprüft.
Ja das ist mir schon klar. Ich muss da immer an ein Interview mit einem Cern-Physiker denken bevor der LHC an de Start ging:
F: "Was erwarten Sie mindestens vom LHC ?"
A: "Das wir das Higgs-finden"
F: "Was ist das schlimmste was passieren kann?"
A: "Das wir nur das Higgs finden, Dann lieber kein Higgs."

Das wollte ich damit zum Ausdruck bringen, Higgs und sonst nur schweigen. worst case Scenario, keine hinweise auf neue post-std-modell-Physik bisher.
Hast du ja auch selbst weiter unten in deinem post beschrieben.

@ Tom. Ja. es gibt wohl noch weitere Möglichkeiten. Aber wie du selber sagst. schön ist anders. 20 freie Parameter dann ohne Ansatz woher die kommen. wieso koppeln einige stärker ans h-Feld, andere widerum nicht?. wiese die familen Wiederholungen. Da muss mehr hinter stecken und wahrscheinlich was fundamental anders.