Hinweis auf die DSGVO: Auf unserer Seite werden keine Dritt-Anbieter-Cookies verwendet und nur Daten erfasst, welche für das Minimum an Board-Funktionalität notwendig sind.
Bevor Sie sich registrieren oder das Board verwenden, lesen Sie bitte zusätzlich die DSGVO-Erklärung, welche in der Navigationsleiste verlinkt ist.

Kurzfassung der unserer Meinung nach wichtigsten DSGVO-Punkte:
Es kann vorkommen, dass Benutzer eigenverantwortlich Videos oder sonstige Medien in ihren Beiträgen verlinken, welche beim Aufruf der Forenseite als Teil der Seite samt zugehörigem Material mitgeladen werden. Sollten Sie dies nicht wünschen, verwenden Sie beim Benutzen des Forums einen Blocker wie z.B. uMatrix, welcher das Laden von Inhaltsblöcken von Fremd-URLs effektiv unterbinden kann.
Wir blenden keine Werbung ein und schränken die Inhalte in keinster Weise bei Benutzung von Addblockern ein. Dadurch ist die Grundfunktionalität des Forums auch bei vollständigem Blockieren von Drittanbieter-Inhalten stets gegeben.

Cookies werden unsererseits nur verwendet um das Einloggen des Benutzers für die Dauer der Forenbenutzung zu speichern. Es steht dem Benutzer frei die Option 'Angemeldet bleiben' zu verwenden, damit der Cookie dauerhaft gespeichert bleibt und beim nächsten Besuch kein erneutes Einloggen mehr notwendig ist.
EMail-Adressen werden für Kontakt bei wichtigen Mitteilungen und zur Widerherstellung des Passwortes verwendet. Die verwendeten IPs können von uns ohne externe Hilfsmittel mit keiner realen Person in Verbindung gebracht werden und werden nach spätestens 7 Tagen gelöscht. Diese IPs werden höchstens verwendet um Neuanmeldungen unerwünschter oder gesperrter Nutzer zu identfizieren und zu unterbinden. Wir behalten uns daher vor bei Verdacht, die Frist für die IP-Löschung auf maximal 14 Tage zu verlängern.
Unsere Webseite läuft auf einem virtuellen Linux-Server, welcher von einem externen Anbieter gehostet wird. Etwaige Verstöße der DSGVO-Auflagen seitens dieses deutschen Hosters können wir nicht feststellen und somit auch nicht verfolgen.
Wir halten Backups unserer Datenbanken, welche in regelmäßigen Abständen als Schutz vor Katastrophen, Hackerangriffen und sonstigen Ausfällen erstellt werden. Sollte ein Nutzer die Löschung seiner Daten wünschen, betrachten wir es als Unzumutbar die Backups auch von den Daten zu befreien, da es sich hierbei um eine mehrtägiges Unterfangen handelt - dies ist für eine Einzelperson beim Betrieb eines privaten Forums nicht zumutbar möglich ohne das Backup komplett zu löschen.
Sollten Sie etwas gegen die dauerhafte anonyme Speicherung ihrer EMail-Adresse, ihres Pseudonyms und ihrer Beiträge in einem Backup haben, sehen Sie von der Registrierung in diesem Forum ab. Für Mitglieder, welche vor dem 25.05.2018 registriert waren steht jedoch das Recht im Raum, eine Löschung der Datenbank-Backups zu beantragen.



Wenn dies Ihr erster Besuch hier ist, lesen Sie bitte zunächst die FAQs sowie die wesentlichen Regeln zur Benutzung des Forums.
Um an den Diskussionen teilnehmen zu können, müssen Sie sich zunächst registrieren.

Am Ende der Natürlichkeit

Jenseits des etablierten Standardmodells der Elementarteilchenphysik und der Allgemeinen Relativitätstheorie, d.h. Quantengravitation, Supersymmetrie und Supergravitation, Stringtheorien...
Antworten
Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 6164
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Am Ende der Natürlichkeit

Beitrag von Frank » 9. Apr 2018, 09:43

Wer die Bahn des Mondes berechnen will, muss nichts von Atomphysik verstehen: Dieses Grundprinzip der Physik galt Forschern jahrzehntelang als Wegweiser auf der Suche nach einer Weltformel. Hat es sie in die Irre geführt?
von Robert Gast
https://www.spektrum.de/news/am-ende-de ... it/1556794

Das ist ein sehr langer , aber faszinierender Artikel wie ich meine.(den ich jetzt schon dreimal gelesen habe, aber noch immr nicht ganz verstanden)

Kann mir aber jemand mal in einfachen Worten erklären, was mit dieser Natürlichkeit genau gemeint ist?
Der Einleitungssatz oben reicht da für mich nicht aus.
Mit freundlichen Grüßen

Frank

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 8098
Registriert: 26. Dez 2009, 10:29

Re: Am Ende der Natürlichkeit

Beitrag von seeker » 9. Apr 2018, 15:02

Ja, gute Frage...

Also in dem von dir verlinkten Text steht folgendes:
Ein Formelwerk gilt als natürlich, wenn Naturgesetze auf einer Größenordnung nicht die Regeln auf einer ganz anderen beeinflussen. »Man muss nicht wissen, wie Quarks in Atomkernen zusammenspielen, wenn man die Bahn des Mondes beschreiben will«, sagt der Aachener Physiker Michael Krämer. »Dieser Gedanke zieht sich durch die gesamte bekannte Physik.«
https://www.spektrum.de/news/am-ende-de ... it/1556794

Aber ganz trifft das m.E. nicht die Sache, um die es im Text geht.
Konkreter geht es in dem Text um etwas, das auch hier angesprochen wird:

Das Problem mit der Feinjustierung

https://www.weltderphysik.de/gebiet/tei ... ustierung/

Besonders die dortige Grafik "Nackte Masse und Strahlungsmasse" ist aufschlussreich:

Dort sieht man zwei 32-stellige Zahlen, die erst einmal nichts miteinander zu tun haben und die sich aber erst ab der 30sten Stelle unterscheiden.
Das läuft darauf hinaus, dass es wie ein extrem großer Zufall ausschaut, wenn sich diese beiden mit einer solchen Exaktheit gerade so ähneln und dann gerade so ausgleichen, dass diese vergleichsweise extrem kleine Masse des Higgsbosons herauskommt. Und das empfindet man als unnatürlich, also vermutet man zunächst, dass da mehr dahinterstecken müsste und sucht seit einiger Zeit danach. Nur wirklich gefunden hat man leider noch nix.

Also gibt es erste Stimmen, die fragen, ob das wirklich unnatürlich ist und wo denn genau die Grenze sei, ab der es natürlich wäre und man sich nicht mehr wundern müsste, wie groß darf eine 'natürliche' Übereinstimmung in Form einer Koinzidenz (https://de.wikipedia.org/wiki/Koinzidenz) also genau sein, ohne dass man gleich ein Naturgesetz dahinter vermuten muss?
Und diese Stimmen werden in letzter Zeit lauter, davon handelt der Bericht.

Andere wiederum versuchen das Problem zu lössen, indem sie postulieren, dass die Natur eben alle möglichen Kombinationen auch tatsächlich in einem ebenso postulierten Multiversum durchspielt, womit es dann eben auch Universen geben muss, wo diese beiden Zahlen sehr nahe beieinander liegen, in einem davon leben wir. Das ist aber auch irgendwie nicht ganz befreidigend.

Und dann gibt es eben Leute, die ein dahinterliegendes Naturgesetz suchen, das solche Übereinstimmungen erklären soll. Der Gedanke dabei ist: Wenn die Übereinstimmung naturgesetzlich herleitbar ist, dann ist es kein 'unnatürlich großer' Zufall mehr, also Problem gelöst.

M. E. vergessen diese Leute aber eines: Im Grunde wird das Problem damit nur verschoben, sozusagen 'von der Zahl zum Naturgesetz', denn bei dem dann formulierten Naturgesetz könnte ich es ja auch wieder als extrem unwahrscheinlich bzw. unnatürlich empfinden, dass das Naturgesetz zufällig gerade so ist und nicht anders. Ich könnte das sogar als noch unwahrscheinlicher empfinden als vorher bei den zwei nackten Zahlen.
Grüße
seeker


Wissenschaft ... ist die Methode, kühne Hypothesen aufstellen und sie der schärfsten Kritik auszusetzen, um herauszufinden, wo wir uns geirrt haben.
Karl Popper

deltaxp
Ehrenmitglied
Ehrenmitglied
Beiträge: 1129
Registriert: 23. Sep 2010, 17:02

Re: Am Ende der Natürlichkeit

Beitrag von deltaxp » 9. Apr 2018, 15:53

soweit wie ich das verstanden habe geht es um zwei dinge.

Phyikalische Theorien sind typischerweise immer effektive Theorien die auf einer bestimmten skale (länge, zeit, energie ) gültig. phyiskalische Prozesse, die auf ganz anderen skalen arbeiten, wirken sich nicht (oder nur ganz wenig aus). das ist eher ein Prinzip denn ein gesetz: ein Beispiel wurde oben bereits gebracht:

die bahn des mondes (grosse skale) wird nicht durch den atomistischen aufbau des mondes beeinflußt. man kann also über die mikroskopische Freiheitsgrade mitteln. und dagt einfach: der hat eine masse und einen druchmesser.

in vielen fällen der klassischen Mechanik vernachlässigt man sogar die Ausdehnung der Objekte und fast sie zu eiem effektiven punktteilchen zusammen.

andere Beispiele.

wenn ich das verhalten einer Flüssigkeit untersuche will verwende ich die hydrondynamischen differentialgleichungen. dort kommt eben solche Parameter wie dichte und Viskosität vor. diese größen erscheinen durch Mittelung über die mikroskopischen Wechselwirkungen der einzelnen Moleküle. ich brauche aber diese kleine skala nicht zu betrachten, sondern nur die effektiven Parameter und die Gleichungen der großen skala.

gas-Temperatur ergibt sich aus MITTLEREN kinetischen Energie der Teilchen. ich brauche nicht alle teilchenenergien einzeln kenn. ich mittlere über den mikroskopische skale und fasse das als Temperatur zusammen und betrachte auf der grossen skale nur doch diese. ebenso wie sich der druck aus der Mittelung der stösse der Moleküle ergibt.
oder klassische Mechanik bei kleinen Geschwindigkeiten: ich brauche da nicht relativistische Effekte bei grossen Geschwindigkeiten berücksichtigen.

und dieses verfahren funktionierte auch ganz gut in der renorbierbaren quantenfeldtheorie. dort kann man mittelt hochfrequente (oder Prozesse auf ganz kleinen längen) zu endlich vielen physikalischen gemessenen parametern bei einer gegebenen energieskale wie massen, kopplungskonstanten (Ladung) zusammenfassen. die massen und kopplungskonstanten hängen dann natürlich von der energieskale ab. bei Fermionen (also Teilchen mit halbzahligen spin) funktioniert das recht gut, weil die strahlungsbeiträge nur langsam (logarithmisch) groß werden, so das sich , wie dort geschrieben wurde, die nackte masse be der cut-off skala Lambda, jetzt nicht so riesig von dem strahlungsbeitrag unterscheided. cut-off skala sind max 10^-33 cm bzw 10^19 GeV (höhere Energien bei dieser länge machen direkt schwarze löcher so die annahme ...).

auch das Standardmodell ist prinzipiell auch mit higgs (gerade desqegen) renormierbar. nur das der strahlungsbeitrag nicht logarithmisch sondern quadratisch steigern bis zu cut-off skala, was heisst dass sich nackte masse und strahlungsmasse bis auf 30 stellen nach dem komma, also über den gesamten Energiebereich von der gemessen higgsmasse 125 GeV bis zur cut off (10^19 GeV) also über einen riesen grossen skalenbereich aufheben müssen um so klein zu bleiben. (das nennt man auch hierarchieproblem).

Und diese Beeinflussung oder nennen wir es Feinabstimmung über soviele skalen, kennt man nicht aus bisherigen Theorien. Es kann Zufall sein, möglich, aber die meisten Physiker glaubten sehr lange, das es eben doch eine physikalische Methode gibt, mit der man auch wieder nur einen geringen strahlungsbeitrag zur masse des higgs generieren kann. wie z.b. supersymmetrie. denn der supersymetrische Partner des higgs, würde cancelned wirken, wie Teilchen und antitielhcen bei den Fermionen. aber dazu dürften die supersymmetrischen Partner nicht zu schwer sein, sonst erfüllen sie den zweck nicht. Und dann gibt es gemäss dem Theorem noch andere Modelle, um dies zu bewerkstellen (sie haben das dort Relaxion-feld, oder twin-higgs-mechanismus genannt).

aber seit 2012 gibt es nach dem higgs-fund eben nur grosses schweigen. viele supersymmetrische modelle konnten offenbar schon ausgeschlossen werden. und do langsam setzt halt die sorge ein: was wenn wir mit Natürlichkeit auf falsche Prinzip gesetzt haben, dann brauchen wir natürlich andere mathematische Vorgehensweisen.

Benutzeravatar
Frank
Ehrenmitglied
Ehrenmitglied
Beiträge: 6164
Registriert: 12. Dez 2005, 23:22
Wohnort: Odenwald

Re: Am Ende der Natürlichkeit

Beitrag von Frank » 10. Apr 2018, 10:05

deltaxp hat geschrieben:
9. Apr 2018, 15:53


aber seit 2012 gibt es nach dem higgs-fund eben nur grosses schweigen. viele supersymmetrische modelle konnten offenbar schon ausgeschlossen werden. und do langsam setzt halt die sorge ein: was wenn wir mit Natürlichkeit auf falsche Prinzip gesetzt haben, dann brauchen wir natürlich andere mathematische Vorgehensweisen.
Bedeutet dann das nicht auch , dass wir z.B. dunkle Materie mit der bisherigen Vorgehensweise gar nicht erst finden können?
Mit freundlichen Grüßen

Frank

deltaxp
Ehrenmitglied
Ehrenmitglied
Beiträge: 1129
Registriert: 23. Sep 2010, 17:02

Re: Am Ende der Natürlichkeit

Beitrag von deltaxp » 10. Apr 2018, 12:59

Heiße Kandidaten für dunkle Materie waren ja die leichtesten supersymmetrischen Teilchen (LSP's). aber es geht ja auch um die dunkle Energie. da liegt das SM um 120 Größenordnungen daneben zum gemessenen Wert. Für die QFT ist es egal, aber nicht für die ART. Aber wenn Supersymmetrie nicht in der Natur realisiert ist, können die LSPs natürlich auch keine Kandidaten für DM sein und DE kann ebenfalls nicht dadurch versucht werden zu lösen.

Die Frage die in dem Artikel gestellt wird, ist letzlich, will man weiterhin versuchen, das Hierarchie-Problem durch "natürliche" Theorien zu lösen (also Theorien, die auf gewissen Skalen gültig sind und hochfrequente aka mikroskopische Unterstrukturen/Prozesse durch in endlich viele Parameter für die betrachtete Skale robust - also ohne Feintuning bis auf zig stellen nach dem Komma), weil diese Vorgehensweise in den vergangenen Jahrzehnten oder allgemein sogar Jahrhunderten gut funktionierte. Oder wird es Zeit auf neue Pferde zu setzen.

Aber in der tat, wir kennen auch Phänomene wo das schon heute nicht gut funktioniert mit effektiven Theorien. Strömungsmechanik: Insbesondere Turbulenz.
Die Navier-Stokes-Gleichung die das Fluid beschreiben sind selber nicht so kompliziert, aber sie bringen unter bestimmten Bedingungen aufgrund ihrer Nichtlinearität eben Verwirbelungen , also Turbulenzen hervor. Der Witz, das sich dir Turbulenzen also die Wirbel ihre Energie bis auf immer kleinere Gebiete übertragen, bis runter zu wenigen Molekülen. Es gibt kein effektives Turbulenzmodell dass die mikroskopisch kleinen Wirbel in Parameter zusammenfassen kann und IMMER gut auf größeren Skalen funktioniert. Mal passt ein effektives Turbulenzmodell besser, bei anderen Randbedingungen ein anderes. Wenn man die Turbulenzen richtig numerisch berechnen will muss man auf sehr feine Gitter setzen, letztlich bis eben fast auf Molekülniveau. das ist numerisch-technisch vorsichtig ausgedrückt sehr anspruchsvoll. Also Windkanal oder eben spezielle Modelle die unter bestimmten Bedingungen gut funktionieren. Wer weiss, vielleicht sind effektive QFTS eben an Ihrer Grenze und man brauch letztlich eine Theorie die skalenübergreifend arbeitet.

Das Hauptproblem für die Theoretiker ist aber leider, dass von den Experimenten kein Hinweis kommt, wie neue Physik auszusehen hat, eben nur das Higgs und sonst nix. Das macht es für die Theoretiker schwer physikalische Theorien zu entwickeln, die Modelle der Realität sind. Das einzige, woran sie festhalten können: es darf nicht gesicherten Erkenntnissen widersprechen und sie müssen mathematisch konsistent sein, wenn möglich auch anaomalie frei. diese heilige kuh darf man nicht aufgeben, weil die eine Grundregel für die Naturwissenschaft ist. Wenn man die aufgibt, ist es einfach keine Naturwissenschaft mehr, sonder ka. Physikotherik oder Physikologie, aber keine Physik mehr.
Zuletzt geändert von deltaxp am 10. Apr 2018, 14:17, insgesamt 1-mal geändert.

ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 3587
Registriert: 13. Jan 2017, 10:00

Re: Am Ende der Natürlichkeit

Beitrag von ralfkannenberg » 10. Apr 2018, 14:10

deltaxp hat geschrieben:
9. Apr 2018, 15:53
aber seit 2012 gibt es nach dem higgs-fund eben nur grosses schweigen. viele supersymmetrische modelle konnten offenbar schon ausgeschlossen werden. und do langsam setzt halt die sorge ein: was wenn wir mit Natürlichkeit auf falsche Prinzip gesetzt haben, dann brauchen wir natürlich andere mathematische Vorgehensweisen.
Hallo deltaxp,

bitte beachte bei dieser Aussage, dass das Higgs-Boson auch erwartet worden war, es war ja das letzte noch experimentell ausstehende Teilchen vom Standardmodell, welches schon zahlreiche Teilchen richtig vorhergesagt hatte und auch mehrere Nobelpreise dafür erhalten hatte.

Mit der Entdeckung des Higgs-Bosons war das Standardmodell nun experimentell vollständig überprüft.


Natürlich sucht man nach einer mehr umfassenden Theorie, aus der sich gewisse Grössen direkt ergeben. In der Wikipedia finden wir hierzu:
Es gibt dennoch Gründe für die Annahme, dass das Standardmodell nur ein Aspekt einer noch umfassenderen Theorie ist. Dunkle Materie und Dunkle Energie werden vom Standardmodell nicht beschrieben. Seine Aussagen führen bei hohen Energien, wie sie beim Urknall auftraten, zu Widersprüchen mit der allgemeinen Relativitätstheorie. Außerdem müssen 18 Parameter, deren Werte nicht aus der Theorie hervorgehen, anhand von experimentellen Ergebnissen festgelegt werden. Es wird dadurch recht „biegsam“ und kann sich in einem gewissen Rahmen den tatsächlich gemachten Beobachtungen anpassen. Es gibt auch zahlreiche Bemühungen, das Standardmodell zu erweitern oder abzulösen.
Auch die inzwischen bestätigte, von Null verschiedene Ruhemasse der Neutrinos führt über die Theorie des Standardmodells hinaus.

Und bei dieser Erweiterung des Standardmodells kommt man nach wie vor nicht weiter. Das ist das "grosse Schweigen", welches Du oben genannt hast. Fairerweise muss aber auch gesagt werden, dass die Möglichkeit, dass der LHC einfach nicht stark genug ist, auch ohne jegliche philosophische Betrachtung eine durchaus realistische Option ist, d.h. die korrekte Theorie ist vielleicht auch ohne "grundlegend neue Ansätze" schon formuliert, kann mit den derzeitigen Mitteln aber nicht experimentell erhärtet werden.


Freundliche Grüsse, Ralf

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Am Ende der Natürlichkeit

Beitrag von tomS » 10. Apr 2018, 15:57

Supersymmetrie erst bei deutlich höheren Energien als am LHC ist auch keine gute bzw. natürliche Lösung, da wiederum geklärt werden müsste, woher eine weitere und deutlich höhere Massenskala stammt. Außerdem müssen die supersymmetrieschen Erweiterungen diverse Verträglichkeitstests bestehen, und da wird’s bei zu hohen Energien auch ziemlich eng.

Einige Physiker diskutieren die Idee, dass das Standardmodell mit einem weiteren schweren Higgs-artiges Multiplett o.ä. gilt, und dass die Neutrinomassen aus dem See-Saw-Mechanismus stammen. D.h. es gäbe noch weitere, extrem schwere Partner-Neutrinos. Dieser Ansatz könnte ohne SUSY funktionieren und stabil bzw. “natürlich” sein, d.h. die Massen würden nicht zur Planck-Skala “weglaufen”. Es gibt sogar Ansätze, dass dies zu einer nicht-perturbativen Renormierbarkeit der Gravitation passen würde.

Rein praktisch könnte das funktionieren, rein theoretisch wäre es natürlich die absolute Katastrophe, da man eine konsistente Theorie mit über 20 Parametern hätte, in der die Wechselwirkungen nicht vereinheitlicht nebeneinander existieren.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Skeltek
Site Admin
Site Admin
Beiträge: 5081
Registriert: 25. Mär 2008, 23:51
Wohnort: Stuttgart, Germany
Kontaktdaten:

Re: Am Ende der Natürlichkeit

Beitrag von Skeltek » 10. Apr 2018, 22:51

Die gängigen Theorien haben einen bottom-up Ansatz: Vertreter von Teilchenklassen universel äquivalenter Teilchenarten schließen sich zu größeren Strukturen zusammen.
Ich hielt eigentlich schon immer den unbeliebten weil unpraktischen top-down Ansatz für sinnvoller und logischer.

Kräfte, Teilchen und Felder entstanden aus einem größeren homogeneren Feld/Etwas, nachdem sich die Urkraft gesplittet und der Rest fraktalsmäßig in Teilchenarten kondensiert hatte.
Es ist eher sogar zu erwarten, dass die komplementären Kräfte in dieselbe Größenordnung fallen, die Dynamik des Urknalls fordert das denke ich einfach. Man kann genausowenig einen Apfel in zwei Stücke schneiden und sich dann wundern, weshalb die beiden zusammen fast exakt ein Ganzes ergeben.
Das Higgs-Feld war letzten Endes auch zuerst da.

Seeker hat denke ich ganz gut verlinkt und das Beispiel mit den zwei fast exakt gleich großen Zahlen ist ziemlich aussagestark. Es wäre auch einfach ein Mechanismus vorstellbar, der beim Urknall erst Materiebildung zuließ, nachdem entsprechende Parameter bereits fast angeglichen waren.
Gödel für Dummies:
  • Unentscheidbarkeit - Dieser Satz ist wahr.
  • Unvollständig - Aussage A: Es existiert nur ein Element A.
  • Widersprüchlich - Dieser Satz ist falsch.

deltaxp
Ehrenmitglied
Ehrenmitglied
Beiträge: 1129
Registriert: 23. Sep 2010, 17:02

Re: Am Ende der Natürlichkeit

Beitrag von deltaxp » 11. Apr 2018, 12:55

ralfkannenberg hat geschrieben:
10. Apr 2018, 14:10
bitte beachte bei dieser Aussage, dass das Higgs-Boson auch erwartet worden war, es war ja das letzte noch experimentell ausstehende Teilchen vom Standardmodell, welches schon zahlreiche Teilchen richtig vorhergesagt hatte und auch mehrere Nobelpreise dafür erhalten hatte.
Mit der Entdeckung des Higgs-Bosons war das Standardmodell nun experimentell vollständig überprüft.
Ja das ist mir schon klar. Ich muss da immer an ein Interview mit einem Cern-Physiker denken bevor der LHC an de Start ging:
F: "Was erwarten Sie mindestens vom LHC ?"
A: "Das wir das Higgs-finden"
F: "Was ist das schlimmste was passieren kann?"
A: "Das wir nur das Higgs finden, Dann lieber kein Higgs."

Das wollte ich damit zum Ausdruck bringen, Higgs und sonst nur schweigen. worst case Scenario, keine hinweise auf neue post-std-modell-Physik bisher.
Hast du ja auch selbst weiter unten in deinem post beschrieben.

@ Tom. Ja. es gibt wohl noch weitere Möglichkeiten. Aber wie du selber sagst. schön ist anders. 20 freie Parameter dann ohne Ansatz woher die kommen. wieso koppeln einige stärker ans h-Feld, andere widerum nicht?. wiese die familen Wiederholungen. Da muss mehr hinter stecken und wahrscheinlich was fundamental anders.

Antworten