Hinweis auf die DSGVO: Auf unserer Seite werden keine Dritt-Anbieter-Cookies verwendet und nur Daten erfasst, welche für das Minimum an Board-Funktionalität notwendig sind.
Bevor Sie sich registrieren oder das Board verwenden, lesen Sie bitte zusätzlich die DSGVO-Erklärung, welche in der Navigationsleiste verlinkt ist.

Kurzfassung der unserer Meinung nach wichtigsten DSGVO-Punkte:
Es kann vorkommen, dass Benutzer eigenverantwortlich Videos oder sonstige Medien in ihren Beiträgen verlinken, welche beim Aufruf der Forenseite als Teil der Seite samt zugehörigem Material mitgeladen werden. Sollten Sie dies nicht wünschen, verwenden Sie beim Benutzen des Forums einen Blocker wie z.B. uMatrix, welcher das Laden von Inhaltsblöcken von Fremd-URLs effektiv unterbinden kann.
Wir blenden keine Werbung ein und schränken die Inhalte in keinster Weise bei Benutzung von Addblockern ein. Dadurch ist die Grundfunktionalität des Forums auch bei vollständigem Blockieren von Drittanbieter-Inhalten stets gegeben.

Cookies werden unsererseits nur verwendet um das Einloggen des Benutzers für die Dauer der Forenbenutzung zu speichern. Es steht dem Benutzer frei die Option 'Angemeldet bleiben' zu verwenden, damit der Cookie dauerhaft gespeichert bleibt und beim nächsten Besuch kein erneutes Einloggen mehr notwendig ist.
EMail-Adressen werden für Kontakt bei wichtigen Mitteilungen und zur Widerherstellung des Passwortes verwendet. Die verwendeten IPs können von uns ohne externe Hilfsmittel mit keiner realen Person in Verbindung gebracht werden und werden nach spätestens 7 Tagen gelöscht. Diese IPs werden höchstens verwendet um Neuanmeldungen unerwünschter oder gesperrter Nutzer zu identfizieren und zu unterbinden. Wir behalten uns daher vor bei Verdacht, die Frist für die IP-Löschung auf maximal 14 Tage zu verlängern.
Unsere Webseite läuft auf einem virtuellen Linux-Server, welcher von einem externen Anbieter gehostet wird. Etwaige Verstöße der DSGVO-Auflagen seitens dieses deutschen Hosters können wir nicht feststellen und somit auch nicht verfolgen.
Wir halten Backups unserer Datenbanken, welche in regelmäßigen Abständen als Schutz vor Katastrophen, Hackerangriffen und sonstigen Ausfällen erstellt werden. Sollte ein Nutzer die Löschung seiner Daten wünschen, betrachten wir es als Unzumutbar die Backups auch von den Daten zu befreien, da es sich hierbei um eine mehrtägiges Unterfangen handelt - dies ist für eine Einzelperson beim Betrieb eines privaten Forums nicht zumutbar möglich ohne das Backup komplett zu löschen.
Sollten Sie etwas gegen die dauerhafte anonyme Speicherung ihrer EMail-Adresse, ihres Pseudonyms und ihrer Beiträge in einem Backup haben, sehen Sie von der Registrierung in diesem Forum ab. Für Mitglieder, welche vor dem 25.05.2018 registriert waren steht jedoch das Recht im Raum, eine Löschung der Datenbank-Backups zu beantragen.



Wenn dies Ihr erster Besuch hier ist, lesen Sie bitte zunächst die FAQs sowie die wesentlichen Regeln zur Benutzung des Forums.
Um an den Diskussionen teilnehmen zu können, müssen Sie sich zunächst registrieren.

Schöner Artikel über die Krise der Standard-Teilchenphysik

Physik der Elementarteilchen, Teilchenbeschleuniger; insbs. eine einführende Artikelserie in das Thema
Skeltek
Site Admin
Site Admin
Beiträge: 5081
Registriert: 25. Mär 2008, 23:51
Wohnort: Stuttgart, Germany
Kontaktdaten:

Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von Skeltek » 13. Jun 2018, 20:31

Hab ich heute entdeckt. Fand ich ganz nett zum Lesen. Es geht um die Krise der Standardphysik.
https://www.spektrum.de/news/wie-schoen ... um/1570712
Gödel für Dummies:
  • Unentscheidbarkeit - Dieser Satz ist wahr.
  • Unvollständig - Aussage A: Es existiert nur ein Element A.
  • Widersprüchlich - Dieser Satz ist falsch.

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 8098
Registriert: 26. Dez 2009, 10:29

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von seeker » 14. Jun 2018, 11:05

Interessanter Artikel, danke!

Über diesen Artikel bin ich auf zwei interessante Artikel von Robbert Dijkgraaf (bekannter niederländischer theoretischer Physiker und Stringtheoretiker) gestoßen, die ich euch an der Stelle auch zu lesen empfehlen möchte:
There Are No Laws of Physics. There’s Only the Landscape.
Scientists seek a single description of reality. But modern physics allows for many different descriptions, many equivalent to one another, connected through a vast landscape of mathematical possibility.
Also auf Deutsch:
Es gibt keine Gesetze der Physik. Es gibt nur die Landschaft.
Wissenschaftler suchen eine einzige Beschreibung der Realität. Aber die moderne Physik erlaubt viele verschiedene Beschreibungen, viele äquivalent zueinander, verbunden durch eine riesige Landschaft von mathematischen Möglichkeiten.
"Es gibt keine Gesetze der Physik.", das ist schon eine starke Aussage, daher interessant.
https://www.quantamagazine.org/there-ar ... e-20180604


To Solve the Biggest Mystery in Physics, Join Two Kinds of Law
Reductionism breaks the world into elementary building blocks. Emergence finds the simple laws that arise out of complexity. These two complementary ways of viewing the universe come together in modern theories of quantum gravity.
Auf Deutsch:
Um das größte Geheimnis der Physik zu lösen, verwende zwei Arten von Gesetzen.
Der Reduktionismus zerlegt die Welt in elementare Bausteine. Emergenz findet die einfachen Gesetze, die sich aus der Komplexität ergeben. Diese beiden sich ergänzenden Betrachtungsweisen des Universums kommen in modernen Theorien der Quantengravitation zusammen.
Auszug daraus auf Deutsch:
Das holographische System ist quantenmechanisch, hat aber keine explizite Form der Schwerkraft. Darüber hinaus hat es typischerweise weniger räumliche Dimensionen. Das System wird jedoch von einer Zahl bestimmt, die die Größe des Systems misst. Wenn man diese Zahl erhöht, wird die Annäherung an ein klassisches Gravitationssystem präziser. Am Ende entstehen Raum und Zeit zusammen mit Einsteins Gleichungen der Allgemeinen Relativitätstheorie aus dem holographischen System. Der Prozess ähnelt der Art und Weise, wie die Gesetze der Thermodynamik aus den Bewegungen einzelner Moleküle hervorgehen.

In gewissem Sinne ist diese Übung genau das Gegenteil von dem, was Einstein versucht hat zu erreichen. Sein Ziel war es, alle Naturgesetze aus der Dynamik von Raum und Zeit zu bauen und die Physik auf reine Geometrie zu reduzieren. Für ihn war die Raumzeit die natürliche "Bodenebene" in der unendlichen Hierarchie der wissenschaftlichen Objekte - der Boden des Grand Canyon. Der gegenwärtige Standpunkt betrachtet die Raumzeit nicht als Ausgangspunkt, sondern als Endpunkt, als eine natürliche Struktur, die aus der Komplexität der Quanteninformation hervorgeht, ähnlich wie die Thermodynamik, die unser Wasserglas beherrscht. Vielleicht war es im Nachhinein kein Zufall, dass die beiden physikalischen Gesetze, die Einstein am besten gefielen, die Thermodynamik und die allgemeine Relativitätstheorie, einen gemeinsamen Ursprung als emergente Phänomene haben.

In gewisser Weise erlaubt diese überraschende Verbindung von Emergenz und Reduktionismus, das Beste aus beiden Welten zu genießen. Für Physiker ist Schönheit an beiden Enden des Spektrums zu finden.
Übersetzt mit www.DeepL.com/Translator

https://www.quantamagazine.org/to-solve ... -20170907/

Leider in Englisch, wer es in Deutsch lesen möchte, dem sei hier noch einmal DeepL (https://www.deepl.com/translator) empfohlen (einfach copy/paste machen), das funktioniert recht gut.
Grüße
seeker


Wissenschaft ... ist die Methode, kühne Hypothesen aufstellen und sie der schärfsten Kritik auszusetzen, um herauszufinden, wo wir uns geirrt haben.
Karl Popper

Skeltek
Site Admin
Site Admin
Beiträge: 5081
Registriert: 25. Mär 2008, 23:51
Wohnort: Stuttgart, Germany
Kontaktdaten:

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von Skeltek » 14. Jun 2018, 12:07

Es freut mich echt, dass nach langem Warten der Trend endlich dazu übergegangen ist, mehr Gespür für Äquivalenz unterschiedlicher Anschauungen zu entwickeln. Jetzt warte ich am besten noch ein bis zwei Jahrzehnte, bis sich das vom Kopf der Schlange zum Fundament durchgehangelt hat und bisherige Meßinterpretationen auf welchen die neuesten Theorien aufbauen neu gedeutet werden.

Nach dem 'Gesetz der großen Zahl' ist zwangsläufig nicht immer am wahscheinlichsten, dass sich hinter einem beobachteten System die 'einfachste' Formel-Lösung befindet. Ockhams Rasiermesser verliert sämtliche Schärfe, wenn man sich darüber klar wird, dass jedes hinreichend komplexe System in irgendeinem seiner Teile nicht die einfachste Interpretation realisiert.
Das ist so wie mit der Aufenthaltswahrscheinlichkeit eines Elektrons: Die ist zwar am Raumvolumen gemessen im Atomkern am höchsten, jedoch praktisch immer irgendwo anders.
Es gibt zu viele komplexe Interpretationsmöglichkeiten, als dass die einfachste Formel-mäßige Interpretation noch irgendwie wahrscheinlich scheint.

Das derzeitige physikalische Model ist inzwischen so komplex und umfangreich, dass es sehr wahrscheinlich scheint, dass irgendwo etwas falsch interpretiert wurde, weil die meisten grundsätzlich überall eine Lösung nach Ockham bevorzugen.
Selbst mit einer vereinfachten Glockenkurven-Anschauung müsste man begreifen, dass für kleine Systeme die einfachste Lösung zwar am wahrscheinlichsten ist, sich jedoch bei einem Sammelsurium an 1000 Bausteinen ein guter Teil der Bausteine zwangsläufig außerhalb des 'einfachen' Lösungsbereiches liegt.

Was würde man tun, wenn sich in 30 Jahren herausstellt, dass bei der Entfernungsmessung von Sternen ein grundsätzlicher systematischer Fehler gemacht worden ist? Man müsste fast alles, was darauf aufbaut umdeuten (was jetzt aber nicht zwangsläufig zu Inkonsistenzen führt).

Momentan haben wir etwas was sich mit einem LGS mit 1000 Zeilen, 1010 Variablen und 990 bekannten Messwerten vergleichen lässt. Irgendwo stimmt mindestens eine Zeile nicht. Meist wird begründet, dass eine Änderung einer Zeile sehr unwahrscheinlich sei, weil sonst der ganze Rest inkonsistent würde. Man sträubt sich noch größere Veränderungen vorzunehmen, weil das die restlichen 'konsistenten' Zeilen durcheinander bringen würde(es wird halt dann woanders irgendetwas (zunächst) widersprüchlich). Man lässt daher lieber eine falsche Zeile stehen, statt das ganze 'zum größten Teil konsistente Gebilde' neu durchrechnen zu müssen.

Das große Problem ist, dass grundsätzlich gefordert oder geglaubt wird, dass eine konsistente wahre Theorie grundsätzlich auch formalisierbar ist. Vor kurzem habe ich auch von einem Beweis gelesen in welchem es darum geht, dass eine konsistente wahre Theorie manchmal gar nicht Formeltechnisch berechenbar ist, oder die Berechnung von Prozessen zumindest deutlich länger bräuchte, als es die Realität in der Wirklichkeit bereits realisiert.
Was sollten wir denn auch tun, wenn wir irgendwann feststellen, dass die einzige wahre 'Weltformel' zwar existiert und konsistent ist, es aber nicht möglich sei, diese mathematisch zu erfassen? Das ist so ein bisschen wie das Hypercomputing: grundsätzlich existieren die Prozesse und Funktionen, sind aber mit physikalischen Mitteln nicht berechen- oder realisierbar, weil die Realität nunmal leider quantelt.

Ich erwarte in diesem Jahrundert noch den größten Witz der Weltgeschichte:
Man setzt Hochleistungs- und Supercomputer ein um herauszufinden was sich exakt in der Singularität eines SLs befindet. Man findet exakt in der Mitte des SLs eine '1', bei rotierenden SLs eine '0' - sehr aufschlussreich.
Gödel für Dummies:
  • Unentscheidbarkeit - Dieser Satz ist wahr.
  • Unvollständig - Aussage A: Es existiert nur ein Element A.
  • Widersprüchlich - Dieser Satz ist falsch.

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 8098
Registriert: 26. Dez 2009, 10:29

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von seeker » 14. Jun 2018, 13:10

Der wichtigste Textabschnitt in dem von dir verlinkten Artikel von Frau Hossenfelder war für mich der hier:
In den vergangenen Jahrzehnten ist ein ganzer Dschungel an Theorien gewachsen, die bisher unverstandene Aspekte der Wirklichkeit mit spekulativen Teilchen, Feldern, Kräften oder Raumzeitgeometrien erklären wollen.
Meist kann das Dickicht nur durch große und teure Experimente gelichtet werden. »Alle möglichen Hypothesen zu testen, ist unmöglich«, schreibt Hossenfelder in ihrem Buch. Der Großteil ihres Forschungsgebiets dreht sich daher darum, die guten von den schlechten Vermutungen zu trennen. So will man den Experimentatoren die Richtung vorgeben, in der sie nach neuen Phänomen suchen sollen.
https://www.spektrum.de/news/wie-schoen ... um/1570712
mit Hervorhebung

Das ist das Grundproblem der ganzen Geschichte, es ist am Ende ein eher praktisches Problem.

Und wenn nicht Schönheit, Eleganz, Natürlichkeit, usw., was dann?
Selbst wenn man diesen Kriterien weiter folgen will, liegt das Problem dabei auch darin, dass solche Kriterien weich sind: sie liegen auch im Auge des Betrachters.
Daher hängt das Problem auch stark mit unserem Denken zusammen, welches auch kulturell geprägt ist: Was IST schön, elegant, usw.?
Das könnte mit anderem Denken auch ganz anders bewertet werden.
Das ist z.T. auch ein Generationenproblem: Meist muss erst eine neue, junge Generation an Wissenschaftlern zum Zuge kommen und die alten müssen in Pension gehen, bevor sich ein wirklich neues Denken in der Community durchsetzen kann, das kann also eine Weile dauern.
Grüße
seeker


Wissenschaft ... ist die Methode, kühne Hypothesen aufstellen und sie der schärfsten Kritik auszusetzen, um herauszufinden, wo wir uns geirrt haben.
Karl Popper

deltaxp
Ehrenmitglied
Ehrenmitglied
Beiträge: 1129
Registriert: 23. Sep 2010, 17:02

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von deltaxp » 14. Jun 2018, 14:24

Das war nur nen kleiner link, aber die automatische Übersetzung klingt sehr natürlich. die deep-learning Methoden sind schon sehr leistungsfähig. gerade was natural language processing mit den typischerweise Attention based lstms angeht. das nur am rande :P

ansonsten: es gibt keine Gesetze sondern nur die lanfschaft ist schon sehr provokant ausgedrückt. es ist einach nur ein großer lösungsraum für die calabi-yau-mannigfaltigkeiten in der stringtheorie.

die zahl von der beim holgraphischen Prinzip die rede ist ist die sogenannte verschränkungsentropie der cft auf der bulgboundary. die zeit erwächst nach den Methoden wahrscheinlich aus der Komplexität, der raum aus Quantenverschränkung (gemessen mit der Verschränkungsentropie).

wichtig ist darauf hinzuweisen, dass das in dieser frm bisher nur für den ads-space gilt und die dazu verwendete ruy.-tagayanagi-Vermutung noch nicht voller Allgemeingültigkeit bewiesen ist. wie oder wieviel davon das auf den de-sitter-space zu übertragen ist, in dem wir leben, ist noch nicht geklärt. Da arbeitzet man dran.

zusätzlich muss man zu dem Konzept sagen das es eine DUALITÄT ist. beide seiten sind gleichberechtigt. man kann sich also auch umgedreht hinstellen und sagen, das die cft auf der boundary und ihre quantenverschränkung aus der raumzeit im bulg entsteht. in diesem sinne würde sich der gute albert also eher freuen, zumal die beiden unabhängigen paper von ihm zur Einstein-rosen-brücke (ER) und spukhaften Fernwirkung verschränkter quantensysteme (Einstein podolski rosen-EPR) aus dem jahre 1935 in diesem zusammenhang (ER=EPR) ein Revival feiern in dem sinne das verschränkte teilchenpaare (EPR) durch ein mikroskopisches Wurmloch (ER) verbunden sind und dadurch quasi als am gleichen ort zu behandeln sind und albert somit doch recht hatte mit seiner Abscheu vor der spukhaften Fernwirkung :P

so oder so, wie auch schon oft von Tom besprochen: ALLE Theorien zur quantengravitation leiden an dem experimentellen nachweis-Problem wegen der Planck-skala. das macht es den Theoretikern nunmal schwer heutzutage aufs "richtige Pferd" zu setzen. ohne experimentellen Input bleibt nunmal nur das festhalten an mindestens der mathematischen Konsistenz. Schönheit, Eleganz und Natürlichkeit waren dabei bisher immer ein guter führer. aber vielleicht gelten diese Prinzipien zur theorieerstellung so tief unten bei planck tatsächlich nicht mehr vollends.

die anzahl der Physiker, die daran zweifeln, steigt. so oder so, am ende muss ein Experiment als Scharfrichter her. ansonsten ist es "nur" Mathematik.

deltaxp
Ehrenmitglied
Ehrenmitglied
Beiträge: 1129
Registriert: 23. Sep 2010, 17:02

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von deltaxp » 14. Jun 2018, 14:52

Skeltek hat geschrieben:
14. Jun 2018, 12:07
Vor kurzem habe ich auch von einem Beweis gelesen in welchem es darum geht, dass eine konsistente wahre Theorie manchmal gar nicht Formeltechnisch berechenbar ist, oder die Berechnung von Prozessen zumindest deutlich länger bräuchte, als es die Realität in der Wirklichkeit bereits realisiert..
ist formeltechnisch formulierbar das gleiche wie formeltechnisch berechenbar ?

das etwas praktisch nicht berechenbar aber formeltechnisch formulierbar ist, findet man häufiger.

das eine physikalische Theorie nicht mathematisch formulierbar ist, glaube ich nicht. bzw gibt es nicht, weil es dann keine physikalische Theorie per definitionem ist (keine Prädiktivität, keine Überprüfbarkeit, keine physikalische theorie)

Skeltek
Site Admin
Site Admin
Beiträge: 5081
Registriert: 25. Mär 2008, 23:51
Wohnort: Stuttgart, Germany
Kontaktdaten:

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von Skeltek » 14. Jun 2018, 21:36

Nunja, die Riemannsche Hypothese ist bisher z.B. nur eine Vermutung. Selbst wenn es stimmt, ist nicht bekannt, ob die Teilsummen überhaupt so formulierbar sind, damit man da irgendwelche Erhaltungsgrößen herauserkennen kann.
Es wäre vergleichbar z.B. auch möglich, dass die Natur sich unterhalb der Plank-Ebene wieder fraktal aufspaltet usw und durch eine völlig neue nicht formulierbare Physik oder Mechanik irgendwie ihre Erhaltungsgrößen einhält.

Das ist ein Problem mit der Betrachtung von Holons. Nimm z.B. einen Ameisenstaat. Es ist möglich und einfach, ein Ziel zu formulieren, welches erreicht werden soll. Einzelne Ameisen zu 'programmieren' erscheint ziemlich komplex und intuitiv ziemlich abwegig. Wieso sollte etwas mikroskopischeres komplexer sein als das makroskopische?
Andererseits erscheint es auch extrem abwegig und unwahrscheinlich, dass sich aus einfachen Bausteinen und einfacher Programmierung auf mikroskopischer Ebene makroskopisch so etwas komplexes wie ein Ameisenstaat bilden sollte.

Unsere Intuition erfordert eine Vereinfachung, egal ob man in 'Richtung' Mikrokosmos oder Makrokosmos denkt. Momentan sind wir eher geneigt, dem Mikrokosmos eine strukturelle Einfachheit zu verleihen und nehmen stark an, dass sich dann darauf komplexere Zusammenhänge erst bilden.
Geht man weiter in den Makrokosmos, sind wir wieder geneigt Einfachheit anzunehmen. Die komplexeste Ebene ist die eigene -> Wir fordern, dass kleinste Bausteine und größte Bausteine strukturell, von der Komplexität her als auch im Bezug zu ihren Zusammenhängen immer einfacher sein müssen als unsere eigene Erfahrungswelt.

Dieses kategorische Fordern nach Einfachheit und Eleganz, einfacherer Darstellung und Handhabung, Nachvollziehbarkeit und praktischem Nutzen hat letztlich dazu geführt, dass wir teilweise gar nicht mehr bestrebt sind solche Dinge wie die Unschärferelation zu hinterfragen. Die Suche nach verborgenen Variablen ist zu Ende, weil die Theorien dazu teilweise nicht handhabbar/berechenbar sind. Das Uminterpretieren der kosmischen Expansion kommt nicht in Frage - das Rütteln am Fundament würde einen Neubau des halben Schlosses fordern. Subatomare Entropie, geometrische Fehlerforpflanzung bei Vektorfeldbetrachtungen oder Symmetrie-Verletzungen werden größtenteils durch Quantelung und Vereinfachung vom Tisch gefegt.
Viele Theorien können teils nur bereits entdeckte Phänomene prognostizieren, was ihnen ein 'Ad Hoc' begründetes Image suggeriert.

Wie hoch wäre denn die Wahrscheinlichkeit, dass jemand die gesamte Physik völlig umschreiben kann und dies noch konsistent ist? Das ganze ebilde ist ohnehin kaum noch überschaubar.
Gödel für Dummies:
  • Unentscheidbarkeit - Dieser Satz ist wahr.
  • Unvollständig - Aussage A: Es existiert nur ein Element A.
  • Widersprüchlich - Dieser Satz ist falsch.

deltaxp
Ehrenmitglied
Ehrenmitglied
Beiträge: 1129
Registriert: 23. Sep 2010, 17:02

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von deltaxp » 15. Jun 2018, 10:32

Skeltek hat geschrieben:
14. Jun 2018, 21:36
Das ist ein Problem mit der Betrachtung von Holons. Nimm z.B. einen Ameisenstaat. Es ist möglich und einfach, ein Ziel zu formulieren, welches erreicht werden soll. Einzelne Ameisen zu 'programmieren' erscheint ziemlich komplex und intuitiv ziemlich abwegig. Wieso sollte etwas mikroskopischeres komplexer sein als das makroskopische?
das seh ich nicht so dramatisch, es gibt zahlreiche Beispiele wo einfache regeln zu komplexen mustern führen. reduktionismus heisst, die einfachen regeln zu finden.
Skeltek hat geschrieben:
14. Jun 2018, 21:36
Unsere Intuition erfordert eine Vereinfachung, egal ob man in 'Richtung' Mikrokosmos oder Makrokosmos denkt. Momentan sind wir eher geneigt, dem Mikrokosmos eine strukturelle Einfachheit zu verleihen und nehmen stark an, dass sich dann darauf komplexere Zusammenhänge erst bilden.
das stimmt. das wird effektive Feldtheorie genannt. in der tat is es ja so, dass die meisten physikalischen Theorien für eine gewisse skale (länge oder Energie oder zeit) funktionieren, Effekte kleinerer skalen können absorbiert werden in Parameter und grosse skalen spielen keine rolle. ich glaub , das nennt sich Natürlichkeit einer Theorie. die (einheitslosen) zahlen sollten alle in der gleichen liga-sprich grössenordnung spielen. Korrelationen über viele grössenordnungen hinweg sollte es nicht geben. das ist eine der Anleitungen an die sich Theoretiker gerne halten. ich persönlich nehme fast an, das ist die erste, die über bord fliegt. es gibt auch Beispiele, dass das nicht immer so sein muss. frag mal strömungsmechaniker zu ihren Turbulenzen. die korrelieren von Molekülniveau bis km-skala. wer weiss, ob sowas nicht auch vorkommt, wenns in Richtung Planck-skala geht. das einzige woran man, denke ich auf jeden fall festhalten wird, ist mathematische Konsistenz und (wenn möglich) anomaliefreiheit, vielleicht noch Symmetrie (da hängt viel dran, erhaltungsgrössen, renormierbarkeit, aber ein zwang ist das auch nicht. wenn ich eine Theorie habe , die ohne Divergenzen auskommt, brauch ich die renormierbarkeit nicht, und wer sagt,d ass immer alles erhalten sein muss. bis jetzt erklärt man nicht erhaltene größen (wie schwache Ladung) durch spontan symmetriebrechung, die man braucht, um die lgrangedichte symmetrisch zu halten wegen der renormierbarkeit, aber wenn letzeres wegfällt, könnte man auch auf ersteres verzichten.
Skeltek hat geschrieben:
14. Jun 2018, 21:36
Wie hoch wäre denn die Wahrscheinlichkeit, dass jemand die gesamte Physik völlig umschreiben kann und dies noch konsistent ist? Das ganze ebilde ist ohnehin kaum noch überschaubar.
Das Korsett ist halt eng, eine neue Theorie darf in ihren Prognosen nicht bisherigen Messergebnissen, die sehr erfolgreich von art und qm vorhergesagt werden. das ruled die meisten Ideen schon sehr früh aus.

nichtsdestoweniger kann es sein, dass wir den Blickwinkel vollständig ändern muessen. vielleicht sehen wir ja alles auf dem kopf? das holographische Prinzip is meineserachtens so eine vollständige blickwinkel-Änderung. mal schauen wo es uns hinführt

Skeltek
Site Admin
Site Admin
Beiträge: 5081
Registriert: 25. Mär 2008, 23:51
Wohnort: Stuttgart, Germany
Kontaktdaten:

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von Skeltek » 15. Jun 2018, 20:32

deltaxp hat geschrieben:
15. Jun 2018, 10:32
Das Korsett ist halt eng, eine neue Theorie darf in ihren Prognosen nicht bisherigen Messergebnissen, die sehr erfolgreich von art und qm vorhergesagt werden. das ruled die meisten Ideen schon sehr früh aus.
Das wäre toll, wenn es so wäre. Allerdings wird oft nicht durch frühere Meßergebnisse widersprochen, sondern durch die Interpretation der Messungen durch vorherige Theorien.
Schau dir mal die Diskussionen zur Äqivalenzbetrachtung zwischen Raumexpansion und Materieschrumpfung im Forum an. Eigentlich eine ganz einfache mathematische Operation - trotzdem ist es für die meisten nicht nachvollziehbar, weil es mit ihrem 'Denken im alten Koordinatensystem' oder wasauchimmer nicht im Kopf in Einklang zu bringen ist. Selbst eine einfache Transformation wie die ist kaum nachvollzieh- oder vorstellbar, wenn sie auf eine Differentialgleichung angewendet wird.
Gödel für Dummies:
  • Unentscheidbarkeit - Dieser Satz ist wahr.
  • Unvollständig - Aussage A: Es existiert nur ein Element A.
  • Widersprüchlich - Dieser Satz ist falsch.

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von tomS » 23. Jun 2018, 09:50

Man sollte die Idee des holographischen Prinzips und Dualitäten der Form AdS/CFT unabhängig von der Stringtheorie verstehen. Letztere bietet - wenn sie denn zutrifft - möglicherweise eine konkrete Realisierung dieses Prinzips. Das Prinzip selbst kann jedoch allgemein gültig sein, und es kann Realisierungen in anderen Theorien geben.

Die String-Landscape hat den Charm, dass sie unterschiedliche Theorien zusammenbringt als unterschiedliche Lösungen einer einzigen Theorie. Ich vergleiche das gerne mit Lösungen bekannter Theorien (Proton, Uranatom, ..., H2O, ... ein Salzkristall, ... ). Wir benutzen unterschiedliche effektive Theorien, angepasst auf die jeweilige Längenskala, letztlich folgen die genannten Beispiele jedoch als Lösungen einer Theorie - des Standardmodells.

Der wesentliche Unterschied bei der String-Landscape ist, dass i) keine umfassende Formulierung der fundamentalen Theorie bekannt ist - die M-Theorie ist nur eine Vermutung, und bisher ein Patchwork unterschiedlicher Theorien und dass ii) unklar bleibt, ob, wo und wie die unterschiedlichen Lösungen realisiert sein sollen.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

deltaxp
Ehrenmitglied
Ehrenmitglied
Beiträge: 1129
Registriert: 23. Sep 2010, 17:02

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von deltaxp » 27. Jun 2018, 12:30

Das ist ja gerade das coole an ads/cft. das es zwar aus der stringtheorie geboren worden, aber letzlich unabhängig von ihr ist. sonst würde ja auch nicht cft sondern "cst" (conforme stringtheorie, haha) stehen. Gut, man hat nachwievor die uv-divergenzen und brauch einen cut-off, Aber das interessante ist, wenn sich das Konzept spacetime from entanglement (der cft) etabliert, kann man tatsächlich eine Vereinheitlichung von art und qm erzielen wobei man nur qm betrachten muß. Es würde eine GUT genügen um eine ToE abzuleiten. (Naja, und man muss das noch auf dS erweitern ...)

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 8098
Registriert: 26. Dez 2009, 10:29

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von seeker » 2. Jul 2018, 17:31

deltaxp hat geschrieben:
15. Jun 2018, 10:32
es gibt zahlreiche Beispiele wo einfache regeln zu komplexen mustern führen. reduktionismus heisst, die einfachen regeln zu finden.
Das stimmt. Das Interessante ist, dass es auch umgekehrt äußerst komplexe Objekte gibt, die "an ihrer Oberfläche" sehr einfache Verhaltensweisen zeigen, die sich mit einfachen Regeln beschreiben lassen. D.h., nicht jedes Objekt, das sich auf irgendeiner Skala X schon recht einfach beschreiben lässt, muss auf darunterliegenden Skalen <X zwingend noch einfacheren Regeln folgen - das ist zwar oft so, aber muss nicht immer so sein.

Einfache Beispiele, die mir dazu gerade in den Sinn kommen:
Obwohl das Universum auf mittleren Skalen ungeheuer komplex ist, lässt es sich auf sehr großen Skalen sehr einfach (nach sehr einfachen Regeln) beschreiben.
Obwohl der Mensch ein äußerst komplexer Organismus bist, zeigt er auch sehr einfache Muster: Wenn man mit einem Hämmerchen leicht auf das Knie schlägt, springt das Bein reproduzierbar nach oben: Reflex, einfaches Muster. Wenn du dieses Muster genauer untersuchst, werden die DInge aber nicht (wie nach reduktionistischem Denkansatz zunächst naheliegend) einfacher, sondern komplizierter.

Etwas weiter gedacht:
Es scheint nach derzeitigen Erkenntnissen so zu sein, dass die Dinge im Umiversum auf einer mittleren Skala, der 'Meso-Skala' (ungefähr auf der Größenordnung des Menschen, unserer Erfahrungswelt) ihr Maximum an Komplexität erreichen, wenn es sehr groß oder sehr klein wird, scheinen die Dinge im Allgemeinen einfacher zu werden, einem Minimum an Komplexität zuzustreben, einfacheren Regeln zu folgen.
Noch weiter gedacht:
Warum sollte es zwingend über alle denkbaren Skalen nur genau ein Komplexitätsmaximum und zwei Komplexitätsminima geben (können)?

Ich finde die Idee den reduktionistischen Ansatz ergänzend mit seinem holistischen Gegenteil zu 'verheiraten' ganz allgemein gedacht sehr spannend und vielversprechend.
deltaxp hat geschrieben:
14. Jun 2018, 14:24
es gibt keine Gesetze sondern nur die lanfschaft ist schon sehr provokant ausgedrückt. es ist einach nur ein großer lösungsraum für die calabi-yau-mannigfaltigkeiten in der stringtheorie.
Wenn man das möglichst allgemein denkt, dann finde ich auch diesen Gedanken sehr spannend.
Vielleicht ist es im Prinzip immer so, ganz unabhängig von Stringtheorie oder was auch immer.
Allegemein gedacht läuft es m. E. darauf hinaus, dass die Natur im Prinzip durch beliebig viele unterschiedliche (jedoch letztlich ineinander überführbare) Theorien-sätze richtig beschreibbar wäre. In so einer Landscape gäbe es dann (für uns bevorzugte) Inseln der Einfachheit, wo die mathematischen Formulierungen einfacher werden, dazwischen werden sie komplizierter, damit für uns nicht gut handhabbar, undurchschaubar.
Und auf irgendeiner von diesen 'Inseln der Einfachheit' sitzen wir grad untersuchend und forschend drauf, jedoch nicht wissend ob es die beste ist und ob es überhaupt eine maximal einfache gibt.

Wichtig scheint mir hier:
Wenn das so wäre, dann gäbe es in gewisser Weise tatsächlich keine Naturgesetze, in dem Sinne, dass die Natur solchen Gesetzen untergeordnet gezwungen folgte und dass diese in gewisser Weise identisch mit der Natur wären oder dass die Natur im Kern mathematisch wäre.
Stattdessen wäre es so, dass die Natur einfach das tut, was sie tut. Und erst darauf blickend, dies analysierend wählt der Mensch eine bestimmte Perspektive aus (die nicht zuletzt auch von seinen eigenen Denkmustern und seinen Möglichkeiten und Fähigkeiten, seinem Entwicklungsstand und seiner kulturellen Prägung abhängt), unter der er erst etwas erkennen kann. Wie er dabei erkennt und was er dabei erkennt und was nicht -und sei es als mathematisch formuliertes 'Naturgesetz'- hängt dann aber nicht nur von der Natur ab, sondern auch von der schon im Voraus gewählten Perspektive. Erst beides zusammen bildet in dem Fall das, was wir 'Naturgesetz' nennen. 'Ohne uns' existiert es dann gar nicht.
Das ist der Unterschied zwischen dem Sein der Natur -so wie sie ist- und dem Erkennen des Menschen -so wie er erkennt und begreift.
Grüße
seeker


Wissenschaft ... ist die Methode, kühne Hypothesen aufstellen und sie der schärfsten Kritik auszusetzen, um herauszufinden, wo wir uns geirrt haben.
Karl Popper

Skeltek
Site Admin
Site Admin
Beiträge: 5081
Registriert: 25. Mär 2008, 23:51
Wohnort: Stuttgart, Germany
Kontaktdaten:

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von Skeltek » 3. Jul 2018, 00:03

Wobei wir da wieder irgendwie an den Anfang kommen. Ist die Quantisierung von durch Normen gemessenen emergenten Eigenschaften und Phänomenen nicht eher ein Resultat der fast nicht arithmetischen Durchführbarkeit der damit verbundenen Berechnungen?
Natürlich ist es einfacher, Dinge gequantelt oder makrosopisch zu betrachten, aber wenn man daran denkt, wie viel Aufwand man allein für die Berechnung von Elektronenschalen bestimmter Moleküle/Atome und dem Verhalten von atomaren und subatomaren Strukturen aufwenden muss, würde ich nicht sagen, dass diese Vereinfachte Betrachung dem Verhalten der Realität entspricht.
Klar kann man den Inhalt einer Wasserflasche in Tropfen messen, da das Heraustropfen aus dem kaputten Wasserhahn groben physikalischen Gesetzmäßigkeiten gehorcht und alle Tropfen fast genau dieselbe Größe haben, aber wenn man das ganze genau betrachtet stimmt das so nicht.

Wenn man nur Geräte hat um Tropfen zu messen, würde man nie auf die Idee kommen, dass da Wassermoleküle drin sind. Entsprechend sehe ich es auch mit subatomaren Strukturen. Die exakte Masse von Protonen ist ja z.B. auch nur geschätzt und man hat keine Möglichkeiten Rückschlüsse auf das innere oder den genauen Zerfallszeitpunkt zu ziehen.
Gödel für Dummies:
  • Unentscheidbarkeit - Dieser Satz ist wahr.
  • Unvollständig - Aussage A: Es existiert nur ein Element A.
  • Widersprüchlich - Dieser Satz ist falsch.

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 8098
Registriert: 26. Dez 2009, 10:29

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von seeker » 3. Jul 2018, 08:45

Skeltek hat geschrieben:
3. Jul 2018, 00:03
Wobei wir da wieder irgendwie an den Anfang kommen. Ist die Quantisierung von durch Normen gemessenen emergenten Eigenschaften und Phänomenen nicht eher ein Resultat der fast nicht arithmetischen Durchführbarkeit der damit verbundenen Berechnungen?
Mein Punkt ist: EGAL was wir tun, wie wir beschreiben, die Beschreibung die herauskommt, ist IMMER das Produkt aus dem was die Natur tut UND dem was wir darauf blickend tun, wie wir vorgehen, wie wir die Strukturen unserer Theorien bilden, welche Perspektive wir gewählt haben.
Es existiert kein Ausweg aus diesem Dilemma, es existiert für uns keine wahre Objektivität, egal was wir tun, wir können uns selbst nicht entfliehen.
Skeltek hat geschrieben:
3. Jul 2018, 00:03
würde ich nicht sagen, dass diese Vereinfachte Betrachung dem Verhalten der Realität entspricht.
Wenn mein Gedanke stimmt, dann entspricht unsere Betrachtung der Realität ganz prinzipiell schon NIE dem Verhalten der Realität 'an sich', sie kann im besten Fall immer nur dem Verhalten der Realität aus der von uns im Voraus gewählten Perspektive (für uns) zufriedenstellend gut entsprechen.

Alles was wir dann hoffen dürfen ist nicht die wahre Natur des Universums eines Tages vollständig-richtig zu verstehen, sondern nur, dass wir eine Perspektive finden unter der uns das Universum eines Tages zufriedenstellend gut verständlich wird (wobei das nicht wirklich geschehen wird, weil wir niemals ganz zufrieden sein werden, ja dürfen!).

Jede unserer Beschreibungen des Universums und des Geschehens darin muss ja auch immer mindestens ein Qualitätskriterium erfüllen: Sie muss uns verständlich sein, wir müssen etwas damit anfangen können. Jede Beschreibung, die das nicht erfüllt, ist für uns wertlos. Das ist eine Einschränkung, schon deshalb ist die Anzahl der von uns erstellbaren Theorien kleiner als die Anzahl aller prinzipiell möglichen Theorien. Und es ist keine kleine Einschränkung, damit sind sicher 99,999999...% aller möglichen (passenden und konsistenten) Beschreibungen für uns nicht sinnvoll zugänglich.
Es ist daher zweifelhaft, ob irgendein Optimum gerade in dem winzigen Teilbereich liegt, der uns verständlich ist (bzw. werden kann), ob uns das Universum beliebig gut verständlich werden kann. Ich denke, wir sollten uns an dem Punkt nicht von den Erfolgen der letzten 200 Jahre blenden lassen, ich halte es für angebracht sich auch hier in Bescheidenheit zu üben: Dass wir nicht der Mittelpunkt des Universums sind, daran haben wir uns gewöhnt, wir sollten aber auch nicht länger glauben, wir wären die Meister des Universums und könnten eines Tages all seine Geheimnisse, seine 'objektiv wahre Natur' lüften oder gar manipulieren.
Das heißt nicht, dass wir nicht weitermachen sollten, wie können immer noch besser werden. Und es mag noch ganz andere Inseln der Einfachheit geben, die wir prinzipiell verstehen können und die es unter neuen Perspektiven noch zu entdecken gilt.

Nur:
Die Frage die wir uns auf diesem Weg stellen sollten lautet nicht: "Ist der Ansatz Y besser als der Ansatz X, in dem Sinne, dass er der Realität besser entspricht oder dies in Aussicht steht?", die Frage, die wir stellen sollten, lautet stattdessen: "Ist Ist der Ansatz Y besser als der Ansatz X, in dem Sinne, dass er für uns befriedigender ist bzw. dies nach Ausarbeitung in Aussicht steht?"
Grüße
seeker


Wissenschaft ... ist die Methode, kühne Hypothesen aufstellen und sie der schärfsten Kritik auszusetzen, um herauszufinden, wo wir uns geirrt haben.
Karl Popper

ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 3587
Registriert: 13. Jan 2017, 10:00

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von ralfkannenberg » 5. Jul 2018, 10:06

seeker hat geschrieben:
2. Jul 2018, 17:31
Etwas weiter gedacht:
Es scheint nach derzeitigen Erkenntnissen so zu sein, dass die Dinge im Umiversum auf einer mittleren Skala, der 'Meso-Skala' (ungefähr auf der Größenordnung des Menschen, unserer Erfahrungswelt) ihr Maximum an Komplexität erreichen, wenn es sehr groß oder sehr klein wird, scheinen die Dinge im Allgemeinen einfacher zu werden, einem Minimum an Komplexität zuzustreben, einfacheren Regeln zu folgen.
Noch weiter gedacht:
Warum sollte es zwingend über alle denkbaren Skalen nur genau ein Komplexitätsmaximum und zwei Komplexitätsminima geben (können)?
Hallo seeker,

ich möchte diesen Gedanken aufnehmen.

Zunächst einmal hast Du die Zeitskala außer acht gelassen. Es ist aber so, dass die Entstehung komplexer Strukturen mehr Zeit benötigt, so dass diese komplexen Strukturen also innerhalb der bereits vorhandenen Strukturen "eingebettet" werden.

Somit haben wir anfangs sehr einfache Strukturen im Kleinen, aus denen sich die - von uns als ebenfalls einfache - Struktur der Atome bildet.

An dieser Stelle wesentlich erscheint mir der Umstand, dass diese Atome elektrisch neutral sind, was zur Folge hat, dass sie keine Kräfte, die über größere Distanzen wirken, verursachen, sondern sich zu größeren Molekülen, die ebenfalls elektrisch neutral sind, zusammenlagern können.

Wichtig an dieser Stelle auch, dass die starke Wechselwirkung eine kurze Reichweite hat, so dass diese Atome nicht allzu groß werden können, d.h. Größe wird über die Molekülbildung erreicht.

Diese Atome und Moleküle sammeln sich dann aufgrund der Schwerkraft zu größeren Strukturen an. Da die Gravitation nicht sehr stark ist benötigt es hierfür hinreichend große Masseansammlungen. Zu noch größeren Masseansammlungen dominieren dann vermutlich statistische Effekte.

Ganz wesentlich bis zu dieser Phase des Universums ist also der Umstand, dass im Kleinen eine große Kräftevielfalt herrscht, während im Großen aufgrund der Neutralität der Atome/Moleküle und der sehr kurzen Reichweite der starken Wechselwirkung ein Kräftemonopol herrscht, das aus der Schwerkraft besteht.

Vermutlich nicht minder wichtig ist noch der Umstand, dass die schwache Wechselwirkung im Wesentlichen nur Neutrinos betrifft, die aber nicht besonders bindungsfreundlich sind und meines Wissens nur beim Kühlen von Supernovae eine wichtige Rolle spielen, die aber das Grundgefüge nicht durcheinander bringen, zumal Supernovae ja sehr seltene Ereignisse sind.

Wo ist nun noch Raum für höher komplexe Strukturen ? Eine kennen wir, das sind die Lebewesen.

Vielleicht ist unser Universum einfach noch zu jung, um ein zweites Komplexitätsmaximum ausgebildet haben zu können, vielleicht gibt es aber auch keinen Platz für ein weiteres Komplexitätsmaximum.


Freundliche Grüße, Ralf

Skeltek
Site Admin
Site Admin
Beiträge: 5081
Registriert: 25. Mär 2008, 23:51
Wohnort: Stuttgart, Germany
Kontaktdaten:

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von Skeltek » 5. Jul 2018, 16:26

Mir ist vorhin auch noch das mit der Zeit gekommen, allerdings in einem anderen aber ähnlichen Zusammenhang:
Makroskopische Zusammenhänge brauchen viel länger Zeit um zu 'Wirken', wobei ich hier im Gegensatz zu Ralf einfach mal annehme, dass das Universum genug Zeit gehabt hätte diese makroskopischen komplexen Strukturen auszubilden.
Erstmal sind die Strecken länger, die Kräfte brauchen deutlich länger um irgendwo anzukommen und zu wechselwirken. Die Kräfte brauchen länger Zeit und müssen auch einen viel längeren Zeitraum wirken um etwas zu bewirken. Die Materie auf welches gewirkt wird, braucht viel längere Zeit sich zu bewegen, Ordnung länger Zeit sich auszubilden aber auch länger Zeit widerholendes Verhalten aufzuzeigen. Chaos, Zufall oder Abweichungen von einer geordneten Strukturen und periodischen Widerholungen braucht Aeonen um abgestrahlt zu werden usw. Es ist schwerzu beschreiben aber mal ein Beispiel:
Das Verhältnis der Bahnradien unserer Planeten von Innen nach Außen ist fast immer fast gleich von Planet zu Planet (glaube Radienverhältnis von fast immer 5/2), da diese durch gegenseitige Beeinflussung Energie und Impuls übertragen und ganz bestimmte Bahnverhältnisse ausbilden. Ähnliches gilt bei Monden. Es ist kaum überhaupt vorstellbar, welchen Zeitraum die Systeme benötigt haben, um sich so gegenseitig zu beeinflussen, dass z.B. Monde ein Umlaufzeitverhältnis von z.B. 3:2 ausbilden. Wer würde beim kurzen Draufblicken da irgendeine Gesetzmäßigkeit erkennen, zumal die Planeten sich ja teils völlig wild an unterschiedlichen Orten ihrer individuellen Bahnen aufhalten?
Auf mikroskopischen Skalen ist es genau anders herum... da haben sich nicht schon von fast Anfang an die Strukturen ausgebildet... Elektronen z.B. bewegen sich so schnell, dass man praktisch nur noch die Elektronenschalen wahrnimmt. Selbst nach einer völligen Störung, wird die 'Unordnung' relativ schnell wieder 'abgestrahlt' und die Elektronen nehmen wieder ihre geordneten Bahnen/Schalen ein.

Was ich sagen will ist: Selbst wenn es sehr komplexe Zusammenhänge auf makroskopischen Skalen geben würde, hätten wir womöglich keine ausreichende Lebensspanne und Beobachtungsdauer oder Instrumente, um diese zu erkennen.

@Ralf: Die Erde ist negativ geladen und das Spannungsgefälle liegt soweit ich weiß bei 100 Volt pro Höhenmeter. Im großen Rahmen fällt das aber so wenig ins Gewicht wie eine Wasserstoffbrücke als Überbleibsel des elektrisch neutralen Wassermoleküls. :)
Gödel für Dummies:
  • Unentscheidbarkeit - Dieser Satz ist wahr.
  • Unvollständig - Aussage A: Es existiert nur ein Element A.
  • Widersprüchlich - Dieser Satz ist falsch.

ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 3587
Registriert: 13. Jan 2017, 10:00

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von ralfkannenberg » 5. Jul 2018, 20:31

Skeltek hat geschrieben:
5. Jul 2018, 16:26
Das Verhältnis der Bahnradien unserer Planeten von Innen nach Außen ist fast immer fast gleich von Planet zu Planet (glaube Radienverhältnis von fast immer 5/2), da diese durch gegenseitige Beeinflussung Energie und Impuls übertragen und ganz bestimmte Bahnverhältnisse ausbilden. Ähnliches gilt bei Monden.
Hallo Skeltek,

das würde ich anhand der Tabbellenwerte nochmals kurz überprüfen ;)

Skeltek hat geschrieben:
5. Jul 2018, 16:26
Es ist kaum überhaupt vorstellbar, welchen Zeitraum die Systeme benötigt haben, um sich so gegenseitig zu beeinflussen, dass z.B. Monde ein Umlaufzeitverhältnis von z.B. 3:2 ausbilden. Wer würde beim kurzen Draufblicken da irgendeine Gesetzmäßigkeit erkennen, zumal die Planeten sich ja teils völlig wild an unterschiedlichen Orten ihrer individuellen Bahnen aufhalten?
Dass sie es haben sieht man recht schnell: wie das passiert ist oder warum es beispielsweise bei den Uranusmonden keine solche schönen Umlaufzeitverhältnisse vorfindet, ist indes nicht so einfach herausfindbar, da hast Du recht.

Skeltek hat geschrieben:
5. Jul 2018, 16:26
@Ralf: Die Erde ist negativ geladen und das Spannungsgefälle liegt soweit ich weiß bei 100 Volt pro Höhenmeter. Im großen Rahmen fällt das aber so wenig ins Gewicht wie eine Wasserstoffbrücke als Überbleibsel des elektrisch neutralen Wassermoleküls. :)
Ja gut, aber das ist insgesamt klein, auch wenn es da mal Ionen oder z.B. Gewitter geben kann.


Freundliche Grüße, Ralf

Benutzeravatar
Job
hat sich hier eingelebt
hat sich hier eingelebt
Beiträge: 299
Registriert: 18. Aug 2014, 09:22

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von Job » 6. Jul 2018, 09:53

Ein Problem, das wir aus meiner Sicht in diesem Umfeld haben, möchte ich am Beispiel des Game of life versuchen zu illustrieren. Wir kennen hier die Grundbausteine der „Materie" (gefülltes Kästchen), ihre „Wechselwirkungen" (Regeln), den „Raum" (Anzahl der Kästchen) und die „Zeit" (diskrete Taktung, die die Regeln pro Takt auf alle Kästchen anwendet) ganz genau. Das heißt, dass wir sowohl die grundlegenden Strukturen als auch die Dynamik vollständig kennen und das Ganze wäre (bei endlich vielen Bausteinen) für einen gegebenen Anfangszustand sogar deterministisch, aber nur in einer Richtung. Das System ist zeitlich nicht umkehrbar. Dies bedeutet, dass ich von einem jetzigen Zustand auch bei Kenntnis der Anzahl der bisherigen Taktungen nicht mehr auf den Anfangszustand, mit dem ich einmal gestartet bin, schliessen kann. Eine Wirkung (jetziger Zustand aufgrund der letzen Taktung) kann mehrere potentielle Ursachen (Zustand vorletzte Taktung) haben. Die Zukunft ist vorbestimmt, die Vergangenheit ist nicht eindeutig rekonstruierbar. Das System ist trotz seiner Einfachheit extrem mächtig. Man hat zeigen können, dass es sogar Turing-vollständig ist. Das System ist chaotisch in dem Sinne, dass kleinste Änderungen des Anfangszustandes zu völlig anderen Ergebnisse führen können.

Das Problem ist nun, dass uns diese vollständige Kenntnis der fundamentalen Grundstrukturen und ihrer Dynamik trotzdem nicht in die Lage versetzt, das System insgesamt zu verstehen, wenn die Anzahl der belegten Kästchen eine bestimmte Größenordnung überschreitet. Wenn wir zum Beispiel 10100 belegte Kästchen haben (und das ist nichts im Vergleich zur Natur) können wir aufgrund der uns zur Verfügung stehenden Ressourcen folgende Punkte nicht mehr realisieren:

Wir sind nicht in der Lage, einen beliebigen Anfangszustand abzubilden

Wir können die Dynamik für 10100 belegte Kästchen niemals berechnen


Ausserdem sind wir nur in der Lage, emergente Strukturen (zum Beispiel Gleiter) bis zu einer gewissen Größenordnung durch Simulation zu erkennen. Emergente Strukturen und ihre Dynamik, die zum Beispiel 1060 Kästchen im game of life benötigen, können wir nicht mehr berechnen und damit „vorhersagen“.

Sollte die Natur auf eine ähnliche Art (nur wesentlich komplexer) funktionieren, werden wir also nur einen kleinen Ausschnitt aller möglichen Strukturen und deren Dynamik kennenlernen, obwohl wir die Grundmechanismen vielleicht einmal zumindest modellhaft vollständig kennen werden. Auch könnten wir aus dem „jetzt“ weder auf einen Anfangszustand noch auf die Anzahl der bisherigen Taktungen schliessen. Die Sonne, die Erde, die Galaxien z. B. sind solche Strukturen, die wir nicht mehr im Detail berechnen können, die wir aber durch unsere Sinne und Messinstrumente noch als solche wahrnehmen können. Die Strukturen ausserhalb unseres Universums z.B. bleiben uns aber für immer verborgen. Wir können sie weder berechnen, noch wahrnehmen.

Ein großes Ziel der Physik sollte aus meiner Sicht sein, bzgl. der realen Natur zu einer analogen Beschreibung wie beim Setup des game of life zu kommen. Dies bedeutet vor allem, Antworten auf die Fragen „Was ist Raum?", „Was ist Materie?", „Was ist Zeit?“, „Was sind die Wechselwirkungen?“ zu finden. Das halte ich für erreichbar und wir sind da m.E. durchaus auch schon ziemlich weit, ohne dass es uns bewusst ist. Trotzdem werden wir dann aber nicht alles kennen, was es gibt, sondern nur den kleinen Ausschnitt, der uns auf Grund der Schichten, in denen wir leben und aus denen wir bestehen, zugänglich ist. Wesentlich kleinere Strukturen als ein Photon oder ein Elektron bzw. wesentlich größere Strukturen als unser Universum können wir nicht mehr „erfahren". Auch könnten wir weder das „jetzt“, noch die Zukunft, noch einen potentiellen Anfangszustand exakt ermitteln, falls es letzteren global überhaupt jemals gegeben haben sollte. Zumindest wüssten wir dann aber, wo genau unsere Grenzen liegen und das wäre sicher auch schon etwas wert.

Wie man sieht, gibt es beim Game of life auch keine „Weltfomel“, mit der ich die Dynamik des Systems geschlossen abbilden kann. Ich muss im Grunde immer 10100 Kästen bei jedem Zeittakt berücksichtigen. Anders geht es nicht. Nur so kann ich den Zustand des Systems nach diesem Zeittakt ermitteln. Lokal können wir einiges verstehen und berechnen. Global ist es für uns unerreichbar. Auch zukünftige globale Einflüsse auf eine lokale Situation bzw. die globalen Auswirkungen der lokalen Dynamik sind uns nicht zugänglich. Unser Bewusstsein hat aus meiner Sicht in diesem Sinne auch eine globale Komponente und eine Maschine zu bauen, die ein Bewusstsein wie wir hätte, wäre für uns unmöglich. Im Game of life gibt es kein zu unserem vergleichbares Bewusstsein. Es ist noch nicht komplex genug und vor allem endlich.

Der Traum des Menschen, einmal alles zu verstehen, wird m.E. (wohl zum Glück) dann immer ein Traum bleiben. Wir sind auf einen recht engen Rahmen beschränkt. Das Ganze bleibt uns verborgen. Der Glaube wird damit weiterhin ein Bestandteil unseres Denkens bleiben. Er beginnt dort, wo die maximale Reichweite unserer Erkenntnis endet. Dabei gibt es trotzdem noch viele neue Dinge zu entdecken, von denen wir heute nicht mal eine Ahnung haben. Leider hat sich die Physik aus meiner Sicht seit Jahrzehnten einige selbstgewählte Fesseln angelegt und gleicht damit einer Ziege, angebunden an einem Pflock, die inzwischen fast alles abgegrast hat, was ihr die Leine erlaubt, die saftigen, unberührten Wiesen um sie herum aber nicht erreichen kann. Die Ironie dabei ist, dass unsere heutigen mathematischen Abbildungen nicht das Problem dabei wären, sondern der vorherrschende Glaube, was ihre Gültigkeitsbereiche angeht und wie sie zu interpretieren sind. Fester Glaube ist jedoch kaum zu erschüttern, und so bin ich mal gespannt, ob ich es noch erlebe, dass die Ziege von der Leine gelassen wird. Ich schätze die Physik und ihre Vertreter sehr und möchte sie selbstverständlich nicht mit Ziegen vergleichen. Es ist nur eine Analogie der heutigen Situation, deren Ursache viel mit Gruppenverhalten zu tun hat, dem wir uns alle in dem Umfeld, in dem wir agieren, in der Regel auch nicht entziehen können. Im Grunde also eine ganz normale Situation, die aber trotzdem bedauerlich ist.

Viele Grüße
Job
Alles ist einfacher, als man denken kann, zugleich verschränkter, als zu begreifen ist.
J.W. von Goethe

ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 3587
Registriert: 13. Jan 2017, 10:00

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von ralfkannenberg » 6. Jul 2018, 10:17

Job hat geschrieben:
6. Jul 2018, 09:53
Wenn wir zum Beispiel 10100 belegte Kästchen haben (und das ist nichts im Vergleich zur Natur)
Hallo Jobs,

das könnte sich lohnen, das einmal abzuschätzen. Nehmen wir für die Größe eines Elementarteilchens 10^-15 m an - für das Proton und das Elektron liegt man damit gar nicht schlecht, und nehmen wir den "Durchmesser" des sichtbaren Universums zu 15 Milliarden Lichtjahren, wobei ein Lichtjahr wiederum 10^16 m sind, so hat das Universum einen Durchmesser von 15 * 10^9 * 10^16 * 10^15 solcher Elementarteilchen-Durchmesser, also 1.5 * 10^40 Elementarteilchen-Durchmesser.

In der 3.Potenz - ob würfelförmig oder kugelförmig ist bei dieser Abschätzung egal - ergibt das ungefähr 5 * 10^120 Elementarteilchen-Volumen.

Bei nur ungefähr 10^80 Elementarteilchen sind die meisten dieser Kästchen übrigens leer.


Freundliche Grüße, Ralf

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 8098
Registriert: 26. Dez 2009, 10:29

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von seeker » 6. Jul 2018, 11:42

Zur Sache mit der Zeitkomponente bei der Komplexität:
Da habt ihr Recht, daran hatte ich noch nicht gedacht! :well:
Ich werde das noch nachholen.
Job hat geschrieben:
6. Jul 2018, 09:53
Ein Problem, das wir aus meiner Sicht in diesem Umfeld haben, möchte ich am Beispiel des Game of life versuchen zu illustrieren. Wir kennen hier die Grundbausteine der „Materie" (gefülltes Kästchen), ihre „Wechselwirkungen" (Regeln), den „Raum" (Anzahl der Kästchen) und die „Zeit" (diskrete Taktung, die die Regeln pro Takt auf alle Kästchen anwendet) ganz genau. Das heißt, dass wir sowohl die grundlegenden Strukturen als auch die Dynamik vollständig kennen
Schon darin liegt aber ein Zirkel, ein Trugschluss, sobald du das auf reale Systeme anwendest.
Das Problem ist hier, dass du dir ein idealisiertes System vorstellst (das also real gar nicht existiert!), das schon im Voraus erdachten Regeln (welche von deinen eigenen Gedankenprozessen/-strukturen nicht unabhängig sind) in perfekter Weise gehorchen soll, das also nur unter einer ganz bestimmten im Voraus gewählten Perspektive genau SO und nicht anders ist und nichts anderes ist und dass du nur DESHALB unter eben genau derselben Perspektive in seiner grundlegenden Struktur und seiner Dynamik (rein theoretisch) vollständig kennen kannst.
Für reale Systeme trifft das NIE ganz zu! Sobald du so etwas tatsächlich baust, kannst du sicher sein, dass es deinem idealisierten System in Struktur und Dynamik nicht mehr 100%ig entspricht. Inwiefern es so ist hängt ja auch wesentlich von den Fragen ab, die du stellst, realen Systeme wohnen immer noch zusätzliche Eigenheiten und Facetten inne, die in reinen idealisierten Systemen per Definition nicht vorkommen. Auch aus den Fragen, die du an das reale System stellst und den Fragen die du nicht stellst wird unausweichlich eine bestimmte Perspektive gebildet: Würdest du andere Fragen stellen, würdest du andere Antworten erhalten.
D.h. die Perspektivabhängigkeit ist eine zusätzliche Grenze der Erkenntnis, zusätzlich noch zu deinen interessanten Ausführungen (wo ich später vielleicht noch mehr zu schreiben werde).
Job hat geschrieben:
6. Jul 2018, 09:53
und das Ganze wäre (bei endlich vielen Bausteinen) für einen gegebenen Anfangszustand sogar deterministisch, aber nur in einer Richtung. Das System ist zeitlich nicht umkehrbar. Dies bedeutet, dass ich von einem jetzigen Zustand auch bei Kenntnis der Anzahl der bisherigen Taktungen nicht mehr auf den Anfangszustand, mit dem ich einmal gestartet bin, schliessen kann. Eine Wirkung (jetziger Zustand aufgrund der letzen Taktung) kann mehrere potentielle Ursachen (Zustand vorletzte Taktung) haben. Die Zukunft ist vorbestimmt, die Vergangenheit ist nicht eindeutig rekonstruierbar.
Sehr interessant! :well:
Daran hatte ich auch noch nicht gedacht.
Job hat geschrieben:
6. Jul 2018, 09:53
Ein großes Ziel der Physik sollte aus meiner Sicht sein, bzgl. der realen Natur zu einer analogen Beschreibung wie beim Setup des game of life zu kommen. Dies bedeutet vor allem, Antworten auf die Fragen „Was ist Raum?", „Was ist Materie?", „Was ist Zeit?“, „Was sind die Wechselwirkungen?“ zu finden. Das halte ich für erreichbar und wir sind da m.E. durchaus auch schon ziemlich weit, ohne dass es uns bewusst ist.
Wie gesagt: Die Antworten, die wir hier erhalten können, werden dennoch immer perspektivgebunden bleiben. Dehalb werden wir nie eine Antwort auf Fragen erhalten wie: "Was ist Raum wirklich?" Solche Fragen sind letztlich sogar sinnfrei.
Sinnvoll sind nur Fragen wie:
"Inwiefern und inwieweit lässt sich das von uns erfundene Konzept "Raum" in einer für uns befriedigenden Weise mit dem Geschehen in der Natur in Einklang bringen? In welcher Weise lässt es sich weiterentwickeln oder durch andere Konzepte ersetzen um unsere gedanklichen Konstruktionen künftig in für uns noch befriedigenderer Weise mit dem Geschehen in der Natur in Einklang bringen zu können?"
Grüße
seeker


Wissenschaft ... ist die Methode, kühne Hypothesen aufstellen und sie der schärfsten Kritik auszusetzen, um herauszufinden, wo wir uns geirrt haben.
Karl Popper

Skeltek
Site Admin
Site Admin
Beiträge: 5081
Registriert: 25. Mär 2008, 23:51
Wohnort: Stuttgart, Germany
Kontaktdaten:

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von Skeltek » 6. Jul 2018, 15:48

Ich finde Job hat es echt gut beschrieben. Vor allem ist es bei seinem Beispiel offensichtlicher, dass bei einem sehr großen Spielfeld räumliche Zusammenhänge sehr weit auseinander liegen können und damit auch entsprechend noch mehr Rechenschritte notwendig sind um eine Wirkung von A zu einem 10^70 Felder weiter weg liegenden B zu erhalten, was der Zeitkomponente gut entspricht.

Wenn sich eine Vielzahl an Sachverhalten, welche 10^60 Felder weit auseinander liegen zum Beispiel in irgendeiner Weise 'gegenseitig hoch schaukeln' oder 'gegenseitig stabilisieren', dann ist allein der zeitliche Abstand Zwischen den unzählbaren Folgen von Wirkung und Rückwirkung so groß, dass man sich schon nicht einmal die Zwischenzustände merken kann oder überblicken kann, durch welche Norm die Eigenschaften übertragende Struktur überhaupt erkannt werden kann. Teils wird man wohl vermutlich noch nicht einmal die Anomalien erkennen wenn die sich ausgebildet haben (z.B. alle 10^68 Felder im Durschnitt ein Kästchen mehr 'alive' als der Durchschnitt, was dann irgendetwas anderes auslöst usw.

Selbst wenn man Strukturen oder Zusammenhänge erkennen würde, ist es vermutlich fast unmöglich auch die Ursache dafür zu ermitteln nach 10^81 Schritten.
Gödel für Dummies:
  • Unentscheidbarkeit - Dieser Satz ist wahr.
  • Unvollständig - Aussage A: Es existiert nur ein Element A.
  • Widersprüchlich - Dieser Satz ist falsch.

ralfkannenberg
Ehrenmitglied
Ehrenmitglied
Beiträge: 3587
Registriert: 13. Jan 2017, 10:00

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von ralfkannenberg » 7. Jul 2018, 10:13

Skeltek hat geschrieben:
5. Jul 2018, 16:26
Das Verhältnis der Bahnradien unserer Planeten von Innen nach Außen ist fast immer fast gleich von Planet zu Planet (glaube Radienverhältnis von fast immer 5/2)
Hallo Skeltek,

auf solche Verhältnisse der Grossen Halbachsen kommst Du nach dem 3.Kepler'schen Gesetz bei einer 4:1 Umlaufbahnresonanz, da 4^2 ungefähr gleich (5/2)^3


Freundliche Grüße, Ralf


(5/2)^3 = 125/8 ungefähr gleich 128/8 = 64/4 = 32/2 = 16 = 4^2

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von tomS » 8. Jul 2018, 12:44

Skeltek hat geschrieben:
13. Jun 2018, 20:31
Hab ich heute entdeckt. Fand ich ganz nett zum Lesen. Es geht um die Krise der Standardphysik.
https://www.spektrum.de/news/wie-schoen ... um/1570712
Ich bin gespannt auf Sabines Buch. Sie hat mit ihrer Kritik teilweise recht - einige Wissenschaftler haben sich von wissenschaftlichen Standards verabschiedet oder propagieren deren Ausweitungin einem definitiv nicht-Popperschen Sinn.

Nur - das ist ja keine Laune, sondern tatsächlich einer gewissen Krise geschuldet. Sabine hat in dieser Hinsicht völlig recht. Hat sie dem aber auch etwas entgegenzusetzen? Sie befasst sich mit der Phänomenologie der Quantengravitation, teilweise theorie-unabhängig, teilweise mit dem Ziel der Überprüfung konkreter Theorien. Da gibt es nichts dran auszusetzen, das ist essentiell wichtig, und möglicherweise befassen sich viel zu wenige Physiker mit der kritischen Überorüfung.

Aber ihre Kritik - so wie ich sie bisher immer verstanden habe - richtet sich ja gegen da Zustandekommen der Theorien, gegen die Ideen, die zu immer neuen Theoriemonstern führen. Hat sie da einen Gegenentwurf?

Man sollte sich mal die Theorien ansehen, die in den letzten Jahrzehnten entworfen wurden, um diverse offene Fragestellungen besser zu verstehen. Da gibt es recht konservative Ansätze wie die weitere Substruktur - Präquarks, Rischonen, Technicolor, ... da gab und gibt es die Siche nach einer großen Vereinheitlichung - SU(5), SO(10), ... da gibt es sicher die SUSY und ihre Derivate bzw. Kombinationen mit GUT etc. Das war für sich betrachtet recht vernünftig, jedoch nicht erfolgreich. Das kann man im Nachhinein natürlichen leicht kritisieren. Dann gibt es sicher die Stringtheorie sowie ihre Beziehung zu einigen der o.g. Punkte. Auch die Idee der Stringtheorie ist an sich nicht verkehrt, nur liefert sie eben nicht das Gewünschte (inzwischen gibt es völlig andere Sichtweisen, aber das soll hier nicht das Thema sein). Und dann gibt es diverse Ansätze zur Quantengravitation - zumeist völlig unabhängig von der Stringtheorie - wobei z.B. die Idee der Asymptotischen Sicherheit basierend auf Ideen von Weinberg ein eher konservativer Ansatz ist, wobei die Schleifenquantengravitation eine radikal neue Quantisierungsmethode einführt die noch am ehesten an Ideen von Einstein anknüpft, und wobei die Idee einer emergenter Gravitation ohne deren Quantisierung wieder in eine völlig andere Richtung läuft.

Auf weitere, noch exotischere Ansätze möchte ich nicht eingehen - teilweise kenne ich sie nicht mal oder kann sich nicht wirklich bewerten.

Die Frage ist, ob man wirklich sagen kann, dass alle diese Ideen in die Irre gehen - und wenn ja, welche Methoden, Kriterien, ... Sabine vorschlägt.

Eine westliche Kritik an Popper war und ist ja, dass er zu sehr auf die Falsifizierung wissenschaftlicher Hypothesen abzielt, nicht auf deren Entstehung und Entwicklung. Eine Hypothese im Kontext einer existierenden Theorie ist immer ein recht triviales Beispiel: der inklusive Streuquerschnitt für top-antitop bei s = 100 GeV ist xyz. Gut, kann man behaupten, irgendwann irgendwie messen d.h. testen, und dann das Standardmodell ein weiteres Mal bestätigen oder evtl. doch verwerfen. Aber Popper sagt m.E. wenig dazu, wie man zu einer völlig neuen Theorie gelangt, wenn insbs. Erweiterungen, Vereinheitlichung, Evolution u.ä. nicht greifen.

Dass Sabine sich der Phänomenologie und damit der Popperschen Methode verschrieben hat ist gut und richtig. Aber damit sind nicht automatisch alle Ansätze, die jenseits der Popperschen Kategorien liegen müssen, falsch.

Schauen wir mal ca. 100 Jahre zurück. Zunächst galt die Physik mit Newton, Maxwell und Einstein als einigermaßen abgeschlossen - zumindest gibt es Zitate, die das nahelegen (*) Es zeigte sich jedoch, dass irgendetwas bei den kleinsten Strukturen nicht wirklich verstanden war. Es gab um 1900 diverse Anzeichen - Spektrallinien, thermisches Strahlungsspektrum, Photoeffekt, ... Rutherford-Experimente, Röntgenstrahlung, ... Dann gab es eine Phase der äußersten Verwirrung, mit ihren seltsamen Ideen wie dem Bohrschen Atommodell. Beendet wurde diese Phase ca. 1926 ziemlich abrupt durch Heisenberg, Schrödinger, Dirac u.a., wobei diese letztlich nichts anderes taten, als einige seit Jahrzehnten bekannte Gleichungen der klassischen Mechanik in völlig anders geartete mathematische Strukturen zu übersetzen. Darauf folgten Jahrzehnte der Glückseligkeit, bis irgendwo in die 70iger oder 80iger Jahre hinein.

Gut.

Man stelle sich nun einmal vor, nicht Heisenberg, Schrödinger und Dirac hätten eine Handvoll Gleichungen auf eine letztlich äquivalente Weise umformuliert, sondern tausende von Physikern hätten zig Gleichungen auf zig tausend Weisen umformuliert - und das über 40 Jahre. Da hätte man sicher auch von einer Krise sprechen können (**)

Ich denke, wir sind in einer ähnlichen Situation. Dabei hat Sabine recht, wenn sie auf wissenschaftliche Methoden pocht; und andere haben ebenfalls recht, wenn sie im Zuge der Theorieentstehung diesen Kategorien nicht vertrauen (***)

Ich bin jedenfalls gespannt, welchen positiven Entwurf sie anzubieten hat.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
seeker
Ehrenadmin
Ehrenadmin
Beiträge: 8098
Registriert: 26. Dez 2009, 10:29

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von seeker » 11. Jul 2018, 00:20

tomS hat geschrieben:
8. Jul 2018, 12:44
Dass Sabine sich der Phänomenologie und damit der Popperschen Methode verschrieben hat ist gut und richtig. Aber damit sind nicht automatisch alle Ansätze, die jenseits der Popperschen Kategorien liegen müssen, falsch.
Sicher richtig.
Ich denke, das darin jedoch auch eine gedankliche Falle liegt: Man sollte vermeiden in den Kategorien 'richtig/falsch' zu denken.
Theorien sind nie in einem objektiven Sinne richtig oder falsch, das waren sie nie!
Theorien sind stattdessen entweder irgendwann für uns befriedigend und werden von uns als leistungsfähig angesehen oder sie werden das nicht - das ist alles.
Wenn man bereit ist das zu schlucken wird m. E. alles einfacher und entspannter, dann geht es nämlich nicht mehr darum irgendeine Wahrheit 'da draußen' richtig zu treffen, sondern darum was wir wollen und erwarten (von Theorien) und was nicht. Im Gegensatz zur objektiven Wahrheit können wir so etwas wissen, wir können es sogar entscheiden. Wir müssen es sogar entscheiden, denn es exitiert keine objektiv richtige oder beste Vorgehensweise, 'unabhängig von uns' (und unseren Wünschen und Erwartungen), um eine Theorie zu bauen.
Wenn eine unserer Erwartungen z.B. lautet, dass eine neue Theorie umfasssender und einheitlicher sein soll, dann ist es so, wenn wir andere Erwartungen mehr gewichten, dann ist es anders.

Und dann sieht es so aus:
Wenn du mir sagst, dass du über Popper hinausgehen möchtest um weiterzukommen, dann frage ich nicht mehr nach richtig und falsch, nach Wahrheit oder der Suche danach, ich frage stattdessen, was du dir davon erhoffst und welchen Nutzen und welche Befriedigung von welchen Erwartungen du dir dadurch versprichst und wie der Erfolgsfall für dich aussehen würde.
So bleiben wir bei uns selbst und können das diskutieren, es kann so vieles erlaubt bleiben, eigentlich sogar alles, das Schöne ist: man kann sich an der Stelle dann darüber klar werden, welche Kosten womit verbunden sind - es ist ja nichts umsonst.
Und auf diese Weise kann man dann auch alles besser einordnen, was gemacht wird. Vielleicht werden wir im Zuge dieser Einordnung dann auch neue Begriffe prägen, um auch sprachlich zu unterscheiden, was z.B. noch 'Naturwissenschaft auf popperschem Boden' ist und was sich davon wie weit gelöst hat, es kann immer Koexistenz geben.
tomS hat geschrieben:
8. Jul 2018, 12:44
Ich bin jedenfalls gespannt, welchen positiven Entwurf sie anzubieten hat.
Ich würde vorschlagen:
Geduld haben, vieles ausprobieren, das was funktioniert, im Sinne von "es erfüllt unsere Erwartungen besser, es ist für uns befriedigender" wird sich dann schon irgendwann zeigen. Eine genaue Anleitung dafür, eine exakte Formalisierung kann und darf es gar nicht geben, weil Formalisierungen mit echter Kreativität und Intuition nicht gut zusammengehen.

Es gibt eine Krise höchstens im Sinne von: "unsere Erwartungen an die Geschwindigkeit des Fortschritts wurden nicht erfüllt".
Manchmal kann man eine 'Krise' auch auflösen, indem man seine Erwartungshaltung neu überdenkt und anpasst.
Grüße
seeker


Wissenschaft ... ist die Methode, kühne Hypothesen aufstellen und sie der schärfsten Kritik auszusetzen, um herauszufinden, wo wir uns geirrt haben.
Karl Popper

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Re: Schöner Artikel über die Krise der Standard-Teilchenphysik

Beitrag von tomS » 11. Jul 2018, 06:29

seeker hat geschrieben:
11. Jul 2018, 00:20
tomS hat geschrieben:
8. Jul 2018, 12:44
Dass Sabine sich der Phänomenologie und damit der Popperschen Methode verschrieben hat ist gut und richtig. Aber damit sind nicht automatisch alle Ansätze, die jenseits der Popperschen Kategorien liegen müssen, falsch.
...
Vielleicht werden wir im Zuge dieser Einordnung dann auch neue Begriffe prägen, um auch sprachlich zu unterscheiden, was z.B. noch 'Naturwissenschaft auf popperschem Boden' ist und was sich davon wie weit gelöst hat, es kann immer Koexistenz geben.
Ich denke, es ist recht einfach: Popper definiert Kriterien, die von Theorien zu erfüllen sind, damit diese als wissenschaftlich gelten können - im wesentlichen Falsifizierbarkeit. Popper sagt uns jedoch nicht, wie wir derartige Theorien entdecken können. Das hat schon Kuhn kritisiert.

https://de.m.wikipedia.org/wiki/Thomas_ ... volutionen
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Antworten