positronium hat geschrieben:Gerne würde ich darüber diskutieren, wobei aber "diskutieren" wohl zu hoch gegriffen sein dürfte. Man braucht dafür ja wahrscheinlich gute Kenntnisse der ART (Habe mir erst vor ein paar Tagen ein Buch dazu bestellt.). Von daher wäre meine erste Frage: Wie entsteht aus ART die LQG und daraus die LQC? - Das dürfte ja so eine Vererbung sein?
OK.
Nun, es ist so. Stellen wir uns das Universum als zweidimensionale Ballonhülle vor. Diese kann prinzipiell beliebige Schwingungen ausführen (so ähnlich wie Fourierkomponenten), d.h. man hat es mit einem System unendlich vieler Freiheitsgrade zu tun. Das volle System ist bereits in der klassischen ART unlösbar, man beschränkt sich zumeist und (näherungsweise realistische) hochsymmetrische Konfigurationen. Viele kosmologische Modelle nehmen heute eine exakte Symmetrie an, d.h. der einzige verbleibende Freiheitsgrad (von unendlich vielen!) ist die Expansion des Ballons (ohne Deformationen).
Die LQG versucht, eine Quantisierung aller Freiheitsgrade, d.h. aller möglichen Deformationen (daraus könnte man dann evtl. eine effektive Theorie als Näherung ableiten, in der nur noch ein Freiheitsgrad übrigbleibt, die anderen werden "ausintegriert"; sowas kennt man aus anderen Quantenfeldtheorien auch).
Die LQC macht etwas anderes: sie reduziert erst die Anzahl der Freiheitsgrade (auf einen, der ggf. wenige, d.h. sehr spezielle Deformationen) und quantisiert anschließend. Das Ergebnis ist keine reduzierte QFT, sondern direkt eine rein quantenmechanische Theorie (es ist allen klar, dass dies nur eine unzureichende Näherung ist, aber irgendwo muss man mal anfangen).
Nun hat man derartige Spielzeugtheorien schon viel früher untersucht (Stichwort Wheeler-deWitt-Gleichung, Mini-Superspace). Dabei stellte man fest, dass die dort verwendete Quantisierungsmethode inkonsistent ist, und dass die symmetriereduzierten Modelle ebenfalls Singularitäten ausbilden.
Die LQG verwendet eine explizit andere (ungewöhnliche, nicht unumstrittene) sogenannte Polymer-Quantisierung. Sie muss eine andere Quantisierung verwenden, denn die normale ist offensichtlich inkonsistent (für die Gravitation). Die LQG stößt dabei auf viele sehr technische Probleme, die man in vereinfachter Form in der LQC wiederfindet. Ein wesentliches Problem dürfte dabei die Vermengung von (künstlicher) Diskretisierung und Quantisierung sein. Viele befürchten, dass darin die Ursache für Anomalien liegen könnte, d.h. eine Verletzung von Eichsymmetrien, die die LQG letztlich inkonsistent machen würden.
Die LQC führt ein ähnliches Programm, allerdings mit der symmetriereduzierten Theorie durch. Achtung: es ist keineswegs sicher, dass die zwei Wege
LQG: Quantisierung - Symmetriereduzierung
LQC: Symmetriereduzierung - Quantisierung
äquivalent sind. Warum dann dennoch diese Vorgehensweise? Um schneller zu Ergebnissen zu kommen. Wenn positive, dann müssen diese natürlich noch auf dem langen, steinigen Weg der LQG nachgeprüft werden. Wenn negative (wie jetzt!) dann lernt man evtl. anhand der einfacheren Theorie sehr schnell, was man falsch gemacht hat.
Nun hat die LQC in ihrer einfachsten Form (nur ein Freiheitsgrad) keine Probleme, macht jedoch einige sehr interessante Vorhersagen:
- alle aus der ART bekannten Singularitäten werden aufgeweicht, d.h. regularisiert
- außerdem findet man in der LQC aufgrund der modifizierten Dynamik eine physikalisch vernünftige Inflation ohne Inflatonfeld
- dies alles erfolgt nicht künstlich, sondern es handelt sich um beweisbare (neue !) Resultate der Theorie
- d.h. man hat dadurch großes Vertrauen in die o.g. Quantisierungsmethoden gewonnen
Nun zu den Problemen (das ist leider extrem technisch)
Die LQG nimmt an, dass man jedes (!) 4-dim. Universum als Stapel von 3-dim. Blätterungen annehmen kann. Jedes Blatt entspricht einem Begriff von "Gleichzeitigkeit". Die Folge der Blätter im Stapel definiert die Zeitrichtung. Aufgrund der Symmetrie (Diffeomorphismeninvarianz) gibt es unendlich viele gleichberechtigte Blätterungen, wobei alle physikalisch äquivalent sind. Die LQG benutzt nun diese definierte Zeitrichtung, um eine bestimmte Eichfixierung vorzunehmen, d.h. unphysikalische Freiheitsgrade (vor der Quantisierung!) zu eliminieren. In der QED kennt man das als temporale oder Weyl-Eichung.
http://en.wikipedia.org/wiki/Temporal_gauge#Weyl_gauge
http://abenteuer-universum.de/bb/userfiles/gauge.pdf
Nun befürchtet man in der LQG, dass die o.g. Symmetrie, nämlich die Diffeomorphpismeninvarianz, durch Quantisierungsanomalien zerstört wird. Ursache dafür könnte die Diskretisierung sowie die Regularisierung des Hamiltonoperators sein, d.h. dass die so definierte QFT in ihrer Konstruktion die Symmetrien teilweise zerstört. Vereinfacht gesprochen führt eine Anomalie z.B. dazu, dass Symmetrietransformationen (Eichtransformationen, die eigtl. unbeobachtbar sind) zu dynamischen Freiheitsgraden werden (die auf einmal physikalische Effekte produzieren) und dass dadurch die Zeitentwicklung der Theorie diese "aus dem Raum der durch Einchinvarianz festgelegten physikalischen Zustände herausführt". In der QED wäre eine Anomalie z.B. die Verletzung der Ladungserhaltung durch unphysikalische Fluktuationen des Eichfeldes - und damit der Tod der Theorie!! In der QED sowie in der QCD weiß man, wie man die Theorien richtig konstruiert und dies vermeidet. Man kennt jedoch auch potentielle Fehler, die zu diesen Aomalien führen würden und die man natürlich vermeiden muss. In der LQG sieht das Alles wesentlich komplizierter aus, ich spare mir die Details.
http://www.physicsforums.com/showthread.php?t=545596
http://www.physicsforums.com/showthread.php?t=544728
Was genau passiert nun in der LQC? Nun, eine westliche Aussage ist der sogenannte Vorzeichenwechsel. Hört sich harmlos an, ist jedoch eine Katastrophe. Ich habe zu Beginn von der raumartigen Blätterung und der temporalen Eichung gesprochen. Diese setzt voraus, dass man eine Raumzeitmetik mit der Vorzeichensignatur (+---) wie üblich verwenden darf, dass also eine Zeitrichtung existiert. Führt man nun in der LQC Deformationen ein (d.h. geht man von der idealen Symmetrie weg), so erhält man eine effektive Theorie, die teilweise für die Metrik (jetzt als Ergebnis, nicht als Input) die Signatur (----) liefert. Damit verschwindet die zeitartige Koordinate, es entsteht eine Theorie ohne Zeit, und damit eine Theorie, die die o.g. Grundannahmen verletzt.
Nun ist noch unklar, ob dies wirklich das letzte Wort ist (ich denke, zunächst mal werden die Methoden von Bojowald genau geprüft werden, und evtl. findet man reparable Fehler), und es ist auch unklar, was genau die Ursache dieser Probleme ist. Viel spannender ist außerdem die Frage, ob sich die (noch zu identifizierenden) Konstruktionsfehler auch in der vollen LQG wiederfinden und diese damit ebenfalls ein Problem hat (wie gesagt, Diskretisierung + Quantisierung + Weyl-Eichung sind in der LQG essentielle Grundvoraussetzungen; alle anderen Eichfixierungen oder Methoden ohne Eichfixierung vor der Quantisierung haben zu keinen vernünftigen Ergebnissen geführt).
Es gab in der Vergangenheit leider nur wenige, die sich mit diesen konzeptionellen Problemen befasst haben; gerade in denn letzten Jahren hat sehr stark auf physikalische Anwendungen geschaut (Kosmologie, Entropie Schwarzer Löcher, semiklassischen Limes = Rekonstruktion der ART plus Quantenkorrekturen, Gravitonpropagator und Störungstheorie, ...). Von den Leuten, die eher an den konzeptionellen Problemen interessiert waren (Thiemann et al., Alexandrov) habe ich eher negative Resultate gefunden.
Fakt ist, dass man befürchten muss, dass die Theorie einen irreparablen Konstruktionsfehler aufweist. Tatsache ist aber auch, dass die Konstruktion eines physikalischen Hamiltonoperators und eine vernünftige Dynamik seit Jahren nicht vom Fleck kommt. Positiv formuliert könnte man also auch auf ein Hinweise hoffen, wo genau die Probleme stecken und wie man sie eben doch reparieren kann.
Bojowald sagt so etwas wie: "LQC failed - but in an intesting way".