Hinweis auf die DSGVO: Auf unserer Seite werden keine Dritt-Anbieter-Cookies verwendet und nur Daten erfasst, welche für das Minimum an Board-Funktionalität notwendig sind.
Bevor Sie sich registrieren oder das Board verwenden, lesen Sie bitte zusätzlich die DSGVO-Erklärung, welche in der Navigationsleiste verlinkt ist.

Kurzfassung der unserer Meinung nach wichtigsten DSGVO-Punkte:
Es kann vorkommen, dass Benutzer eigenverantwortlich Videos oder sonstige Medien in ihren Beiträgen verlinken, welche beim Aufruf der Forenseite als Teil der Seite samt zugehörigem Material mitgeladen werden. Sollten Sie dies nicht wünschen, verwenden Sie beim Benutzen des Forums einen Blocker wie z.B. uMatrix, welcher das Laden von Inhaltsblöcken von Fremd-URLs effektiv unterbinden kann.
Wir blenden keine Werbung ein und schränken die Inhalte in keinster Weise bei Benutzung von Addblockern ein. Dadurch ist die Grundfunktionalität des Forums auch bei vollständigem Blockieren von Drittanbieter-Inhalten stets gegeben.

Cookies werden unsererseits nur verwendet um das Einloggen des Benutzers für die Dauer der Forenbenutzung zu speichern. Es steht dem Benutzer frei die Option 'Angemeldet bleiben' zu verwenden, damit der Cookie dauerhaft gespeichert bleibt und beim nächsten Besuch kein erneutes Einloggen mehr notwendig ist.
EMail-Adressen werden für Kontakt bei wichtigen Mitteilungen und zur Widerherstellung des Passwortes verwendet. Die verwendeten IPs können von uns ohne externe Hilfsmittel mit keiner realen Person in Verbindung gebracht werden und werden nach spätestens 7 Tagen gelöscht. Diese IPs werden höchstens verwendet um Neuanmeldungen unerwünschter oder gesperrter Nutzer zu identfizieren und zu unterbinden. Wir behalten uns daher vor bei Verdacht, die Frist für die IP-Löschung auf maximal 14 Tage zu verlängern.
Unsere Webseite läuft auf einem virtuellen Linux-Server, welcher von einem externen Anbieter gehostet wird. Etwaige Verstöße der DSGVO-Auflagen seitens dieses deutschen Hosters können wir nicht feststellen und somit auch nicht verfolgen.
Wir halten Backups unserer Datenbanken, welche in regelmäßigen Abständen als Schutz vor Katastrophen, Hackerangriffen und sonstigen Ausfällen erstellt werden. Sollte ein Nutzer die Löschung seiner Daten wünschen, betrachten wir es als Unzumutbar die Backups auch von den Daten zu befreien, da es sich hierbei um eine mehrtägiges Unterfangen handelt - dies ist für eine Einzelperson beim Betrieb eines privaten Forums nicht zumutbar möglich ohne das Backup komplett zu löschen.
Sollten Sie etwas gegen die dauerhafte anonyme Speicherung ihrer EMail-Adresse, ihres Pseudonyms und ihrer Beiträge in einem Backup haben, sehen Sie von der Registrierung in diesem Forum ab. Für Mitglieder, welche vor dem 25.05.2018 registriert waren steht jedoch das Recht im Raum, eine Löschung der Datenbank-Backups zu beantragen.



Wenn dies Ihr erster Besuch hier ist, lesen Sie bitte zunächst die FAQs sowie die wesentlichen Regeln zur Benutzung des Forums.
Um an den Diskussionen teilnehmen zu können, müssen Sie sich zunächst registrieren.

Kausale Dynamische Triangulation: Simulator Idee?

Jenseits des etablierten Standardmodells der Elementarteilchenphysik und der Allgemeinen Relativitätstheorie, d.h. Quantengravitation, Supersymmetrie und Supergravitation, Stringtheorien...
Antworten
Benutzeravatar
wilfried
Ehrenmitglied
Ehrenmitglied
Beiträge: 2071
Registriert: 20. Aug 2006, 10:18
Wohnort: Mitten druff auf d'r Alb
Kontaktdaten:

Kausale Dynamische Triangulation: Simulator Idee?

Beitrag von wilfried » 28. Nov 2007, 07:56

Liebe Freunde

ich eröffne einen neuen Faden und hoffe wieder auf interessante Beiträge.

Demoktrit forumlierte vor 2400 Jahren die atomare Struktur des Weltaufbaus, die heutzutage jedem Kind bereits nahegebracht wird. Newton formulierte etwas später seine Gravitationstheorie, die uns lehrte warum ein Ball so weit fliegt, wie wir zum Mond fliegen können etc. Einstein kondensierte diese Theorien mit neuen Ansätzen zu seinen Relativitätsprinzipien. Planck erkannte, dass Materie endlich ist in Ausdehnung und Zeitverhalten. Gravitation im Verständnis mit der Relativität eröffente völlig neue Ansätze zum Weltverständnis, obwohl oder eventuell gerade weil das verhältnis der Gravikraft zur Elektromagnetkraft zwischen 2 Protonen in der Ordnung von 1e-38 liegt. Auch erscheint es irrsinning, aber wir haben es erkannt: Gerade die geringsten Distancen verlangen die allergrößten Energieeinträge, damit sie überwunden werden können.
Folgen wir diesem letzten Satz und begeben uns auf die Reise in immer geringere Abstände oder Distancen, so wird die Energie derartig gewaltig anwachsen, dass Gravitationseffekte oder die Gravitation selber mehr und mehr in den Vordergrund treten. Wenn wir dann schlussendlichgeringseten Abstand, den Planck benannte 1.6e-35m angekommen sind, so haben wir eine derartig hohe Energie, dass wir ein Schwarzes Loch erzeugen können! Damit das aber eben nicht passiert -denn es passiert ja auch in Wirklichkeit nicht- werden wir offensichtlich gezwungen bereits vor Erreichen dieses Abstandes die Welt zu quantisieren.
Das ist die Geburtswehe der Quantengravitation.
Die theoretischen Physiker standen vor neuen nahezu unfassbaren Aufgaben.Heisenberg sah diese Problome voraus., da die Kopplung mit der Gravitations als konstanten Eintrag nicht durchgeführt werden konnte. Es stimmte einfach nicht überein. Die Newton Gravikonstante G ist umgekehrt proportional zur Energiedimension: G = abs(E^-2). Dagegen erwiesen und erweisen sich die Beiträge in einer gestörten Expansion (der bekannte englische Fachausdruck heißt hier: pertubative expansion) jedoch zeigt: G*E^2 und die Störungstheroieerwartet einen Zusammenbruch bei GE^2~1 und fürt damit auf die Planck Energie.
Die Physik erklärt dies mit ohrer nicht-renomierbaren Theorie
Die Schwierigkeit in der sich die Physik nun befand war und bleibt, dass all diese Effekte nichtlinear sind, was das Lösen der Differentialgleichungen extrem problematisch gestaltet. Nichtlineare DGLs sind bis auf ganz wenige Ausnahmen nicht geschlossen lösbar!
Das weitere Problem lautete: die Welt ist nichtdeterministisch, denn die Quantentheorie spricht nur von Wahrscheinlichkeiten, von einer statistischen Aussage. Jedoch in der Quantengravitation ist die Raumzeit -diese ist wie wir alle im Forum ja wissen über die Metrik fest mit Raum und Zeit verbunden- eine Trägheit und besitzt darüber hinaus, was sich von der Wortwahl her führend als Widerspruch erscheinen liesse eine eigenschaft eines dynamischen Geschehens. Damit mussten die Physiker ihre Theoreien neu formulieren, was nicht weiter schlimm ist, aber Aufwand bedeutet, denn die "alten" Ansätze waren ja nicht falsch mussten "nur" erweitert werden.
Die Suche nach der großen Vereinigung begann. Das Problem war, dass die Grundkräfte zwar ähnliche Gleichungsstrukturen hatten, sich aber doch unterschieden. Ganz problemtatisch war die Sache mit der elektrischen und der magnetischen Kraft. das Auffinden eines magnetischen Monopols, der gleichbedeutend ist mit der Isolation einer magnetischen Ladung, führte zu großen Mißverständnissen und zu fantastischen Lösungen: die Eichtheoretiker waren am Werk und fanden mit dieser Symmetrierung die Lösung des magnetischen Monopol als "String". Das war die Geburt der Stringtheorie. Aber diese war unbeeinflusst von den Planck Größen und kannte auch keine gravitativen Einflüsse.
Es musste ein störungsfreier Ansatz her, der diese Dynamik beinhaltet. Die Schleifenquantentheorie betrat die Bühne. Der Problemkreis war und ist die Störungstheorie, die eventuell sogar falsch ist und nicht die ganze Tiefe der Quantenrelativität im Allgemeinen wiedergibt.

All diese Ideen, uns im Forum mittlerweile wohlbekannt haben den großen Nachteil, dass ihre Gleichungen zum Teil unlösbar sind, da es genügend viele Probleme mit nichtintegrablen Raumzeittransformationen gibt. Ih erinnere hier e.g. (ex genere = aus dem Allgemeinen gegriffen) an die Greensche Funktiuon des Morse-Potentials oder an die spektrale Darstellung der Greenschen Funktion.

Aus ihr geboren oder eventuell auch als eigenständiger Ansatz zu sehen ist eine sehr interessante sehr neue Theorie entstanden:

Kausale Dynamische Triangulation.

Damit diese störungsfreie Theorie handhabbar wird, fangen wir mit einfachen Beobachtungen an, so beispielsweise der Berechenbarkeit von Gleichungen. Diese Berechenbarkeit erfordert eine endliche Anzahl an Freiheitsgraden. Das kennen wir aus dem täglichen Leben und unsere Rechner bedienen sich dieser Vorschrift. Die Mathematiker nennen dieses Numerik.
Im Falle der Quantengravitation ist die Anzahl der Freiheitsgrade aus der geometrischen Anschrift oder Konfiguration der Raumzeit zu entnehmen und ist zunächst unendlich groß. Was kann man tun?
Wir können dies ändern, indem wir sowas wie eine Abtastung durchführen. Wir Ingenieure tun das gerne: nehmen wir einen Signalstrom im zeitkontinuerkiechem Bereich und aus diesem nehmen wir in zeitlich gleich verteilten sehr zeitkurzen Abschnitten Werte (im englisch heisst das: "sample"), dann überführen wir das System von der Laplace Ebene in die z-Ebene. Das gleiche wednen wir mal bei der Raumzeit an.
Damit führen wir quasi "grobkörnige" Abschnitte der Raumzeit (diese bleibt darin konstant) ein und nennen dies:
Triangulation.
Die Verbindung der Raumzeitstückchen mit solchen triangulierten Teilstücken kennzeichnet sich im Analogon zur z-Transformation als identische Triangulationen. Solche Triangulation besitzt eine Dynamik, die jedoch voraussichtlich nicht jeden Feiheitsgrad kodieren werden wird.

Die Idee dahinter ist faszinierend, denn so kann z.B. das Feynman Pfadintegral für diskrete Positionen in der Zeit angegeben werden:
tk = k * t/N für k = 1, 2, 3, 4, ..., N

Dieser Ansatz ist in unseren Simulatoren ein Vielvwerwendeter. Jeder, der SPICE, CADENCE oder andere Simulatoren kennt, kennt den Begriff
"Piecewise-linear". Damit kann ein Integral über numerische Mehtodik geöst werden. Für ein Integral, wenn wir es denn mal hier auf unsere bedürfnisse beziehen, muss dann stets ein Fehlerbereich angegeben werden. Damit wird der Pfad dieses Integrals nicht mehr so schön geradlinig, sondern von Schritt zu Schritt ergibt sich jeweils ein Geradenstückschen, welches 2 aufeinanderfolgende und berechnete Zeitstückchen verbindet. Der Weg ist diskretisiert.

Folgen wir dieser Diskretisierung, so machen wir einen Fehler, ich zeige das mal in folgendem Bild:

Bild

Der Fehler, den wir hier machen wir durch die schwarzen Pfeile verdeutlicht. Mathematisch formulieren wir den Fehler zu:

\fedon\mixon\sigma^2 = 1/q * int((-q/2 - y),q,0,q/2)^2 + int((q/2 - y),q,-q/2,0)^2 = q^2/12
\fedoff

Danach kann der gesamte Wertebereich als digitale Information mit

E^2/sigma^2 und E = q*2^n

niedergeschrieben werden. Diese Art des Fehler heißt Quantisierfehler (nicht zu verwechseln mit Rauschen!!!).
Prinzipiell ist das schon alles. Mittels dieses Digitalisierens der Integrale können damit die kosmologischen Gleichungen in ein Rechnermodell, einen Simulator überführt werden. So beispilesweise wird aus der Ricci Skalar Kurve eine Linearisierung mittels sogenannter Delta Funktionen (Abtastbreite oder Abtastzeit wird als Delta bezeichnet ...der Dirac ist das infinitesimal kurze Abtastintervall). Die Integrale verschwinden und werden durch Summen ersetzt.

Der Einstein-Hilbert Wirkung ...siehe http://de.wikipedia.org/wiki/Einstein-H ... Wirkung--- wird somit diskretisiert und als Summe geschrieben. und nennt sich jetzt: Polyakov Wirkung, die eine Weiterführung der Regge Wirkung ist.
http://de.wikipedia.org/wiki/Polyakov-Wirkung

Mit dieser Quantisierung können auch sehr komplexe kosmologische Zusammenhänge gerechnet werden.

Was wir mit dieser Idee erhalten ist eine Folge von diskreten Werten, quasi als statische Momentaufnahme eines Zeitstückchens delta_t. Die Probleme liegen darin, dass damit Information verloren geht, was sich z.B. in den Spektren bemerkbar macht. So zeichnet sich eine abgeshlossene Sinuswelle durch das Fourierintegral mit den Integrationsgrenzen der Zeit von minus Unendlich bis plus Unendlich als idela scharfe Spitze (Peak) ab, während sich die gleiche Welle innerhalb der Integrationsgrenzen -T bis + T spektral aufweitet und auch am Rande abklingende Wellenerscheinungen zeigt. Das sind die destruktiven Interferenzen. Solche Fehler passieren bei diskretisierten Ansätzen.

Das ist der Ansatzpunkt meiner Kritik an dieser Mehtodik der kausalen dynamischen Triangulation.

Denn wenn die Wissenschaft sich "einen abbricht" möglichst präzise zu rechnen und Modelle mit kleineren Fehlern kritisiert, dann kann doch ein solcher Ansatz allenfalls einer Vergröberung, einer Vereinfachung eines bereits manifestierten Ansatzes sein und nichts anderes.

Wiederum ein Vergleich:

Berechnen wir eine Jakobi-Matrix (das ist eine mit Ableitungen), dann wird dies numerisch durch Pivotisierung einer diskretisierten, also linearisierten Funktion in jedem Simulator bzw. Digitalrechner durchgeführt. Wichtig dabei ist, dass sich der Anwender über die Fehlergenze im Klaren ist.

Wer von Euch weiß darüber mehr, wer hat diese bereits angwendet?
Gibt es inzwischen Simulatoren für kosmologische Fragen und sind die diskretisierten Fehler akzeptabel und in welcher Größenordnung liegen diese eigentlich?

Netten Gruß

Wilfried
Die Symmetrie ist der entscheidende Ansatz Dinge zu verstehen:
-rot E - dB / (c dt) = (4 pi k ) / c
rot B - dE/ / (c dt) = (4 pi j ) / c
div B = 4 pi rho_m
div E = 4 pi rho_e

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Beitrag von tomS » 4. Dez 2007, 22:29

Hallo Wilfried,

ich glaube nicht, dass die kausale dynamische Triangulation behauptet, dass sie der Weisheit letzter Schluss ist. Sie ist eher ein Spielzeugmodell, um eine diskrete Theorie der Gravitation zu bauen und zu testen, was numerisch passiert und wie die resultierende Raumzeiten aussehen.

Es gibt ein paar ganz interessante Resultate: die kausale dynamische Triangulation gibt zu Beginn nicht die Dimension des Raumes vor; die Dimension ist ein Ergebnis der Simulation. Interessanterweise erhält man näherungsweise 3.

Im folgenden Artikel findest du eine gute Zusammenfassung:
http://eprintweb.org/S/article/hep-th/0505154

Ich habe nicht den Eindruck, dass man das "eben mal so" runterprogrammiert, also einen Simulator für allgemeine Fragestellungen kann ich mir nicht vorstellen - aber ich weiß es wirklich nicht genau.

Es gibt eine ähnlichen Ansatz in der QCD, die sogenannte Gittereichtheorie (lattice gauge theory). Dabei wird ein festes Gitter auf der Raumzeit definiert und auf diesem Gitter Berechnungen zu Hadronenmasen (z.B. Proton, Neutron, ...) durchgeführt. Die Ergebnisse liegen teilweise nur <10% neben den gemessenen Massen - also so schlecht ist das nicht.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
wilfried
Ehrenmitglied
Ehrenmitglied
Beiträge: 2071
Registriert: 20. Aug 2006, 10:18
Wohnort: Mitten druff auf d'r Alb
Kontaktdaten:

Beitrag von wilfried » 5. Dez 2007, 07:33

Lieber Tom

danke für die Antwort, mit der ich allerdings z.Zt. nicht ganz konform gehe.

Fang ich mit dem zweiten Teil Deiner Antwort an:
die Eichungen sind eine mathematische Konstruktion, deren Genauigkeit durch die Mathematik selbst definiert ist: trivial ausgedrückt "unendlich" genau. Damit ist die es nur eine Frage, welche Eichung welchen Zweck erfüllt, "sonst" nichts.

Bei der KDT jedoch geht es um die Art und Weise wie bringe ich das Problem in einen Rechner. Schaue mal vergleichsweise in meine MAPLE Beispiele, da nutze ich MAPLE um Metriken zu rechnen, um die ART auszunutzen, um kosmologischen Modelle daraus abzuleiten. Kein Ton von wegen KDT. Jedoch stillschweigend -keiner hier im Forum hat es je angemerkt und ich habe auch kein Wort darüber verloren- ist das recht ungenau gerechnet, denn MAPLE benutzt eine endliche numerische Rechenweise. Die Mantisse ist eben nur 38 Stellen lang (default). Kann ich auch kleiner oder größer machen, bleibt aber endlich.

Schaut man sich aber mal die KGT an, so ist die führende Idee eben die, welche in unserer z-Trafo "steckt". Es wird ein zeitlich kontinuierliches System, was auf Planck Ebene durch sich selber diskretisiert wird, diskretisiert.
Damit ist die Genauigkeit verbunden mit dem Fehler der Diskretisierung. Es ist demzufolge das Abtasttheorem zu berücksichtigen. Da jedoch dieser Ansatz "straight foreward" ist, soll heißen, daß die Quantisierung eine reine ist -ich habe diese in meinem Beitrag als SQR bezeichnet und gezeigt, wie der Fehler berechnet wird, sehe ich Verbsserungspotential in diesen Ansätzen. Denn in niederfrequenterem Gebieten haben wir bestimmt auch bei kosmologischen Daten etwas Ähnliches wie das Lorentzische Rauschen

S = tau / (1 + 4 pi^2 f^2 tau^2)

mit tau der Zeitkonstante dieser Raschterme.

Zu berücksichtigen bleibt allemal der Alias Effekt, das Überlappen oder Falten der Abtastbänder. Hier gilt mit der Abtatsfrequens fs:

fs = 2 pi /T T ist die zeitliche Periode

Sa(t) = sum(-infinity,infinity) delta(t -nT) und demzufolge für den Datenstrom:

x(S) = x_a(t) s_a(t) = sum(-infinity,infinity) x_a(nT) delta(t -nT)
x_n = x_a(nT)
x_a ist das zeitlich kontinuierliche Signal nT das zeitl. diskretisierte Sa der Datenzug des abgetasteten Systems.

Wenn wir deises Fourier transformieren, so erhalten wie die Funktion

2 sin(omega t) / (omega t)

Das ist das si-Spektrum, was auch sowas ähnliches wie destruktive Inerferenzen erzeugt. (Stimmt nicht ganz in der Erklärung, aber im Effekt.

Was kann verbessert werden:

Wenn schon abtasten, dann überabtasten und "noise shaping" anwenden. Soll heißen nicht lineare Rauschverformung. Durch Signalrekursion wird der niederfrequentere Rauschanteil zum hochfrequenteren dazuzugepackt. Damit ergibt sisch im interessanten (beobachteten) Signalbereich eine signifikante Rauschminderung = Steigerung der Signaldetektion und im höher Frequenten Bereich steigt das Rauschen gewaltig an. Das ist weiter nicht schlimm, denn mit Hilfe digitaler Filter (auf Gruppenlaufzeit sowie auf nichtlineare Gruppenlaufzwitverzerrung achten) kann dies weggefiltert werden.
Stichwort ist hier: Wellendigitalfilter. (Prof, Fettweis Uni Bochum in den 80er Jahren starke Veröffentlichungen). Im analogen ist das auch möglich. Stichwort hier: VIS (Voltage Inverter Switches) Filter.

Insofern sehe ich die Ansätze der DT durchaus als relevant und interessant an


Gruß


Wilfried
Die Symmetrie ist der entscheidende Ansatz Dinge zu verstehen:
-rot E - dB / (c dt) = (4 pi k ) / c
rot B - dE/ / (c dt) = (4 pi j ) / c
div B = 4 pi rho_m
div E = 4 pi rho_e

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Beitrag von tomS » 5. Dez 2007, 22:11

Hi Wilfried,

ich kann zu deinen numerischen Überlegungen nichts sagen - da bist du der Spezialist. Zur KDT und zur Gittereichtheorie aber noch ein paar Sätze:

In der Gittereichtheorie wird die QCD auf einem künstlich eingeführten Gitter simuliert; Dabei sitzen die Quarks an den Knoten und die Gluonen auf den Kanten. Interessant sind die Gluonenfelder. Es ist nun nicht so, dass die Felder entlang der Kanten irgendwie variieren und man die Kanten (oder die Kuben) zur numerischen Integration nutzt, sondern das Feld ist auf einer Kante konstant! Natürlich ergibt das einen Fehler (denn das Gitter ist ja künstlich eingeführt), aber der Fehler ist nicht numerischer Natur sondern stammt aus der Näherung, dass die Felder entlang der Kante einen festen Wert haben. Numerisch sind die Rechnungen sogar exakt, wenn die von Rundungsfehlern beim Addieren und Multiplizieren absiehst. Jedenfalls hat das nichts mit dem Abtasttheorem zu tun.

Ich mach ein anderes Beispiel:
Gesucht sei eine geschlossene Kurve fester Länge mit maximalem Flächeninhalt. OK - wir wissen, dass das ein Kreis ist. Du kannst das aus einem Variationsprinzip und eine Kurve in Parameterdarstellung ableiten.
Jetzt nehmen wir an, du weißt nichts von gekrümmten bzw. glatten Kurven, du kennst nur Polygone. Wieder formulierst du ein Minimierungsproblem über eine Klasse von Polygonen, jetzt integrierst du aber nicht mehr entlang einer Kurve bzw. über die Fläche, sondern du hast ein rein algebraisches Problem. Wen du z.B. nur regelmäßige Polygone zulässt und den Umfang festhältst, kannst du das lösen (ich schau mir das mal analytisch an, du solltest es mit Maple ebenfalls hinkriegen). Das Ergebnis wird sein, dass die Lösung gegen einen Kreis konvergiert, wenn du die Zahl Ecken des Polygons gegen unendlich gehen lässt.
Der Witz ist, dass du in dieser Darstellung kein einziges Integral numerisch lösen musst. Die zweite Darstellung entspricht der Gittereichtheorie. Du hast natürlich das Problem, dass du nur eine Näherungsrechnung durchführst, aber du näherst nicht das Integral als Riemann-Summe, sondern du diskretisierst das gesamte Problem. Die Näherung besteht also nicht darin, dass deine Integrale ungenau sind - sie sind sogar exakt, denn das Integral ist einfach Kantenlänge mal konstantem Funktionswert - die Näherung besteht darin, dass du nur endlich viele Punkte betrachtest.

Ich denke, dass es im Detail große Unterschiede zwischen der KDT und der Gittereichtheorie gibt, so ist z.B. das Gitter in der Gittereichtheorie statisch, während es in der KDT dynamisch ist. Jedenfalls gibt es keine dynamische Variablen "auf dem Gitter".

Also eigentlich ein blödes Beispiel - aber vielleicht trotzdem eine interessante Diskussion.

Spannend wäre es, mal die genaue Simulation der KDT zu sehen, also wie kompliziert die Formeln sind und wieviel Aufwand das am Computer bedeutet (wahrscheinlich heißt es da aber programmieren, also nichts mit Maple oder Mathematica).
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
wilfried
Ehrenmitglied
Ehrenmitglied
Beiträge: 2071
Registriert: 20. Aug 2006, 10:18
Wohnort: Mitten druff auf d'r Alb
Kontaktdaten:

Beitrag von wilfried » 6. Dez 2007, 08:35

Hallo Tom

das ist eine interessante Antwort. Danke. Ich habe eine interessante Veröffentlichung zu diesem Thema:

http://en.wikipedia.org/wiki/Causal_dyn ... angulation
http://physik.rub.de/imperia/md/content ... grauer.pdf

Es gibt sehr sehr wenig Literatur darüber, jedenfalls habe ich so gut wie nichts gefunden und das "Nichts" habe ich hier genannt!

Gruß

Wilfried
Die Symmetrie ist der entscheidende Ansatz Dinge zu verstehen:
-rot E - dB / (c dt) = (4 pi k ) / c
rot B - dE/ / (c dt) = (4 pi j ) / c
div B = 4 pi rho_m
div E = 4 pi rho_e

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Beitrag von tomS » 6. Dez 2007, 21:48

Hallo,

ich hab mich mal auf die Suche gemacht und bin fündig geworden. Scheint so, als ob nur eine Handvoll Leute an dem Thema arbeiten. Hier ein Link auf
die Homepage von Renate Loll: http://www.phys.uu.nl/~loll/Web/publica ... tions.html mit einer Liste ihrer Publikationen. Eine davon hatte ich ja oben schon angegeben. Ich mal kurz quergelesen und finde gleich den ersten sehr gut: wenig Formeln, recht anschaulich.

Ansonsten hab ich außer bei Wikipedia nichts gefunden.

Es gibt ein sehr bemerkenswertes Ergebnis der KDT: Ich habe hier ja schon mal was über Hintergrundunabhängigkeit geschrieben und die Tatsache, dass genau das die Schleifenquantengravitation (z.B. gegenüber der Stringtheorie) auszeichnet. In einem Artikel von (ich glaube) Smolin (oder AShtekar?) steht nun der bemerkenswerte Satz, dass auch die Schleifenquantengravitation nicht völlig hintergrundunabhängig ist.

???

Zwar wird keine klassen Hintergrundmetrik vorgegeben, aber es wird die Topologie festgelegt, nämlich erstens 4 Dimensionen und zweitens eine "Foliation" in drei plus eins Dimensionen mit einer ausgezeichnete "zeitartigen" Richtung.

In der KDT wird nun die Topologie und die Zahl der räumlichen Dimension nicht festgelegt. Was passiert?

Man kann zum einen die vorgegeben 3+1 Dimensionen "triangulieren", dann erhält man zu einem vorgegeben Raum die zugehörige Triangulierung, die exakt die selbe Dimension wie der Raum (Raumzeit) hat wie die, mit der man gestartet ist - sonst wäre das ganze nicht konsistent.

Wenn man nun aber eine beliebige Triangulation mit sehr vielen Vertizes / Knoten vorgibt, dann gibt es keinen Grund, dass diese 3+1 dimensional ist - sie wird im allgemeinen eine sehr hohe Dimension D+1 haben. Außerdem hat sie fraktale Eigenschaften, also ist die Zahl der Dimensionen D im allgemeinen nicht mal ganzzahlig.

In der KDT gibt es nun aber ein dynamisches Prinzip (Pfadintegral), nachdem sich die Triangulierungen entwickeln, sie streben einem "Grundzustand" = Vakuum zu. Analysiert man dieses Vakuum, so stellt man fest, dass es auf großen Skalen (groß gegenüber der Planck-Länge) in sehr guter Näherung wieder drei Raumdimensionen D hat und dass es einem Friedmann-Universum entspricht!

Zitat [Loll at al.]
... classical behaviour of the quantum universe on large scales, as borne out by the existence
of a stable, extended quantum geometry which is four-dimensional on large
scales, and whose overall shape (Fig. 4) is described by a Friedmann cosmology.

Even more intriguingly, we observe strong deviations from classical behaviour on small
scales, to the effect that at very short distances, spacetime has a fractal structure and
is effectively two-dimensional.
D.h. die Dynamik der Theorie zwingt die Triangulation, eine Form anzunehmen, so wie wir sie um uns herum beobachten.

D.h. also, dass die KDT ein dynamisches Prinzip enthält, das zum einen die Zahl der Raumdimensionen auf drei festlegt, ohne dass man dies von Hand eingebaut hätte, und das zum anderen das bekannte Friedmann-Universum reproduziert!

Das scheint mir ein deutlicher Hinweis darauf zu sein, dass man da ein Körnchen Wahrheit entdeckt hat, denn eine Vorhersage der Dimensionalität des Raumes hat sonst meines Wissens nach noch keine Theorie geliefert.

Zu der Zahl der Dimensionen gibt es in den Artikeln übrigens auch Abbildungen.

Die Raumzeitstruktur auf kleinen Skalen soll nach diesen Ergebnissen näherungsweise zweidimensional und selbstähnlich, also ein Fraktal werden. Dies könnte nun bedeuten, dass es keine kleinste Längenskala gibt, sondern dass Längen doch wieder beliebig klein werden können. Dies wäre wegen der Selbstähnlichkeit eines Fraktals aber nicht erkennbar. D.h. die Raumzeitstruktur sähe dann bei einem zehntel der Plancklänge identisch aus wie bei einem hundertstel, einem tausendstel usw. Das ist aber natürlich erst mal nur Spekulation.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Antworten