Hinweis auf die DSGVO: Auf unserer Seite werden keine Dritt-Anbieter-Cookies verwendet und nur Daten erfasst, welche für das Minimum an Board-Funktionalität notwendig sind.
Bevor Sie sich registrieren oder das Board verwenden, lesen Sie bitte zusätzlich die DSGVO-Erklärung, welche in der Navigationsleiste verlinkt ist.

Kurzfassung der unserer Meinung nach wichtigsten DSGVO-Punkte:
Es kann vorkommen, dass Benutzer eigenverantwortlich Videos oder sonstige Medien in ihren Beiträgen verlinken, welche beim Aufruf der Forenseite als Teil der Seite samt zugehörigem Material mitgeladen werden. Sollten Sie dies nicht wünschen, verwenden Sie beim Benutzen des Forums einen Blocker wie z.B. uMatrix, welcher das Laden von Inhaltsblöcken von Fremd-URLs effektiv unterbinden kann.
Wir blenden keine Werbung ein und schränken die Inhalte in keinster Weise bei Benutzung von Addblockern ein. Dadurch ist die Grundfunktionalität des Forums auch bei vollständigem Blockieren von Drittanbieter-Inhalten stets gegeben.

Cookies werden unsererseits nur verwendet um das Einloggen des Benutzers für die Dauer der Forenbenutzung zu speichern. Es steht dem Benutzer frei die Option 'Angemeldet bleiben' zu verwenden, damit der Cookie dauerhaft gespeichert bleibt und beim nächsten Besuch kein erneutes Einloggen mehr notwendig ist.
EMail-Adressen werden für Kontakt bei wichtigen Mitteilungen und zur Widerherstellung des Passwortes verwendet. Die verwendeten IPs können von uns ohne externe Hilfsmittel mit keiner realen Person in Verbindung gebracht werden und werden nach spätestens 7 Tagen gelöscht. Diese IPs werden höchstens verwendet um Neuanmeldungen unerwünschter oder gesperrter Nutzer zu identfizieren und zu unterbinden. Wir behalten uns daher vor bei Verdacht, die Frist für die IP-Löschung auf maximal 14 Tage zu verlängern.
Unsere Webseite läuft auf einem virtuellen Linux-Server, welcher von einem externen Anbieter gehostet wird. Etwaige Verstöße der DSGVO-Auflagen seitens dieses deutschen Hosters können wir nicht feststellen und somit auch nicht verfolgen.
Wir halten Backups unserer Datenbanken, welche in regelmäßigen Abständen als Schutz vor Katastrophen, Hackerangriffen und sonstigen Ausfällen erstellt werden. Sollte ein Nutzer die Löschung seiner Daten wünschen, betrachten wir es als Unzumutbar die Backups auch von den Daten zu befreien, da es sich hierbei um eine mehrtägiges Unterfangen handelt - dies ist für eine Einzelperson beim Betrieb eines privaten Forums nicht zumutbar möglich ohne das Backup komplett zu löschen.
Sollten Sie etwas gegen die dauerhafte anonyme Speicherung ihrer EMail-Adresse, ihres Pseudonyms und ihrer Beiträge in einem Backup haben, sehen Sie von der Registrierung in diesem Forum ab. Für Mitglieder, welche vor dem 25.05.2018 registriert waren steht jedoch das Recht im Raum, eine Löschung der Datenbank-Backups zu beantragen.



Wenn dies Ihr erster Besuch hier ist, lesen Sie bitte zunächst die FAQs sowie die wesentlichen Regeln zur Benutzung des Forums.
Um an den Diskussionen teilnehmen zu können, müssen Sie sich zunächst registrieren.

Multilineare Algebra

Mathematische Fragestellungen
Benutzeravatar
gradient
wohnt hier!
wohnt hier!
Beiträge: 417
Registriert: 3. Nov 2006, 09:25

Multilineare Algebra

Beitrag von gradient » 29. Apr 2008, 21:24

Hallo,

Tom hat im Forum auf einen Link zur ART, Multilinearen Algebra und Tensorrechnung hingewiesen.
http://www.tat.physik.uni-tuebingen.de/ ... es/art.pdf

In diesem Thread möchte ich hierzu Fragen stellen (nachdem wir den Vektorraum im Mathe-LK besprochen haben, will ich mich nochmal auf Tensoren einlassen), wobei auch andere dazu eingeladen sind.


Frage 1:
Auf S. 20 (nach Kovektoren) ist e_i ein Basisvektor.
Mit diesem wurde das Kronecker-Delta definiert. Ich verstehe hier nicht, warum man das darf, nachdem der Basisvektor nicht zwingend ein Einheitsvektor sein muss. Es kann dann m.E. für i=k etwas von 1 verschieden rauskommen, oder nicht?


Grüße, gradient.

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Beitrag von tomS » 29. Apr 2008, 21:37

Grundsätzlich sollte man immer von einer Orthogonalbasis sprechen, wenn man eine solche meint. Häufig schreibt man jedoch einfach Basis, insbs. weil es oft keinen Sinn macht, nicht-orthogonale Basisvektoren zu benutzen.

Ich verstehe das hier genau so - es handelt sich implizit um Orthogonalbasen
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

breaker
Ehrenmitglied
Ehrenmitglied
Beiträge: 1539
Registriert: 14. Jan 2006, 18:23

Beitrag von breaker » 29. Apr 2008, 21:40

Soweit ich bisher gesehen habe, meint man normalerweise immer die Einheitsvektoren, wenn man e_i schreibt. Für andere Basen benutzt man meist andere Buchstaben.

Benutzeravatar
gradient
wohnt hier!
wohnt hier!
Beiträge: 417
Registriert: 3. Nov 2006, 09:25

Beitrag von gradient » 30. Apr 2008, 14:39

Danke!
Damit ist die Sache in Ordnung.

Benutzeravatar
gradient
wohnt hier!
wohnt hier!
Beiträge: 417
Registriert: 3. Nov 2006, 09:25

Beitrag von gradient » 3. Mai 2008, 18:19

Es geht weiter mit Unklarheiten...

Frage 2: Warum werden die Indizes bei den Kovektoren alpha bei (i) bis (iv) (siehe Seite 24) unten geschrieben? Bei der Einführung der Tensoren (S. 22f.) sind die Indizes 1, ..., r schließlich oben.


Frage 3: Wie kommt man auf die Gleichung (3.1.5), S. 25? Da bin ich mir nicht sicher... Folgt dies aus den letzten beiden Beziehungen der linearen Abbildung (S. 22)?

breaker
Ehrenmitglied
Ehrenmitglied
Beiträge: 1539
Registriert: 14. Jan 2006, 18:23

Beitrag von breaker » 3. Mai 2008, 20:11

zu Frage2:
Kann es sein, dass du die Vektoren mit Komponenten verwechselst? Bei kovarianten Vektoren ist der Index der Basis unten und (damit die Summenkonvention funktioniert) der Index der Komponenten oben. Also etwa so: V = Vⁿ gn (mit V:=Vektor, V:=Komponenten, g:=Basis)

zu Frage3:
Soweit ich das durchschaue, scheint das schon einfach die Beziehung von S. 22 zu sein. Eben ohne Summenzeichen.

Benutzeravatar
AlTheKingBundy
Senior-Master
Senior-Master
Beiträge: 586
Registriert: 10. Dez 2005, 23:06
Kontaktdaten:

Beitrag von AlTheKingBundy » 3. Mai 2008, 21:05

sehr richtig breaker, es herrscht oft viel verwirrung mit den indizes oben und unten und was vektorkomponenten und was basis ist. zum nachlesen von details zu dem thema kann ich das kapitel tensorrechnung auf meiner website anbieten:

http://www.einsteins-erben.de/tensorrec ... hp?men=rel

ein vektor besteht aus seinen komponenten und der basis. letztere wird oft weggelassen und man spricht trotzdem von einem vektor. warum nun indizes oben und unten stehen ist erst einmal definitionssache (womit man anfängt). indizes hoch und runterziehen kann man mit hilfe des ko- bzw. kontravarianten metriktensors, welcher über eine einfache beziehung definiert ist. summiert man nämlich die eine komponente des kovarianten mit der anderen des kontravarianten metriktensors auf, erhält man das Kronecker-Symbol, welches 1 ist, wenn oberer und unterer Index gleich sind, ansonsten 0. wozu nun oben und unten indizes? ganz einfach, damit man z.b. überhaupt etwas ausrechnen kann, z.b. in der allgemeinen relativitätstheoirie (umformungs-geschichten).

Benutzeravatar
gradient
wohnt hier!
wohnt hier!
Beiträge: 417
Registriert: 3. Nov 2006, 09:25

Beitrag von gradient » 3. Mai 2008, 21:23

Danke! :)
Offenbar hab ich den Überblick bei den ganzen Indizes verloren... :(

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Beitrag von tomS » 4. Mai 2008, 19:59

Nochmal zur Definition der ko- und kontravarianten Größen: Ein Vektor kann geschrieben werden als
Vektor = Summe über alle i [i-te Komponente * i-ter Basisvektor].
Transformiert man nun in ein neues Bezugssystem, so ändert sich die Basis (sie definiert ja das neue Bezugssystem), d.h. man hat Basisvektor'.
Damit nun der Vektor der selbe bleibt, müssen auch die Komponenten transformiert werden, also bekommt man Komponente'. Die Transformation zwischen zwei Bezugssystemen erfolgt mittels Matrizenmultiplikation, d.h.
i-ter Basisvektor => i-ter Basisvektor' = Summe über alle m [Matrix1 im * m-ter Basisvektor]
und
i-te Komponente => i-te Komponente' = Summe über alle n [Matrix2 in * n-te Komponente]
Wenn man das in die obige Gleichung Vektor = ... einsetzt, dann erhält man das Produkt der beiden Matrizen Matrix1 * Matrix2 (mit der Summe über i)
Damit sich an dem Vektor nun nichts ändert, muss das Produkt der beiden Matrizen die Einheitsmatrix ergeben, d.h. aber
Matrix2 = das Inverse von Matrix1
Und damit sieht man, dass sich Einheits- bzw. Basisvektoren quasi in die eine Richtung und Kompionenten quasi in die andere Richtung drehen (oder anderweitig transformieren).

So, die normale Konvention ist nun, allen Größen, die sich wie Komponenten transformieren, den Index oben zu verpassen, und allen Größen, die sich wie Basisvektoren transformieren (einschließlich der Basisvektoren selbst), den Index unten zu verpassen.

Man kann nun aber, und das hat AlTheKingBundy mit dem Hoch- und Runterziehen der Indizes gemeint, auch von einem ko- zu einem kontravarianten Vektor u.u. übergehen, also die Indizes der Komponenten nach unten ziehen und gleichzeitig die Indizes der Basisvektoren nach oben ziehen. Man erhält dann neue Kompionenten bzgl. der neuen Basis.

Ein Vorteil der Index-Notation ist, dass man sofort sieht, über welche Indizes summiert wird und wo man evtl. einen Rechenfehler gemacht hat.
Bsp: ein Index a, einmal unten, einmal oben => Summe über a
Bsp: ein Index b, zweimal unten => fast sicher ein Rechenfehler

Außerdem braucht man - und das ist der wesentliche Grund - für ein Skalarprodukt keine Basisvektoren mehr betrachten, sondern ausschließlich die Komponenten. Also man betrachtet nie mehr
Skalarprodukt = Vektor X * Vektor Y,
sondern immer
Skalarprodukt = Summe über a [a-te kovariante Komponenten von X * a-te kontravariante Komponente von Y]
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Beitrag von tomS » 4. Mai 2008, 20:13

Zu Gleichung 3.1.5:

Es geht darum, eine Koordinatentransformation zu beschreiben. D.h. man macht aus einem ko- bzw. kontravarianten Vektor einen ko- bzw. kontravarianten Vektor'. Der neue Vektor' hat natürlich das selbe Verhalten, also wird aus einem ko- immer nur wieder ein kovarianter Vektor. Damit bleibt einem gar nichts anderes übrig, als die Transformation mit einem gemischten Tensor zweiter Stufe mit einem ko- und einem kontravarianten Index durchzuführen.

Transformiert man dabei einen kovarianten Vektor, so wird über den kovarianten Index des alten Vektors und den kontravarianten Index des Tensores summiert - stehen bleibt der neue kovariante Index. Das ist nur die gute alte Regel für die Multiplikation einer Matrix mit einem Vektor.
Wichtig ist, dass wenn man nun statt des ko- einen kontravarianten Vektor der selben Transformation unterwirft, logischerweise der selbe Tensor zum Einsatz kommt.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
gradient
wohnt hier!
wohnt hier!
Beiträge: 417
Registriert: 3. Nov 2006, 09:25

Beitrag von gradient » 9. Mai 2008, 18:38

Zunächst besten Dank an Tom für diese gute Erklärung! :)


Meine nächste Frage bezieht sich auf Übungsblatt 4 zum Skript

http://www.tat.physik.uni-tuebingen.de/ ... /ueb04.pdf

bzw. zur Musterlösung

http://www.tat.physik.uni-tuebingen.de/ ... s/Lsg4.pdf

Da habe ich Probleme bei Aufgabe 1.2, wo nachgewiesen werden soll, dass A^(ab)S_(ab)=0.
Nach dem Skript ist logischerweise A^(ab)=-A^(ba) und S_(ab)=S_(ba).
Damit kann ich die ersten beiden Gleichheitszeichen verstehen, aber nicht das letzte. Warum sollte
-A^(ba)S_(ba)=-A^(ab)S_(ab)
gelten? Wurden hier einfach die Indizes a und b umbenannt?

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Beitrag von tomS » 9. Mai 2008, 19:24

Genau - es werden nur die Indizes umbenannt.

Das muss man aber natürlich für alle Indizes gemeinsam tun, sonst handelt es sich nicht um eine Umbenennung, sondern um eine Transposition der Matrix / des Tensors.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
derNeugierige
hat sich hier eingelebt
hat sich hier eingelebt
Beiträge: 174
Registriert: 13. Aug 2007, 11:39
Wohnort: Heidelberg

Beitrag von derNeugierige » 22. Mai 2008, 19:21

Hallo,

ich habe jetzt auch eine Frage zu demselben Skript, und werde die nächste Zeit noch sicherlich weitere haben.

Auf S.17 bei Vektoren und Kovektoren. Ich verstehe ja, dass die Skalare v^i die Koordinaten eines Vektors bezüglich seiner Basis sind.
Was ist denn bei Gleichung 3.1.1 mit s^{i}_{k} gemeint? Soll das eine Vektorkomponente sein, wobei das k andeuten soll, dass es sich dabei um eine Vektorkomponente bezüglich der anderen Basis e^{Dach über e} handelt? Aber wieso ergibt denn das aufsummierte Produkt der Vektorkomponenten mit der Basis e_i eine neue Basis?
Was ist denn eigentlich mit dem Dach gemeint? Soll das einfach bedeuten, dass es sich um daselbe Objekt der gleichen Klasse handelt?(grob formuliert ;))

Jetzt das eigentliche Problem:

Mir wird nicht ganz klar, woran man beim Vergleich von 3.1.1 und 3.1.2 erkennt, dass es sich um eine kontravariante Transformation handelt. Was ist denn mit gegenläufig und gleichsinnig gemeint? Mir ist das mit ko- und kontravariant noch nicht so ganz klar.


Gruß vom Neugierigen

breaker
Ehrenmitglied
Ehrenmitglied
Beiträge: 1539
Registriert: 14. Jan 2006, 18:23

Beitrag von breaker » 22. Mai 2008, 20:33

Ich versuche mal, so gut es mir möglich ist, zu antworten. Man möge mich korrigieren, wenn ich was falsches schreibe.

Erstmal: Das Dach ist nur zur Unterscheidung da, man könnte ebensogut e', ẽ, ē oder sonstwas schreiben. Zu der Basistransformation:
Ich denke mal, dass man eben die einen Basisvektoren als Linearkombination aus der anderen Basis kriegt, sowas wie: ê1 = a∙e1+b∙e2+c∙e3. Und für ê2 und ê3 auch so. Nur heißen die Koeffizienten hier eben nicht abc..., sondern s^i_k, das ist wegen der Summe natürlich praktischer.

Mit gegenläufig ist wohl gemeint, dass die Transformationsgleichung für die Basis genau anders herum ist, wie für die Komponenten (einmal steht das mit dem Dach rechts, einmal links).

Zu ko- und kontravariant ist mir diese Definition am liebsten:
Wenn für zwei Basen gilt:
gk∙gⁿ = δⁿk
dann heißt gk kovariant und gⁿ kontravariant.
(dabei ist δⁿk die Einheitsmatrix, das heißt, δⁿk ist gleich 1 für n=k und sonst Null).

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Beitrag von tomS » 22. Mai 2008, 20:54

Noch ein paar Anmerkungen von mir:

Ich halte es für ungeschickt, die Koordinaten / Komponenten des Vektors v als Skalare zu bezeichnen - denn es sind keine! Ein Skalar ist ein Objekt, das seinen Wert bei Koordinatentransformation nicht ändert, die Koordinaten ändern ihren Wert jedoch, wenn man von e zu ê übergeht. Ein gutes Beispiel für einen Skalar ist z.B. die Länge eiens Vektors.

Gleichung 3.1.1 beschreibt die Transformation (z.B. Rotation) einer Basis e in eine neue Basis ê. s ist dabei die Transformationsmatrix (z.B. Drehmatrix). Betrachtet man nun einen Vektor v und seine Koordinaten bzgl. der beiden Basen e und ê, so stellt man fest, dass bei Basiswechsel die Basis (mit Index unten) so transformiert, dass über den bei s oben stehenden Index i summiert wird. Dieses Transformationsverhalten heißt kovariant. (Man nennt fortan jede Transformation, die ein Objekt mit Index unten in ein neues Objekt mit Index unten transformiert, kovariant).

In der vor Gleichung 3.1.2 stehenden Ableitung wird nun zuerst v in der neuen Basis ê mit neuen Komponenten geschrieben, dann wird die neue Basis durch die alte ausgedrückt und zuletzt die Reihenfolge der Summation vertauscht, damit transformiert s nun nicht mehr die Basis sondern die Komponenten.

Dabei stellt man fest, dass die Komponenten (mit Index oben!) so transformiert, dass über den bei s unten stehenden Index k summiert wird. Dieses Transformationsverhalten heißt kontravariant, da sie "entgegengesetzt" der Basistransfornmation erfolgt; "entgegengesetzt" bezieht sich auf den Index von s, über den summiert wird.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
derNeugierige
hat sich hier eingelebt
hat sich hier eingelebt
Beiträge: 174
Registriert: 13. Aug 2007, 11:39
Wohnort: Heidelberg

Beitrag von derNeugierige » 22. Mai 2008, 23:54

Erst mal vielen Dank Tom.

Gleichung 3.1.1 beschreibt die Transformation (z.B. Rotation) einer Basis e in eine neue Basis ê. s ist dabei die Transformationsmatrix (z.B. Drehmatrix). Betrachtet man nun einen Vektor v und seine Koordinaten bzgl. der beiden Basen e und ê, so stellt man fest, dass bei Basiswechsel die Basis (mit Index unten) so transformiert, dass über den bei s oben stehenden Index i summiert wird. Dieses Transformationsverhalten heißt kovariant. (Man nennt fortan jede Transformation, die ein Objekt mit Index unten in ein neues Objekt mit Index unten transformiert, kovariant).
Wieso redest du hier von kovariant? Ich dachte dort soll die kontravariante Transformation gezeigt werden? Irgendwie überlicke ich das mit den ganzen Indices noch nicht richtig. :cry:

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Beitrag von tomS » 23. Mai 2008, 09:51

Du musst zwischen dem Transformationsverhalten der Basis und den Koordinaten unterscheiden (Basis: kovariant, Koordinaten: kontravariant). Lies doch mal bis Gl. 3.1.3.
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
derNeugierige
hat sich hier eingelebt
hat sich hier eingelebt
Beiträge: 174
Registriert: 13. Aug 2007, 11:39
Wohnort: Heidelberg

Beitrag von derNeugierige » 1. Jun 2008, 12:19

Ok das sehen wir dann weiter. Erstmal habe ich noch eine Frage zu dem hier:

http://arxiv.org/PS_cache/gr-qc/pdf/9712/9712019v1.pdf

auf S.11 in der Mitte (Gleichung 1.10).
Dort wird eben gezeigt, dass das delta x^my im vierdimensionalen Wegelement invariant ist. Das ist doch, weil das x^my bei einer Transformation zu einem x^my + a^my wird, also delta x^my? Also ist delta x^my invariant.



PS:
Wie kriege ich denn griechische Symbole mit der Tastatur hin? Weil so schreiben ist ziemlich umständlich :cry:
Zuletzt geändert von derNeugierige am 1. Jun 2008, 19:46, insgesamt 1-mal geändert.

breaker
Ehrenmitglied
Ehrenmitglied
Beiträge: 1539
Registriert: 14. Jan 2006, 18:23

Beitrag von breaker » 1. Jun 2008, 16:52

PS:
Wie kriege ich denn grieschiche Symbole mit der Tastatur hin? Weil so schreiben ist ziemlich umständlich :cry:
Ich mach sie immer mit Word und kopier sie. Ist auch nicht gerade einfacher, aber sieht besser aus.
Obs ne andere Möglichkeit gibt, weiß ich nicht.

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Beitrag von tomS » 2. Jun 2008, 09:20

Wenn man das Delta berechnet, fällt bei der Differenzbildung das a heraus
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Benutzeravatar
gravi
Site Admin
Site Admin
Beiträge: 6069
Registriert: 26. Nov 2005, 18:55
Wohnort: Münchhausen

Beitrag von gravi » 2. Jun 2008, 19:18

@derNeugierige,
@breaker:

Zur Darstellung von griechischen Buchstaben:
Ich hatte die früher einmal als "Smilies" generiert und man konnte sie wie ein solches einfach per Klick einfügen. Das war noch vor dem FED, sah allerdings nicht sonderlich gut aus. Ich könnte sie aber relativ schnell wieder aktivieren. Doch viele Symbole (Wurzelzeichen, Integral usw.) fehlen bzw. sind nicht sehr ansehnlich.

Ich denke wir haben inzwischen lange genug auf eine aktuelle Version vom FED gewartet und sollten nun einen Entscheidung treffen, nun doch evtl. Latex einbinden. Zwar sind dann die alten FED- Einträge nicht mehr lesbar, aber es muss ja mal irgendwie weiter gehen.

Ich schalte dazu gleich eine Umfrage im OffTopic...

Gruß
gravi
Unser Wissen ist ein Tropfen. Was wir nicht wissen, ist ein Ozean.
Sir Isaac Newton

Benutzeravatar
derNeugierige
hat sich hier eingelebt
hat sich hier eingelebt
Beiträge: 174
Registriert: 13. Aug 2007, 11:39
Wohnort: Heidelberg

Beitrag von derNeugierige » 23. Jun 2008, 20:59

Hallo,

vielleicht findet sich ja noch einer, der mir ein bisschen hilft (Ich hoffe ich blamiere mich nicht). Ich habe mir jetzt erstmal das Buch "Tensorrechnung für Ingenieure" von Eberhardt Klingbeil zugelegt und es auch so halb durchgelesen. Jetzt vergleiche ich gerade mein dort erlangtes Wissen mit dem PDF auf der ersten Seite. Und muss nun sagen, dass sich das alles irgendwie widerspricht...zudem, was in dem Buch steht.

Es geht eigentlich noch um den ersten Abschnitt (im PDF), wo anhand von Gl. 3.1.1 und Gl. 3.1.2 gezeigt wird, dass sich die Komponenten und Basisvektoren kontravariant transformieren. Deshalb, weil in Gl.3.1.1 über i summiert wird und in Gl. 3.1.1 über k summiert wird, also "gegenläufig".
Jetzt mein Problem: In meinen Buch steht aber, dass sich die Basen wie ihre Komponenten transformieren! Also kovarianten Komponenten wie die kovariante Basis und kontravarianten Komponenten wie die kontravariante Basis. Auch werden bei den Komponenten und Basen bei der Transformationsmatrix über gleiche Indices summiert (also "gleichsinnig" und nicht "gegenläufig")!

breaker
Ehrenmitglied
Ehrenmitglied
Beiträge: 1539
Registriert: 14. Jan 2006, 18:23

Beitrag von breaker » 24. Jun 2008, 13:43

Ich glaub, ich weiß es.

Wenn der Index unten steht, heißt eine Größe kovariant, wenn der Index oben steht, kontravariant.

Der Vektor v in 3.1.2 besteht ja aus Komponenten und Basis; bei der Basis steht der Index unten, bei den Komponenten oben.
Also heißt die Basis kovariant und die zugehörigen Komponenten kontravariant.
Und die transformieren gegenläufig.

Ist eine Sache der Namensgebung.

Benutzeravatar
derNeugierige
hat sich hier eingelebt
hat sich hier eingelebt
Beiträge: 174
Registriert: 13. Aug 2007, 11:39
Wohnort: Heidelberg

Beitrag von derNeugierige » 24. Jun 2008, 14:15

Ja schon. Aber die Basen müssten sich doch gleich transformieren (und so steht es ja auch in dem Buch), weil beide die gleiche Transformationsmatrix haben. Auch wird in dem Buch bei Basis- und Komponentenwechsel über gleiche Indices summiert. Wieso ist das denn hier anders?

Wieso ist denn außerdem bei der Transformationsmatrix ein Index oben und einmal unten? Ist das egal wo die sind? Also kann ich auch hier sagen, i ist die Zeile und k die Spalte?
Der Vektor v in 3.1.2 besteht ja aus Komponenten und Basis;
In 3.1.2 ist kein Vektor, sondern nur seine Komponenten.

Benutzeravatar
tomS
Ehrenmitglied
Ehrenmitglied
Beiträge: 10670
Registriert: 19. Nov 2007, 20:29

Beitrag von tomS » 24. Jun 2008, 15:03

Kann es sein, dass in dem Buch die Metrik (+1, +1, +1) verwendet wird? Bei Tensorechnungn für "Tensorrechnung für Ingenieure" drängt sich dieser Verdacht auf, denn dann werden z.B. Spannungstensoren behandelt, die im dreidimensionalen euklidschen Raum definiert sind. Es gibt dann keinen Grund, zwischen ko- und kontravarianten Indizes zu unterscheiden!

Falls doch eine indefinite Metrik wie (+1, -1, -1, -1) betrachtet wird:
ohne in das Buch reingeschaut zu haben: wenn ein Objekt mit Index oben über eine Matrix in ein neues Objekt mit Index oben transformiert wird, dann muss in der Trf.-Matrix (Tensor!) ein Index oben und einer unten stehen, da immer über ein Indexpaar mit einem ko- und einem kontravarianten Index summiert wird. Es muss ja der Index am neuen Objekt an der richtigen Position "übrigbleiben".
Gruß
Tom

Der Wert eines Dialogs hängt vor allem von der Vielfalt der konkurrierenden Meinungen ab.
Sir Karl R. Popper

Antworten