Die Mathe-Redaktion - 23.11.2017 01:08 - Registrieren/Login
Auswahl
Schwarzes Brett
Aktion im Forum
Suche
Stichwortsuche in Artikeln und Links von Matheplanet
Suchen im Forum
Suchtipps

Bücher
Englische Bücher
Software
Suchbegriffe:
Mathematik bei amazon
Naturwissenschaft & Technik
In Partnerschaft mit Amazon.de
Kontakt
Mail an Matroid
[Keine Übungsaufgaben!]
Impressum

Bitte beachten Sie unsere Nutzungsbedingungen, die Distanzierung, unsere Datenschutzerklärung und
die Forumregeln.

Sie können Mitglied werden oder den Newsletter bestellen.

Der Newsletter Okt. 2017

Für Mitglieder
Mathematisch für Anfänger
Wer ist Online
Aktuell sind 422 Gäste und 15 Mitglieder online.

Sie können Mitglied werden:
Klick hier.

Über Matheplanet
 
Zum letzten Themenfilter: Themenfilter:
Matroids Matheplanet Forum Index
Moderiert von John_Matrix PhysikRabe
Physik » Mathematische Physik » Einige Fragen zu ko- und kontravarianten Vektoren.
Druckversion
Druckversion
Antworten
Antworten
Autor
Kein bestimmter Bereich Einige Fragen zu ko- und kontravarianten Vektoren.
bert2
Junior Letzter Besuch: im letzten Quartal
Dabei seit: 07.11.2011
Mitteilungen: 5
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Themenstart: 2017-09-11


Hallo Mathefreunde

eins vorweg, ich bin einfacher Ingenieur und tue mir, trotz meiner Freude an Mathematik, bisweilen sehr schwer mit der gaaaanz exakten Benamselung und Notation von Dingen, daher bitte ich in dieser Hinsicht um etwas Nachsicht :-)

Im Zusammenhang mit Kristallen oder auch magnetischen Feldern liest man oft von Tensoren (z.B. Permeabilitätstensor für anisotrope magnetische Materialien). Da mich das Thema von Berufs wegen und auch sonst sehr interessiert, möchte ich mich jetzt mal hin setzen und wirklich ernsthaft lernen, was Tensoren sind und wie man damit tolle Sachen berechnen kann. (etwas plakativ gesagt ;-) )

Dazu habe ich mir zum Selbststudium das Buch "Introduction to Tensor Analysis and the Calculus of Moving Surfaces" von P. Grinfeld besorgt. Andere Bücher habe ich mir angeschaut, die steigen aber viel zu kompliziert ein. Beim Grinfeld geht es (hat zum Glück auch ein paar Beispiele drin). So, nun zu meiner Frage.

Offenbar gehört zum Verständnis der Tensoren die Unterscheidung von kontra- und kovarianten Vektoren zum elementaren Handwerkszeug. Könnt ihr mir bitte sagen, ob meine folgenden Beobachtungen korrekt sind?

1. Ich kann einen Vektor in kartesischen Koordinaten mit den "kanonischen Basisvektoren" wie folgt darstellen. Es sind
<math>
\vec{e}_1 = \begin{pmatrix} 1 \\ 0 \end{pmatrix} \quad \vec{e}_2 = \begin{pmatrix} 0 \\ 1 \end{pmatrix}
</math>
diese kanonischen Basisvektoren. (Ich benutze die Notation mit dem Pfeil hier, obwohl ich die nicht mag, m.E. sind allgemeine Vektoren fett, weiss aber grad nicht wie das geht) Ein beliebiger Vektor kann dann so dargestellt werden:
<math>
\vec{v} = v_1\,\vec{e}_1 + v_2\,\vec{e}_2
</math>
Dabei sind die <math>v_i</math> die Komponenten des Vektors. Hier kommt schon meine erste Frage: es soll sich um einen kontravarianten Vektor handeln, also das, was wir im "Alltagsgebrauch" als Vektor bezeichnen. Sind dessen Indices jetzt oben oder unten? ich bin da nicht ganz sicher.

2. Gut, der Vektor ist kontravariant. Weshalb? nun, angenommen ich verändere meine Basis:
<math>\vec{e}'_1=\begin{pmatrix} 2 \\ 0 \end{pmatrix} \quad \vec{e}'_2=\begin{pmatrix} 0 \\ 2 \end{pmatrix}</math>
Was zwar eine ziemlich dumme Basis ist, aber möglich wäre es ja. Nun soll mein Vektor <math>\vec{v}'</math> heissen, und er soll immer noch an den selben Punkt zeigen wie vorher, aber er muss in der neuen Basis ausgedrückt werden. Da meine Basisvektoren beide jetzt doppelt so lang sind, ist das in diesem Fall trivial; die komponenten des Vektors müssen jeweils die Hälfte sein, damit der Vektor der selbe bleibt, also ist
<math>v_1' = \frac{1}{2} v_1 \quad v_2' = \frac{1}{2} v_2</math> und damit lautet der Vektor in der neuen Basis:
<math>\vec{v}' = \frac{1}{2} v_1 \vec{e}_1' + \frac{1}{2} v_2 \vec{e}_2'</math>
Stimmen meine Überlegungen bisher? Und jetzt wird mir auch die Nomenklatur klar: da die Komponenten des Vektors sich verkleinern, wenn die Basisvektoren sich vergrössern (bildlich gesagt), ist es ein kontravarianter Vektor. AHA!

3. Man kann das natürlich noch ein wenig professioneller und allgemeiner Ausdrücken. Angenommen ich habe eine Matrix <math>A</math>, welche die alte in die neue Basis überführt, dann sind
<math>
\vec{e}_1' = A\,\vec{e}_1 \quad \vec{e}_2' = A\,\vec{e}_2
</math>
die neuen Basisvektoren. Und es muss gelten
<math>
v_1\,\vec{e}_1 + v_2\,\vec{e}_2 = v_1'\,A\,\vec{e}_1 + v_2'\,A\,\vec{e}_2
</math>
da ja A*e die neue Basis ist. Jetzt kann ich rechts A ausklammern und finde
<math>A^{-1} \cdot \left( v_1\,\vec{e}_1 + v_2\,\vec{e}_2 \right) = v_1'\,\vec{e}_1 + v_2'\,\vec{e}_2</math>
und ääääh hier hapert es etwas, meiner Meinung nach müsste jetzt rechts die neue Basis stehen .... (was ist mein Denkfehler?) Aber man sieht jedenfalls, dass ich die Inverse von A benötige, um die Komponenten meines Vektors in der neuen Basis zu erhalten. Das müsste meiner Meinung nach auch richtig sein, denn für das oben gezeigte beispiel, wo ich die Basisvektoren in der Länge einfach verdoppelt habe, wäre ja
<math>A=\begin{pmatrix} 2 & 0 \\ 0 & 2 \end{pmatrix}</math> und damit <math>A^{-1} = \begin{pmatrix} 1/2 & 0 \\ 0 & 1/2 \end{pmatrix} </math> was ja ansich richtig wäre.

So, das wärs erstmal zu meinen Fragen zu kontravarianten Vektoren. Liege ich soweit richtig?
Beispiele für Kontravariante Vektoren wären z.B. ein Ortsvektor. Oder ein elektrisches oder magnetisches Feld an einem bestimmten Punkt.
Man kann obige Überlegungen für beliebig viele Dimensionen machen, z.B. auch für den dreidimensionalen Raum.
Wenn man ein gekrümmtes Koordinatensystem benutzt, z.B. Polarkoordinaten, dann ist die Transformationsmatrix A vom Ort abhängig (es dürfte die Jacobimatrix sein, richtig?).

Morgen oder so kommen die kovarianten Vektoren (oder Kovektoren?) dran. Und ich bin sehr gespannt auf eure Kommentare. Ich hoffe mit dem Forum Linearer Algebra liege ich ausreichend richtig ;-)

Grüssle!



  Profil  Quote  Link auf diesen Beitrag Link
darkhelmet
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 05.03.2007
Mitteilungen: 2108
Aus: Bayern
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.1, eingetragen 2017-09-13


2017-09-11 21:53 - bert2 im Themenstart schreibt:
Jetzt kann ich rechts A ausklammern und finde
<math>A^{-1} \cdot \left( v_1\,\vec{e}_1 + v_2\,\vec{e}_2 \right) = v_1'\,\vec{e}_1 + v_2'\,\vec{e}_2</math>
und ääääh hier hapert es etwas, meiner Meinung nach müsste jetzt rechts die neue Basis stehen .... (was ist mein Denkfehler?)

Nein, das ist schon richtig so. Es gilt ja

<math>v_1\,\vec{e}_1 + v_2\,\vec{e}_2 = v_1'\,\vec{e}_1' + v_2'\,\vec{e}_2'=\vec{v}.</math>

Wenn da rechts die neue Basis stehen würde, würde da stehen <math>A^{-1}\vec{v}=\vec{v}</math> und das ist Quatsch.


Zum Rest kann ich nichts sagen, weil ich noch nie verstanden habe, was die Physiker mit "Vektor" meinen. Es ist definitiv nicht das gleiche wie das, was in der Mathematik als Vektor bezeichnet wird. Die Begriffe "kovariant" und "kontravariant" gehören auch nicht zur linearen Algebra.

Ich erlaube mir mal, das in den Bereich Mathematische Physik zu verschieben in der Hoffnung, dass die Physiker dazu mehr sagen können.


[Verschoben aus Forum 'Vektorräume' in Forum 'Mathematische Physik' von darkhelmet]



  Profil  Quote  Link auf diesen Beitrag Link
Tirpitz
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 07.01.2015
Mitteilungen: 450
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.2, eingetragen 2017-09-13


Es ist m.E. ein grausames Thema.
Die Bezeichnung "kovarianter" und "kontravarianter" Vektor habe ich zwar auch im Studium noch gehört, würde ich aber in die Mottenkiste packen, ebenso alle Bücher, die auf Koordinatenebene in die Tensorrechnung einsteigen.

Du hast im Prinzip die Wahl: entweder du lernst den Ricci-Kalkül (also Indexziehen, Einstein-Summenkonvention etc.) und akzeptierst seine Regeln (z.B., dass <math>a^\mu b_\mu</math> mit einem Index oben und dem selben Index unten "Summation" bedeutet oder dass man einen Index von oben nach unten über <math>a^\mu=g^{\mu\nu}a_\nu</math> bekommt) als gegeben oder du willst verstehen, warum dieser Kalkül so funktioniert und was sich für mathematische Objekte sich dahinter verbergen. Der Vorteil vom ersten Ansatz ist, dass du es ultimativ immer nur anschaulich mit Zahlen zu tun hast, die du, je nach Tensor-Rang, eben mit mehreren Indizes "addressieren" musst (bei Vektoren eine, bei Matrizen zwei, ...) und deren Wert je nach Indexstellung "oben" oder "unten" unterschiedlich sein kann. Prinzipiell sind für einen Ingenieur die Zahlen ja relevanter als der formale Hintergrund, warum man auf diese Zahlen kommt.
Der andere Ansatz ist der "steinigere" Weg. Du kommst zwar zu tieferen Erkenntnissen, wieso du so und so rechnest (was Index "oben" und "unten" eigentlich bedeutet), aber mehr ausrechnen kannst du am Ende auch nicht. Es ersetzt auch nicht den Ricci-Kalkül, der ist zum Rechnen einfach zu praktisch. Das liegt daran, dass du dabei immer in einem Koordinatensystem arbeitest. Ob ein Objekt aber mathematisch überhaupt definiert sinnvoll werden kann, hängt gerade davon ab, ob man es koordinatenfrei machen kann. Ein Tensor ist koordinatenfrei als eine multilineare Abbildung definierbar, die sich um Koordinatensysteme nicht schert. Seine Komponenten sind von System zu System aber eben verschieden. Du hast also eine "objektive Sicht" auf die Dinge, im Gegensatz zum Ricci-Kalkül, wo du immer nur "subjektiv" von einem ins andere System transformieren, aber nicht von oben draufschauen kannst.

Wenn du ehrlich den steinigeren Weg gehen willst, dann schreibe ich auch gerne mehr dazu (oder schlage etwas Literatur vor).



  Profil  Quote  Link auf diesen Beitrag Link
Tirpitz
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 07.01.2015
Mitteilungen: 450
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.3, eingetragen 2017-09-13


2017-09-13 19:13 - darkhelmet in Beitrag No. 1 schreibt:

Zum Rest kann ich nichts sagen, weil ich noch nie verstanden habe, was die Physiker mit "Vektor" meinen. Es ist definitiv nicht das gleiche wie das, was in der Mathematik als Vektor bezeichnet wird. Die Begriffe "kovariant" und "kontravariant" gehören auch nicht zur linearen Algebra.


Für einen Physiker ist ein Vektor (Tensor) das, was wie ein Vektor (Tensor) transfomiert.  razz
Im Ernst: Wenn du den Jänich (Vektoranalysis) nicht kennen solltest, findest du darin ja im Prinzip die Definition und auch die Isomorphismen, um von physikalischen (Tangential-)vektor zum algebraischen oder zum geometrischen zu kommen.
Einzig delikat (für mich) sind die sog. "polaren" und "axialen" Vektoren (auch Pseudovektor genannt). Nach meinem Verständnis sind die polaren Vektoren die ganz "normalen" Vektoren (im Sinne von: Elemente eines Vektorraums V, insbesondere eigentlich der <math>\mathbb R^3</math>). Axiale Vektoren sind nur im <math>\mathbb R^3</math>) definiert. Sie sind das Ergebnis von Kreuzprodukten zweier polarer oder zweier axialer Vektoren. Die "wahre" Gestalt axialer Vektoren sind vermutlich antisymmetrische 2-Formen <math>A=A^{ij}\mathrm dx_i\wedge\mathrm dx_j\in V^*\times V^*\to\mathbb R</math>, die in Matrixgestalt <math>\begin{pmatrix}0&a&b\\-a&0&c\\-b&-c&0\end{pmatrix}</math> nur 3 freie Komponenten haben, die man dann in einem "Vektor" <math>\begin{pmatrix}a\\b\\c\end{pmatrix}</math> verwurstet und das Ding axial nennt, weil sie unter uneigentlichen Rotationen ihr Vorzeichen beibehalten. Das äußere Produkt zweier Vektoren aus V, <math>a\wedge b \cong\vec a\times \vec b</math> ist ja dann genau Element von der Menge <math>\{f: V^*\times V^*\to\mathbb R\}|\text{f alternierende Bilinearform}</math>. Das Produkt aus einem axialen und einem polaren Vektor (z.B. die Lorentzkraft <math>\vec F=q\vec v\times\vec B</math>, wobei das Magnetfeld hier der axiale Vektor ist) ist ein (polarer) Kraft-Vektor. Hier bedeutet das Kreuzprodukt nicht äußeres, sondern inneres Produkt, also <math>F=q\iota_v B:=qB(v,\cdot)</math> in der Formensprache, wobei <math>F=\langle\vec F,\cdot\rangle</math>, also der Dualvektor zum polaren <math>\vec F</math>.



  Profil  Quote  Link auf diesen Beitrag Link
bert2
Junior Letzter Besuch: im letzten Quartal
Dabei seit: 07.11.2011
Mitteilungen: 5
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.4, vom Themenstarter, eingetragen 2017-09-14


Hallo zusammen

vielen Dank für eure Antworten.

Ich habe auch etwas Mühe mit den Begriffen ko- und kontravariant ;-)

ich habe bis jetzt schon einiges an Literatur gesucht und teilweise auch zu lesen begonnen, aber viele Bücher haben das Problem, dass sie nahezu unlesbar sind, weil sie völlig theoretisch sind, ohne jegliche Beispiele oder Erläuterungen, sondern nur Definitionen und Beweise auflisten. Damit habe ich oft Mühe; wenn ich Sätze lese wie in Wikipedia

"m Folgenden sind alle Vektorräume endlichdimensional. Mit L(E,K) bezeichne man die Menge aller Linearformen aus dem K-Vektorraum E in den Körper K. ..."

dann kringeln sich mir schon die Zehennägel ein wenig, ich bin mit den Begriffen nicht so sattelfest (Isomorphismen, Linearformen, Bilinearform...).

Ich bin aber ehrlich interessiert am "steinigen" Weg, weil ich gern verstehen würde, warum man so und so rechnet. Ich würde auch gern die ganzen Definitionen mal sauber lernen, aber wie gesagt habe ich bisher noch kaum brauchbare Literatur gefunden. Das von mir erwähnte Buch ist einigermassen lesbar, hat sogar ein paar Beispiele und Übungen drin (wenn auch keine Lösungen).



  Profil  Quote  Link auf diesen Beitrag Link
Folgende Antworten hat der Fragesteller vermutlich noch nicht gesehen.
Er/sie war noch nicht wieder auf dem Matheplaneten
PhysikRabe
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 21.12.2009
Mitteilungen: 2051
Aus: Wien, Österreich
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.5, eingetragen 2017-09-14


2017-09-13 21:35 - Tirpitz in Beitrag No. 3 schreibt:
Die "wahre" Gestalt axialer Vektoren sind vermutlich antisymmetrische 2-Formen <math>A=A^{ij}\mathrm dx_i\wedge\mathrm dx_j\in V^*\times V^*\to\mathbb R</math>, [...]

Das äußere Produkt zweier Vektoren aus V, <math>a\wedge b \cong\vec a\times \vec b</math> ist ja dann genau Element von der Menge <math>\{f: V^*\times V^*\to\mathbb R\}|\text{f alternierende Bilinearform}</math>.

Meinst du nicht eher <math>V</math> anstatt <math>V^\ast</math>? Für mein Verständnis sollte doch <math>A=A^{ij}\mathrm dx_i\wedge\mathrm dx_j\in \mathsf{Hom}(V \otimes V, \mathds{R})</math> sein (für einen <math>\mathds{R}</math>-Vektorraum <math>V</math>).

Grüße,
PhysikRabe


-----------------
"Non est ad astra mollis e terris via" - Seneca
"Even logic must give way to physics." - Spock



  Profil  Quote  Link auf diesen Beitrag Link
index_razor
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 06.03.2016
Mitteilungen: 54
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.6, eingetragen 2017-09-14


2017-09-13 21:35 - Tirpitz in Beitrag No. 3 schreibt:

Einzig delikat (für mich) sind die sog. "polaren" und "axialen" Vektoren (auch Pseudovektor genannt). Nach meinem Verständnis sind die polaren Vektoren die ganz "normalen" Vektoren (im Sinne von: Elemente eines Vektorraums V, insbesondere eigentlich der <math>\mathbb R^3</math>). Axiale Vektoren sind nur im <math>\mathbb R^3</math>) definiert. Sie sind das Ergebnis von Kreuzprodukten zweier polarer oder zweier axialer Vektoren.  Die "wahre" Gestalt axialer Vektoren sind vermutlich antisymmetrische 2-Formen <math>A=A^{ij}\mathrm dx_i\wedge\mathrm dx_j\in V^*\times V^*\to\mathbb R</math>, die in Matrixgestalt <math>\begin{pmatrix}0&a&b\\-a&0&c\\-b&-c&0\end{pmatrix}</math> nur 3 freie Komponenten haben, die man dann in einem "Vektor" <math>\begin{pmatrix}a\\b\\c\end{pmatrix}</math> verwurstet und das Ding axial nennt, weil sie unter uneigentlichen Rotationen ihr Vorzeichen beibehalten.

Axiale Vektoren erfordern in erster Linie die Orientierbarkeit, nicht unbedingt drei Dimensionen des Raumes.  Bei fester Orientierung <math>o</math> sieht ein axialer Vektor aus wie ein normaler Vektor <math>v(o)</math>, bei der entgegengesetzten Orientiereung <math>-o</math>, wie <math>-v(o)</math>.  Also handelt es sich im wesentlichen um eine Abbildung von der Menge der Orientierungen auf V nach V mit der Eigenschaft <math>v(-o)=-v(o)</math>.  Solche Abbildungen kann man in beliebigen Dimensionen definieren und sie funktionieren für Vektoren genauso gut wie für Formen.

Pseudoformen spielen eine Rolle, wenn der Wert von Integralen unabhängig von der Orientierung des Raumes sein soll.  So wird z.B. durch Spiegelung nicht aus einer negativen Ladungsmenge innerhalb eines Volumens eine positive.  Also ist die Ladungsdichte eine Pseudo-3-Form.  Dasselbe gilt aus dem gleichen Grund für die "Volumenform" <math>\mathrm{vol}</math>.  Das Magnetfeld <math>B</math> ist eine echte 2-Form, da das innere Produkt mit einem polaren Vektor v eine echte 1-Form, die Kraft, ergeben muß. Also gehört zu ihr der Pseudovektor <math>\vec{B}</math>

<math>B=i_{\vec{B}}\mathrm{vol}.</math>

<math>\mathrm{vol}</math> ändert das Vorzeichen unter Orientierungswechsel, also ist die linke Seite orientierungsunabhängig, wenn <math>\vec{B}</math> ein Pseudovektor ist.  Auch diese Korresponden zwischen echten n-1-Formen und Pseudovektoren gilt unabhängig von der Dimension n.



  Profil  Quote  Link auf diesen Beitrag Link
Tirpitz
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 07.01.2015
Mitteilungen: 450
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.7, eingetragen 2017-09-14


2017-09-14 12:14 - PhysikRabe in Beitrag No. 5 schreibt:

Meinst du nicht eher <math>V</math> anstatt <math>V^\ast</math>? Für mein Verständnis sollte doch <math>A=A^{ij}\mathrm dx_i\wedge\mathrm dx_j\in \mathsf{Hom}(V \otimes V, \mathds{R})</math> sein (für einen <math>\mathds{R}</math>-Vektorraum <math>V</math>).


Ist am Ende eine Geschmacksfrage, ob man nun Vektoren oder Kovektoren hernimmt. Wenn du aber das äußere Produkt zweier Vektoren <math>a,b\in V\cong (V^*)^*</math> berechnest, erhälst du aber eine Abbildung <math>V^*\times V^*\to\mathbb{R}, (\alpha,\beta)\mapsto (a\wedge b)(\alpha, \beta)=\alpha(a)\beta(b)-\alpha(b)\beta(a)</math>.

[Die Antwort wurde nach Beitrag No.5 begonnen.]



  Profil  Quote  Link auf diesen Beitrag Link
Tirpitz
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 07.01.2015
Mitteilungen: 450
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.8, eingetragen 2017-09-14


@ index_razor:

Deine Definition (bzw. eine ähnliche, basierend auf Äquivalenzklassen) habe ich schon mal gesehen. Wenn man etwas zu Pseudovektoren googelt, findet man beide Definitionen, also (n-1)-Formen oder Äquivalenzklassen mit der Orientierung, im Sinne von <math>[\vec v,\text{Or}]\sim[-\vec v,-\text{Or}]</math>. Inwieweit sind diese Definitionen aber äquivalent?



  Profil  Quote  Link auf diesen Beitrag Link
PhysikRabe
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 21.12.2009
Mitteilungen: 2051
Aus: Wien, Österreich
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.9, eingetragen 2017-09-15


2017-09-14 19:10 - Tirpitz in Beitrag No. 7 schreibt:
2017-09-14 12:14 - PhysikRabe in Beitrag No. 5 schreibt:

Meinst du nicht eher <math>V</math> anstatt <math>V^\ast</math>? Für mein Verständnis sollte doch <math>A=A^{ij}\mathrm dx_i\wedge\mathrm dx_j\in \mathsf{Hom}(V \otimes V, \mathds{R})</math> sein (für einen <math>\mathds{R}</math>-Vektorraum <math>V</math>).


Ist am Ende eine Geschmacksfrage, ob man nun Vektoren oder Kovektoren hernimmt. Wenn du aber das äußere Produkt zweier Vektoren <math>a,b\in V\cong (V^*)^*</math> berechnest, erhälst du aber eine Abbildung <math>V^*\times V^*\to\mathbb{R}, (\alpha,\beta)\mapsto (a\wedge b)(\alpha, \beta)=\alpha(a)\beta(b)-\alpha(b)\beta(a)</math>.

Wenn du von <math>V^\ast</math> startest, ist das richtig, wenn auch (vom differentialgeometrischen Standpunkt) nicht üblich.

Grüße,
PhysikRabe


-----------------
"Non est ad astra mollis e terris via" - Seneca
"Even logic must give way to physics." - Spock



  Profil  Quote  Link auf diesen Beitrag Link
index_razor
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 06.03.2016
Mitteilungen: 54
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.10, eingetragen 2017-09-15


2017-09-13 19:13 - darkhelmet in Beitrag No. 1 schreibt:
Zum Rest kann ich nichts sagen, weil ich noch nie verstanden habe, was die Physiker mit "Vektor" meinen. Es ist definitiv nicht das gleiche wie das, was in der Mathematik als Vektor bezeichnet wird. Die Begriffe "kovariant" und "kontravariant" gehören auch nicht zur linearen Algebra.

Doch, die Intention hinter beiden Begriffen ist definitiv dieselbe: eine Menge von Dingen, die man linear kombinieren kann.  Die Unterschiede scheinen mir hauptsächlich sprachlicher Natur zu sein und darin begründet, daß unterschiedliche Aspekte derselben Dinge betont werden.

Die Begriffe "ko-" und "kontravariant" bezeichnen jeweils die  Subjekte eines push-forwards bzw. pull-backs einer bestimmten Abbildung. Wenn man allerdings versucht, das mathematisch aufzudröseln, sieht es so aus, als ob Physiker hierbei Hin- und Rückrichtung vertauschen: "Vektoren" sind kontravariant und "Linearformen" kovariant.  Ich denke das hat folgende Gründe:

1) Physiker identifizieren Mannigfaltigkeiten mit ihren Parametrisierungen <math>\kappa: U\subset \mathbb{R}^n \rightarrow M</math>.  Anstatt differenzierbarer Abbildungen zwischen Mannigfaltigkeiten zu betrachten, interessieren sie sich für Parametrisierungswechsel

<math>w=\nu \circ \kappa^{-1}.</math>

(Die Koordinaten bzgl. <math>\kappa</math> seien <math>y^i</math> und <math>x^i</math> bzgl. <math>\nu</math>.)  

Der push-forward dieser Abbildung liefert dann das kovariante Transformationsgesetz der Basisvektoren

<math>\frac{\partial}{\partial y^i} \stackrel{\rm{def}}{=} \kappa_\star(e_i) = (\nu_\star\circ w_\star)(e_i)=\nu_\star\left(\frac{\partial x^k}{\partial y^i}e_k\right)=\left\frac{\partial x^k}{\partial y^i}\frac{\partial}{\partial x^k}.</math>

(Hier sei <math>e_i</math> die kanonische Basis im <math>\mathbb{R}^n</math>.)

2) Physiker identifizieren Vektoren und Linearformen mit ihren Komponenten bzgl. einer Basis.  Wenn sie also von der "Kontravarianz" von Vektoren sprechen, meinen sie damit, daß die entsprechenden Komponenten gemäß des pull-backs der obigen Parametrisierungswechsel transformieren, also entgegengesetzt zu den Basisvektoren selbst.

Das folgt sofort aus <math>\kappa^{-1}_\star = w^\star\circ \nu^{-1}_\star</math>, wobei <math>w^\star = w^{-1}_\star</math> der pull-back des Parametrisierungswechsels ist. Also gilt das kontravariante Transformationsgesetz

<math>\bar v^i e_i = \kappa^{-1}_\star(v) =v^k w^\star(e_k) = v^k(\kappa\circ\nu^{-1})_\star(e_k)=v^k  \frac{\partial y^i}{\partial x^k} e_i.</math>

für den Zusammenhang zwischen den Vektorkomponenten <math>\bar v^i</math> bzgl. <math>\kappa</math> und <math>v^k</math> bzgl. <math>\nu</math>.  Betrachtet man Linearformen, ist es jeweils umgekehrt.



  Profil  Quote  Link auf diesen Beitrag Link
index_razor
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 06.03.2016
Mitteilungen: 54
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.11, eingetragen 2017-09-16


2017-09-14 22:05 - Tirpitz in Beitrag No. 8 schreibt:
@ index_razor:

Deine Definition (bzw. eine ähnliche, basierend auf Äquivalenzklassen) habe ich schon mal gesehen. Wenn man etwas zu Pseudovektoren googelt, findet man beide Definitionen, also (n-1)-Formen oder Äquivalenzklassen mit der Orientierung, im Sinne von <math>[\vec v,\text{Or}]\sim[-\vec v,-\text{Or}]</math>. Inwieweit sind diese Definitionen aber äquivalent?

Ich verstehe das so, daß die Äquivalenz über das innere Produkt mit der "Volumenform" vol (eigentlich eine Dichte) gegeben ist.  Das innere Produkt mit einem Pseudovektor v ergibt eine echte n-1-Form

<math>\omega = i_v \rm{vol}.</math>

Ist v ein echter Vektor, so ergibt <math>\omega</math> eine Pseudoform.  Dazu muß man ja jeweils immer nur an zwei der Größen das Vorzeichen ändern und prüfen, daß sie sich gegenseitig aufheben, so daß die dritte Größe invariant bleibt.



  Profil  Quote  Link auf diesen Beitrag Link
Tirpitz
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 07.01.2015
Mitteilungen: 450
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.12, eingetragen 2017-09-17


2017-09-16 08:04 - index_razor in Beitrag No. 11 schreibt:
2017-09-14 22:05 - Tirpitz in Beitrag No. 8 schreibt:
@ index_razor:

Deine Definition (bzw. eine ähnliche, basierend auf Äquivalenzklassen) habe ich schon mal gesehen. Wenn man etwas zu Pseudovektoren googelt, findet man beide Definitionen, also (n-1)-Formen oder Äquivalenzklassen mit der Orientierung, im Sinne von <math>[\vec v,\text{Or}]\sim[-\vec v,-\text{Or}]</math>. Inwieweit sind diese Definitionen aber äquivalent?

Ich verstehe das so, daß die Äquivalenz über das innere Produkt mit der "Volumenform" vol (eigentlich eine Dichte) gegeben ist.  Das innere Produkt mit einem Pseudovektor v ergibt eine echte n-1-Form

<math>\omega = i_v \rm{vol}.</math>

Ist v ein echter Vektor, so ergibt <math>\omega</math> eine Pseudoform.  Dazu muß man ja jeweils immer nur an zwei der Größen das Vorzeichen ändern und prüfen, daß sie sich gegenseitig aufheben, so daß die dritte Größe invariant bleibt.

Stimmt, das ergibt Sinn. Tatsächlich sollten Pseudovektoren und (n-1)-Formen (bzw. Pseudo-(n-1)-Formen und (polare) Vektoren) hodge-dual zueinander sein, wenn man den Hodge-Stern mithilfe der Pseudovolumenform definiert:
<math>\star \alpha\wedge\beta := \langle\alpha,\beta\rangle \text{vol}</math>, mit <math>\text{vol}=\sqrt{\det g}[\mathrm dx^1\wedge\ldots\wedge\mathrm dx^n, \text{Or}]</math>, so ist <math>\omega=\iota_{\vec v}\text{vol}=\star\vec v^\flat</math>.
Jetzt ist mir endlich auch formal vollständig klar, was der formale Zusammenhang von Pseudovektoren und ungeraden Differentialformen ist.



  Profil  Quote  Link auf diesen Beitrag Link
Neues Thema [Neues Thema] Antworten [Antworten]    Druckversion [Druckversion]

 


Wechsel in ein anderes Forum:
 Suchen    
 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2017 by Matroids Matheplanet
This web site was made with PHP-Nuke, a web portal system written in PHP. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]