Stern Physik: Raum und Zeit in der speziellen Relativitätstheorie
Released by matroid on Fr. 28. September 2012 10:32:41 [Statistics]
Written by Site - 4800 x read [Outline] Printable version Printer-friendly version -  Choose language   
Physik

\(\begingroup\)

Raum und Zeit
in der speziellen Relativitätstheorie

Eine moderne Einführung für angehende Theoretiker.

Aufbauend auf der Linearen Algebra und den physikalisch motivierten Einsteinschen Postulaten führen wir den vierdimensionalen Minkowski-Raum (die Raumzeit der speziellen Relativitätstheorie) ein, entdecken und charakterisieren die Lorentz-Transformationen. Dabei verwenden wir von Anfang an Notationen und Konzepte, wie sie später in der allgemeinen Relativitätstheorie und der Quantenfeldtheorie üblich sein werden.
Voraussetzung: Lineare Algebra (bis orthogonale Operatoren), Mechanik (Intertialsysteme).
Zielgruppe: Studenten der Physik und Mathematik ab dem 2. Semester.
Nützlich u.a. für: Allgemeine Relativitätstheorie, Quantenfeldtheorie, Elektrodynamik.


Inhaltsverzeichnis


1. Mathematische Vorbereitung

Bevor wir uns der Physik zuwenden, sammeln wir das nötige mathematische Wissen aus der Linearen Algebra und führen Notationen ein, wie sie in der Relativitätstheorie schließlich gebräuchlich sein werden. Es sei aber schon an dieser Stelle gesagt, daß sich die spezielle Relativitätstheorie nicht mehr, wie die klassische Mechanik, im gewohnten dreidimensionalen Euklidischen Raum abspielt, sondern im vierdimensionalen Minkowski-Raum. Dies bringt mathematische Komplikationen mit sich, die wir vorab klären wollen, damit der Unterschied zwischen lediglich mathematischem Formalismus und tatsächlich neuer Physik klar hervortritt.

1.1 Pseudo-Skalarprodukte

Definition 1 (Standardskalarprodukt). Sei V = \mathbb R^n ein n-dimensionaler Vektorraum und seien v, w \in V. Dann ist das bekannte Standardskalarprodukt \langle v, w \rangle = \sum_{j=1}^{n} v_j w_j.
Das Standardskalarprodukt ist aber nur ein Beispiel für ein Skalarprodukt, das im allgemeinen durch abstrakte Eigenschaften (Bilinearität, Symmetrie, positive Definitheit) definiert wird. Im folgenden betrachten wir stets den Vektorraum V = \mathbb R^n und bezeichnen mit v, w allgemeine Vektoren aus V.
Definition 2 (Skalarprodukt). Eine Abbildung \langle \cdot,\cdot \rangle: V\times V \to \mathbb R mit den Eigenschaften
  1. \langle \alpha v + w, z \rangle = \alpha \langle v, z \rangle + \langle w, z\rangle und \langle v, \alpha w + z \rangle = \alpha \langle v, w \rangle + \langle v, z \rangle (bilinear);
  2. \langle v, w \rangle = \langle w, v \rangle (symmetrisch);
  3. Für jedes v\not= 0 gibt es ein w, so daß \langle v,w \rangle \not=0 (nicht entartet);
  4. \langle v, v \rangle \ge 0 und \langle v,v \rangle = 0 genau dann, wenn v = 0 (positiv definit);
für beliebige v, w, z \in V und \alpha, \beta \in \mathbb R heißt Skalarprodukt.
Im Minkowsi-Raum der Relativitätstheorie werden wir es jedoch nicht mit einem Skalarprodukt, sondern mit einer leicht verallgemeinerten Struktur zu tun haben, dem sogenannten Pseudo-Skalarprodukt, welchem die Positivität fehlt.
Definition 3 (Pseudo-Skalarprodukt). Eine Abbildung \langle \cdot,\cdot \rangle: V\times V\to\mathbb R mit den Eigenschaften (1) bis (3) aus Definition 2 heißt Pseudo-Skalarprodukt.
Im folgenden werden wir unter \langle \cdot,\cdot \rangle stets ein allgemeines Pseudo-Skalarprodukt auf V verstehen. Analog zum eukldischen Betrag eines Vektors,

\displaystyle |v| = \sqrt{\sum_{j=1}^{n} v_j^2} = \sqrt{\langle v,v \rangle}

mit dem Standardskalarprodukt, verallgemeinern wir das Quadrat für ein allgemeines Pseudo-Skalarprodukt: v^2 := \langle v,v \rangle. Da einem Pseudo-Skalarprodukt die Positivität fehlt, kann das Quadrat eines Vektors negativ sein.

So schön die abstrakten definierenden Eigenschaften für ein Skalarprodukt oder Pseudo-Skalarprodukt sein mögen, zum Rechnen hätte man gern einen ähnlichen Ausdruck wie für das Standardskalarprodukt, für das in Komponenten gilt \langle v,w \rangle = \sum_{j=1}^{n} v_j w_j. Dabei hilft der folgende Satz.
Satz 1. Die Abbildung \langle \cdot,\cdot \rangle:V\times V \to \mathbb R ist genau dann ein Pseudo-Skalarprodukt, wenn eine invertierbare symmetrische Matrix g existiert mit \langle v, w \rangle = \sum_{i,j=1}^{n} g_{ij} v_i w_j. Man nennt g (Pseudo-)Metrik.
Analoges gilt für Skalarprodukte, wenn die symmetrische Matrix sogar positiv definit ist. Wir sehen, daß im Fall des Standardskalarprodukts gerade g = \mathbb I gilt bzw. g_{ij} = \delta_{ij} und somit wie gehabt

\displaystyle\langle v, w \rangle = \sum_{i,j=1}^{n} \delta_{ij} v_i w_j = \sum_{j=1}^{n} v_j w_j.

1.2 Summenkonvention und Indizes

Die Metrik g_{ij} sowie die doppelte Summe für unser Pseudo-Skalarprodukt stets aufzuführen ist umständlich; wir wollen daher noch größere optische Ähnlichkeit zum Standardskalarprodukt erreichen. Dazu führen wir eine zunächst sehr ungewohnte Notation ein.
Definition 4 (Kontravariante und kovariante Vektoren). Wir schreiben die Komponenten des Vektors v mit oberen Indizes und nennen den Vektor (v^1, \dots, v^n) kontravariant. Für das Produkt gv schreiben wir von nun an abkürzend mit unterem Index v_i := \sum_{j=1}^{n} g_{ij} v^j und nennen den Vektor (v_1, \dots , v_n) kovariant.
Der Sinn dieser Notation erschließt sich, wenn wir sie auf die Komponentenschreibweise des Pseudo-Skalarprodukts anwenden:

\displaystyle \langle v, w \rangle = \sum_{i,j=1}^{n} g_{ij} v^i w^j = \sum_{j=1}^{n} \left( \sum_{i=1}^{n} g_{ij} v^i \right) \, w^j = \sum_{j=1}^{n} v_j w^j.

Wir haben also die Metrik g dadurch verstecken können, daß wir einen Index nach unten gesetzt haben. Natürlich gilt wegen der Symmetrie des Pseudo-Skalarprodukts, daß es keine Rolle spielt, ob wir das bei v oder bei w tun, d.h.: \sum_{j}^{} v_j w^j = \sum_{j}^{} v^j w_j. Wir kürzen die Notation noch weiter ab, indem wir die Einsteinsche Summenkonvention einführen.
Bemerkung 1 (Einsteinsche Summenkonvention). Steht in einem Produkt ein Index einmal unten und einmal oben, wird über ihn summiert, d.h. \cdots_j \cdots^j := \sum_{j=1}^{n} \cdots_j \cdots^j.
Da wir im Fall des Standardskalarprodukts g_{ij} = \delta_{ij} haben, gilt dort und nur dort x_i = x^i. Ansonsten gibt es zwischen oberem und unterem Index einen Unterschied.
Bemerkung 2 (für mathematisch Interessierte). Es gibt einen tieferen Grund für die Definition v_i := \sum_{j=1}^{n} g_{ij} v^j als die bloße Bequemlichkeit. Und zwar können wir aus dem Pseudo-Skalarprodukt \langle \cdot,\cdot \rangle für jeden festen Vektor v\in V eine lineare Abbildung \langle v,\cdot \rangle : V \to \mathbb R betrachten, w \mapsto \langle v,w \rangle. Diese linearen Abbildungen (sog. Linearformen) bilden den Dualraum V^* von V. Die Notation v_i bezeichnet dann die Komponenten des Dualvektors von v (bzgl. der zur Standardbasis dualen Basis), während mit v^i die Komponenten des Vektors v bezeichnet werden.
Von nun an wenden wir stets die Einsteinsche Summenkonvention an. Wir halten also fest:

\displaystyle \langle v, w \rangle = v_j w^j mit \displaystyle v_i = g_{ij} v^j.

Wem schon jetzt die Konventionen rund um die verschiedenen Indizes Schwindelgefühle bereiten, dem sei gesagt: Es könnte schlimmer kommen. Und leider kommt es schlimmer. Die Relation v_i = g_{ij}v^j berechnet die kovarianten Komponenten in Abhängigkeit von den kontravarianten. Wir können die Relation invertieren, indem wir mit der inversen Matrix g^{-1} multiplizieren. Um wieder eine bündigere Notation zu erreichen, benennen wir die Komponenten der Inversen Matrix g^{-1} mit g^{ij}. Dann schreiben wir

\displaystyle v^i = g^{ij} v_j analog zu \displaystyle v_i = g_{ij} v^j.

Aufgrund dieser Relationen sagen wir, daß wir mit Hilfe der Metrik g Indizes hoch- bzw. herunterziehen können. Man sei sich aber bewußt, daß g^{ij} die Inverse von g bezeichnet, also g_{ik} g^{kj} = \delta_i^j (wobei wir, um die Notation konsequent zu halten, selbst beim gewohnten Kronecker-Delta die Indizes nach oben und unten verteilen).

Für ein Matrixprodukt w = A v schreiben wir nun in Komponenten

\displaystyle w^i = {A^i}_j v^j,

damit wir auch hier von der Summenkonvention Gebrauch machen können. Die Komponenten einer Matrix werden also geschrieben als A = ({A^i}_j). Selbstverständlich ist immer noch entscheidend, zu wissen, welcher Index die Zeile und welcher die Spalte bezeichnet; es kommt also auf die Reihenfolge von i und j an, weshalb wir den ersten Index weiter links plazieren als den zweiten.

Die Indizes einer Matrix (genaugenommen meinen wir hier einen Tensor zweiter Stufe, ein wenig mehr dazu im nächsten Abschnitt) behandeln wir analog zu den Indizes von Vektoren. Wir sprechen also bei oberen Indizes von kontravarianten Indizes und bei unteren von kovarianten. Wir können wieder die Metrik verwenden, um das Niveau der Indizes zu verändern. Damit können wir beispielsweise für den kovarianten Vektor das Matrixprodukt umschreiben:

\displaystyle w_i = g_{ik} w^k = g_{ik}\, {A^k}_l\, v^l = g_{ik}\, {A^k}_l\, g^{lj} v_j = A_{il}\, g^{lj}\, v_j = {A_i}^j v_j,

wobei wir in den letzten beiden Schritten die Niveaus der Indizes von A verändert haben. Man beachte, daß g^{ij} zwar die Komponenten der inversen g^{-1} bezeichnet, A^{ij} hingegen lediglich die des Produkts aus A und g^{-1}, also A^{ij} = {A^{i}}_k g^{kj}. Das Hoch- und Herunterziehen von Indizes läßt sich schließlich auf Tensoren beliebiger Stufe verallgemeinern.

1.3 Transformationen und Kovarianz

Eine zentrale Rolle in der Linearen Algebra spielen Basiswechsel, insbesondere solche, die eine Orthonormalbasis wieder in eine Orthonormalbasis überführen, also sog. orthogonale Transformationen. Sie sind im Fall des Standardskalarprodukts Drehungen und Spiegelungen. Im allgemeinen charakterisieren wir sie wie folgt.
Definition 5 (Orthogonale Transformation). Eine orthogonale Transformation bezüglich \langle \cdot,\cdot \rangle ist eine lineare Abbildung \Lambda: V \to V, die (Pseudo-)Skalarprodukte erhält, also \langle \Lambda v, \Lambda w \rangle = \langle v, w \rangle erfüllt. Insbesondere läßt sie das Quadrat v^2 = \langle v,v \rangle eines Vektors konstant.
Bemerkung 3 (Gruppeneigenschaft). Die Menge der orthogonalen Transformationen bildet mit der Hintereinanderausführung eine Gruppe.
Aus Definition 5 ist klar, daß zwei hintereinander ausgeführte orthogonale Transformationen wieder eine orthogonale Transformation bilden. Aufgrund ihrer Invertierbarkeit, der Assoziativität des Matrixprodukts und der Existenz eines neutralen Elements (Identität) erfüllen sie die Axiome einer Gruppe.
Satz 2 (Invarianz der Metrik). Die Metrik g ist unter orthogonalen Transformationen invariant.
Beweis: Für die Standardbasis (e_i) gilt offenbar \langle e_i,e_j \rangle = \sum_{k,l}^{} g_{kl}(e_i)^k(e_j)^l = \sum_{k,l}^{} g_{kl}\delta_i^k \delta_j^l = g_{ij}. Wegen g'_{ij} := \langle \Lambda e_i, \Lambda e_j \rangle = \langle e_i, e_j \rangle = g_{ij} bleibt die Metrik bei der orthogonalen Transformation \Lambda erhalten.

Im obigen Beweis haben wir \langle e_i, e_j \rangle = g_{ij} festgestellt im Gegensatz zu der für das Standardskalarprodukt bekannten Situation \langle e_i,e_j \rangle = \delta_{ij}. Das motiviert uns zur folgenden Definition:
Definition 6 (Pseudo-Orthonormalbasis). Eine Basis (v_i) von Vektoren heißt Pseudo-Orthonormalbasis bezüglich \langle \cdot,\cdot \rangle, falls \langle v_i,v_j \rangle = g_{ij}.
Bemerkung 4 (Spalten einer orthogonalen Matrix). Die Matrix \Lambda ist genau dann orthogonal, falls die Spalten v_j von \Lambda bzgl. \langle \cdot,\cdot \rangle eine Pseudo-Orthonormalbasis bilden.
Dieses nützliche Kriterium hat die einfache Ursache, daß in den Spalten gerade die Bilder der Basisvektoren zu finden sind. Sind die Spalten eine (Pseudo-)Orthonormalbasis, wird also die vorherige (Pseudo-)Orthonormalbasis auf eine neue (Pseudo-)Orthonormalbasis abgebildet.
Bemerkung 5 (Transformation von Tensoren). Stellen wir die orthogonale Transformation als eine Matrix {\Lambda^i}_j dar, wissen wir, wie sich die Komponenten eines kontra- und eines kovarianten Vektors transformieren:

\displaystyle v'^i = {\Lambda^i}_j v^j,\ \ v'_i = {\Lambda_i}^j v_j.

Die Übertragung des Konzepts kontravarianter und kovarianter Indizes auf Matrizen ist nur dann sinnvoll, wenn sich die Matrix analog zu diesen Gleichungen transformiert, sich also bspw. (A^i)_j als kovarianter Vektor mit Index j aufgefaßt wie ein kovarianter Vektor unter der orthogonalen Transformation verhält. In dem Fall sprechen wir von einem Tensor.
Das entscheidende Resultat zu Tensoren lautet:
Satz 3 (Kovarianz). Eine Gleichung tensorieller Größen behält ihre Form nach orthogonalen Transformationen bei. Eine solche Gleichung nennen wir kovariant.
Diese Aussage ist klar, da wir die orthogonale Transformation auf alle Indizes der Gleichung anwenden können und sich alle Indizes gleichen Niveaus gleichermaßen transformieren. Wann immer wir also eine Theorie haben, bei der orthogonale Transformationen eine wichtige Rolle spielen, sollten wir uns bemühen, Gleichungen zwischen tensoriellen Größen herzustellen. Denn solche Gleichungen behalten stets ihre Form.

In der Relativitätstheorie werden orthogonale Transformationen gerade den Wechsel zwischen zwei Inertialsystemen ausdrücken. Kovariante Gleichungen haben in jedem Inertialsystem Gültigkeit.

2. Grundgedanken der speziellen Relativitätstheorie

Man muß nicht unbedingt Physik studieren, um zu erfahren, daß sich in der Relativitätstheorie manche Größe beim Wechsel von einem Bezugssystem zum anderen verändert. Da gibt es die sog. Zeitdilatation, Längenkontraktion und den Verlust von Gleichzeitigkeit. Diese verblüffende Wahrheit, daß objektiv geglaubte Konzepte wie Zeit und Länge plötzlich vom Beobachter abhängen, könnte zur irrigen Behauptung verführen, alles sei relativ.

Wer hingegen Physik studiert, sollte statt dessen vor allem verstehen, was nicht relativ ist, sondern invariant. Darum werden wir uns im folgenden darauf konzentrieren. Die invarianten Größen schließlich werden automatisch diktieren, was sich verändern muß und in welcher Form. Aber nicht nur strategisch ist es sinnvoller, von Invarianten auszugehen. In der Physik möchten wir letztlich Naturgesetze formulieren, die nicht vom Beobachter abhängen; diese Naturgesetze müssen sich folglich auf Größen beziehen, die invariant sind beim Wechsel von einem Beobachter zum anderen.

2.1 Die Einsteinschen Postulate

Postulat 1 (Konstanz der Lichtgeschwindigkeit). Die Lichtgeschwindigkeit hat in jedem Inertialsystem den gleichen Wert c.
Aus pragmatischer Sicht ist dieses Postulat eingängig und einfach. Mißt ein Beobachter die Lichtgeschwindigkeit, so wird er immer dasselbe Resultat erhalten, unabhängig davon, wie er sich gegenüber anderen Inertialsystemen (zum Beispiel zur Lichtquelle) bewegt. Anschaulich mag es sehr verwirren, da Licht aus einer sich bewegenden Lichtquelle nicht schneller oder langsamer ist als Licht aus einer ruhenden. Geschwindigkeiten können sich also nicht, wie wir es aus der Newtonschen Mechanik kennen, einfach addieren.

Als physikalische Motivation für dieses Postulat kann der Verweis auf die Maxwellschen Gleichungen dienen, in welchen die Lichtgeschwindigkeit auftritt, ohne daß zuvor Annahmen über das Bezugssystem gemacht wurden. Möchten wir also die Gültigkeit derselben Maxwellschen Gleichungen in jedem Inertialsystem, ist die Konstanz der Lichtgeschwindigkeit eine naheliegende Annahme.
Postulat 2 (Gleichwertigkeit der Inertialsysteme). Alle Inertialsysteme sind gleichwertig; insbesondere gibt es kein in irgendeiner Weise ausgezeichnetes Inertialsystem.
Eine ähnliche Gleichwertigkeit kennen wir bereits aus der Newtonschen Mechanik, in der wir die Kraftgesetze in jedem Inertialsystem formulieren und anwenden konnten. Analoges möchten wir auch in der Relativitätstheorie erreichen. Dieses Postulat ermöglicht es uns überhaupt erst, Naturgesetze unabhängig vom Beobachter zu formulieren. Sie sind dann, so sagt es das Postulat, gleichermaßen in allen Inertialsystemen gültig.

Wir halten fest, daß die Einsteinschen Postulate sich darauf konzentrieren, was nicht von Beobachter zu Beobachter verschieden sein darf.

2.2 Das invariante Linienelement

Um aus den Worten des vorherigen Abschnitts Gleichungen werden zu lassen, werden wir zuerst das sogenannte invariante Linienelement motivieren. Diese Größe allein ist bereits so aussagekräftig, daß man mit ihrer Hilfe sowohl die ersten grundlegenden Effekte der Relativitätstheorie als letztlich auch ihre mathematische Struktur insgesamt erschließen kann.
Definition 7 (Ereignis). In einem Inertialsystem I messen wir Zeiten t und Punkte im Raum \mathbf x. Die gemeinsame Angabe t, \mathbf x charakterisiert ein Ereignis. Ein Ereignis ist also ein Punkt im Raum zu einem bestimmten Zeitpunkt. In einem weiteren Inertialsystem I' gibt man für dasselbe Ereignis ggf. andere Werte t', \mathbf x' an.
Wir betrachten von nun an stets zwei Inertialsysteme I und I'. Ereignisse bezogen auf I werden benannt mit t, \mathbf x, Ereignisse bezogen auf I' mit t', \mathbf x'. Inertialsysteme zeichnen sich bekanntlich dadurch aus, daß sie sich mit konstanter Geschwindigkeit zueinander bewegen. Wir nehmen also an, daß sich I' von I aus betrachtet mit der Geschwindigkeit \mathbf v bewegt.
Definition 8 (Invariantes Linienelement). Sei I ein Inertialsystem und bezeichnen t_1, \mathbf x_1 sowie t_2, \mathbf x_2 zwei Ereignisse mit infinitesimalem zeitlichen Abstand t_2 - t_1 = \mathrm{d} t und räumlichem Abstand \mathbf x_2 - \mathbf x_1 = \mathrm{d} \mathbf x. Dann nennen wir die Größe \displaystyle \mathrm{d} s^2 := -c^2 \mathrm{d} t^2 + \mathrm{d} \mathbf x^2 (invariantes) Linienelement.
Hier kommen sogleich einige Fragezeichen auf. Vor allem: Weshalb nur sollte man so eine Größe definieren? Und außerdem: Ergibt die Bezeichnung invariant Sinn? Diese Fragen kann man nicht auf einen Blick beantworten, darum tasten wir uns an ihre Antwort heran. Eine erste Feststellung ist folgende.
Bemerkung 6. Sind die Ereignisse t_1, \mathbf x_1 sowie t_2, \mathbf x_2 so gewählt, daß sich in der Zeit \mathrm{d} t ein Lichtstrahl von \mathbf x_1 zu \mathbf x_2 bewegt, dann gilt \mathrm{d} s^2 = 0.
Da ein Lichtstrahl sich mit der Geschwindigkeit c = | \mathrm{d} \mathbf x / \mathrm{d} t | bewegt, ist diese Aussage kaum verwunderlich. Quadrieren wir dies und stellen um, haben wir nämlich gerade -c^2\mathrm{d} t^2 + \mathrm{d} \mathbf x^2 = 0. Nun ist aber die Lichtgeschwindigkeit nach Postulat 1 konstant, das heißt auch in einem anderen Inertialsystem mißt man c' = |\mathrm{d} \mathbf x' / \mathrm{d} t'| = c. Auch dort erhalten wir also \mathrm{d} s'^2 = 0. Zumindest im Fall \mathrm{d} s^2 = 0 haben wir also tatsächlich eine Beziehung, die in allen Inertialsystemen (aufgrund der Konstanz von c) gleich ist!

Wie ist es aber im allgemeinen, also wenn \mathrm{d} s^2 nicht notwendigerweise verschwindet? Nehmen wir doch dazu einen plausiblen, allgemeinen Zusammenhang zwischen \mathrm{d} s^2 gemessen in I und \mathrm{d} s'^2 gemessen in I' an. Tatsächlich können wir argumentieren, daß der allgemeine Zusammenhang recht einfach sein sollte, nämlich

\displaystyle \mathrm{d} s'^2 = \alpha(\mathbf v)\, \mathrm{d} s^2 + \beta (\mathbf v)

mit Funktionen \alpha und \beta, die lediglich von der relativen Geschwindigkeit der Inertialsysteme abhängen. Aufgrund der Homogenität des Raumes und der Zeit (es gibt keinen bevorzugten Punkt) können die Funktionen weder von dem Ereignis abhängen, an dem das invariante Intervall gebildet wird, noch von der Lage des Ursprungs der Koordinatensysteme. Außerdem ist \mathrm{d} s^2 infinitesimal, weshalb wir keine Terme höherer Ordnung in \mathrm{d} s^2 annehmen müssen.

Unsere erste Feststellung ist nun, daß \beta verschwinden muß, also \beta \equiv 0. Dies gilt unmittelbar aufgrund unserer obigen Argumentation: Ist \mathrm{d} s^2 = 0, so muß auch \mathrm{d} s'^2 = 0 gelten.

Weiterhin stellen wir fest, daß aufgrund der Isotropie des Raums, also der Gleichwertigkeit aller Richtungen, die Funktion \alpha nur vom Betrag von \mathbf v abhängen kann, also \alpha = \alpha(|\mathbf v|). Nun ist aber jedes Inertialsystem gleichwertig nach Postulat 2. Wir können also auch umgekehrt eine Relation aufschreiben, wie sich \mathrm{d} s^2 aus \mathrm{d} s'^2 errechnet. Die Inertialsysteme bewegen sich in diesem Fall genau mit der umgekehrten Relativgeschwindigkeit -\mathbf v zueinander:

\displaystyle \mathrm{d} s^2 = \alpha(|-\mathbf v|) \, \mathrm{d} s'^2 = \alpha(|\mathbf v|) \, \mathrm{d} s'^2,

aber andererseits ja \mathrm{d} s'^2 = \alpha(|\mathbf v|)\, \mathrm{d} s^2. Aus diesen beiden Gleichungen entnehmen wir unmittelbar \alpha \equiv 1 und somit:
Bemerkung 7 (Invarianz des Linienelements). Das Linienelement \mathrm{d} s^2 = -c^2 \mathrm{d} t^2 + \mathrm{d} \mathbf x^2 ist unabhängig vom Inertialsystem.
Wir werden im folgenden annehmen, daß wir das lokal definierte Linienelement auch auf nicht infinitesimal beieinander liegende Ereignisse anwenden können (hier machen wir also aus dem lokalen Ergebnis eine globale Annahme). In dem Fall schreiben wir also

\displaystyle \Delta s^2 = -c^2 \Delta t^2 + \Delta \mathbf x^2.

Zusammen mit \Delta s^2 ist insbesondere das Vorzeichen von \Delta s^2 unabhängig vom Bezugssystem. Wir treffen folgende begriffliche Unterscheidung:
Definition 9 (Charakterisierung des Linienelements). Wir nennen das invariante Linienelement \Delta s^2
  • raumartig, falls \Delta s^2 > 0,
  • zeitartig, falls \Delta s^2 < 0,
  • lichtartig, falls \Delta s^2 = 0.
Entsprechend heißen die beiden Ereignisse, zwischen denen \Delta s^2 gebildet wird, raumartig, zeitartig bzw. lichtartig getrennt.
Raumartigkeit von \Delta s^2 bedeutet also, daß der räumliche Anteil \Delta \mathbf x^2 größer ist als der zeitliche Anteil -c^2 \Delta t^2; umgekehrt ist der zeitliche Anteil im zeitartigen Fall größer. Bei Ausgeglichenheit nennen wir das Linienelement lichtartig, was zu Bemerkung 6 paßt: Für den Weg eines Lichtstrahls gilt \Delta s^2 = 0.

Tatsächlich gibt es für zwei Ereignisse, die raumartig voneinander getrennt sind, immer ein Bezugssystem, in welchem sie zu derselben Zeit stattfinden. Umgekehrt gibt es für zwei Ereignisse, die zeitartig voneinander getrennt sind, immer ein Bezugssystem, in dem sie am gleichen Ort stattfinden.

Bevor wir aus der Invarianz des Linienelements die Struktur der Relativitätstheorie erschließen, machen wir kurz Halt und betrachten als kleine Anwendung einen ersten Effekt, namentlich die Zeitdilatation.

Der Einfachheit halber ignorieren wir im folgendenen die y- und z-Koordinate. Die zwei Inertialsysteme I und I' haben also eine Relativgeschwindigkeit v in x-Richtung, und wir nehmen an, daß y'=y und z'=z gelten. Das invariante Linienelement lautet dann

\displaystyle \Delta s^2 = - c^2 \Delta t^2 + \Delta x^2 = -c^2 \Delta t'^2 + \Delta x'^2.

Nehmen wir nun zwei Ereignisse, die im Inertialsystem I am gleichen Ort stattfinden, also \Delta x = 0, aber zu verschiedenen Zeiten. Es folgt \Delta s^2 = -c^2 \Delta t^2. Vom Inertialsystem I' aus betrachtet bewegt sich das Inertialsystem I aber in der Zeit \Delta t' um eine Strecke der Länge \Delta x' = v \Delta t'. Hier findet man also \Delta s'^2 = -c^2 \Delta t'^2 + \Delta x'^2 = -(c^2 - v^2) \Delta t'^2. Da das Linienelement invariant ist, \Delta s'^2 = \Delta s^2, haben wir

\displaystyle -c^2 \Delta t^2 = -(c^2 - v^2) \Delta t'^2 oder \displaystyle \Delta t' = \frac{\Delta t}{\sqrt{1 - \frac{v^2}{c^2}}} =: \gamma\, \Delta t.

Bemerkung 8 (Zeitdilatation). Bewegt sich ein Inertialsystem I' bezüglich I mit der Geschwindigkeit v, ist die Zeitdifferenz \Delta t' zwischen zwei in I am gleichen Ort stattfindenden Ereignissen mit Zeitdifferenz \Delta t um den sogennanten Lorentz-Faktor \gamma = 1/\sqrt{1 - v^2/c^2} > 1 gedehnt.

3. Der Minkowski-Raum

3.1 Die Minkowski-Metrik

Nun sind wir in der Lage, den Kreis zu schließen und mit Hilfe unserer mathematischen Vorüberlegungen eine geeignete Formulierung der relativistischen Kinematik zu finden. Die zentrale Rolle spielt die Invarianz des Linienelements. Wir schreiben \mathbf x = (x^1,x^2,x^3) und entnehmen Definition 8:

\displaystyle \mathrm{d} s^2 = - (c \mathrm{d} t)^2 + (\mathrm{d} x^1)^2 + (\mathrm{d} x^2)^2 + (\mathrm{d} x^3)^2.

Dies hat optisch große Ähnlichkeit zum euklidischen Betragsquadrat eines Vektors, das gegeben ist durch |\mathrm{d} \mathbf x|^2 = (\mathrm{d} x^1)^2 + (\mathrm{d} x^2)^2 + (\mathrm{d} x^3)^2. In Kapitel 1 haben wir die nötigen Grundlagen geschaffen, um eine Struktur zu erkennen, welche diese Analogie formalisiert. Und zwar sehen wir, wenn wir c t als weitere Koordinate in einem Vektorraum betrachten, daß wir das invariante Linienelement als Betragsquadrat bezüglich eines Pseudo-Skalarprodukts gewinnen. Wir definieren also \mathrm{d} x = (\mathrm{d} x^0, \mathrm{d} x^1, \mathrm{d} x^2, \mathrm{d} x^3) mit \mathrm{d} x^0 := c \mathrm{d} t und erkennen, daß wir

\displaystyle \mathrm{d} x^2 = \langle \mathrm{d} x, \mathrm{d} x \rangle = g_{ij} \mathrm{d} x^i \mathrm{d} x^j = \mathrm{d} s^2 = - (c \mathrm{d} t)^2 + (\mathrm{d} x^1)^2 + (\mathrm{d} x^2)^2 + (\mathrm{d} x^3)^2

tatsächlich erhalten können, wenn wir g_{ij} = \text{diag} (-1, 1, 1, 1) definieren.

Nun vollenden wir unsere Idee und führen den Raum ein, in welchem die spezielle Relativitätstheorie stattfindet, nämlich den Minkowski-Raum, welcher zu den drei Raumkoordinaten noch eine vierte Zeitkoordinate hinzugewinnt. Die Geometrie des Minkowski-Raums wird aber nicht mehr durch ein euklidisches Skalarprodukt, sondern vielmehr durch ein Pseudo-Skalarprodukt bestimmt, das nicht mehr positiv ist.
Definition 10 (Minkowski-Raum). Der Vektorraum \mathbb R^4 zusammen mit dem Pseudo-Skalarprodukt \langle \cdot,\cdot \rangle, das durch die sogenannte Minkowski-Metrik

\displaystyle \eta = \left( \begin{array}{cccc} -1 & & & \\ & 1 & & \\ & & 1 & \\ & & & 1 \end{array} \right)

gegeben ist, heißt Minkowski-Raum. Vektoren v \in \mathbb R^4 heißen Vierervektoren, ihre erste Komponente v^0 heißt Zeitkomponente, die übrigen Komponenten v^1, v^2 und v^3 heißen Raumkomponenten. Wir nennen den Minkowski-Raum auch Raumzeit.
Bevor wir dieses zentrale Ergebnis nutzen, führen wir eine weitere Notation ein.
Bemerkung 9 (Griechische und lateinische Indizes). Lateinische Indizes i, j, k, l, etc. bezeichnen die räumlichen Komponenten eines Vektors und nehmen die Werte 1, 2, 3 an. Griechische Indizes \mu, \nu, \rho, \sigma, etc. hingegen betreffen den ganzen Vektor und nehmen die Werte 0, 1, 2, 3 an. Dies gilt insbesondere in Zusammenhang mit der Summenkonvention.
Aus Kapitel 1 rekapitulieren wir nun kurz einige Ergebnisse für den Minkowski-Raum.
Bemerkung 10 (Rekapitulation). Einige Feststellungen zum Minkowski-Raum.
  • Für das Minkowski-Skalarprodukt gilt \langle v,w \rangle = v_\mu w^\mu = v^\mu w_\mu = \eta_{\mu\nu} v^\mu w^\nu oder ausgeschrieben \langle v,w \rangle = -v^0 w^0 + v^1 w^1 + v^2 w^2+ v^3 w^3.
  • Das Quadrat eines Vierervektors ist v^2 = \langle v,v \rangle = v_\mu v^\mu ; es kann negativ sein.
  • Das Linienelement läßt sich als Quadrat schreiben, \mathrm{d} s^2 = \mathrm{d} x_\mu \mathrm{d} x^\mu = \eta_{\mu\nu} \mathrm{d} x^\mu \mathrm{d} x^\nu
  • Für die Zeitkomponente eines Vektors gilt v_0 = - v^0, hingegen für die Raumkomponenten v_i = v^i.
Hier sehen wir deutlich, daß die Relativitätstheorie eine vierdimensionale Raumzeit (den Minkowski-Raum) herbeiführt. Schon in der Newtonschen Mechanik hätte man davon sprechen können, daß die Angabe eines Ereignisses nicht nur die Angabe des Ortes, sondern ebenso die Angabe eines Zeitpunkts verlangt. Doch die Betrachtung eines vierdimensionalen Raumes hätte dabei wenig Sinn ergeben, da es zwischen Raum und Zeit im Newtonschen Fall keinerlei geometrische Beziehung gab. In der speziellen Relativitätstheorie hingegen sind Raum und Zeit bis auf ein einziges Vorzeichen gleichwertig oder symmetrisch.

Eine kleine Anmerkung, die für uns nicht relevant sein wird: Selbstverständlich mußten wir bei der Definition des Minkowski-Raums die Annahme machen, daß wir unmittelbar von der infinitesimalen Form des Linienelements auf die globale Form der Raumzeit schließen können. Diese Annahme wird im Rahmen der allgemeinen Relativitätstheorie falsch sein. Es ist also nicht verwunderlich, daß wir dort stets nur lokal die Minkowski-Metrik vorwinden werden. Die globale Struktur ist dann durch eine Lorentzsche Mannigfaltigkeit gegeben, deren Tangentialräume gerade Minkowski-Räume sind.

3.2 Lorentz-Transformationen

Die zentrale Botschaft dieses Abschnitts ist es, daß die geometrische Struktur der Raumzeit zusammenhängt mit dem Verhältnis verschiedener Bezugssysteme zueinander. Mit Geometrie meinen wir nun orthogonale Transformationen, also Wechsel von einem orthogonalen Koordinatensystem in ein gleichwertiges orthogonales System unter Beibehaltung der Metrik (siehe Definition 5).
Definition 11 (Lorentz-Transformationen). Die orthogonalen Transformationen \Lambda des Minkowski-Raums heißen Lorentz-Transformationen.
Unter einer Lorentz-Transformation \Lambda transformieren sich kontravariante und kovariante Vektoren also gemäß

\displaystyle v'^\mu = {\Lambda^\mu}_\nu\, v^\nu und \displaystyle v'_\mu = {\Lambda_\mu}^\nu\, v'_\nu.

Die Lorentz-Transformationen sind die Verallgemeinerungen von Drehungen und Spiegelungen auf den Minkowski-Raum. Tatsächlich beinhalten sie Drehungen und Spiegelungen des dreidimensionalen Unterraumes als Spezialfälle, ebenso die Spiegelung der Zeitachse (Zeitumkehr). Was sie noch beinhalten, wird uns klar, wenn wir uns an Kapitel 2 erinnern. Das Linienelement \mathrm{d} s^2 ist beim Wechsel von einem Inertialsystem I in ein anderes Inertialsystem I' invariant und im Minkowski-Raum ist es ein Skalarprodukt \mathrm{d} s^2 = \langle \mathrm{d} x, \mathrm{d} x \rangle, das per definitionem unter Lorentz-Transformationen konstant bleibt.
Bemerkung 11 (Wechsel des Bezugssystems). Im Minkowski-Raum wird der Wechsel eines Inertialsystems I zu einem anderen Inertialsystem I' im allgemeinen durch eine Lorentz-Transformation \Lambda zusammen mit einer Translation vermittelt.
Wir hatten schon in Bemerkung 3 festgestellt, daß die orthogonalen Transformationen eine Gruppe bilden. Dies tun offenbar auch die Translationen.
Definition 12 (Lorentz- und Poincaré-Gruppe). Die Gruppe der Lorentz-Transformationen heißt Lorentz-Gruppe; zusammen mit den Translationen wird sie zur Poincaré-Gruppe.
Insbesondere ist also der Wechsel zwischen Inertialsystemen eine Gruppe. Tatsächlich werden wir zum Wechsel von Inertialsystemen nur sogenannte eigentliche Lorentz-Transformationen verwenden, die wir nun einführen.
Bemerkung 12 (Determinante). Für jede Lorentz-Transformation \Lambda ist \det \Lambda = \pm 1. Insbesondere lassen Lorentz-Transformationen das Vierervolumen \mathrm{d}^4 x invariant. Lorentz-Transformationen \Lambda mit \det \Lambda = +1 nennen wir auch eigentliche Lorentz-Transformationen.
Die allgemeine Aussage über die Determinanten läßt sich zum Beispiel aus \det \eta = -1 (wie man unmittelbar sieht), der Invarianz von \eta unter Lorentz-Transformationen und dem Multiplikationssatz für Determinanten folgern. Die Invarianz des Volumenelements folgt daher, daß der Betrag der Determinanten einer Transformation gerade die Verzerrung des Volumens mißt (vgl. Transformationssatz).

Wir wollen nun die Lorentz-Gruppe abschließend charakterisieren, um zu verstehen, welche Elemente genau sie eigentlich enthalten kann.
Satz 4 (Charakterisierung der Lorentz-Transformationen). Eine allgemeine Lorentz-Transformation \Lambda ist eine Zusammensetzung aus Raum- und Zeitspiegelung, Drehungen im dreidimensionalen Raum und der sog. speziellen Lorentz-Transformation. Ohne Raum- und Zeitspiegelungen erhält man die eigentlichen Lorentz-Transformationen.
Mit Spiegelungen in Raum und Zeit meinen wir Matrizen der Form

\displaystyle \left( \begin{array}{cccc} -1 & & & \\ & 1 & & \\ & & 1 & \\ & & & 1 \end{array} \right), \ \ \left( \begin{array}{cccc} 1 & & & \\ & -1 & & \\ & & 1 & \\ & & & 1 \end{array} \right), \ \ \left( \begin{array}{cccc} 1 & & & \\ & 1 & & \\ & & -1 & \\ & & & 1 \end{array} \right), \ \ \left( \begin{array}{cccc} 1 & & & \\ & 1 & & \\ & & 1 & \\ & & & -1 \end{array} \right),

mit Drehungen im dreidimensionalen Raum (um die Koordinatenachsen)

\displaystyle \left( \begin{array}{cccc} 1 & & & \\ & 1 & & \\ & & \cos \varphi_1 & -\sin\varphi_1 \\ & & \sin \varphi_1 & \cos \varphi_1 \end{array} \right), \ \ \left( \begin{array}{cccc} 1 & & & \\ & \cos \varphi_2 & & -\sin\varphi_2 \\ & & 1 & \\ & \sin \varphi_2 & & \cos \varphi_2 \end{array} \right), \ \ \left( \begin{array}{cccc} 1 & & & \\ & \cos \varphi_3 & -\sin\varphi_3 & \\ & \sin \varphi_3 & \cos \varphi_3 & \\ & & & 1 \end{array} \right),

und schließlich mit der speziellen Lorentz-Transformation

\displaystyle \left( \begin{array}{cccc} \cosh \psi & -\sinh \psi & & \\ -\sinh \psi & \cosh \psi & & \\ & & 1 & \\ & & & 1 \end{array} \right).

Die Größe \psi nennen wir Rapidität. Ebenso, wie sich mit den Additionstheoremen schnell nachweisen läßt, daß sich bei zwei Drehungen um dieselbe Achse die Drehwinkel addieren, so findet man auch, daß sich die Rapidität bei zwei speziellen Lorentz-Transformationen direkt aufsummiert: \psi = \psi_1 + \psi_2.

Es ist kein Geheimnis, wie man sich die Form obiger Lorentz-Transformationen erschließen kann. Eine Möglichkeit besteht beispielsweise darin, sich an Bemerkung 4 zu erinnern: Die Spalten einer orthogonalen Matrix bilden ein Pseudo-Orthonormalsystem. Die räumlichen Drehungen tun dies ganz offenbar wegen \cos^2 \varphi + \sin^2 \varphi \equiv 1 = \eta_{ii}; die weiteren Spalten sind so gewählt, daß sie orthogonal liegen. Wenn wir die Zeit hinzunehmen, kommt allerdings durch die Minkowski-Metrik ein Minuszeichen hinzu. Für die erste Spalte v = (\cosh \psi, -\sinh \psi, 0, 0) der speziellen Lorentz-Transformation gilt also

\displaystyle v^2 = -(v^0)^2 + (v^1)^2 + (v^2)^2 + (v^3)^2 = -\cosh^2 \psi + \sinh^2 \psi \equiv -1 = \eta_{00}

nach der bekannten Relation \cosh^2 \psi - \sinh^2 \psi \equiv 1. Die zweite Spalte der speziellen Lorentz-Transformation kann man nun durch die Orthogonalitätsbedingung finden.

Wir halten also fest: Das Minuszeichen der Minkowski-Metrik zwingt uns dazu, bei einer speziellen Lorentz-Transformation (also bei dem Analogon einer Drehung, jedoch zwischen Raum und Zeit) von den trigonometrischen Funktionen zu den hyperbolischen Funktionen überzugehen.

Wie ist die Rapidität \psi physikalisch zu verstehen? Dies klären wir mit der folgenden Bemerkung, die wir im Anschluß begründen werden.
Bemerkung 13 (Rapidität). Der Wechsel von einem Inertialsystem I zu einem sich bezogen auf I mit der Geschwindigkeit v in x^1-Richtung bewegenden Inertialsystem I' (gleichen Koordinatenursprungs und gleicher Orientierung der Achsen) wird vermittelt durch die spezielle Lorentz-Transformation, wobei

\displaystyle \cosh \psi = \gamma = \frac{1}{\sqrt{1-\beta^2}} und \displaystyle \sinh \psi = \gamma \beta mit \displaystyle \beta := \frac{v}{c}.

Diese Bemerkung verbindet also nun die abstrakte Definition der Lorentz-Transformationen als orthogonale Transformationen im Minkowski-Raum mit den physikalischen Begriffen des Inertialsystems und der Relativgeschwindigkeit.

Um die Bemerkung zu verstehen, gehen wir zurück zu unserer Herleitung der Zeitdilatation, Bemerkung 8. Dort fanden wir für zwei Ereignisse, die in I am gleichen Ort (\Delta x = 0) aber zu unterschiedlicher Zeit (\Delta t \not= 0) stattfanden, daß man in I' eine Zeitdifferenz \Delta t' = \gamma \Delta t mißt. Von den in Satz 4 eingeführten Transformationen kann für diese Situation offenbar nur die spezielle Lorentz-Transformation geeignet sein; sie bezieht sich nämlich nur auf die Zeit- und x^1-Komponente. Wenn wir sie zweidimensional aufschreiben (also x^2 und x^3 ignorieren), haben wir also

\displaystyle \left( \begin{array}{c} c\Delta t' \\ \Delta x' \end{array} \right) = \left( \begin{array}{cc} \cosh \psi & -\sinh \psi \\ -\sinh \psi & \cosh \psi \end{array} \right)\, \left( \begin{array}{c} c\Delta t \\ 0 \end{array} \right) = \left( \begin{array}{c} \cosh \psi\, c\Delta t \\ -\sinh \psi \, c\Delta t \end{array} \right),

das heißt \Delta t' = \cosh \psi \, \Delta t. Das Ergebnis stimmt dann mit dem zuvor gewonnenen überein, wenn \tanh \psi = \beta = v/c und somit \cosh \psi = \gamma und \sinh \psi = \gamma \beta. Wir können also schließlich die spezielle Lorentz-Transformation mit den physikalisch bekannten Größen darstellen:

\left( \begin{array}{cccc} \gamma & -\gamma \beta & & \\ -\gamma \beta & \gamma & & \\ & & 1 & \\ & & & 1 \end{array} \right).


\(\endgroup\)
Get link to this article Get link to this article  Printable version Printer-friendly version -  Choose language     Kommentare zeigen Comments  
pdfpdf-Datei zum Artikel öffnen, 125 KB, vom 28.09.2012 10:22:56, bisher 4400 Downloads


Arbeitsgruppe Alexandria Dieser Artikel ist nicht im Verzeichnis der Arbeitsgruppe Alexandria eingetragen.
[Die Arbeitsgruppe Alexandria katalogisiert die Artikel auf dem Matheplaneten]

 
 
Aufrufzähler 4800
 
Aufrufstatistik des Artikels
Insgesamt 865 externe Seitenaufrufe zwischen 2012.10 und 2022.08 [Anzeigen]
DomainAnzahlProz
https://google.com515.9%5.9 %
http://google.de42949.6%49.6 %
https://google.de24828.7%28.7 %
http://google.nl242.8%2.8 %
http://www.bing.com293.4%3.4 %
https://www.bing.com161.8%1.8 %
https://duckduckgo.com141.6%1.6 %
https://google.ru101.2%1.2 %
https://www.ecosia.org70.8%0.8 %
https://www.startpage.com60.7%0.7 %
http://suche.t-online.de101.2%1.2 %
http://it.search.yahoo.com40.5%0.5 %
http://int.search.tb.ask.com20.2%0.2 %
http://search.tb.ask.com20.2%0.2 %
https://forum.alltopic.de20.2%0.2 %
http://google.ch20.2%0.2 %
http://search.sweetim.com10.1%0.1 %
http://qikc.xyz10.1%0.1 %
http://suche.web.de10.1%0.1 %
http://search.iminent.com10.1%0.1 %
http://www.facebook.com10.1%0.1 %
http://r.duckduckgo.com10.1%0.1 %
http://google.at10.1%0.1 %
https://www.qwant.com10.1%0.1 %
http://search.conduit.com10.1%0.1 %

Aufrufer der letzten 5 Tage im Einzelnen
Insgesamt 1 Aufruf in den letzten 5 Tagen. [Anzeigen]
DatumAufrufer-URL
2022.08.09 13:05https://google.com/

Häufige Aufrufer in früheren Monaten
Insgesamt 830 häufige Aufrufer [Anzeigen]
DatumAufrufer-URL
2013-2018 (263x)http://google.de/url?sa=t&rct=j&q=
2020-2022 (225x)https://google.de/
2020-2022 (50x)https://google.com/
201210-10 (24x)http://google.nl/search?q=minkowski raum pseudo orthogonal
2020-2021 (23x)https://google.de
2016-2017 (22x)http://www.bing.com/search?q=ist der minkowski raum orthogonal&FORM=PRHPHI&re...
201504-04 (20x)http://google.de/url?sa=t&source=web&cd=4&ved=0CCQQFjAD
201310-10 (19x)http://google.de/url?sa=t&rct=j&q=mathematische physik spezielle relativitÃ...
201302-02 (17x)http://google.de/url?sa=t&rct=j&q=relativgeschwindigkeit matheplanet
2020-2022 (15x)https://www.bing.com/
201212-12 (14x)http://google.de/url?sa=t&rct=j&q=pseudo skalarprodukt
201309-09 (13x)http://google.de/url?sa=t&rct=j&q=raum zeit mp spezielle relativitätstheor...
201211-11 (13x)http://google.de/url?sa=t&rct=j&q=spezielle relativitätstheorie delta s de...
201301-01 (12x)http://google.de/url?sa=t&rct=j&q=sei v der vektorraum der reellen symmetrisc...
201307-07 (11x)http://google.de/url?sa=t&rct=j&q=spezielle relativitätstheorie raum und z...
2020-2022 (11x)https://duckduckgo.com/
202202-02 (10x)https://google.ru
2017-2018 (8x)http://google.de/
201306-06 (8x)http://google.de/url?sa=t&rct=j&q=spezielle relativitätstheorie matroid
201605-05 (7x)http://google.de/url?sa=t&source=web&cd=2&rct=j&q=rapidität physik relativ...
2020-2021 (6x)https://www.ecosia.org/
2021-2022 (6x)https://www.startpage.com/
201311-11 (5x)http://google.de/url?sa=t&rct=j&q=lorentz transformation ohne zeitspiegelung
201303-03 (5x)http://google.de/url?sa=t&rct=j&q=satz von castigliano verständliches beis...
201308-08 (5x)http://google.de/url?sa=t&rct=j&q=vierervolumen
201304-04 (5x)http://google.de/url?sa=t&rct=j&q=raum und zeit in der speziellen relativitÃ...
201301-04 (5x)http://suche.t-online.de/fast-cgi/tsc?classification=internet-tab_internet_st...
201603-08 (4x)http://it.search.yahoo.com/search;_ylt=A9mSs2jsAdpW_ncAKWZQ5YlQ;_ylu=X3oDMTEz...
201305-05 (4x)http://google.de/url?sa=t&rct=j&q=rapidität lorentz transformation

[Top of page]

"Stern Physik: Raum und Zeit in der speziellen Relativitätstheorie" | 14 Comments
The authors of the comments are responsible for the content.

Re: Raum und Zeit in der speziellen Relativitätstheorie
von: Spock am: Fr. 28. September 2012 14:27:16
\(\begingroup\)Hallo Site, beginnend von dem Ersten Schuß, über ZweiKörperProbleme, mit einem Abstecher (Einstein hätte es Dir verziehen) in die Welt der Quantencomputer, ist es für mich faszinierend zu lesen, wie schnell Du Dich entwickelst, bei gleichbleibend hoher Qualität Deiner Beiträge hier auf dem MP, 😄 Sehr schöner Artikel von Dir, der für Studenten mit Blick auf die ART und die QFT sicher von Nutzen sein wird. Juergen \(\endgroup\)
 

Re: Raum und Zeit in der speziellen Relativitätstheorie
von: Max_Cohen am: Fr. 28. September 2012 16:29:42
\(\begingroup\)Einziger echter Kritikpunkt ist die Verwendung des Wortes "infinitesimal" - man kommt sicherlich auch ohne aus und kann alles linear-algebraisch behandeln. Der Zusatz "für angehende Theoretiker" im Kopfbereich sollte mE entfernt werden, denn er könnte andere Studenten verschrecken bzw. den Eindruck erwecken, man könnte für angehende Experimentalphysiker eine noch elementarere Darstellung geben, was schlichtweg nicht möglich ist. Ansonsten hoffen wir auf einen zweiten Teil mit Anwendungen. Gruß, MC PS: Das Layout werde ich für meinen nächsten Artikel klauen, da es mir sehr gut gefällt.\(\endgroup\)
 

Re: Raum und Zeit in der speziellen Relativitätstheorie
von: Kofi am: Sa. 29. September 2012 00:43:17
\(\begingroup\)Das mit dem "infinitesimal" fand ich auch merkwürdig. Was ist denn das nun? Und warum müssen die Ereignisse infinitesimal benachbart sein? Ist doch quatsch! Übrigens, dass Mannigfaltigkeiten lokal flach sind, ist natürlich auch nicht richtig, aber ich denke, das meintest du auch nicht!\(\endgroup\)
 

Re: Raum und Zeit in der speziellen Relativitätstheorie
von: Site am: Sa. 29. September 2012 13:35:46
\(\begingroup\)Danke für die Kommentare. Daß die infinitesimale Form des Linienelements so kontrovers aufgenommen würde, dachte ich nicht. Hier meine Beweggründe:
  1. Dies ist der übliche Gebrauch z.B. in der allgemeinen Relativitätstheorie (Formeln wie $\mathrm{d} s^2 = g_{\mu\nu} \mathrm{d}x^\mu \mathrm{d}x^\nu$).
  2. Meines Erachtens kann man aus den Einsteinschen Postulaten zunächst nur die Invarianz des infinitesimalen Linienelements $\mathrm{d}s^2$ schlüssig motivieren (siehe Artikel). Die Übertragung auf beliebig große Intervalle $\Delta s^2$ ist eine weitere Annahme. Diese Annahme unterscheidet die spezielle Relativitätstheorie von der allgemeinen. In der allgemeinen Relativitätstheorie nämlich findet man den Minkowski-Raum lediglich als Tangentialraum.
Natürlich ist man nicht gezwungen, 'infinitesimale' Größen zu betrachten; ich bin selbst auch kein Freund davon. Mir fällt allerdings nicht ein, wie man dann Punkt 2 noch gerecht werden könnte, ohne gleich von Mannigfaltigkeiten zu sprechen. Für Vorschläge bin ich aber offen. @Kofi: Du hast recht, daß Mannigfaltigkeiten lokal wie flache Räume aussähen, ist schwammig bis falsch formuliert. Den Satz werde ich umformulieren. Site\(\endgroup\)
 

Re: Raum und Zeit in der speziellen Relativitätstheorie
von: Kofi am: Mo. 01. Oktober 2012 10:27:06
\(\begingroup\)Na, das Problem ist doch einfach, dass du gar nicht erklärst, was das denn überhaupt sein soll, eine infinitesimale Größe! Du sprichst an der Stelle einfach von rosa Elephanten! Um das übrigens dann wirklich zu definieren, musst du eben doch den Tangentialraum einführen. Um das zu umgehen, wirst du einfach stattdessen unklar und schwammig.\(\endgroup\)
 

Re: Raum und Zeit in der speziellen Relativitätstheorie
von: Site am: Mo. 01. Oktober 2012 15:59:31
\(\begingroup\)Kofi: Aus Sicht der modernen Mathematik und ihrem formalen Anspruch stimme ich Dir teilweise zu. Ich werte Deinen Kommentar allerdings weniger als Kritik am Artikel, sondern an der theoretischen Physik insgesamt. Nach dem Maßstab der theoretischen Physik nämlich ist der Artikel keineswegs schwammig, im Gegenteil. Eine Grundsatzdiskussion darüber, ob die theoretische Physik zu mehr Formalisierung und zu größerer Annäherung an die Mathematik reformiert werden sollte, müssen wir hier nicht führen. Da würden sich unsere Meinungen wohl auch nicht sehr unterscheiden. Die theoretische Physik ist aber - so sehr man ihre Methoden kritisieren kann - keineswegs die Wissenschaft von rosa Elefanten. Ebensowenig war das übrigens die Mathematik bis zum 19. Jahrhundert, der es gleichermaßen an Präzision fehlte. Das hielte ich für eine allzu engstirnige Interpretation. Kurzum: Der Artikel ist nicht mit 'Nicolas Bourbaki' unterschrieben (auch wenn er die theoretische Physik mal besuchen sollte), sondern richtet sich an Studenten, die sich in der theoretischen Physik und ihren Methoden zurechtfinden wollen / müssen. Daher sehe ich keinen Änderungsbedarf. Site\(\endgroup\)
 

Re: Raum und Zeit in der speziellen Relativitätstheorie
von: Gockel am: Mo. 01. Oktober 2012 18:20:10
\(\begingroup\)@Site: "Be the change you want to see in the world" heißt es so schön. Wenn du Methoden und Schreibweisen verwendest, denen du selbst anscheinend nicht hundertprozentig zustimmst, dann bist du sehr wohl in einer Situation, in der du eine "Grundsatzdiskussion" führen musst. Zumindest mit dir selbst und zumindest in dem Umfang, dass du klären musst, ob und wie weit du dazu bereit bist, durch die Benutzung dieser Schreibweisen zu ihrer weiteren Verbreitung beizutragen und die Durchsetzung einer "besseren" (in welcher Form auch immer man das verstehen will) Herangehensweise zu behindern. Ich glaube, ich interpretiere nicht zu viel in die Posts von Max_Cohen und Kofi, wenn ich behaupte, dass speziell dieser Punkt der weiteren Verbreitung dieser Notation Teil ihrer Kritik war. Das Thema beiseite gelassen, will ich jedoch noch sagen, dass mir der Artikel ebenfalls sehr gut gefällt. Ich finde z.B. ebenfalls das Layout sehr gut gewählt. mfg Gockel.\(\endgroup\)
 

Re: Raum und Zeit in der speziellen Relativitätstheorie
von: Martin_Infinite am: Di. 02. Oktober 2012 11:27:32
\(\begingroup\)Punkt 3 in der Definition 2 (Skalarprodukte) folgt bereits aus Punkt 4. Aber diese Redundanz rechtfertigt sich wohl mit der Definition der Pseudo-Skalarprodukte.\(\endgroup\)
 

Re: Raum und Zeit in der speziellen Relativitätstheorie
von: Kofi am: Di. 02. Oktober 2012 18:33:44
\(\begingroup\)Du betrachtest Ereignisse mit infinitesimalem Abstand. Ich weiß nicht, was das sein soll. An der Stelle hört für mich ganz einfach das Verständnis auf. Punkt. Vor allem, da man das Wort "infinitesimal" ersatzlos streichen kann, und alles bleibt wahr und vor allem verständlicher. Und ja, das darf als Kritik an der Vermittlung der Physik in Schule und Studium verstanden werden.\(\endgroup\)
 

Raum und Zeit Relativitätstheorie Quantenmechanik
von: Ex_Mitglied_40174 am: Sa. 27. Oktober 2012 10:33:27
\(\begingroup\)Eine sehr gute Video-Vorlesungs-Reihe ist hier zu finden. www.academicearth.org/lectures/quantum-entanglements-part-1-1 Quantum Entanglemens, Leonard Susskind (Stanford) Hier finden wir den part 1 mit den lectures 1 bis 9 und die lectures 1 bis 8 von part 3. In Englischer Sprache. Sehr gute lockere Vorlesung von einem Großmeister. \(\endgroup\)
 

Re: Raum und Zeit in der speziellen Relativitätstheorie
von: Ex_Mitglied_40174 am: Mo. 04. Februar 2013 15:53:46
\(\begingroup\)"Linienelment" \(\endgroup\)
 

Re: Raum und Zeit in der speziellen Relativitätstheorie
von: Ex_Mitglied_40174 am: Sa. 21. März 2015 18:01:19
\(\begingroup\)Wie ist "Inertialsystem" definiert? \(\endgroup\)
 

Re: Raum und Zeit in der speziellen Relativitätstheorie
von: hiki am: Sa. 06. August 2016 09:56:33
\(\begingroup\)Schöner Artikel. Kleinigkeit: in Definition 2, 1.-4. wird $\beta$ gar nicht verwendet; dennoch findet sich ein $\forall \alpha,\beta \in \IR$ am Ende der Definition...\(\endgroup\)
 

Re: Raum und Zeit in der speziellen Relativitätstheorie
von: didubadap am: Fr. 06. Januar 2017 00:48:47
\(\begingroup\)Danke für den Artikel im Namen aller Studenten, die daraus etwas mitnehmen können! Einige Anmerkungen meinerseits, für die ich mir gerne Haarspalterei vorwerfen lasse: 1. (Allgmein) Ich finde - und auch in den Kommentaren wurde bereits danach gefragt -, dass der Artikel dadurch gewinnen würde, wenn die Begriffe "Bezugssystem" und "Inertialsystem" nicht vorausgesetzt würden. Es ist meiner Erfahrung nach schwierig Quellen zu finden (von welchen auf elementarem Niveau kaum zu schweigen), wo sich ein Autor darauf festnageln lässt, was genau mit diesen Begriffen gemeint ist. Üblich ist zum Beispiel "ein Bezugsystem ist inertial, wenn sich bezüglich diesem Teilchen, auf die keine Kräfte wirken, auf geraden Linien bewegen". Dies erklärt nicht wie festzustellen ist, ob auf ein Teilchen Kräfte wirken und ist, solange man Gravitation als Kraft ansieht, im wesentlichen nie anwendbar. Darauf näher einzugehen würde den Artikel neben üblichen Darstellungen des Themenbereichs herausstechen lassen. Auch das "Bezugssystem" ist nicht selten ein schwammiger Begriff. Zum Beispiel weiß ich bis heute nicht mit Sicherheit, ob "Kartenabbildungen der Raumzeit-Mannigfaltigkeit" wirklich die korrekte mathematische Formalisierung von "Bezugssystem" ist. Dieser Frage sind schon Professoren ausgewichen mit den sinngemäßen Worten "machen Sie sich weniger Gedanken über Formalisierung" (ich unterstelle natürlich nicht, dass ein Professor die Antwort nicht weiß). 2. (zu Bemerkung 5) Ich würde präzisieren, was mit "(Komponenten) verhalten sich wie ein Tensor" gemeint ist. Insbesondere ist diese Frage schließlich nur dann sinnvoll, wenn die Komponenten durch einen Ausdruck in Tensorkomponenten gegeben sind. In diesem Kontext nicht zwischen Vektoren und ihren Komponenten bezüglich Basen zu unterscheiden könnte zu Verwirrung führen. 3. (zu Satz 3) "behält ihre Form bei" ist im Artikel nicht definiert. Ich verstehe auch wirklich nicht, was die präzise Aussage von Satz 3 ist, beziehungsweise ob es eine gibt (falls nicht, würde ich das nicht "Satz" nennen, sondern "Prinzip" o.Ä.). "Forminvarianz" ist zwar ein gern verwendeter Begriff in der Literatur, aber ich habe noch nie eine Definition gesehen. Ich vermute die angepeilte Aussage ist etwas wie "eine kovariante Gleichung von Vektorkomponenten steht für eine Gleichung von Vektoren, unabhängig von Basis" o.Ä. 4. (Satz 2) Laut Terminologie des Artikels (Satz 1) ist mit "Metrik" eine Matrix gemeint. Insofern würde ich in Satz 2 ergänzen, wie die Aussage in Formeln aussieht, da ich mir vorstellen kann, dem Leser könnte unklar sein was es bedeutet, dass "eine bestimmte Matrix invariant ist unter bestimmten linearen Abbildungen". Ich finde, es ist wichtig bewiesene Sätze so zu formulieren, dass die Aussage auch ohne den Beweis möglichst unmissverständlich ist. 5. (zu Definition 11) Ich würde schreiben "Die bezüglich der Metrik $\eta$ orthogonalen...". 6. (zu Definition 12) Ich würde betonen, dass 4-dimensionale Translationen betrachtet werden.\(\endgroup\)
 

 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2022 by Matroids Matheplanet
This web site was originally made with PHP-Nuke, a former web portal system written in PHP that seems no longer to be maintained nor supported. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]