Matroids Matheplanet Forum Index
Moderiert von Fabi Dune ligning
Lineare Algebra » Bilinearformen&Skalarprodukte » Symplektische Bilinearformen
Autor
Universität/Hochschule J Symplektische Bilinearformen
Sekorita
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 26.10.2021
Mitteilungen: 494
  Themenstart: 2023-06-08

Hallo, ich stocke bei folgendem Beweis: https://matheplanet.com/matheplanet/nuke/html/uploads/c/55059_KA8.JPG Es geht um Teil 2) Damit B_A (v,w) = v^T * A *w symplektisch muss ja nach Teil 1 gelten, dass B_A (v,w) = -B_A(w,v) also nichts anderes als v^T*A*w = -w^T * A*v <=> v^T*A*w + w^T * A*v = 0 dann war meine Idee folgende: <=> v^T*A*w + ( v^T *A^T*w)^T = 0 Aber das bringt mich leider nicht ans ziel. Das Einzige was mir so aus dem Stehgreif einfallen würde, wäre die Schiefsymmetrie bzw. Antisymmetrie einer Matrix. Ein Tipp und Schubs in die Richtung wäre nett


   Profil
darkhelmet
Senior Letzter Besuch: im letzten Monat
Dabei seit: 05.03.2007
Mitteilungen: 2685
Wohnort: Bayern
  Beitrag No.1, eingetragen 2023-06-08

Damit die in 1. eingeführte Bedingung für alle $\mathbf{v}$ und $\mathbf{w}$ gilt, reicht es, dass sie für alle Paare von Vektoren einer fest gewählten Basis gilt (warum?). Wenn du das in 2. mit der Standardbasis durchspielst, kommen recht einfache Gleichungen raus.


   Profil
Sekorita
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 26.10.2021
Mitteilungen: 494
  Beitrag No.2, vom Themenstarter, eingetragen 2023-06-08

Puhh, da bin ich überfragt.... Weil man auch jede andere Basis nehmen kann, als die Standardbasis, weil man dann einfach einen Koordinatenwechsel durchführt? Also meinst du so ? https://matheplanet.com/matheplanet/nuke/html/uploads/c/55059_HilfeHilfe.JPG


   Profil
darkhelmet
Senior Letzter Besuch: im letzten Monat
Dabei seit: 05.03.2007
Mitteilungen: 2685
Wohnort: Bayern
  Beitrag No.3, eingetragen 2023-06-08

Ok, ignoriere erstmal den ersten Satz meiner Antwort, vielleicht wird dir später noch klar, was ich meine. Nimm als ersten Schritt die Gleichung $B_A(\mathbf{v},\mathbf{w})=-B_A(\mathbf{w},\mathbf{v})$ und setze für $\mathbf{v}$ und $\mathbf{w}$ Einheitsvektoren ein, also Vektoren, die irgendwo eine Eins haben und sonst lauter Nullen. Die allgemeine Rechnung, die du hingeschrieben hast, ist richtig und könnte dir dabei helfen.


   Profil
Sekorita
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 26.10.2021
Mitteilungen: 494
  Beitrag No.4, vom Themenstarter, eingetragen 2023-06-08

B_A(v,w) = -B_A(w,v) Sei v=e_1 und w=e_2 <=> B_A(e_1,e_2) = -B_A(e_2,e_1) <=> (1,....,0)^T * (a_(ij))_(i,j = 1,...,n) * (0;1;0;.;.;0) = -(0,1,....,0)^T * (a_(ij))_(i,j = 1,...,n) * (1;0;.;.;0) Also meinst du das erstmal so ?


   Profil
Mandelbluete
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 03.05.2008
Mitteilungen: 582
Wohnort: Fuchsbau
  Beitrag No.5, eingetragen 2023-06-08

\(\begingroup\)\(\newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\K}{\mathbb{K}} \newcommand{\N}{\mathbb{N}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\i}{\mathrm{i}} \newcommand{\d}{\mathrm{d}} \newcommand{\D}{\mathrm{D}} \newcommand{\eps}{\varepsilon} \renewcommand{\phi}{\varphi} \renewcommand{\theta}{\vartheta} \newcommand{\fuer}{\quad\text{fuer}\quad} \newcommand{\Sp}{\operatorname{Sp}} \) Der Trick ist wohl, zu sehen, daß $B(e_i,e_j) = a_{ij}$ ist. Damit kannst Du die Eigenschaft von $B$, symplektisch zu sein, in eine (notwendige) Eigenschaft der Matrix $A$ übersetzen. Dann bleibt nur noch zu zeigen, daß diese Eigenschaft auch hinreichend ist, daß sie also umgekehrt erzwingt, daß $B$ symplektisch ist (das hat mit dem, was darkhelmet in Beitrag Nr. 1 erwähnt hat, zu tun). Liebe Grüße Mandelblüte\(\endgroup\)


   Profil
Sekorita
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 26.10.2021
Mitteilungen: 494
  Beitrag No.6, vom Themenstarter, eingetragen 2023-06-09

Guten Morgen, anhand meines Beispiels konnte ich das auch errechnen, also B(e_i, e_j) = a_(ij) -B(e_j,e_i) = -a_(ji) Es muss also gelten, dass a_(ij) = -a_(ji) für e_i != e_j Und das ist ja genau der Fall, wenn A schiefsymmetrisch, bzw. antisymmetrisch ist. ( Das gilt natürlich auch für e_i=e_j) Ich möchte, dass dann jetzt allgemein zeigen. Da würde mir jetzt bestimmt der Satz von @darkhelmet helfen, dass es für alle Paare von Vektoren einer fest gewählten Basis gilt ( den ich noch nicht ganz verstehe) Sei v= (x_1,....,x_n) und w= (y_1,....,y_n) und sei A antisymmetrisch, also a_(ij) = -a_(ji) für eine Matrix A. B_A (v,w) =B_A ( (x_1;.;.;x_n) , (y_1;.;.;y_n)) ist dann nach meiner in Beitrag 2 geschriebenen Rechnung sum(,i=1,n) sum(a_(ij) *x_i *y_j,j=1,n) = sum(,i=1,n) sum(-a_(ji) *x_i *y_J,j=1,n) weil A antisymmetrisch ist = sum(,i=1,n) sum(-a_(ji) *y_j *x_i,j=1,n) = sum(y_i,j=1,n) * (sum(-a_(ji)*x_i,i=1,n)) = (y_1,...,x_n) * (-(a_(ji))_(j,i = 1,...,n)) * (x_1;.;.x_n) = -B_A ( (y_1;.;.;y_n) , (x_1;.;.;x_n)) = -B_A (w,v) und das war zu zeigen


   Profil
Mandelbluete
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 03.05.2008
Mitteilungen: 582
Wohnort: Fuchsbau
  Beitrag No.7, eingetragen 2023-06-09

\(\begingroup\)\(\newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\K}{\mathbb{K}} \newcommand{\N}{\mathbb{N}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\i}{\mathrm{i}} \newcommand{\d}{\mathrm{d}} \newcommand{\D}{\mathrm{D}} \newcommand{\eps}{\varepsilon} \renewcommand{\phi}{\varphi} \renewcommand{\theta}{\vartheta} \newcommand{\fuer}{\quad\text{fuer}\quad} \newcommand{\Sp}{\operatorname{Sp}} \) Es muß $a_{ij} = -a_{ji}$ für alle $i,j$ sein; also hat man insbesondere $a_{ii} = 0$. Schöner als mit den Komponenten ist die Schreibweise $A^t = -A$. Der zweite Teil stimmt, soweit ich das sehe, außer daß Du einmal $y_i$ statt $y_j$ schreibst. Ich würde das Minuszeichen aus ästhetischen Gründen vor die Summenzeichen schreiben oder Klammern setzen (manche machen das nicht). Jedenfalls dürfte die Aufgabe damit gelöst sein. 🙂 Liebe Grüße Mandelblüte\(\endgroup\)


   Profil
zippy
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 24.10.2018
Mitteilungen: 4985
  Beitrag No.8, eingetragen 2023-06-09

\quoteon(2023-06-08 18:16 - Sekorita im Themenstart) v^T*A*w + ( v^T *A^T*w)^T = 0 \quoteoff Dieser Ansatz ist eigentlich schöner als die Index-Schlachten der folgenden Beiträge. Der Inhalt der runden Klammern ist eine Zahl, also gilt $(\ldots)^T=(\ldots)$ und wir haben$$ \mathbf v^T\bigl[A+A^T\bigr]\,\mathbf w = B_{A+A^T}(\mathbf v, \mathbf w) = 0 \;. $$Das gilt für alle $\mathbf v$ und $\mathbf w$ genau dann, wenn die Matrix $A+A^T=0$ verschwindet, denn eine Matrix ist durch die von ihr erzeugte Bilinearform eindeutig festgelegt. Also kommen wir zu$$ A+A^T=0 \quad\iff\quad A^T=-A \;. $$--zippy [Die Antwort wurde nach Beitrag No.6 begonnen.]


   Profil
Sekorita
Aktiv Letzter Besuch: im letzten Quartal
Dabei seit: 26.10.2021
Mitteilungen: 494
  Beitrag No.9, vom Themenstarter, eingetragen 2023-06-09

Danke für eure Hilfe. Die Schreibweise von Zippy ist natürlich um einiges ästhetischer. Ich wünsche euch ein schönes Wochenende :)


   Profil
darkhelmet
Senior Letzter Besuch: im letzten Monat
Dabei seit: 05.03.2007
Mitteilungen: 2685
Wohnort: Bayern
  Beitrag No.10, eingetragen 2023-06-09

@Sekorita: Noch als Nachtrag, was ich gemeint hatte: Wenn du eine lineare Abbildung $A$ auf einem $n$-dimensionalen Vektorraum definierst, reicht es aus, eine Basis $e_1,\ldots,e_n$ zu wählen und die $n$ Werte $Ae_1,\ldots,Ae_n$ anzugeben, und $A$ ist dadurch eindeutig definiert. Ebenso ist eine bilineare Abbildung $B$ auf $\mathbb{R}^n\times\mathbb{R}^n$ durch die $n^2$ Werte $B(\mathbf{e_i},\mathbf{e_j})$ mit $i,j\in\{1,\ldots,n\}$ eindeutig definiert. Da $(\mathbf{v},\mathbf{w})\mapsto B_A(\mathbf{v},\mathbf{w})$ und $(\mathbf{v},\mathbf{w})\mapsto-B_A(\mathbf{w},\mathbf{v})$ jeweils bilineare Abbildungen sind, folgt aus den $n^2$ Bedingungen $B_A(\mathbf{e_i},\mathbf{e_j})=-B_A(\mathbf{e_j},\mathbf{e_i})$ schon $B_A(\mathbf{v},\mathbf{w})=-B_A(\mathbf{w},\mathbf{v})$ für alle $\mathbf{v},\mathbf{w}\in\mathbb{R}^n$. So kann man sich ohne Rechnung klarmachen, dass die Bedingung $a_{ij}=-a_{ji}$ für alle $i,j\in\{1,\ldots,n\}$ hinreichend ist. Aber m.E. macht so ein Argument erst dann Sinn, wenn man die expliziten Rechnungen so sicher drauf hat, dass sie zur lästigen Schreibarbeit geworden sind.


   Profil
Sekorita hat die Antworten auf ihre/seine Frage gesehen.
Sekorita hat selbst das Ok-Häkchen gesetzt.

Wechsel in ein anderes Forum:
 Suchen    
 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2023 by Matroids Matheplanet
This web site was originally made with PHP-Nuke, a former web portal system written in PHP that seems no longer to be maintained nor supported. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]