Mathematik: Multilineare Algebra
Released by matroid on Di. 27. Februar 2007 21:34:03 [Statistics]
Written by Gockel - 23110 x read [Outline] Printable version Printer-friendly version -  Choose language   
Lineare Algebra

\(\begingroup\) Multilineare Algebra für Dummköpfe

Multilineare Algebra

Ich bin im dritten Semester in den Genuss gekommen, zum Abschluss der Vorlesungen LA I bis LA III das Gebiet der multilinearen Algebra zu behandeln. Mein Professor hat dabei ein erstaunliches Geschick an den Tag gelegt, die Dinge zu verkomplizieren und die Studenten mit unsinnigen und zum Teil falschen Rechnungen zu verwirren. Also habe ich mich entschlossen, das Thema für mich von Grund auf aufzuarbeiten und für mich verständlich darzustellen. Herausgekommen ist dieser Artikel. Ich hoffe, er hilft nicht nur mir.

Einleitung



In diesem Artikel werde ich versuchen, Grundzüge und Anwendungen der Multilinearen Algebra aufzuzeigen. Das heißt, dass wir uns mit multilinearen Abbildungen aller Art und den daraus resultierenden Tensorprodukten sowie dem Vorkommen von Tensoren in verschiedenen Bereichen der Mathematik beschäftigen werden.
Die Theorie werde ich dabei für Vektorräume entwickeln, obwohl es relativ problemlos möglich ist, einen Großteil der Theorie auch für Moduln zu entwickeln. Das hat durchaus seine Vorzüge in der Theorie, ist aber für die prinzipielle Vorgehensweise nicht von Belang.

Inhalt



Da der Artikel etwas länger ist, habe ich zu Zwecken der Übersichtlichkeit die Möglichkeit eingebaut, die Beweise ein- und auszublenden. Das kann bei jedem Beweis separat oder hier zentral getan werden. Um diese Funktion nutzen zu können, ist aktiviertes JavaScript nötig.
Alle Beweise dieses Artikels auf einmal sichtbar / unsichtbar machen.

Multilineare Abbildungen

Im Zentrum der Multilinearen Algebra steht die Untersuchung von multilinearen Abbildungen und daraus resultierend die Untersuchung von so genannten Tensoren. Diese sind eine gemeinsame Verallgemeinerung vieler schon vorher bekannter Begriffe der LA. So können spezielle Tensoren als Skalare, Vektoren, lineare Abbildungen, Bilinearformen oder Linearformen als Tensoren aufgefasst werden. Wir schauen uns aber zunächst die dafür nötigen Grundlagen, die multilinearen Abbildungen an. Ähnliche Begriffe kennen wir schon. Zum Beispiel heißt eine Funktion von zwei Argumenten "bilinear", wenn sie in jedem Argument linear ist. Dieses Konzept wollen wir verallgemeinern zum Begriff der multilinearen Abbildung: makro(indizes,%1||array(\small\ %2;%3\normal)) Sei \IK ein Körper und ((V_i))_array(i\el\ I) und W seien \IK\-Vektorräume. Eine Abbildung \dsm: produkt(V_i,i\el\ I)->W heißt multilinear, wenn sie in jeder Komponente \IK\-linear ist, d.h. hält man alle bis auf eine Komponente fest, so ist die resultierende Abbildung \IK\-linear. Was heißt das "Festhalten aller Komponenten bis auf eine" nun formal? Dazu sei a:=((a_i))_array(i\el\ I) ein Vektor aus produkt(V_i,i\el\ I). Für beliebige j\el\ I, v\el\ V_j definieren wir dann indizes(a,(v,j),$):=(indizes(a,(v,j),i))_array(i\el\ I) mit indizes(a,(v,j),i):=cases(a_i,i!=j;v,i=j) indizes(a,(v,j),$) ist also der Vektor, der entsteht, wenn wir im Tupel a die j\-te Komponente durch den Vektor v ersetzen. Damit können wir die Multilinearität nun formal festhalten: \darkblue\double\frameon \dsm heißt \darkblue\IK\-multilinear__\black||, wenn für alle a\el\ produkt(V_i,i\el\ I), alle Indizes j\el\ I sowie alle v, v^-\el\ V_j, \a, \a^-\el\IK gilt: \dsm(indizes(a,(\a\.v\+||\a^-\.v^-, j),$))=\a*\dsm(indizes(a,(v, j),$))+\a^-*\dsm(indizes(a,(v^-, j),$) \frameoff\frameoff Ist der Grundkörper klar, so sagt man wie üblich einfach "multilinear" bzw. "n\-fach linear", wenn I endlich ist. Eine multilineare Abbildung in den Grundkörper \IK heißt auch einfach \darkblue\ Multilinearform__\black||. Für kleine I vergibt man spezielle Namen, so sagt man statt 1\-fach linear auch schlicht linear \(denn offensichtlich ergibt sich bei abs(I)=1 die übliche Definition einer \IK\-linearen Abbildung\). Im Falle abs(I)=2 spricht man von \darkblue\ bi\-__\black, bei abs(I)=3 auch von \darkblue\ array(trilinearen Abbildungen)__\black bzw. Bi\- und Trilinearformen. Wir werden uns vor allem mit endlichen Indexmengen befassen. Dort gibt es weitere spezielle Bezeichnungen, die aus der Theorie der Bilinearformen motiviert sind: Eine n\-fach lineare Abbildung \dsm: V^n->W heißt \darkblue\ symmetrisch__\black||, wenn \dsm(v_1, ..., v_n)=\dsm(v_\pi(1), ..., v_\pi(n)) für jede Permutation \pi\el\ S_n und alle Vektoren v_1, ..., v_n\el\ V gilt, wenn man also die Komponenten beliebig vertauschen darf. Wenn man sie nicht völlig beliebig vertauschen darf, sondern stattdessen \dsm(v_1, ..., v_n)=sgn(\pi)*\dsm(v_\pi(1), ..., v_\pi(n)) gilt, dann spricht man auch von einer \darkblue\ schiefsymmetrischen__\black multilinearen Abbildung. Etwas stärker sogar ist die Forderung, die man an \darkblue\ alternierende__\black multilineare Abbildungen stellt: \dsm heißt alternierend, wenn für v_i=v_j mit i!=j sofort \dsm(v_1, ..., v_m)=0 folgt. \small\ Bemerkung: Jede alternierende Abbildung ist auch schiefsymmetrisch. Ist char(\IK)!=2, so gilt auch die Umkehrung. Für char(\IK)=2 ist die Umkehrung jedoch i.A. falsch.

Beispiele

Eine 1\-fach lineare Abbildung ist offenbar eine ganz gewöhnliche \IK\-lineare Abbildung. Eine bilineare Abbildung U\cross\ V->W wird oft auch mit eckigen Klammern \< opimg(*) , opimg(*) \> geschrieben. In der Physik und der Schulmathematik findet man für das Standard\-Skalarprodukt des \IR^n auch einfach die Schreibweise mit dem Multiplikationspunkt. Die Bilinearitätsgesetze \<\a\.u+\a^-\.u^-, v\>=\a*\+\a^-*\<\.u^-, v\> und \=\a*\+\a^-*\ würden sich dann einfach als Distributivgesetze schreiben: (\a\.u+\a^-\.u^-)*v=\a*u*v+\a^-*u^-*v und u*(\a\.v+\a^-\.v^-)=\a*u*v+\a^-*u*v^- In der Tat hat man dort, wo Multiplikationen oder verwandte Konzepte auftreten, auch oft bilineare Abbildungen: \ll(*)Die Polynommultiplikation ist eine symmetrische bilineare Abbildung \IK||[X]\cross\IK||[Y]->\IK||[X\union\ Y] für alle \(nichtleeren\) Mengen von Unbestimmten X und Y. \ll(*)Die Matrizenmultiplikation ist eine bilineare Abbildung \IK^array(n\times\ m)\cross\IK^array(m\times\ p)->\IK^array(n\times\ p) \ll(*)Das Kreuzprodukt ist eine bilineare, alternierende Abbildung \IR^3\cross\IR^3->\IR^3 Nicht zuletzt sind natürlich auch die Bilinearformen, d.h. die bilinearen Abbildungen in den Grundkörper, Beispiele hierfür. Von ihnen stammen auch die Bezeichnungen "symmetrisch", "schiefsymmetrisch" und "alternierend", daher fällt es nicht schwer, Beispiele zu finden. Als alternierende Trilinearform tritt z.B. schon in der Schulmathematik das Spatprodukt auf. Selbstverständlich sind auch allgemeine n-fach lineare Abbildungen von Bedeutung. Als wichtiges Beispiel treten die Determinantenfunktionen auf einem n-dimensionalen Vektorraum auf. Als Funktion der n Zeilen- bzw. Spaltenvektoren einer Matrix sind sie sehr interessante Vertreter von n-fach linearen Abbildungen. Die Determinantenabbildung ist bekanntermaßen sogar eine alternierende Multilinearform. Man findet also wirklich sehr viele Beispiele für multilineare Abbildungen, sie sind dem Durchschnittsstudenten während der ersten beiden Semester in mannigfaltiger Gestalt begegnet.

Lineare und multilineare Abbildungen

Wir haben schon gesehen, dass lineare Abbildungen nun als Spezialfall der multilinearen Abbildungen wiederkehren. Aber auch umgekehrt gibt es einen Zusammenhang, der multilineare auf einfach-lineare Abbildungen zurückführt. \darkred\ Sei I eine Indexmenge mit abs(I)>1, ((V_i))_(i\el\ I) und W seien \IK\-Vektorräume, j\el\ I ein fest gewählter Index und I':=I\\{j}. \darkred\ll(a)Der Raum ML( ((V_i))_(i\el\ I) \; W) aller multilinearen Abbildungen produkt(V_i,i\el\ I)->W ist ein \IK\-Vektorraum mit den offensichtlichen Verknüpfungen. \darkred\ll(b)Es gibt einen kanonischen Isomorphismus ML( ((V_i))_(i\el\ I) \; W)~=Hom_\IK\.(V_j, ML( ((V_i))_(i\el\ I') \; W))
Den folgenden Beweis sichtbar / unsichtbar machen.
\blue\ Beweis: \ref(a) ist trivial. \ref(b) ist auch relativ einfach, denn anhand der Definitionen ergibt sich, dass beim Festhalten von einer Komponente aus einer abs(I)\-fach linearen eine "(abs(I)-1)-fach" lineare Abbildung wird. Das ist die wesentliche Idee für den Beweis. Für \dsm\el\ ML( ((V_i))_(i\el\ I) \; W) und v\el\ V_j definieren wir also die multilineare Abbildung \dsm_v\el\ ML( ((V_i))_(i\el\ I') \; W) durch \dsm_v(w):=\dsm(w\union{(j,v)}) w ist als Element des Produkts produkt(V_i,i\el\ I') ja eine Abbildung I'->union(V_i,i\el\ I') also eine Menge geordneter Paare. w\union{(j,v)} ist daher nichts anderes als die Abbildung, die j auf v abbildet und i auf w_i, wenn i!=j ist. Unser Isomorphismus ML( ((V_i))_(i\el\ I) \; W)->Hom_\IK\.(V_j, ML( ((V_i))_(i\el\ I') \; W)) ist nun also gegeben durch: \dsm\mapsto(v\mapsto\dsm_v) Sein Inverses ist ganz einfach die Abbildung \phi\mapsto(v\mapsto\phi(v_j)(v\|I')) \blue\ q.e.d.
Den vorherigen Beweis unsichtbar machen.
Für endliche Indexmengen I haben wir also z.B. die Isomorphismen ML(V_1, V_2, V_3 \; W)~=Hom_\IK\.(V_1, Hom_\IK\.(V_2, Hom_\IK\.(V_3, W))) \void~=Hom_\IK\.(V_3, Hom_\IK\.(V_2, Hom_\IK\.(V_1, W))) \void~=Hom_\IK\.(V_1, Hom_\IK\.(V_3, Hom_\IK\.(V_2, W))) ...

Ein komplexeres Beispiel aus der Analysis

Eine nette Anwendung ergibt sich in der Analysis, speziell bei der Differentialrechnung im Mehrdimensionalen: Hat man eine differenzierbare Funktion f:M->\IR^m mit einem offenen M\subseteq\IR^n, dann ist das totale Differential Df_x von f im Punkt x\el\ M eine lineare Abbildung \IR^n->\IR^m mit gewissen Eigenschaften. Df_x ist also ein Element von Hom(\IR^n,\IR^m). Bei der ersten Ableitung mag für die Anwendungen die Darstellung des Differentials als Jacobi\-Matrix viel nützlicher sein, doch sobald man mehr als nur die erste Ableitung will, kann man mit Matrizen nicht mehr viel ausrichten. Hier kommen die multilinearen Abbildungen ins Spiel, denn Df ist ja nun eine Abbildung M->Hom(\IR^n, \IR^m). D^2\.f_x kann demnach als Element von Hom(\IR^n, Hom(\IR^n, \IR^m))~=ML(\IR^n, \IR^n \; \IR^m) betrachtet werden. D^3\.f_x wird analog zu einem Element von ML(\IR^n, \IR^n, \IR^n \; \IR^m) etc. Insgesamt kann D^k\.f_x als \(oft sogar symmetrische\) k\-fach lineare Abbildung (\IR^n)^k->\IR^m aufgefasst werden, womit sich z.B. die Taylorentwicklung im Mehrdimensionalen sehr übersichtlich darstellen lässt als f(x+h)=f(x)+1/1!*Df_x(h)+1/2!*D^2\.f_x(h,h)+1/3!*D^3\.f_x(h,h,h)+...+Restglied. \darkred\ Sei M\subseteq\IR^n offen, x\el\ M, f:M->\IR^m sei k\-mal total differenzierbar. Dann gilt für alle h_1, ..., h_k\el\IR^n: \darkred\ D^k\.f_x(h_1, ..., h_k)=sum( h_1i_1*h_2i_2*...*h_ki_k*(\pd_i_1 \pd_i_2 ... \pd_i_k f)(x),i\el\ menge(1,...,n)^k) \darkred\ Ist f sogar k\-mal stetig diffbar, dann ist D^k\.f_x eine symmetrische k\-lineare Abbildung.
Den folgenden Beweis sichtbar / unsichtbar machen.
\blue\ Beweis: Induktion nach k. Für k=1 ist Df_x(h)=sum(h_i*(\pd_i f)(x),i=1,n) zu zeigen. Das ist aber genau das Produkt der Jacobi\-Matrix von f an der Stelle x und dem Vektor h. Den Induktionsanfang haben wir also gegeben. Ganz genau aufgeschrieben gilt: Df_x=sum(sum(h_i*(\pd_i f_j)(x)*e_j,j=1,m),i=1,n) wobei f_j die j\-te Komponente von f und ((e_j))_(j=1..m) die Standardbasis von \IR^m ist. Sei nun f (k+1)\-mal differenzierbar. D^(k+1)\.f_x ist nun die Ableitung der Abbildung D^k\.f, die von D nach ML(\IR^n ,..., \IR^n \; \IR^m) geht. Wir benutzen den Fall k=1 und setzen ein: D^(k+1)\.f_x(h)=sum(h_i*(\pd_i D^k\.f)(x),i=1,n) Die natürliche Identifizierungen der verschachtelten Homomorphismen\-Räume mit dem Raum der multilinearen Abbildungen ergibt: D^(k+1)\.f_x(h_1, ..., h_(k+1))=D^(k+1)\.f_x(h_(k+1))(h_1, ...,h_k) =(sum(h_(k\+1)i*(\pd_i D^k\.f)_x,i=1,n))(h_1, ...,h_k) =sum(h_(k\+1)i*(\pd_i D^k\.f)_x(h_1, ...,h_k),i=1,n) =sum(h_(k\+1)i_k\+1*((sum(h_1i_1*...*h_ki_k*(\pd_i_1 \pd_i_2 ... \pd_i_(k+1) f)(x),i\el\ menge(1,...,n)^k))),i_k\+1=1,n) =sum(h_1i_1*...*h_(k\+1)i_k\+1*(\pd_i_1 ... \pd_i_(k+1) f)(x),i\el\ menge(1,...,n)^k\+1) Insbesondere ist D^k\.f_x nach dem Satz von Schwarz eine symmetrische k\-lineare Abbildung, wenn f k\-mal stetig \(partiell\) diffbar ist. \blue\ q.e.d.
Den vorherigen Beweis unsichtbar machen.

Das Tensorprodukt

Wir widmen uns nun einem sehr abstrakten aber doch nützlichen Konstrukt: Dem Tensorprodukt. Zunächst zur Frage, was das ist: \geo ebene(200,200) xy(0,2) noaxis() punktform(.) nolabel() replace() konst(k,0.1) konst(kk,0.25) makro(pfeil,\ konst(a,%1) konst(b,%2) konst(c,%3) konst(d,%4)\ konst(l,sqrt((c-a)*(c-a)+(b-d)*(b-d))) konst(f,k/l)\ konst(u,c-f*(c-a+kk*(b-d)))\ konst(v,d-f*(d-b+kk*(c-a)))\ konst(uu,c-f*(c-a+kk*(-b+d)))\ konst(vv,d-f*(d-b+kk*(-c+a)))\ p(a,b,p1) p(c,d,p2) s(p1,p2) p(u,v,p3) p(uu,vv,p4)\ f(p2,p3,p4,black)) print(produkt(V_i,i\el\ I),0,2) print(W,2,0.2) print(T,2,2) pfeil(0.6,1.9,1.9,1.9) pfeil(0.6,1.7,1.9,0.3) pfeil(2.0,1.8,2.0,0.3) print(\t,1.0,1.8) print(\dsm,1.0,1.0) print(\h,1.8,1.2) \geooff \darkblue\double\frameon Seien ((V_i))_array(i\el\ I) \IK\-Vektorräume. Ein \IK\-Vektorraum T heißt \darkblue\ Tensorprodukt__\black der V_i, wenn es eine multilineare Abbildung \t: produkt(V_i,i\el\ I)->T gibt, sodass folgende so genannte \darkblue\ array(universelle Eigenschaft)__\black erfüllt ist: Für jede multilineare Abbildung \dsm: produkt(V_i,i\el\ I)->W gibt es genau eine lineare__ Abbildung \h: T->W, so dass \dsm=\h\circ\t ist. \frameoff Die Eigenschaft besagt demnach u.A., dass folgendes Diagramm kommutiert: \geoprint() makro(indizes,%1||array(\small\ %2;%3\normal)) \darkred\ Seien ((V_i))_array(i\el\ I) \IK\-Vektorräume. Dann gilt: \darkred\ll(i)Es gibt ein Tensorprodukt der V_i \darkred\ll(ii)Das Tensorprodukt ist bis auf einen kanonischen Isomorphismus eindeutig bestimmt, der alle \tau(t) auf \tau||'(t) abbildet.
Den folgenden Beweis sichtbar / unsichtbar machen.
makro(indizes,%1||array(\small\ %2;%3\normal)) \blue\ Beweis von \ref(i): Wir betrachten den Vektorraum V:=\IK^(((\big\Pi\normal V_i))), d.h. die Menge aller Abbildungen produkt(V_i,i\el\ I)->\IK, bei denen nur endlich viele Bilder von 0 verschieden sind. Für jedes a\el\ produkt(V_i,i\el\ I) definiert [a]: v\mapsto\delta_av=cases(1,a=v;0,a!=v) eine Abbildung aus V. In der Tat sind die [a] sogar eine Basis von V. Ziel ist für uns nun, einen Unterraum M<=V zu konstruieren, so dass V\/M ein Tensorprodukt wird und a\mapsto\ [a]+M unsere multilineare Abbildung \tau wird. Dazu definieren wir uns M genau so, dass diese Eigenschaft erfüllt wird, d.h. wir setzen M=\< menge([](indizes(a,(\a\.v\+||\a^-\.v^-,j),$))-\a\.[](indizes(a,(v,j),$))-\a^-\.[](indizes(a,(v^-,j),$)) \| a\el\ produkt(V_i,i\el\I), j\el\ I, v, v^-\el\ V_j, \a, \a^-\el\IK)\> Die Abbildung \t: a\mapsto\ [a]+M ist dann auf jeden Fall eine multilineare Abbildung, denn es gilt [](indizes(a,(\a\.v\+||\a^-\.v^-,j),$))-\a\.[](indizes(a,(v,j),$))-\a^-\.[](indizes(a,(v^-,j),$))== 0 (mod M) <=> [](indizes(a,(\a\.v\+||\a^-\.v^-,j),$))==\a\.[](indizes(a,(v,j),$))+\a^-\.[](indizes(a,(v^-,j),$)) (mod M) Wir zeigen als nächstes, dass V\/M die in der Definition geforderte universelle Eigenschaft erfüllt: Sei \dsm: produkt(V_i,i\el\ I)->W eine multilineare Abbildung. Wir definieren nun \h^^: V->W, indem wir \h^^([a])=\dsm(a) definieren. Da die [a] eine Basis bilden, ist das ohne Probleme möglich. Der Trick ist, dass wegen \h^^([](indizes(a,(\a\.v\+||\a^-\.v^-,j),$))-\a\.[](indizes(a,(v,j),$))-\a^-\.[](indizes(a,(v^-,j),$)))=\h^^([](indizes(a,(\a\.v\+||\a^-\.v^-,j),$)))-\h^^(\a\.[](indizes(a,(v,j),$)))-\h^^(\a^-\.[](indizes(a,(v^-,j),$))) =\dsm(indizes(a,(\a\.v\+||\a^-\.v^-,j),$))-\a \dsm (indizes(a,(v,j),$))-\a^-\.\dsm(indizes(a,(v^-,j),$)) =0 der Unterraum M im Kern von \h^^ liegt. Wir können also ohne Probleme \h als v+M\mapsto\h^^(v) definieren. Dass dies auch die einzige lineare Abbildung ist, für die \h\circ\t=\dsm gilt, folgt nun daraus, dass die Vektoren [a]+M ein Erzeugendsystem des Raums V\/M bilden und eine lineare Abbildung, die auf allen [a]+M mit \h übereinstimmt, daher schon gleich \h sein muss. \blue\ q.e.d. \geo ebene(200,400) x(0,2) y(0,4) noaxis() punktform(.) nolabel() replace() konst(k,0.1) konst(kk,0.25) makro(pfeil,\ konst(a,%1) konst(b,%2) konst(c,%3) konst(d,%4)\ konst(l,sqrt((c-a)*(c-a)+(b-d)*(b-d))) konst(f,k/l)\ konst(u,c-f*(c-a+kk*(b-d)))\ konst(v,d-f*(d-b+kk*(c-a)))\ konst(uu,c-f*(c-a+kk*(-b+d)))\ konst(vv,d-f*(d-b+kk*(-c+a)))\ p(a,b,p1) p(c,d,p2) s(p1,p2) p(u,v,p3) p(uu,vv,p4)\ f(p2,p3,p4,black)) print(produkt(V_i,i\el\ I),0,2) print(T,1.8,0.2) print(T',1.8,2) print(T,1.8,3.8) pfeil(0.6,2.1,1.7,3.6) pfeil(0.6,1.9,1.7,1.9) pfeil(0.6,1.7,1.7,0.3) pfeil(1.8,1.8,1.8,0.3) pfeil(1.8,3.6,1.8,2.1) print(\t, 1.0,3.0) print(\t||',1.0,1.8) print(\t, 1.0,1.0) print(\h, 1.9,3.0) print(\h||',1.9,1.2) \geooff \blue\ Beweis von \ref(ii): Seien T und T' zwei Vektorräume, die die universelle Eigenschaft des Tensorprodukts erfüllen. Die entsprechenden Multilinearen Abbildungen produkt(V_i,i\el\ I)->T bzw. ->T' seien \t und \t||'. Da T ein Tensorprodukt ist, gibt es eine lineare Abbildung \h: T->T', sodass \t||'=\h\circ\t ist. Da T' ebenfalls ein Tensorprodukt ist, gibt es eine weitere Abbildung \h||': T'->T, sodass \t=\h||'\circ\t||' ist. Zusammen ist \h||'\circ\h also eine lineare Abbildung T->T, die \t=(\h||'\circ\h)\circ\t erfüllt. Die universelle Eigenschaft sagt uns, dass diese Abbildung eindeutig bestimmt ist. Da id_T auch diese Eigenschaft hat, muss also \h||'\circ\h=id_T sein. Analog folgert man \h\circ\h||'=id_T'. \h ist also ein \IK\-Vektorraumisomorphismus T->T'. \geoprint() \blue\ q.e.d.
Den vorherigen Beweis unsichtbar machen.
Jetzt, da wir wissen, dass es bis auf einen kanonischen Isomorphismus nur ein Tensorprodukt gibt, werden wir also "das" Tensorprodukt sagen und es mit bigop(\otimes,V_i,i\el\ I) bezeichnen. Wie üblich schreibt man opimg(\otimes) auch zwischen die Vektorräume, wenn I endlich ist, d.h. man schreibt z.B. V_1\otimes\ V_2\otimes...\otimes\ V_n. Das Symbol opimg(\otimes) wird in diesem Fall gleichzeitig auch für die Abbildung \tau benutzt, d.h. \t(v_1, v_2, ..., v_n) wird als v_1\otimes\ v_2\otimes...\otimes\ v_n bezeichnet. In dieser Schreibweise wird vieles einfacher sichtbar. Die Multilinarität der Abbildung opimg(\otimes) ist nämlich nichts anderes als ein "Distributivgesetz" und ein "gemischtes Assoziativgesetz", denn es gilt z.B. für den Fall abs(I)=2: (\a\.v+\a^-\.v^-)\otimes\ u=(\a\.v)\otimes\ u+(a^-\.v^-)\otimes\ u=\a(v\otimes\ u)+\a^-(v^-\otimes\ u). Analoges gilt für n "Faktoren". Ein Element im Bild der multilinearen Abbildung \tau, d.h. ein Element der Bauart v_1\otimes...\otimes\ v_n heißt auch \darkblue\ array(reiner Tensor)__\black||. Die reinen Tensoren bilden nach unserer Konstruktion des Tensorprodukts offensichtlich ein Erzeugendsystem des Tensorprodukts. Es ist aber nicht jedes Element ein reiner Tensor. Das einzige, was wir wissen, ist dass jedes Element sich als Linearkombination von reinen Tensoren schreiben lässt. Da wir Skalare aufgrund der Multilinearität "hineinziehen" können, können wir sogar sagen, dass sich jedes Element des Tensproprodukts als Summe reiner Tensoren schreiben lässt \(welche dann notwendigerweise keineswegs eindeutig ist\). Ist abs(I)=1, so erfüllt übrigens V_1 selbst die universelle Eigenschaft, denn wir hatten ja schon festgestellt, dass 1\-fach lineare Abbildungen die gewöhnlichen linearen Abbildungen sind. Es gilt also bigop(\otimes,V_i,i=1,1)=V_1. Man setzt weiterhin für leere Indexmengen bigop(\otimes,V_i,i\el\ I)=\IK, d.h. so wie "leere Produkte" per Definition den Wert 1 haben, sind "leere Tensorprodukte" gleich dem Grundkörper. Wir werden gleich sehen, dass diese Analogie tatsächlich gerechtfertigt ist, da \IK sich bei Tensorprodukten ebenso verhält wie die 1 bei Produkten reeller Zahlen.

Algebraische Eigenschaften des Tensorprodukts

Das Tensorprodukt von Vektorräumen hat trotzdem seiner skuril anmutenden Konstruktion einige sehr schöne algebraische Eigenschaften: \darkred\ Sei I eine Indexmenge mit I=J opimg(\union)^* K. Es seien \IK\-Vektorräume ((V_i))_array(i\el\ I) und U,V,W gegeben. Dann gibt es kanonische Isomorphismen \darkred\ll(a)Zwischen \IK\otimes\ V, V und V\otimes\IK, \darkred\ll(b)Zwischen (bigop(\otimes,V_j,j\el\ J))\otimes(bigop(\otimes,V_k,k\el\ K)) und bigop(\otimes,V_i,i\el\ I), \darkred\ll(c)Zwischen (U\otimes\ V)\otimes\ W, U\otimes\ V\otimes\ W und U\otimes(V\otimes\ W), \darkred\ll(d)Zwischen V\otimes\ U und U\otimes\ V sowie \darkred\ll(e)Zwischen (bigop(\oplus,V_i,i\el\ I))\otimes\ U und bigop(\oplus,(V_i\otimes\ U),i\el\ I) Bemerkungen__: Zunächst ein Wort über den Unterschied zwischen (U\otimes\ V)\otimes\ W und U\otimes\ V\otimes\ W sowie zwischen (bigop(\otimes,V_j,j\el\ J))\otimes(bigop(\otimes,V_k,k\el\ K)) und bigop(\otimes,V_i,i\el\ I). Man muss genau beachten, wofür das Symbol opimg(\otimes) hier verwendet wird. Einmal steht es für das Tensorprodukt zweier Vektorräume \(erst von U und V dann von U\otimes\ V und W\), d.h. die universelle Eigenschaft bezieht sich jeweils auf bi__lineare Abbildungen. Andererseits bezeichnet das opimg(\otimes) das Tensorprodukt der drei Vektorräume U,V und W, welches die universelle Eigenschaft für tri__lineare Abbildungen erfüllt. Analog sind im zweiten Fall einmal bilineare Abbildungen mit Definitionsbereich (bigop(\otimes,V_j,j\el\ J))\times(bigop(\otimes,V_k,k\el\ K)) zu betrachten und einmal multilineare Abbildungen mit Definitionsbereich produkt(V_i,i\el\ I)
Den folgenden Beweis sichtbar / unsichtbar machen.
\blue\ Beweis von \ref(a): Man sieht direkt, dass die Skalarmultiplikation als Abbildung \IK\cross\ V->V: (k,v)\mapsto\ kv \IK\-bilinear ist. Aus der universellen Eigenschaft des Tensorprodukts erhalten wir also einen Homomorphismus \phi:\IK\otimes\ V->V, der k\otimes\ v auf kv abbildet. Die Abbildung \psi:v\mapsto\ 1\otimes\ v ist umgekehrt eine lineare Abbildung V->\IK\otimes\ V. Man sieht sofort, dass \phi\circ\psi=id ist. Umkehrt ist aber auch (\psi\circ\phi)(k\otimes\ v)=1\otimes\ kv=k(1\otimes\ v)=k\otimes\ v. Da die reinen Tensoren ein Erzeugendsystem von \IK\otimes\ V sind, ist auch \psi\circ\phi=id. Völlig analog zeigt man V\otimes\IK~=V. \blue\ q.e.d. \blue\ Beweis von \ref(b): Zunächst ein paar Bezeichnungen: Es seien \tau_I, \tau_J und \tau_K die kanonischen multilinearen Abbildungen produkt(V_i,i\el\ I)->bigop(\otimes,V_i,i\el\ I), produkt(V_j,j\el\ J)->bigop(\otimes,V_j,j\el\ J) bzw. produkt(V_k,k\el\ K)->bigop(\otimes,V_k,k\el\ K) aus der Definition. Wir werden zeigen, dass bigop(\otimes,V_i,i\el\ I) die universelle Eigenschaft von (bigop(\otimes,V_j,j\el\ J))\otimes(bigop(\otimes,V_k,k\el\ K)) erfüllt und damit zu diesem isomorph ist. Offenbar ist die Isomorphie nach \ref(a) gegeben, wenn I, J und\/oder K leer ist. OBdA seien die drei also nichtleere Mengen. Für den Beweis definieren wir nun ein \tau: (bigop(\otimes,V_j,j\el\ J))\times(bigop(\otimes,V_k,k\el\ K))->bigop(\otimes,V_i,i\el\ I) durch \tau(sum(\tau_J(v_n),n=1,s),sum(\tau_K(v_m),m=1,t)):=sum(sum(\tau_I(v_n\union\ v_m),m=1,t),n=1,s) \(v_n und v_m sind aus mengentheoretischer Sicht Abbildungen J->union(V_j,j\el\ J) und K->union(V_k,k\el\ K) und Abbildungen sind Mengen geordneter Paare, also kann man durchaus von v_n\union\ v_m sprechen. Dies entspricht genau der zusammengesetzten Abbildung, die auf J gleich v_n und auf K gleich v_m ist.\) Da \tau_I, \tau_J und \tau_K multilinear sind, ist \tau wohldefiniert und ebenfalls bilinear. Davon kann man sich durch eine einfache aber mit viel Schreibarbeit verbundene Rechnung überzeugen. Sei nun \xi eine bilineare Abbildung (bigop(\otimes,V_j,j\el\ J))\times(bigop(\otimes,V_k,k\el\ K))->W. Dann definieren wir \h: bigop(\otimes,V_i,i\el\ I)->W durch: \h(sum(\tau_I(v_n),n=1,s)):=sum(\xi(\tau_J(v_n\.\|J), \tau_K(v_n\.\|K)),n=1,s) Durch ebenso einfache wie lange Rechnungen überzeugt man sich auch hier von Wohldefiniertheit und \IK\-Linearität von \h. Da die Elemente der Form \tau(v) ein Erzeugendsystem von bigop(\otimes,V_i,i\el\ I) bilden, ist \h auch eindeutig bestimmt. Außerdem gilt offensichtlich \xi=\h\circ\tau, also ist bigop(\otimes,V_i,i\el\ I) kanonisch isomorph zum Tensorprodukt (bigop(\otimes,V_j,j\el\ J))\otimes(bigop(\otimes,V_k,k\el\ K)). \blue\ q.e.d. Der kanonische Isormorphismus bildet \tau_J(v)\otimes\tau_K(v') auf \tau_I(v\union\ v') ab, d.h. im endlichen Fall wird (v_1\otimes...\otimes\ v_n)\otimes(v'_1\otimes...\otimes\ v'_m) auf v_1\otimes...\otimes\ v_n\otimes\ v'_1\otimes...\otimes\ v'_m abgebildet. \blue\ Beweis von \ref(c) und \ref(d): Mit V_1:=U, V_2:=U, V_3:=W folgern wir aus \ref(b), dass folgende Isomorphien existieren: V_1\otimes(V_2\otimes\ V_3)=(bigop(\otimes,V_i,i\el\ menge(1)))\otimes(bigop(\otimes,V_i,i\el\ menge(2,3))) \void~=bigop(\otimes,V_i,i\el\ menge(1,2,3))=V_1\otimes\ V_2\otimes\ V_3 \void~=(bigop(\otimes,V_i,i\el\ menge(1,2)))\otimes(bigop(\otimes,V_i,i\el\ menge(3)))=(V_1\otimes\ V_2)\otimes\ V_3 sowie V_1\otimes\ V_2 = (bigop(\otimes,V_i,i\el{1}))\otimes(bigop(\otimes,V_i,i\el{2})) ~= (bigop(\otimes,V_i,i\el{2}))\otimes(bigop(\otimes,V_i,i\el{1})) = V_2\otimes\ V_1 \blue\ q.e.d. Anmerkung__: Die Räume sind zwar kanonisch isomorph, aber bei weitem nicht gleich. I.A. sind auch die Vektoren v\otimes\ u und u\otimes\ v oder u\otimes(v\otimes\ w) und (u\otimes\ v)\otimes\ w alles andere als gleich, auch wenn sie durch den jeweiligen Isomorphismus aufeinander abgebildet werden. \blue\ Beweis von \ref(e) Dies machen wir wieder, indem wir die Eindeutigkeit ausnutzen. Wir werden also beweisen, dass bigop(\oplus,(V_i\otimes\ U),i\el\ I) die universelle Eigenschaft von (bigop(\oplus,V_i,i\el\ I))\otimes\ U erfüllt. Wir definieren dafür \t: (bigop(\oplus,V_i,i\el\ I))\times\ U->bigop(\oplus,(V_i\otimes\ U),i\el\ I) durch: t( ((v_i))_array(i\el\ I), u):=(v_i\otimes\ u)_array(i\el\ I) Wir bilden also einfach das komponentenweise Tensorprodukt. Man sieht sofort, dass \tau bilinear ist, da opimg(\otimes) bilinear ist. Ist nun eine bilineare Abbildung \xi: (bigop(\oplus,V_i,i\el\ I))\times\ U->Z gegeben, so definieren wir weiter \h: bigop(\oplus,(V_i\otimes\ U),i\el\ I)->Z durch: \h((sum(v_ij\otimes\ u_ij,j=0,n))_array(i\el\ I)):=sum(sum(\xi((\delta_ik*v_ij)_array(i\el\ I), u_kj),k\el\ I),j=0,n) \(\delta steht dabei wie üblich für das Kroneckerdelta\) Die auftretenden Summen sind alle wohldefiniert, da immer nur endlich viele Werte ungleich 0 sind, wenn I unendlich ist. Es ist ohne Probleme aber mit viel Schreibaufwand möglich, nachzuprüfen, dass \h wohldefiniert. Weiter sieht man, dass \h linear ist. Wie in \ref(c) ist natürlich \h eindeutig bestimmt, da die v_ij\otimes\ u_ij ein Erzeugendsystem von V_i\otimes\ U bilden. Es gilt \h(\t(((v_i))_array(i\el\ I),u))=\h((v_i\otimes\ u)_array(i\el\ I))=sum(\xi((\delta_ik*v_i)_array(i\el\ I),u),k\el\ I)=\xi(((v_i))_array(i\el\ I),u) also \xi=\h\circ\tau. Damit erfüllt bigop(\oplus,(V_i\otimes\ U),i\el\ I) die universelle Eigenschaft von (bigop(\oplus,V_i,i\el\ I))\otimes\ U und ist daher zu diesem kanonisch isomorph. \blue\ q.e.d. Wie man schon vermuten konnte, bildet der Isomorphismus also ((v_i))_array(i\el\ I)\otimes\ u auf (v_i\otimes\ u)_array(i\el\ I) ab.
Den vorherigen Beweis unsichtbar machen.
Diese letzten drei Eigenschaften, die als Assoziativ-, Kommutativ- und Distributivgesetz interpretiert werden können, sind u.A. Rechtfertigung für den Namen Tensorprodukt, den wir diesem immer noch recht fremd anmutenden Konstrukt gegeben haben. Eine weitere Rechtfertigung für diesen Namen gibt die Dimensionsformel und eine Art von "Nullteilerfreiheit": \darkred\ Es seien \IK\-Vektorräume V_1, ..., V_n gegeben und jeweils eine Basis (b||array(\small\ 1;i\normal))_array(i\el\ I_1), ..., (b||array(\small\ n;i\normal))_array(i\el\ I_n). Dann ist (b||array(\small\ 1;i_1\normal)\otimes...\otimes\ b||array(\small\ n;i_n\normal))_array((i_1, ..., i_n)\el\ I_1\times...\times\ I_n) eine Basis von V_1\otimes...\otimes\ V_n. Insbesondere ist dim_\IK\.(bigop(\otimes,V_i,i=1,n))=produkt(dim_\IK\.((V_i)),i=1,n). \darkred\ Weiterhin gilt v_1\otimes\ v_2\otimes...\otimes\ v_n=0 => v_1=0\or\ v_2=0\or...\or\ v_n=0.
Den folgenden Beweis sichtbar / unsichtbar machen.
\blue\ Beweis: Wir führen den Beweis für n=2, der Rest folgt induktiv aus dem Assoziativgesetz. Seien also ((b_i))_array(i\el\ I) und ((c_j))_array(j\el\ J) Basen von U bzw. V. Wir nutzen wieder einmal die universelle Eigenschaft, um den Beweis zu führen. Wie betrachten nämlich den Vektorraum \IK^((I\times\ J)). Hier sind wieder die Abbildungen [](i\,j):=(n,m)\mapsto\delta_in*\delta_jm=cases(1,(i,j)=(n,m);0,sonst) eine Basis des Raums. Die Abbildung \tau: (sum(\l_i*b_i,i\el\ I), sum(\m_j*c_j,j\el\ J))\mapsto\ sum(sum(\l_i*\m_j*[](i\,j),i\el\ I),j\el\ J) eine bilineare Abbildung U\times\ V->\IK^((I\times\ J)), wie man leicht überprüft oder direkt sieht. Ist nun eine bilineare Abbildung \xi: U\times\ V->Z gegeben, so können wir \h: \IK^((I\times\ J))->Z als lineare Fortsetzung von [](i\,j)\mapsto\ \xi(b_i,c_j) definieren. Dann ist \h natürlich linear und es gilt \xi=\h\circ\tau. Damit ist \IK^((I\times\ J))~=U\otimes\ V und der kanonische Isomorphismus bildet die [](i\,j) auf die b_i\otimes\ c_j ab. Also ist wie behauptet (b_i\otimes\ c_j)_array((i,j)\el\ I\times\ J) eine Basis von U\otimes\ V. Für die zweite Aussage beschränken wir uns auch auf den Fall n=2. Ist v\otimes\ w=0 mit Vektoren v=sum(\l_i*b_i,i\el\ I) und w=sum(\mue_j*c_j,j\el\ J), so gilt also sum(sum(\l_i*\mue_j*(b_i\otimes\ c_j),i\el\ I),j\el\ J)=0, woraus wegen der linearen Unabhängigkeit folgt: \forall\ i\el\ I, j\el\ J: \l_i*\mue_j=0 Wäre v!=0 und w!=0, so gäbe es aber ein i und ein j mit \l_i!=0 und \mue_j!=0 und damit \l_i*\mue_j!=0. Ein Widerspruch, es muss v=0 oder w=0 sein. \blue\ q.e.d.
Den vorherigen Beweis unsichtbar machen.
Daraus folgt z.B. sofort die sehr nützliche Eigenschaft, dass das Tensorprodukt lineare Unabhängigkeit erhält: Sind A_i\subseteq\ V_i jeweils linear unabhängig, so ist auch menge(a_1\otimes...\otimes a_n | a_i\el\ A_i) linear unabhängig. Das sieht man sofort, indem man jedes A_i zu einer Basis von V_i ergänzt und den obigen Satz anwendet. Neben diesen Eigenschaften, die zwar nützlich aber doch eher unspektakulär sind, gibt es weitere, sehr viel interessantere Dinge, die ein Tensorprodukt erfüllt: \darkred\ Sei \IL ein Erweiterungskörper von \IK. Diesen kann man in natürlicher Weise als \IK\-Vektorraum auffassen. Sei weiter V ein \IK\-Vektorraum, dann gilt: \darkred\ll(a)\IL opimg(\otimes)_\IK V ist ein \IL\-Vektorraum, wenn man \dsl(sum(\l_i\otimes\ v_i,i=1,n)):=sum((\dsl\l_i)\otimes\ v_i,i=1,n) für \dsl\el\IL definiert. \darkred\ll(b)Ist ((b_i))_array(i\el\ I) eine \IK\-Basis von V, so ist (1\otimes\ b_i)_array(i\el\ I) eine \IL\-Basis von \IL opimg(\otimes)_\IK V, insbesondere ist dim_\IL\.(\IL opimg(\otimes)_\IK V)=dim_\IK\.(V)
Den folgenden Beweis sichtbar / unsichtbar machen.
\blue\ Beweis: \ref(a) ist triviales Nachprüfen der Axiome, wer inzwischen ein bisschen Gefühl für die Bilinearität von opimg(\otimes) hat, der sieht der Definition direkt an, dass sie eine \IL\-Vektorraumstruktur liefert. \ref(b) ist ein bisschen Rechnerei. Dass (1\otimes\ b_i)_array(i\el\ I) ein \IL\-Erzeugendsystem ist, ist anhand der Definition der Skalarmultiplikation offensichtlich. Bleibt also die lineare Unabhängigkeit zu zeigen. Sei dazu ((c_j))_array(j\el\ J) eine \IK\-Basis von \IL. Wir wissen nach dem letzten Satz, dass (c_j\otimes\ b_i)_array((i,j)\el\ I\times\ J) eine \IK\-Basis von \IL\otimes\ V ist. Darauf werden wir die Aussage zurückführen. Seien \l_i\el\IL und \k_ij\el\IK mit sum(\l_i(1\otimes\ b_i),i\el\ I)=0 und \l_i=sum(\k_ij*c_j,j\el\ J) für alle i\el\ I. => 0=sum((sum(\k_ij*c_j,j\el\ J))\otimes\ b_i,i\el\ I)=sum(sum(\k_ij*(c_j\otimes\ b_i),j\el\ J),i\el\ I) => \forall(i,j)\el\ I\times\ J: \k_ij=0 => \forall\ i\el\ I: \l_i=0 \blue\ q.e.d.
Den vorherigen Beweis unsichtbar machen.
Grob gesprochen ist \IL\otimes\ V also der Vektorraum, der entsteht, wenn man statt Linearkombinationen der b_i mit Koeffizienten aus \IK einfach formal die Linearkombinationen der b_i mit Koeffizienten aus \IL betrachtet. Daher stammt auch der Name für diese Konstruktion: \darkblue\ Skalarkörpererweiterung__\black||. Ist L=\IC, K=\IR so spricht man auch von der \darkblue\ Komplexifizierung__\black||. Die Skalarkörpererweiterung ist mit algebraischen Konstrukten wie der direkten Summe und dem \IK\-Tensorprodukt von endlich vielen Vektorräumen verträglich, d.h. für \IK\-Vektorräume V_1, ..., V_n es gibt kanonische \IL\-Isomorphien: \ll(*)\IL opimg(\otimes)_\IK (V_1\oplus...\oplus\ V_n) ~= (\IL||opimg(\otimes)_\IK|V_1)\oplus...\oplus(\IL||opimg(\otimes)_\IK|V_n) \ll(*)\IL opimg(\otimes)_\IK (V_1\.opimg(\otimes)_\IK ... opimg(\otimes)_\IK|V_n) ~= (\IL||opimg(\otimes)_\IK|V_1) opimg(\otimes)_\IL ... opimg(\otimes)_\IL (\IL||opimg(\otimes)_\IK|V_n) Das heißt, es ist egal, ob man erst bei jedem einzelnen Vektorraum eine Skalarkörpererweiterung durchführt und dann die direkte Summe\/das Tensorprodukt der entstandenen \IL\-Vektorräume bildet, oder ob man erst die direkte Summe\/das Tensorprodukt der \IK\-Vektorräume bildet und anschließend eine Skalarkörpererweiterung durchführt, denn die entstehenden \IL\-Vektorräume sind zueinander \IL\-isomorph. Neben diesen treten auch andere erstaunliche Verträglichkeiten des Tensorprodukts zu Tage: \ll(*)Wenn dim_\IK\.(\IL) oder dim_\IK\.(V) endlich ist, ist die Skalarkörpererweiterung mit der Dualraum\-Bildung verträglich. Genauer: \IL|opimg(\otimes)_\IK|Hom_\IK\.(V,\IK) und Hom_\IL\.(\IL|opimg(\otimes)_\IK|V,\IL) sind kanonisch \IL\-isomorph. \ll(*)Sind V und W \IK\-Algebren, so kann man V\otimes\ W durch (v\otimes\ w)*(x\otimes\ y):=(vx\otimes\ wy) ebenfalls zu einer \IK\-Algebra machen. Sind V und W assoziativ\/kommutativ, so auch V\otimes\ W. \ll(*)Sind V und W normiert, so wird durch array(norm(sum(v_i\otimes\ w_i,i=1,n)),:=,inf,menge(sum(norm(x_j)*norm(y_j),j=1,m) | sum(v_i\otimes\ w_i,i=1,n)=sum(x_j\otimes\ y_j,j=1,m))) die so genannte projektive Norm auf V\otimes\ W induziert. \ll(*)Sind V und W normiert, so wird durch array(norm(sum(v_i\otimes\ w_i,i=1,n)),:=,sup,menge(abs(sum(\phi(v_i)\psi(w_i),i=1,n)) |\phi\el\ (V^\*)_1 und \psi\el\ (W^\*)_1 stetig)) wird eine zweite, die so genannte injektive Norm auf V\otimes\ W induziert. Für beide Normen ist norm(v\otimes\ w)=norm(v)*norm(w) und die Abbildung (v,w)\mapsto\ v\otimes\ w stetig. usw.

Das Tensorprodukt als Vereinheitlichung

Wir haben das abstrakte Konstrukt im vorangegangenen Abschnitt mit etwas Leben gefüllt, indem wir einige algebraische Eigenschaften aufgelistet haben und auf Skalarkörpererweiterungen eingegangen sind. Wir wollen nun etwas konkreter werden, indem wir verschiedene Interpretationen für das Tensorprodukt angeben. Es wird sich herausstellen, dass mit den Tensorprodukt "kanonische" Beschreibungen einiger Vektorräume möglich sind, d.h. ohne Rückgriff auf basisbezogene Darstellungen. \darkred\ Seien V_1, ..., V_n, V und W \IK\-Vektorräume. \darkred\ll(a)V^\*\otimes\ W lässt sich durch \nue\otimes\ w\mapsto(v\mapsto\nue(v)*w) in Hom_\IK\.(V,W) einbetten. Dies ist genau dann ein Isomorphismus, wenn V oder W endlich\-dimensional ist. \darkred\ll(b)Hom_\IK\.(V_1\otimes...\otimes\ V_n, W) ist isomorph zu ML(V_1, ..., V_n \; W). \darkred\ll(c)V||array(\small\*;1\normal)\otimes...\otimes\ V||array(\small\*;n\normal)\otimes\ W lässt sich durch \nue_1\otimes...\otimes\nue_n\otimes\ w\mapsto\pi mit \pi(v_1, ..., v_n):=\nue_1(v_1)*...*\nue_n(v_n)*w in ML(V_1, ..., V_n \; W) einbetten. Dies ist genau dann ein Isomorphismus, wenn höchstens einer der Vektorräume unendlich\-dimensional ist. \darkred\ll(d)Ist höchstens einer der Vektorräume V_1, V_2, ..., V_n unendlich\-dimensional, so gibt es einen kanonischen Isomorphismus (V_1\otimes...\otimes\ V_n)^\*~=V||array(\small\*;1\normal)\otimes...\otimes\ V||array(\small\*;n\normal)
Den folgenden Beweis sichtbar / unsichtbar machen.
\blue\ Beweis von \ref(a): Da (\nue,w)\mapsto(v\mapsto\nue(v)*w) bilinear in \nue und w ist, zeigt uns die universelle Eigenschaft des Tensorprodukts, dass es den behaupteten Homomorphismus gibt. Wir zeigen nun, dass der Kern der Abbildung {0} ist. Seien dazu \k_ij\el\IK, \nue_i\el\ V^\* und w_j\el\ W derart, dass das Element sum(sum(\k_ij*(\nue_i\otimes\ w_j),i=1,n),j=1,m) im Kern liegt. O.B.d.A. wählen wir die \nue_i und w_j dabei so, dass sie in V^\* bzw. W linear unabhängig sind, denn sonst könnten wir ja eine maximal linear unabhängige Teilmenge auswählen, die übrigen Vektoren als Linearkombination schreiben und mit Hilfe der Bilinearität von opimg(\otimes) entsprechend zusammenfassen. Es gilt nun also: \forall\ v\el\ V: sum(sum(\k_ij\.\nue_i(v)*w_j,i=1,n),j=1,m)=0 =>\forall\ v\el\ V: sum((sum(\k_ij*\nue_i(v),i=1,n))*w_j,j=1,m)=0 =>\forall\ v\el\ V, j=1...m: sum(\k_ij*\nue_i(v),i=1,n)=0 denn die w_j sind l.u. =>\forall\ j: sum(\k_ij*\nue_i,i=1,n)=0 =>\forall\ i,j: \k_ij=0 denn die \nue_i sind l.u. Damit ist also das Urbild sum(sum(\k_ij*(\nue_i\otimes\ w_j),i=1,n),j=1,m) gleich 0, der Kern ist also trivial. Wir behaupten, dass das Bild dieser Einbettung genau die Homomorphismen endlichen Ranges sind. Ist nämlich w_1, ..., w_m eine Basis von im(f), so können wir m Linearformen V->\IK definieren, indem wir f(v) als sum(\l_j*w_j,j=1,m) schreiben und f_j: V->\IK durch f_j(v)=\l_j definieren. Dann ist offenbar sum(f_j\otimes\ w_j,j=1,m) das Urbild von f unter der obigen Einbettung. Umgekehrt hat der durch sum(\nue_j\otimes\ w_j,j=1,m) definierte Homomorphismus das Bild \ ist also auch endlichen Ranges. Daraus folgt, dass die Einbettung surjektiv ist \(genau dann\), wenn V oder W endlich\-dimensional ist. \blue\ q.e.d. \blue\ Beweis von \ref(b): Hier ist nicht viel zu zeigen, es handelt sich mehr um eine Bemerkung als um einen Satz, denn die universelle Eigenschaft des Tensorprodukts liefert uns ja schon per Definition eine Abbildung, die jeder Multilinearform V_1\cross...\cross\ V_n->W einen bestimmten Homomorphismus V_1\otimes...\otimes\ V_n->W zuordnet. Was zu tun bleibt, ist, sich davon zu überzeugen, dass diese Abbildung linear und bijektiv ist. Die Linearität folgt aus der Eindeutigkeit dieser Zuordnung: Seien nämlich \a, \a^-\el\IK sowie \xi und \xi^- Multilinearformen V_1\cross...\cross\ V_n->W und seien \h_\xi bzw. \h_(\xi^-) die entsprechenden Homomorphismen V_1\otimes...\otimes\ V_n->W. Jetzt ist \a\h_\xi+\a^-\.\h_(\xi^-) ein Homomorphismus, der \v_1\otimes...\otimes\ v_n auf \a\xi(v_1, ..., v_n)+\a^-\.\xi^-(v_1, ..., v_n) abbildet. Da der Homomorphismus mit dieser Eigenschaft eindeutig bestimmt ist, ist \h_(\a\xi+\a^-\.\xi^-)=\a\h_\xi+\a^-\.\h_(\xi^-), die Abbildung \xi\mapsto\h_\xi ist also \IK\-linear. Eben, weil der Homomorphismus, der v_1\otimes...\otimes\ v_n auf 0 abbildet, eindeutig bestimmt ist, ist der Kern der Abbildung trivial. Die Surjektivität ist ebenfalls klar, denn da die Abbildung (v_1, ..., v_n)\mapsto\ v_1\otimes...\otimes\ v_n multilinear ist, ist die Verkettung mit einem beliebigen Homomorphismus V_1\otimes...\otimes\ V_n->W eine multlineare Abbildung V_1\times...\times\ V_n->W, die ein Urbild zu diesem Homomorphismus ist. \blue\ q.e.d. (Übrigens gilt diese Isomorphie natürlich auch für beliebig viele Vektorräume, man kann den Beweis genau für beliebige Indexmengen übernehmen) \blue\ Beweis von \ref(c): Wir wissen bereits, dass ML(V_1, ..., V_n \; W) zu Hom(V_1, Hom(V_2, ... Hom(V_n,W)...)) isomorph ist. Indem wir nun \ref(a) und diesen Isomorphismus anwenden, erhalten wir eine Einbettung von V||array(\small\*;1\normal)\otimes\ ML(V_2, ..., V_n \; W) in ML(V_1, ..., V_n \; W). Induktiv fortgesetzt ist also V||array(\small\*;1\normal)\otimes...\otimes\ V||array(\small\*;n\normal)\otimes\ W isomorph zu einem Unterraum von ML(V_1, ..., V_n \; W). Aus \ref(a) folgt weiterhin, dass diese Einbettung genau dann ein Isomorphismus ist, wenn höchstens einer der VRn unendlich\-dimensional ist. \blue\ q.e.d. \blue\ Beweis von \ref(d) \ref(d) folgt als einfache Konsequenz von \ref(c), denn (V_1\otimes...\otimes\ V_n)^\* ist der Raum der Homomorphismen V_1\otimes...\otimes\ V_n->\IK, also zum Raum der Multilinearformen V_1\times...\times\ V_n->\IK isomorph, welcher für endliche Dimensionen wiederrum zu V||array(\small\*;1\normal)\otimes...\otimes\ V||array(\small\*;n\normal) isomorph ist. \blue\ q.e.d.
Den vorherigen Beweis unsichtbar machen.
Durch diese Isomorphismen kann man also viele verschiedene Konzepte aus der linearen Algebra wie Homomorphismen und Multilinearformen in einem Konstrukt zusammenführen.

Matrizen und Tensoren

Dieser Satz ermöglicht kanonische Darstellungen bestimmter Vektorräume wie etwa End(V) mit dim(V)=n, für die man vorher nur nach Wahl einer Basis eine griffigere Darstellung als Matrizenraum \IK^(n\times\ n) zur Verfügung hatte. Jetzt hat man die kanonische Darstellung als V^\*\otimes\ V. Wir wollen uns nun den Zusammenhang zwischen Matrizen und Tensoren genauer angucken. Welcher Matrix entspricht denn der Tensor \nue\otimes\ w eigentlich, wenn wir damit eine lineare Abbildung V->W beschreiben wollen? Sei dazu v_1, ..., v_n eine Basis von V, v||array(\small\*;1\normal), ..., v||array(\small\*;n\normal) die entsprechende duale Basis von V^\* und sei w_1, ..., w_m eine Basis von W. Dann gibt es \lambda_i und \mue_j mit \nue=sum(\l_i*v||array(\small\*;i\normal),i=1,n) und w=sum(\mue_j*w_j,j=1,m). Dann ist also wegen der Bilinearität \nue\otimes\ w=sum(sum(\l_i*\mue_j*(v||array(\small\*;i\normal)\otimes\ w_j),i=1,n),j=1,m). Wendet man diese lineare Abbildung auf den Basisvektor v_k an, so erhält man also als Bild (\nue\otimes\ w)(v_k)=sum(sum(\l_i*\mue_j*(v||array(\small\*;i\normal)\otimes\ w_j)(v_k),i=1,n),j=1,m) =sum(sum(\l_i*\mue_j*v||array(\small\*;i\normal)(v_k)*w_j,i=1,n),j=1,m) =sum(sum(\l_i*\mue_j*\delta_ik*w_j,i=1,n),j=1,m) =sum(\l_k*\mue_j*w_j,j=1,m) Die lineare Abbildung \nue\otimes\ w hat also bezüglich der Basen v_1, ..., v_n und w_1, ..., w_m die Abbildungsmatrix matrix(\l_1\.\mue_1,\cdots,\l_n\.\mue_1;\vdots,\ddots,\vdots;\l_1\.\mue_m,\cdots,\l_n\.\mue_m) Und das ist nichts anderes als das Matrix\-Produkt (\mue_1, ..., \mue_m)^T*(\l_1, ..., \l_n). Im Fall V=W ergibt sich übrigens aus der Matrix\-Darstellung, dass die durch \nue\otimes\ v\mapsto\nue(v) induzierte lineare Abbildung genau die Spur des Endomorphismus' \nue\otimes\ v ist. Auch der Raum der Bilinearformen auf V konnte bisher nur nach Wahl einer Basis als \IK^(n\times\ n) darstellen, jetzt ist die kanonische Darstellung als V^\*\otimes\ V^\* bzw. (V\otimes\ V)^\* möglich. Wie sieht es hier mit der Matrixdarstellung eines Tensors aus? Welcher Matrix entspricht die Bilinearform V\cross\ W->\IK, die durch \nue\otimes\omega repräsentiert wird? Wenn \nue=sum(\l_i*v||array(\small\*;i\normal),i=1,n) und \omega=sum(\mue_j*w||array(\small\*;j\normal),j=1,m) ist, dann gilt: (\nue\otimes\omega)(v_k, w_l)=sum(sum(\l_i\.\mue_j*(v||array(\small\*;i\normal)\otimes\ w||array(\small\*;j\normal))(v_k, w_l),i=1,n),j=1,m) =sum(sum(\l_i\.\mue_j*v||array(\small\*;i\normal)(v_k)*w||array(\small\*;j\normal)(w_l),i=1,n),j=1,m) =sum(sum(\l_i\.\mue_j*\delta_ik*\delta_jl,i=1,n),j=1,m) =\l_k*\mue_l Somit hat die Bilinearform \nue\otimes\omega die Gramsche Matrix matrix(\l_1\.\mue_1,\cdots,\l_1\.\mue_n;\vdots,\ddots,\vdots;\l_n\.\mue_1,\cdots,\l_n\.\mue_m)=(\l_1, ..., \l_n)^T*(\mue_1, ...,\mue_m) bezüglich der Basen v_1, ..., v_n und w_1, ..., w_m. Im Zusammenhang mit Tensorprodukten und Matrizen wird auch oft vom \darkblue\ Kronecker\-Produkt__\black gesprochen, welches A\el\IK^(n\times\ m) und B\el\IK^(p\times\ q) die Matrix A\otimes\ B:=matrix(a_11*B, a_12*B, \cdots, a_1m*B;a_21*B, a_22*B, \cdots, a_2m*B;\vdots,\vdots,\ddots,\vdots;a_n1*B,a_n2*B,\cdots,a_nm*B)\el\IK^(np\times\ mq) zuordnet. Nicht umsonst ist hier das Symbol für das Tensorprodukt verwendet worden, wie wir jetzt sehen werden: \darkred\ Gegeben seien endlich\-dimensionale \IK\-Vektorräume \darkred\ U mit Basis ((u_i))_(i=1..n), V mit Basis ((v_i))_(i=1..m), \darkred\ W mit Basis ((w_i))_(i=1..p), X mit Basis ((x_i))_(i=1..q). \darkred\ Es ist dann Hom_\IK\.(U,V)\otimes\ Hom_\IK\.(W,X) isomorph zu Hom_\IK\.(U\otimes\ W,V\otimes\ X) durch f\otimes\ g\mapsto(u\otimes\ w\mapsto\ f(u)\otimes\ g(w)). \darkred\ Sind M\el\IK^(m\times\ n) und N\el\IK^(q\times\ p) die Matrizen von f und g bezüglich der jeweiligen Basen, so ist das Kronecker\-Produkt M\otimes\ N die Matrix von f\otimes\ g bezüglich der Basen \darkred\ (u_1\otimes\ w_1, ..., u_n\otimes\ w_1, ..., u_1\otimes\ w_p, ..., u_n\otimes\ w_p) und \darkred\ (v_1\otimes\ x_1, ..., v_m\otimes\ x_1, ..., v_1\otimes\ x_q, ..., v_m\otimes\ x_q).
Den folgenden Beweis sichtbar / unsichtbar machen.
\blue\ Beweis: Nach dem oben Bewiesenen gilt: Hom_\IK\.(U,V)\otimes\ Hom_\IK\.(W,X)~=(U^\*\otimes V)\otimes(W^\*\otimes\ X) \void~=(U^\*\otimes\ W^\*)\otimes(V\otimes\ X) \void~=(U\otimes\ W)^\*\otimes(V\otimes\ X) \void~=Hom_\IK\.(U\otimes\ W,V\otimes\ X) wobei alle Homomorphismen kanonisch sind. Man kann sich auch direkt davon überzeugen, dass die oben angegebenen Identifizierungen f\otimes\ g auf (sum(\mue_i\otimes\ v_i,i=1,n))\otimes((sum(\omega_j\otimes\ x_j,j=1,m)))=sum(sum((\mue_i\otimes\ v_i)\otimes(\omega_j\otimes\ x_j),j=1,m),i=1,n) das auf sum(sum((\mue_i\otimes\omega_j)\otimes(v_i\otimes\ x_j),j=1,m),i=1,n) das wiederum auf sum(sum((u\otimes\ w\mapsto\mue_i(u)\.\omega_j(w))\otimes(v_i\otimes\ x_j),j=1,m),i=1,n) und das auf sum(sum(u\otimes\ w\mapsto \mue_i(u)\.\omega_j(w)*v_i\otimes\ x_j,j=1,m),i=1,n) =u\otimes\ w \mapsto sum(sum((\mue_i(u)*v_i)\otimes(\omega_j(v)*x_j),j=1,m),i=1,n) =u\otimes\ w \mapsto f(u)\otimes\ g(w) abbilden. Es ist f(u_i)=sum(m_ki*v_k,k=1,m) und g(w_j)=sum(n_lj*x_l,l=1,q), also (f\otimes\ g)(u_i\otimes\ w_j)=f(u_i)\otimes\ g(w_j)=sum(sum(m_ki*n_lj*(v_k\otimes\ x_l),l=1,q),k=1,m). Somit ist wie behauptet M\otimes\ N die Darstellungsmatrix von f\otimes\ g bezüglich der entsprechend angeordneten Basis. \blue\ q.e.d.
Den vorherigen Beweis unsichtbar machen.
Das Kronecker-Produkt von Matrizen neben dieser Eigenschaft viele weitere strukturerhaltende Eigenschaften, so z.B. \ll(*)\det(M\otimes\ N)=\det(M)^n*\det(N)^m \ll(*)tr(M\otimes\ N)=tr(M)*tr(N) \ll(*)rg(M\otimes\ N)=rg(M)*rg(N) und diverse andere (siehe z.B. Kroneckerprodukt bei wikipedia für noch mehr Interessantes).

Abschluss

So, das soll es bis hierhin gewesen sein, obwohl es noch viel, viel mehr über Tensoren und Tensorprodukte zu sagen gäbe. So bin ich z.B. noch überhaupt nicht auf die symmetrische und die äußere Algebra eines Vektorraums eingegangen. Die Anwendungen der Tensoren in der Physik, die das gesamte Konzept eigentlich motiviert haben, sind bisher auch nicht erwähnt worden. Es ist also wirklich noch genug Stoff da, trotzdem reicht es fürs Erste, denke ich. Ich hoffe, der Artikel hat nicht nur mir etwas mehr Klarheit auf diesem Gebiet verschafft. \IL|opimg(\otimes)_\IK|mfg~=Goc^\*|opimg(\otimes)_\IL|kel
\(\endgroup\)
Get link to this article Get link to this article  Printable version Printer-friendly version -  Choose language     Kommentare zeigen Comments  
pdfFür diesen Artikel gibt es keine pdf-Datei


Arbeitsgruppe Alexandria Dieser Artikel ist im Verzeichnis der Arbeitsgruppe Alexandria eingetragen:
: Lineare Algebra :: Interessierte Studenten :: Tensoren :: Multilineare Algebra :: Reine Mathematik :
Multilineare Algebra [von Gockel]  
Einführung in die multilineare Algebra mit einer ausführlichen Besprechung von multilinearen Abbildungen und Tensorprodukten.
[Die Arbeitsgruppe Alexandria katalogisiert die Artikel auf dem Matheplaneten]

 
 
Aufrufzähler 23110
 
Aufrufstatistik des Artikels
Insgesamt 3084 externe Seitenaufrufe zwischen 2012.01 und 2021.11 [Anzeigen]
DomainAnzahlProz
https://google.com150.5%0.5 %
https://matheplanet.com120.4%0.4 %
https://google.de96231.2%31.2 %
https://www.ecosia.org110.4%0.4 %
https://google.ch10%0 %
https://www.bing.com301%1 %
http://google.de170155.2%55.2 %
http://www.stud.uni-hannover.de1193.9%3.9 %
http://google.li902.9%2.9 %
http://google.hr391.3%1.3 %
https://duckduckgo.com170.6%0.6 %
http://int.search.tb.ask.com100.3%0.3 %
http://google.com110.4%0.4 %
https://www.startpage.com40.1%0.1 %
http://suche.t-online.de40.1%0.1 %
http://www.onlinemathe.de20.1%0.1 %
http://www.bing.com200.6%0.6 %
http://search.snapdo.com10%0 %
http://de.search.yahoo.com50.2%0.2 %
http://start.funmoods.com10%0 %
http://www1.search-results.com10%0 %
http://webchat.quakenet.org10%0 %
http://search.conduit.com20.1%0.1 %
http://us.yhs4.search.yahoo.com10%0 %
http://google.at10%0 %
http://www.search.ask.com20.1%0.1 %
http://ecosia.org40.1%0.1 %
http://www.bibsonomy.org10%0 %
https://bbb06.elearning.uni-hannover.de10%0 %
http://172.22.0.2:191010%0 %
http://suche.gmx.net10%0 %
http://de.ask.com10%0 %
http://de.yhs4.search.yahoo.com20.1%0.1 %
http://int.search.myway.com10%0 %
http://search.v9.com10%0 %
https://metager.de10%0 %
http://search.icq.com30.1%0.1 %
http://www.searchmobileonline.com10%0 %
https://startpage.com10%0 %
http://search.babylon.com10%0 %
http://m.suche.gmx.net10%0 %

Aufrufer der letzten 5 Tage im Einzelnen
Insgesamt 19 Aufrufe in den letzten 5 Tagen. [Anzeigen]
DatumAufrufer-URL
2021.11.03-2021.11.30 (15x)https://google.com/
2021.11.06-2021.11.27 (4x)viewtopic.php?topic=150146

Häufige Aufrufer in früheren Monaten
Insgesamt 2967 häufige Aufrufer [Anzeigen]
DatumAufrufer-URL
2020-2021 (900x)https://google.de/
2013-2018 (407x)http://google.de/url?sa=t&rct=j&q=
2013-2014 (138x)http://google.de/url?sa=t&rct=j&q=multilineare algebra
201207-07 (125x)http://google.de/url?sa=t&source=web&cd=1&ved=0CFEQFjAA
2012-2014 (119x)http://www.stud.uni-hannover.de/~fmodler/linearealgebra2.html
201206-06 (91x)http://google.de/url?sa=t&rct=j&q=zeige, dass die abbildung eine n-fache alte...
201205-05 (90x)http://google.li/url?sa=t&rct=j&q=multilineare algebra
201204-04 (82x)http://google.de/url?sa=t&rct=j&q=zusammenhang k-linear multilinear
201406-06 (78x)http://google.de/url?sa=t&source=web&cd=3&ved=0CCEQFjAC
201201-01 (69x)http://google.de/url?sa=t&rct=j&q=wie zeigt man multilineare abbildung
201306-06 (65x)http://google.de/url?sa=t&rct=j&q=zusammenhang multilinear linear
201304-04 (60x)http://google.de/url?sa=t&rct=j&q=welche abbildung ist multilinear
201301-01 (54x)http://google.de/url?sa=t&rct=j&q=zeige dass folgende abbildungen multilinear...
201305-05 (52x)http://google.de/url?sa=t&rct=j&q=zeige kreuzprodukt multiniear
2020-2021 (50x)https://google.de
201412-12 (47x)http://google.de/url?sa=t&source=web&cd=1&ved=0CBwQFjAA
201203-03 (45x)http://google.de/url?sa=t&rct=j&q=was ist eine multilineare funktion
201307-07 (44x)http://google.de/url?sa=t&rct=j&q=was ist multilinear
201407-07 (39x)http://google.de/url?sa=t&source=web&cd=3&ved=0CDEQFjAC
201209-09 (39x)http://google.hr/url?sa=t&rct=j&q=
201210-10 (32x)http://google.de/url?sa=t&rct=j&q=tensorprodukt dummies
201212-12 (30x)http://google.de/url?sa=t&rct=j&q=trilineare abbildung spatprodukt
201211-11 (30x)http://google.de/url?sa=t&rct=j&q=universelle eigenschaft verständlich erk...
201202-02 (28x)http://google.de/url?sa=t&rct=j&q=zeige das funktion bilinear beispiele linea...
201302-02 (28x)http://google.de/url?sa=t&rct=j&q=Zeigen Sie, dass p1, p2, p3, p4 linear unab...
2013-2014 (27x)http://google.de/url?sa=t&rct=j&q=reiner tensor
201404-04 (23x)http://google.de/url?sa=t&rct=j&q=was ist eine multilineare abbildung
201310-10 (21x)http://google.de/url?sa=t&rct=j&q=die ableitung multilineare abbildung
2020-2021 (21x)https://www.bing.com/
201311-11 (21x)http://google.de/url?sa=t&rct=j&q=tensor produkt distributiv
201208-08 (20x)http://google.de/url?sa=t&rct=j&q=zeigen sie dass durch eine alternierende mu...
2020-2021 (15x)https://duckduckgo.com/
201409-09 (12x)http://google.de/url?sa=t&source=web&cd=5&ved=0CCsQFjAE
2020-2021 (10x)https://www.ecosia.org/
2016-2017 (8x)http://int.search.tb.ask.com/search/GGmain.jhtml?searchfor=Matheplanet Tensor...
201601-01 (7x)http://google.de/url?sa=t&source=web&cd=9&rct=j&q=bilineare abbildung beispie...
201605-05 (7x)http://google.de/url?sa=t&source=web&cd=3&rct=j&q=nicht reiner tensor
201803-06 (7x)http://google.com/
202005-05 (5x)https://www.bing.com/search?q=multilinearformen raum
201511-11 (5x)http://google.de/url?sa=t&source=web&cd=4&rct=j&q=multilineare algebra
201804-04 (4x)http://google.com/url?sa=t&rct=j&q=
201602-02 (4x)http://google.de/url?sa=t&source=web&cd=3&rct=j&q=multilineare funktion
202101-06 (4x)https://www.startpage.com/
201604-04 (4x)http://google.de/url?sa=t&source=web&cd=6&rct=j&q=multilinearität Linearit...

[Top of page]

"Mathematik: Multilineare Algebra" | 16 Comments
The authors of the comments are responsible for the content.

Re: Multilineare Algebra
von: Wauzi am: Di. 27. Februar 2007 22:56:29
\(\begingroup\)Hallo Gockel, wie gut, daß es Professoren gibt, die schlechte Vorlesungen halten. So kommen wir hier wenigstens in den Genuß solcher hervorragender Artikel. Dieser hier ist nicht nur ausgesprochen schön gemacht, sondern auch für mich noch verständlich, obwohl es eine halbe Ewigkeit her ist, so etwas gelernt zu haben. Ich freue mich schon auf Deine zukünftigen, schlechten Professoren und Deine daraus resultierenden tollen Artikel. Gruß Wauzi\(\endgroup\)
 

Re: Multilineare Algebra
von: Martin_Infinite am: Mi. 28. Februar 2007 01:55:10
\(\begingroup\)Hi Gockel, entschuldige, aber die Einleitung wirkt einfach nur arrogant. Das wirkt pauschal so, als ob dein Prof alles falsch macht, und du alles richtig. Und vor allem, dass du den Stoff weniger verwirrend darstellst, was du m.E. nicht geschafft hast. Formeln, die zwar richtig sind, aber überladen und unübersichtlich, tun ihren erheblichen Anteil daran (sowas macht kein "vernünftiger Mathematiker" ;-)). Davon abgesehen wird das Wesen des Tensorproduktes hier nicht richtig dargestellt. Die universelle Eigenschaft des Tensorproduktes ist viel wichtiger als die Konstruktion selbst, und nicht nur irgendeine Eigenschaft, die man mal zeigt und hin und wieder mal benutzen könnte. Man könnte sagen: die universelle Eigenschaft IST das Tensorprodukt. Sie ist zugleich Motivation (Klassifikation multilinearer Abbildungen mit linearen Abbildungen) und Grundlage für das Arbeiten damit. Selbst dass die reinen Tensoren ein Erzeugendensystem bilden, kann man sehr leicht ohne die Konstruktion einsehen. Die konsequente Verwendung der universellen Eigenschaft ist nicht nur abstrakter Blödsinn, sondern auch ungemein praktisch beim Verständnis des Tensorproduktes. Dann wirkt es auch nie weder "skuril" noch "fremd anmutend". Bevor ich auf die Beispiele eingehe, hier eine mögliche Formulierung der universellen Eigenschaft: Es gibt eine in W natürliche \(!\) bijektive Abbildung Hom(bigop(\otimes,V_i,i \in I),W) ~= ML(( V_i )_(i \in I),W) Dass diese sogar linear ist, hast du im Artikel gezeigt. Im Abschnitt "Algebraische Eigenschaften des Tensorprodukts" lässt du bei den Beweisen von b) und e) teilweise Rechnungen weg, weil sie viel Schreibarbeit seien. Das kann man sich alles ersparen: b) Es gibt nach der universellen Eigenschaft einen natürlichen Isomorphismus (i stehe für Indexmenge I, j für Indexmenge J, k für Indexmenge K) Hom(bigop(\otimes,V_j) \otimes bigop(\otimes,V_k),W)~=ML((V_j),ML((V_k),W)) Letzteres ist aber natürlich zu ML(V_i,W) isomorph. Das zeigt bigop(\otimes,V_j) \otimes bigop(\otimes,V_k) ~= bigop(\otimes,V_i) e\) Hier wird neben der universellen Eigenschaft des Tensorproduktes die der direkten Summe verwendet. Das liefert Hom((bigop(\oplus,V_i)) \otimes U,W) opimg(~=) Hom(bigop(\oplus,V_i),Hom(U,W)) opimg(~=) prod(Hom(V_i,Hom(U,W))) opimg(~=) prod(Hom(V_i \otimes U,W)) opimg(~=) Hom(bigop(\oplus,(V_i \otimes U)),W) und damit die Behauptung (bigop(\oplus,V_i)) \otimes U ~= bigop(\oplus,(V_i \otimes U)) Die Dimensionsformel kann man sich auch einfacher mit den bereits gezeigten Eigenschaften klarmachen: Für d = dim(V) , e = dim(W) gilt V ~= K^(d) , W ~= K^(e), also V \otimes W ~= K^(d) \otimes W = (bigop(\oplus,K,d)) \otimes W ~= bigop(\oplus,(K \otimes W),d) ~= bigop(\oplus,W,d) ~= W^(d) ~= K^((d \times e)) => dim(V \otimes W) = d*e. Man kann die Isomorphismen zurückverfolgen, sodass sich auch die explizite Aussage mit den Basen ergibt. Die "Nullteilerfreiheit" v_1 \otimes ... \otimes v_n = 0 => v_i = 0 für ein i muss dann nicht mehr extra bewiesen werden, weil dies aus deiner nachträglichen Bemerkung über linear unabhängigen Mengen folgt, also durch Erweiterung der v_i zu Basen. Du hast in deinem Artikel auch unendliche Tensorprodukte (d.h. die Indexmenge ist unendlich) betrachtet. Darüber habe ich ja im Forum schon einige Fragen gestellt, und es ist bisher unklar, ob sie wirklich in der genannten Form Sinn machen, obwohl die universelle Eigenschaft ja erfüllt ist. Siehe hier. Hast du da noch mehr nachgeforscht, das solchen Tensorprodukten eine Daseinsberechtigung gibt? 😉 //edit: die frage werde ich mir selbst bald in einem artikel beantworten ;)\(\endgroup\)
 

Re: Multilineare Algebra
von: Stefan72 am: Mi. 28. Februar 2007 15:15:28
\(\begingroup\)Hallo Gockel, vielen herzlichen Dank für deine unglaubliche Mühe und dein riesiges Engagement!! 😄 Der Artikel-Award ist dir, zumindestens was meine Stimme angeht, auf Jahre sicher. 😉 (Den Rest habe ich gelöscht, da mein Beitrag nach Meinung der Administration nicht zum Thema passte. Es handelte sich um (sachliche und sanfte) Kritik am Vorwort, so wie bei meinem Vorredner und meiner Folgerednerin auch.) Liebe Grüße Stefan\(\endgroup\)
 

Re: Multilineare Algebra
von: Irrlicht am: Mi. 28. Februar 2007 20:27:47
\(\begingroup\)@Martin Ich höre neben mir gerade: "Das ist Algebra. Aber Gockel macht doch lineare Algebra, das bedeutet: zu Fuß gehen." Aber wen interessiert, was ich sage. Ich bestreite ja auch manchmal so einige Dinge. 😛 Zu Gockels Artikel schreib ich nichts, da ich ihn nur grob überflogen habe. Die Einleitung finde ich ebenfalls mindestens unglücklich. Gruß, Alex\(\endgroup\)
 

Re: Multilineare Algebra
von: matroid am: Mi. 28. Februar 2007 21:59:51
\(\begingroup\)Liebe Freunde, ich finde die Einleitung gut, und die gebotene Motivation für den Artikel höchst nachvollziehbar. Viele Dinge nimmt sich jemand vor, weil er es besser machen will, als er es bisher gefunden hat. Ich finde das nicht arrogant. Ich finde auch nicht gut, daß einige Beiträge hier nicht zum Thema gehören. @gockel: Die Idee, die Beweise ein-/ausblenden zu können, finde ich sehr gut. Gruß Matroid\(\endgroup\)
 

Re: Multilineare Algebra
von: Stefan72 am: Mi. 28. Februar 2007 22:19:47
\(\begingroup\)Hallo Matroid, klar, das (es besser darstellen zu wollen als in der Vorlesung oder in gängigen Lehrbüchern) ist eine sehr gute Motivation für einen Artikel, dem wird hier auch keiner widersprechen und dem hat auch keiner widersprochen. Aber der Ton ist es, der die Musik macht, und der Ton wirkt (nur im Vorwort!) etwas schief. Ich denke schon, dass man das kritisieren darf. Aber das ist auch nur eine Randnotiz. Viel wichtiger ist das äußerst lobenswerte Anliegen an sich, die multilineare Algebra einer breiteren Masse verständlich und nachvollziehbar nahezubringen. Und das ist, wie ich nun besser beurteilen kann, nachdem ich ca. die Hälfte ausführlicher gelesen habe, sehr gut gelungen, also nochmals meinen ganz herzlichen Dank an Gockel. 😄 Welche Beiträge passen denn deiner Meinung nach nicht zum Thema? Liebe Grüße Stefan \(\endgroup\)
 

Re: Multilineare Algebra
von: matroid am: Mi. 28. Februar 2007 22:27:56
\(\begingroup\)@Stefan72: Deiner? Ich finde den Ton gut. \(\endgroup\)
 

Re: Multilineare Algebra
von: matroid am: Mi. 28. Februar 2007 22:28:48
\(\begingroup\)Meiner auch.\(\endgroup\)
 

Re: Multilineare Algebra
von: Stefan72 am: Mi. 28. Februar 2007 22:35:56
\(\begingroup\)Hmmh, das verstehe ich nicht, um ehrlich zu sein. Man kann doch dem Autor des Artikels für sein Engagement denken, oder nicht? Hat das nichts mit dem Thema zu tun? Das wird doch ansonsten auch ständig gemacht. Und darf man die Wortwahl nicht kritisieren? Naja, aber wenn das so gesehen wird, dann editiere ich meinen Kommentar eben.\(\endgroup\)
 

Re: Multilineare Algebra
von: Martin_Infinite am: Do. 14. Juni 2007 01:49:32
\(\begingroup\)hat jemand einen tipp, wie man zeigen kann, dass die beiden von gockel genannten (halb)normen auf dem tensorprodukt wirklich positiv-definit sind?\(\endgroup\)
 

Re: Multilineare Algebra
von: Gockel am: Do. 14. Juni 2007 16:17:32
\(\begingroup\)Hallo Maddin. Dieser Link/dieses Buch sollte dir da vielleicht helfen, das ist meine Quelle in Bezug auf diese beiden Aussagen: Klick mich mfg Gockel.\(\endgroup\)
 

Re: Multilineare Algebra
von: Martin_Infinite am: Do. 14. Juni 2007 22:24:39
\(\begingroup\)alles klar, danke 😄\(\endgroup\)
 

Re: Multilineare Algebra
von: dax_riggs am: Mo. 10. September 2007 03:39:21
\(\begingroup\)Vorgetragen bekomme ich den Stoff zwar erst im nächsten Semester, trotzdem konnte ich dem Artikel gut folgen und fast alles verstehen. Wirklich gut geschrieben, danke! Zur Einleitung: Gockel beschreibt doch nur seine Motivation für diesen Artikel. Sein Lehrer scheints wohl einfach nicht ganz so drauf zu haben multilineare Algebra zu unterrichten (falsche Rechnungen). Also nicht zuu ernst nehmen.\(\endgroup\)
 

Re: Multilineare Algebra
von: Ex_Mitglied_40174 am: Di. 19. April 2011 18:23:08
\(\begingroup\)Und was ist mit Anwendungsbeispielen (z. B. aus der Physik)? Wie ist der Zusammenhang zwischen dem Begriff des Tensors, den die Physiker verwenden und dem Tensorbegriff der Mathematiker? Der Artikel ist sehr detaillastig; da hätte man die wesentlichen Ideen schon irgendwie besser hervorheben müssen. Aber trotzdem ein sehr guter Artikel! \(\endgroup\)
 

Re: Multilineare Algebra
von: Martin_Infinite am: Mi. 26. September 2012 11:40:06
\(\begingroup\)Hier noch eine Vereinfachung des Beweises für $V^* \otimes W \cong \hom_{\mathrm{fin}}(V,W)$. Beide Seiten kommutierten offensichtlich mit gerichteten Vereinigungen in $W$, daher ist oBdA $\dim(W)<\infty$. Sie kommutieren aber auch mit endlichen direkten Summen, daher kann man sogar $W=K$ annehmen. Dann ist die Behauptung aber trivial mit $V^* \otimes K \cong V^* = \hom(V,K) = \hom_{\mathrm{fin}}(V,K)$.\(\endgroup\)
 

Re: Multilineare Algebra
von: didubadap am: Fr. 22. August 2014 23:36:22
\(\begingroup\)Toller Artikel, ich finde lediglich die Wahl von Buchstaben mit Strichen oben als Variablen etwas unglücklich, da man dies leicht mit komplexer Konjugation verwechseln kann. Besonnders bei Billinearformen hat man schnell die Assoziation mit Sesquilinearformen. Es ist zwar klar was gemeint ist, da explizit darsteht, dass es um einen Allgemeinen Körper geht, trotzdem finde ich, dass man lieber andere Buchstaben nehmen sollte.\(\endgroup\)
 

 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2021 by Matroids Matheplanet
This web site was originally made with PHP-Nuke, a former web portal system written in PHP that seems no longer to be maintained nor supported. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]