Tools
Stern Mathematik: Koordinatenfreier Entwicklungssatz von Laplace
Released by matroid on Do. 17. September 2020 19:18:39 [Statistics] [Comments]
Written by Triceratops - 955 x read [Outline] Printable version Printer-friendly version -  Choose language   
Mathematik

\(\begingroup\)

Koordinatenfreier Entwicklungssatz von Laplace

Der Entwicklungssatz von Laplace aus der linearen Algebra wird üblicherweise als eine Aussage über Matrizen formuliert und durch eine direkte Rechnung bewiesen. In diesem Artikel formulieren und beweisen wir eine koordinatenfreie Version dieses Satzes, die zwar nicht neu, aber relativ unbekannt ist. Sie handelt entsprechend von linearen Abbildungen. Das wesentliche technische Hilfsmittel sind äußere Potenzen.


Es gibt kaum eine Theorie, die elementarer ist [als die lineare Algebra], trotz der Tatsache, dass Generationen von Professoren und Lehrbuchautoren die Einfachheit dieser Theorie durch höchst unangebrachte Rechnungen mit Matrizen verdunkelt haben. — J. Dieudonné, Grundzüge der modernen Analysis, 1960

Darstellungsmatrizen von äußeren Potenzen

Sei $V$ ein $n$-dimensionaler $K$-Vektorraum. Für $0 \leq k \leq n$ setzen wir hier die $k$-te äußere Potenz $\Lambda^k(V)$ als bekannt voraus. Sie besitzt eine universelle multilineare alternierende Abbildung $V^k \longrightarrow \Lambda^k(V)$, die mit $(v_1,\dotsc,v_k) \mapsto v_1 \wedge \cdots \wedge v_k$ bezeichnet wird. Wenn $(b_i)_{1 \leq i \leq n}$ eine Basis von $V$ ist, dann ist $(b_{i_1} \wedge \cdots \wedge b_{i_k})_{\large 1 \leq i_1 < \cdots < i_k \leq n}$ eine Basis von $\Lambda^k(V)$ mit $\binom{n}{k}$ Elementen. Für $k=n$ hat die Basis nur ein Element, nämlich $b_1 \wedge \cdots \wedge b_n$. Sei $f : V \longrightarrow V$ eine lineare Abbildung. Diese induziert für alle $0 \leq k \leq n$ eine lineare Abbildung auf der äußeren Potenz $\Lambda^k(f) : \Lambda^k(V) \longrightarrow \Lambda^k(V)$, die durch $v_1 \wedge \cdots \wedge v_k \mapsto f(v_1) \wedge \cdots \wedge f(v_k)$ charakterisiert ist. Mit den zuvor genannten Basen fragen wir uns nun: Was ist die Darstellungsmatrix von $\Lambda^k(f)$ in Abhängigkeit von der Darstellungsmatrix von $f$? Nun das können wir straight forward ausrechnen: Wähle $a_{i,j} \in K$ mit $\displaystyle f(b_j) = \sum_{1 \leq i \leq n} a_{i,j} \cdot b_i,$ das heißt $A = (a_{i,j})_{1 \leq i,j \leq n}$ ist die Darstellungsmatrix von $f$. Dann gilt für $1 \leq j_1 < \cdots < j_k \leq n$: $\begin{align*} \Lambda^k(f)(b_{j_1} \wedge \cdots \wedge b_{j_k}) &= f(b_{j_1}) \wedge \cdots \wedge f(b_{j_k}) \\ & = \sum_{1 \leq i_1 \leq n} \cdots \sum_{1 \leq i_k \leq n} a_{i_1,j_1} \cdots a_{i_k,j_k} \cdot b_{i_1} \wedge \cdots \wedge b_{i_k}. \end{align*}$ Die $i_1,\dotsc,i_k$ können wir als paarweise verschieden annehmen, weil ansonsten $b_{i_1} \wedge \cdots \wedge b_{i_k}$ sowieso verschwindet. Dann ordnen wir die $i_1,\dotsc,i_k$ der Größe nach an. Genauer gesagt gibt es genau eine Permutation $\sigma \in \Sigma_k$ mit $\displaystyle i_{\sigma^{-1}(1)} < \cdots < i_{\sigma^{-1}(k)}.$ Die Summe oben können wir daher umschreiben zu $\begin{align*} &= \sum_{1 \leq i_1 < \cdots < i_k \leq n} \, \sum_{\sigma \in \Sigma_k} a_{i_{\sigma(1)},j_1} \cdots a_{i_{\sigma(k)},j_k} \cdot b_{i_{\sigma(1)}} \wedge \cdots \wedge b_{i_{\sigma(k)}} \\ &= \sum_{1 \leq i_1 < \cdots < i_k \leq n} \, \left( \sum_{\sigma \in \Sigma_k} \mathrm{sgn}(\sigma) \cdot a_{i_{\sigma(1)},j_1} \cdots a_{i_{\sigma(k)},j_k} \right) \cdot b_{i_1} \wedge \cdots \wedge b_{i_k} \\ & = \sum_{1 \leq i_1 < \cdots < i_k \leq n} \det(A[i_1,\dotsc,i_k;j_1,\dotsc,j_k]) \cdot b_{i_1} \wedge \cdots \wedge b_{i_k}, \end{align*}$ wobei die $k \times k$-Matrix $A[i_1,\dotsc,i_k;j_1,\dotsc,j_k]$ aus $A$ entsteht, indem man sich nur die Spalten $j_1,\dotsc,j_k$ und nur die Zeilen $i_1,\dotsc,i_k$ anschaut. Die letzte Gleichung ist dann eine Anwendung der Leibniz-Regel. Die Determinante einer solchen $k \times k$-Untermatrix von $A$ nennt man auch einen $k$-Minor von $A$. Wir haben also bewiesen: Satz 1. Wenn $A$ die Darstellungsmatrix von $f$ ist, dann besteht die Darstellungsmatrix von $\Lambda^k(f)$ aus allen $k$-Minoren von $A$. Gehen wir Spezialfälle durch: Für $k=0$ ist die Darstellungsmatrix die $1 \times 1$-Einheitsmatrix, die auch $\Lambda^0(f) = \mathrm{id}_K$ darstellt. Für $k=1$ ist die Darstellungsmatrix einfach wieder $A$, die auch $\Lambda^1(f) = f$ darstellt. Für $k=n$ ist die Darstellungsmatrix die $1 \times 1$-Matrix bestehend aus $\det(A)$, die folglich $\Lambda^n(f) : \Lambda^n(V) \longrightarrow \Lambda^n(V)$ darstellt (dies könnte als koordinatenfreie Definition von $\det(f)$ dienen, siehe hier). Für $k=n-1$ haben die Indizes die Form $1 < \cdots < i-1 < i+1 < \cdots < n$ für eindeutige $1 \leq i \leq n$, die wir entsprechend in $i$ umbenennen. In diesem Fall kürzen wir die Untermatrix, die durch Streichen der Spalte $j$ und der Zeile $i$ entsteht, mit $A[i;j]$ ab (abuse of notation). Die Darstellungsmatrix von $\Lambda^{n-1}(f)$ ist also $(\det(A[i;j]))_{1 \leq i,j \leq n}$.

Eine perfekte Paarung

Sei $0 \leq k \leq n$. Wenn $X$ eine Menge mit $n$ Elementen ist und $\binom{X}{k}$ die Menge der $k$-elementigen Teilmengen von $X$ bezeichnet, dann hat man eine Bijektion $\binom{X}{k} \longrightarrow \binom{X}{n-k}$, $T \mapsto X \setminus T$. In diesem Abschnitt formulieren wir eine linear-algebraische Version dieser Bijektion1. Sei $V$ ein $K$-Vektorraum der Dimension $n$. Mit der universellen Eigenschaft der äußeren Potenz lässt sich eine natürliche lineare Abbildung $\nabla : \Lambda^k(V) \longrightarrow \mathrm{Hom}(\Lambda^{n-k}(V),\Lambda^n(V))$ definieren durch $(1) \qquad \nabla(v_1 \wedge \cdots \wedge v_k)(w_1 \wedge \cdots \wedge w_{n-k}) := w_1 \wedge \cdots \wedge w_{n-k} \wedge v_1 \wedge \cdots \wedge v_k$. Dazu muss man sich klarmachen, dass der Ausdruck $w_1 \wedge \cdots \wedge w_{n-k} \wedge v_1 \wedge \cdots \wedge v_k$ multilinear und alternierend jeweils von $v_1,\dotsc,v_k$ und von $w_1,\dotsc,w_{n-k}$ abhängt, was klar ist. Satz 2. $\nabla$ ist ein Isomorphismus2. Wir können das mit Basen testen: Sei $(b_1,\dotsc,b_n)$ eine Basis von $V$. Dann erhalten wir die Basis $(b_{i_1} \wedge \cdots \wedge b_{i_k})$ von $\Lambda^k(V)$, indiziert durch alle $i_1 < \cdots < i_k$. Nun ist $\nabla(b_{i_1} \wedge \cdots \wedge b_{i_k})$ per Definition die lineare Abbildung $\Lambda^{n-k}(V) \longrightarrow \Lambda^n(V)$ mit $w_1 \wedge \cdots \wedge w_{n-k} \mapsto w_1 \wedge \cdots \wedge w_{n-k} \wedge b_{i_1} \wedge \cdots \wedge b_{i_k}$. Werten wir diese lineare Abbildung auf einem typischen Basisvektor $b_{j_1} \wedge \cdots \wedge b_{j_{n-k}}$ aus, so erhalten wir $0$ wenn $j_p=i_q$ für gewisse $p,q$. Ansonsten ist $\{j_1,\dotsc,j_{n-k}\}$ im Komplement von $\{i_1,\dotsc,i_k\}$ in $\{1,\dotsc,n\}$ enthalten, aus Kardinalitätsgründen sogar gleich dem Komplement. Das Bild ist dann $b_{j_1} \wedge \cdots \wedge b_{j_{n-k}} \wedge b_{i_1} \wedge \cdots \wedge b_{i_k} = \pm b_1 \wedge \cdots \wedge b_n$. Bis auf Vorzeichen ist $\nabla(b_{i_1} \wedge \cdots \wedge b_{i_k})$ also der duale Basisvektor $(b_{j_1} \wedge \cdots \wedge b_{j_{n-k}})^*$. (Den Begriff der dualen Basis können wir verwenden, indem wir hier den Isomorphismus $K \longrightarrow \Lambda^n(V)$, $1 \mapsto b_1 \wedge \cdots \wedge b_n$ anwenden, also letztlich im Dualraum von $\Lambda^{n-k}(V)$ arbeiten.) Also bildet $\nabla$ eine Basis auf eine Basis ab und ist damit ein Isomorphismus. $\checkmark$ 1Tatsächlich kann man mit einem allgemeineren Körperbegriff auch den Körper mit einem Element $\IF_1$ definieren, und lineare Algebra über $\IF_1$ ist dann dasselbe wie Kombinatorik. Der Isomorphismus $\nabla$ ist für $K=\IF_1$ tatsächlich identisch mit der zuvor genannten Bijektion! 2Wir werden das nicht brauchen, aber man kann dieses Resultat auch so formulieren, dass die zu $\nabla$ gehörige lineare Abbildung $\Lambda^{n-k}(V) \otimes \Lambda^k(V) \longrightarrow \Lambda^n(V)$ (die Teil der Multiplikation der äußeren Algebra $\Lambda(V)$ ist) eine perfekte Paarung ist.

Die Adjunkte eines Endomorphismus

Wir verwenden gleich folgende Notation: Für eine lineare Abbildung $f : V \longrightarrow V'$ und einen Vektorraum $W$ bezeichne $f^* : \mathrm{Hom}(V',W) \longrightarrow \mathrm{Hom}(V,W)$ die lineare Abbildung, die durch $g \mapsto g \circ f$ definiert ist. Für $ W=K$ kennt man diese Notation bereits für die zu $f$ duale lineare Abbildung $f^* : V'^* \longrightarrow V^*$. Sei $V$ ein $n$-dimensionaler $K$-Vektorraum und $f : V \longrightarrow V$ ein Endomorphismus. Wir definieren die Adjunkte $\mathrm{adj}(f) : V \longrightarrow V$ mit Hilfe des Isomorphismus $\nabla : V \longrightarrow \mathrm{Hom}(\Lambda^{n-1}(V),\Lambda^n(V))$ (Satz 2 mit $k=1$) durch $(2) \qquad \mathrm{adj}(f) := \nabla^{-1} \circ \Lambda^{n-1}(f)^* \circ \nabla.$ Das bedeutet also, dass das Diagramm ${\qquad\require{AMScd} \begin{CD} V @>{\nabla}>> \mathrm{Hom}(\Lambda^{n-1}(V),\Lambda^n(V)) \\ @V{\mathrm{adj}(f)}VV @VV{\Lambda^{n-1}(f)^*}V \\ V @>>{\nabla}> \mathrm{Hom}(\Lambda^{n-1}(V),\Lambda^n(V)) \end{CD}}$ kommutieren soll3. Aus dieser Definition ergeben sich sofort die Rechenregeln $(3) \qquad \mathrm{adj}(\mathrm{id}_V) = \mathrm{id}_V,$ $(4) \qquad \mathrm{adj}(f \circ g ) = \mathrm{adj}(g) \circ \mathrm{adj}(f).$ Schreiben wir die Definition einmal aus: Für $v \in V$ ist $\mathrm{adj}(f)(v) \in V$ durch $\nabla(\mathrm{adj}(f)(v)) = \Lambda^{n-1}(f)^*(\nabla(v))$, also durch $(5) \qquad f(w_1) \wedge \cdots \wedge f(w_{n-1}) \wedge v = w_1 \wedge \cdots \wedge w_{n-1} \wedge \mathrm{adj}(f)(v)$ für alle $w_1 \wedge \cdots \wedge w_{n-1} \in \Lambda^{n-1}(V)$ gekennzeichnet. Zum Beispiel ist offenbar für $\lambda \in K$ $(6) \qquad \mathrm{adj}(\lambda \cdot \mathrm{id}_V) = \lambda^{n-1} \cdot \mathrm{id}_V.$ Wie sieht die Darstellungsmatrix von $\mathrm{adj}(f)$ bezüglich einer Basis $(b_1,\dotsc,b_n)$ von $V$ aus? Sei $A = (a_{ij})$ die Darstellungsmatrix von $f$, also $f(b_j) = \sum_i a_{ij} b_i$. Die $c_i := b_1 \wedge \cdots \wedge \widehat{b_i} \wedge \cdots \wedge b_n$ (der Hut über $b_i$ bedeutet, dass das $b_i$ weggelassen wird) bilden eine Basis von $\Lambda^{n-1}(V)$. Der zu $c_i$ duale Basisvektor $c_i^* \in \mathrm{Hom}(\Lambda^{n-1}(V),\Lambda^n(V))$ ist durch $c_i^*(c_i) := b_1 \wedge \cdots \wedge b_n$ und $c_i^*(c_j) = 0$ für $j \neq i$ definiert. Daraus folgt $\nabla(b_j) = (-1)^{j-1} c_j^*,$ denn $\nabla(b_j)(c_i) = b_j \wedge b_1 \wedge \cdots \wedge \widehat{b_i} \wedge \cdots \wedge b_n$ verschwindet für $j \neq i$ und ist andernfalls $(-1)^{j-1} b_1 \wedge \cdots \wedge b_n$ wegen der $j-1$ nötigen Vertauschungen. Wegen Satz 1 gilt $\Lambda^{n-1}(f)(c_j) = \sum_i \det(A[i;j]) c_i.$ Die Darstellungsmatrix von $\Lambda^{n-1}(f)^*$ bezüglich der dualen Basis $(c_i^*)$ ist folglich die transponierte Matrix, das heißt $\Lambda^{n-1}(f)^*(c_j^*) = \sum_i \det(A[j;i]) c_i^*.$ Mit diesen Resultaten berechnen wir nun: $\begin{align*} \mathrm{adj}(f)(b_j) &= \nabla^{-1}\left(\Lambda^{n-1}(f)^*(\nabla(b_j)))\right) \\ &= (-1)^{j-1} \nabla^{-1}\left(\Lambda^{n-1}(f)^*(c_j^*)\right) \\ &= (-1)^{j-1} \nabla^{-1}\left( {\sum}_i \det(A[j;i]) c_i^* \right) \\ &= (-1)^{j-1} \nabla^{-1}\left( {\sum}_i \det(A[j;i]) (-1)^{i-1} \nabla(b_i) \right) \\ &= {\sum}_i (-1)^{i+j} \det(A[j;i]) b_i. \end{align*}$ Definieren wir also die Adjunkte von $A$ durch die Matrix $(7) \qquad \mathrm{adj}(A) := ((-1)^{i+j} \det(A[j;i]))_{i,j},$ so haben wir damit bewiesen: Satz 3. Wenn $A$ die Darstellungsmatrix von $f$ bezüglich einer Basis ist, dann ist $\mathrm{adj}(A)$ die Darstellungsmatrix von $\mathrm{adj}(f)$ bezüglich dieser Basis. Jetzt sind ein paar Worte fällig, warum wir uns den ganzen Aufwand mit den äußeren Potenzen überhaupt gemacht haben. Hätte man nicht direkt die Definition der Adjunkten einer Matrix auf lineare Abbildungen verallgemeinern können, indem man eine Basis wählt usw.? Das Problem bei diesem Vorgehen ist, dass nicht klar ist, warum die entstehende lineare Abbildung unabhängig von der Basis ist. Mit dieser Definition wäre übrigens auch die Rechenregel $\mathrm{adj}(f \circ g ) = \mathrm{adj}(g) \circ \mathrm{adj}(f)$ einen Beweis wert, wohingegen sie bei unserer Definititon eine Trivialität ist. Ganz ähnliche Bemerkungen gelten auch für die Definition von $\det(f) \in K$ mittels $\Lambda^n(f) = \det(f) \cdot \mathrm{id}_{\Lambda^n(V)}$. Wir brauchen noch folgende Rechenregel: Für die zu $f : V \longrightarrow V$ duale lineare Abbildung $f^* : V^* \longrightarrow V^*$ gilt $(8) \qquad \mathrm{adj}(f^*)=\mathrm{adj}(f)^*.$ Es ist möglich, allerdings auch sehr aufwändig und nicht so einfach, dies aus unserer Definition von $\mathrm{adj}(f)$ abzuleiten. Man verwendet dabei eine Reihe von natürlichen Isomorphismen, insbesondere den natürlichen Isomorphismus $\vartheta : \Lambda^k(V^*) \longrightarrow \Lambda^k(V)^*$ (für $k=n-1$ und $k=n$), der durch eine Art Leibniz-Formel $\displaystyle\vartheta(\alpha_1 \wedge \cdots \wedge \alpha_k)(v_1 \wedge \cdots \wedge v_k) := \sum_{\sigma \in \Sigma_k} \mathrm{sgn}(\sigma) \prod_{i=1}^{k} \alpha_i(v_{\sigma(i)})$ definiert ist. Es ist einfacher (auch wenn das nicht wirklich dem Motiv dieses Artikels folgt), die Gleichung über die Darstellungsmatrizen zu beweisen. Fixiere also eine Basis von $V$, die zugehörige duale Basis von $V^*$ und sei $A$ die Darstellungsmatrix von $f$. Die Darstellungsmatrix von $f^*$ ist dann die transponierte Matrix $A^T$. Wir müssen also lediglich $(8') \qquad \mathrm{adj}(A^T) = \mathrm{adj}(A)^T$ zeigen, und das rechnet man direkt nach: $\begin{align*} \mathrm{adj}(A^T)_{i,j} &= (-1)^{i+j} \det(A^T[j;i]) \\ &= (-1)^{i+j} \det((A[i;j])^T) \\ &= (-1)^{j+i} \det(A[i;j]) \\ &= \mathrm{adj}(A)_{j,i} \\ &= (\mathrm{adj}(A)^T)_{i,j}. \qquad \checkmark \end{align*}$ 3Äquivalent: $\mathrm{adj}(f)$ ist die zu $\Lambda^{n-1}(f)$ adjungierte lineare Abbildung bezüglich der perfekten Paarung $\Lambda^{n-1}(V) \otimes V \longrightarrow \Lambda^n(V)$.

Der Entwicklungssatz von Laplace

Satz 4. Sei $V$ ein endlich-dimensionaler Vektorraum. Sei $f : V \longrightarrow V$ eine lineare Abbildung. Für die Adjunkte $\mathrm{adj}(f) :V \longrightarrow V$ gilt dann $(9) \qquad \mathrm{det}(f) \cdot \mathrm{id}_V = \mathrm{adj}(f) \circ f = f \circ \mathrm{adj}(f).$ Insbesondere gilt, wenn $f$ invertierbar ist, $f^{-1} = \det(f)^{-1} \cdot \mathrm{adj}(f)$. Um diesen Satz zu beweisen, kann man ihn mit Hilfe von Darstellungsmatrizen (die wir ja für $\mathrm{adj}(f)$ bestimmt haben) auf eine Aussage über Matrizen reduzieren, deren Beweis man in jedem Buch zur linearen Algebra und auch bei Wikipedia findet. Es handelt sich um eine Rechnung mit der Leibniz-Formel für die Determinante und insbesondere mit Permutationen. Wir geben nun einen anderen Beweis, der ohne Matrizen auskommt und direkt mit unserer Definition der linearen Abbildung $\mathrm{adj}(f)$ arbeitet. Ich finde ihn daher sehr elegant. Beweis des Satzes. Wir beweisen zunächst $\mathrm{adj}(f) \circ f = \det(f) \cdot \mathrm{id}_V$. Für $v \in V$ ist $\mathrm{adj}(f)(f(v)) \in V$ charakterisiert durch $w_1 \wedge \cdots \wedge w_{n-1} \wedge \mathrm{adj}(f)(f(v)) = f(w_1) \wedge \cdots \wedge f(w_{n-1}) \wedge f(v)$ für alle $w_1 \wedge \cdots \wedge w_{n-1} \in \Lambda^{n-1}(V)$. Wegen $\Lambda^n(f) = \det(f) \cdot \mathrm{id}_{\Lambda^n(V)}$ ist die rechte Seite aber gleich $\det(f) \cdot (w_1 \wedge \cdots \wedge w_{n-1} \wedge v) = w_1 \wedge \cdots \wedge w_{n-1} \wedge (\det(f) \cdot v).$ Dies zeigt bereits $\mathrm{adj}(f)(f(v)) = \det(f) \cdot v$. Zum Beweis von $f \circ \mathrm{adj}(f) = \det(f) \cdot \mathrm{id}_V$ wenden wir die bereits bewiesene Gleichung auf die duale lineare Abbildung $f^* : V^* \longrightarrow V^*$ an. Außerdem verwenden wir die Rechenregeln $\mathrm{adj}(f^*)=\mathrm{adj}(f)^*$ und $\det(f^*)=\det(f)$. Es folgt $\begin{align*} (\det(f) \cdot \mathrm{id}_V)^* &= \det(f) \cdot \mathrm{id}_{V^*} \\ &= \det(f^*) \cdot \mathrm{id}_{V^*} \\ &= \mathrm{adj}(f^*) \circ f^* \\ &= \mathrm{adj}(f)^* \circ f^* \\ &= (f \circ \mathrm{adj}(f))^*. \end{align*}$ Damit ist $\det(f) \cdot \mathrm{id}_V = f \circ \mathrm{adj}(f)$. $\checkmark$

Reduktion auf invertierbare Endomorphismen

Wir haben die zweite Gleichung im Entwicklungssatz, also $f \circ \mathrm{adj}(f) = \det(f) \cdot \mathrm{id}_V$, relativ indirekt bewiesen. Wir stellen hier noch einen anderen Beweis dafür vor, der zwar auch indirekt ist, aber mit einer wiederverwendbaren Methode arbeitet. Wir setzen dafür etwas kommutative Algebra (kommutative Ringe, Moduln, Tensorprodukte) voraus. Wir beobachten zunächst, dass sich alles, was bisher gesagt worden ist, unmittelbar auf endlich-erzeugte freie Moduln $V$ über einem kommutativen Ring $R$ (anstelle eines Körpers) und Endomorphismen $f : V \longrightarrow V$ zwischen ihnen verallgemeinern lässt. Diese Moduln haben per Definition eine endliche Basis, und mehr haben wir nicht wirklich benutzt. Wir werden den Entwicklungssatz auch in dieser Allgemeinheit zeigen. Der Punkt ist nämlich, dass wir gleich einen Reduktionsschritt verwenden, der diese Verallgemeinerung von Körper auf kommutative Ringe notwendig macht. Der Beweis für $\mathrm{adj}(f) \circ f = \det(f) \cdot \mathrm{id}_V$ geht wie vorher. Nun machen wir die entscheidende Beobachtung: Wenn $f$ invertierbar wäre, dann besagt diese Gleichung, dass $\mathrm{adj}(f)$ bis auf einen Skalar zu $f$ invers ist. Aber dann kommutiert $\mathrm{adj}(f)$ notwendigerweise mit $f$! Also gilt auch $f \circ \mathrm{adj}(f) = \det(f) \cdot \mathrm{id}_V$. Wir können zwar nicht erwarten, dass $f$ immer invertierbar ist, aber man kann sich mit einem Trick auf diesen Fall zurückziehen. Das Vorgehen deckt sich mit dem aus meinem Artikel Ausdehnung von algebraischen Gleichungen, ist aber etwas koordinatenfreier und an lineare Abbildungen angepasst. Sei $V$ ein endlich-erzeugter freier $R$-Modul. Für einen Homomorphismus kommutativer Ringe $\varphi : R \longrightarrow S$ betrachte das Tensorprodukt $S \otimes_R V$. Das ist ein endlich-erzeugter freier $S$-Modul mit demselben Rang wie $V$, denn $S \otimes_R R^n \cong S^n$. Jeder Endomorphismus $f : V \longrightarrow V$ induziert einen Endomorphismus $S \otimes_R f : S \otimes_R V \longrightarrow S \otimes_R V$, $s \otimes v \mapsto s \otimes f(v)$. Wenn $(b_1,\dotsc,b_n)$ eine Basis von $V$ ist, dann ist $(1 \otimes b_1,\dotsc,1 \otimes b_n)$ eine Basis von $S \otimes_R V$, und die Darstellungsmatrix von $S \otimes_R f$ über $S$ entsteht einfach aus der Darstellungsmatrix von $f$ über $R$, indem wir auf jeden Eintrag den Homomorphismus $\varphi$ anwenden. Daran erkennt man: $(10) \qquad \det(S \otimes_R f) = \varphi(\det(f))$ $(11) \qquad \mathrm{adj}(S \otimes_R f ) = S \otimes_R \mathrm{adj}(f)$ Das sieht man aber auch abstrakt ohne Matrizen. Zum Beispiel prüft man nach, dass $S \otimes_R \mathrm{adj}(f)$ die definierende Gleichung (5) für $\mathrm{adj}(S \otimes_R f)$ erfüllt. Mit Matrizen sieht man außerdem: $(12) \qquad $ Ist $ R \longrightarrow S$ injektiv, so gilt $S \otimes_R f = S \otimes_R g \implies f=g$. Das entscheidende Resultat ist nun: Satz 5. Sei $f : V \longrightarrow V$ ein Endomorphismus eines endlich-erzeugten freien $R$-Moduls $V$. Dann gibt es einen Ringhomomorphismus $R' \longrightarrow R$, einen endlich-erzeugten freien $R'$-Modul $V'$ und einen Endomorphismus $f' : V' \longrightarrow V'$ mit einem Isomorphismus $R \otimes_{R'} V' \cong V$, unter dem $R \otimes_{R'} f'$ zu $f$ korrespondiert, sodass gilt: $R'$ ist ein Integritätsring und $Q(R') \otimes_{R'} f'$ ist invertierbar. Beweis. Wähle eine Basis von $V$ und stelle $f$ diesbezüglich durch eine $n \times n$-Matrix $(a_{ij})$ dar. Diese hat also Koeffizienten in $R$. Setze $R':=\IZ[X_{11},\dotsc,X_{1n},\dotsc,X_{nn}]$, der Polynomring in $n^2$ Unbestimmten. Über $R'$ haben wir die universelle Matrix $(X_{ij})$ und damit eine $R'$-lineare Abbildung $f' : R'^n \longrightarrow R'^n$. Ihre Determinante ist $\sum_{\sigma \in \Sigma_n} \mathrm{sgn}(\sigma) X_{1,\sigma(1)} \cdots X_{n,\sigma(n)}$. Sie ist offensichtlich $\neq 0$, weil wir hier im Polynomring sind. Betrachte den Homomorphismus $\pi : R' \longrightarrow R$, $\pi(X_{ij}) := a_{ij}$. Die universelle Matrix wird dabei auf $(a_{ij})$ abgebildet, sodass $R \otimes_{R'} f' \cong f$. Sei $j : R' \longrightarrow Q(R')$ die Einbettung. Dann ist $\det(Q(R') \otimes_{R'} f') = j(\det(f')) \in Q(R')$ invertierbar, also $Q(R') \otimes_{R'} f'$ invertierbar. $\checkmark$ Beweis des Entwicklungssatzes. Schreibe $f \cong R \otimes_{R'} f'$ wie im Satz. Weil wir den Entwicklungssatz für invertierbare Endomorphismen bereits bewiesen haben, gilt er also für $Q(R') \otimes_{R'} f'$. Wegen (10),(11),(12) gilt er dann auch für $f'$. Wegen (10),(11) gilt er dann auch für $R \otimes_{R'} f' \cong f$. $\checkmark$ Danke an ligning fürs Korrekturlesen.

\(\endgroup\)
Get link to this article Get link to this article  Printable version Printer-friendly version -  Choose language     Kommentare zeigen Comments  
pdfFür diesen Artikel gibt es keine pdf-Datei


Write a comment

Arbeitsgruppe Alexandria Dieser Artikel ist nicht im Verzeichnis der Arbeitsgruppe Alexandria eingetragen.
[Die Arbeitsgruppe Alexandria katalogisiert die Artikel auf dem Matheplaneten]
 


 
 
Aufrufzähler 955
 
Aufrufstatistik des Artikels
Insgesamt 47 externe Seitenaufrufe zwischen 2021.01 und 2023.05 [Anzeigen]
DomainAnzahlProz
https://google.de2042.6%42.6 %
https://google.com1634%34 %
https://www.bing.com48.5%8.5 %
https://yandex.ru36.4%6.4 %
https://www.ecosia.org24.3%4.3 %
https://google.pl12.1%2.1 %
https://www.startpage.com12.1%2.1 %

Häufige Aufrufer in früheren Monaten
Insgesamt 34 häufige Aufrufer [Anzeigen]
DatumAufrufer-URL
2021-2022 (18x)https://google.de/
2021-2023 (16x)https://google.com/


[Top of page]



"Stern Mathematik: Koordinatenfreier Entwicklungssatz von Laplace" | 6 Comments
The authors of the comments are responsible for the content.

Re: Koordinatenfreier Entwicklungssatz von Laplace
von: Kezer am: Sa. 19. September 2020 12:57:22
\(\begingroup\)Ein schöner Artikel, der zeigt, wie "Linear Algebra Done Right" aussieht (und jedoch nicht im Buch "Linear Algebra Done Right" von Axler behandelt wird). Die Punkte (3), (4) erinnern an eine funktorielle Eigenschaft. Kann man es noch weiter verallgemeinern, dass es ein Funktor, z.B. $\mathbf{Vect}_{k}^{\mathrm{op}} \to \mathbf{Vect}_k$, wird? (Punkte (3), (4) sagen ja zumindest aus, dass $\operatorname{adj}$ ein kontravarianter Funktor ist, wenn man in $\mathbf{Vect}_k$ die Morphismen auf Endomorphismen einschränkt.) Edit: Wie mir Triceratops mitgeteilt hat, ist es eine nette Übung zu zeigen, dass ein solcher Funktor nicht existiert. Da es tatsächlich ein schnelles Argument ist, möchte ich es den weiteren Lesern auch als Übungsaufgabe hinterlassen. :-p Übung [nach Triceratops]. Zeige, dass es keinen Funktor $\mathbf{Vect}^{\mathrm{op}} \to \mathbf{Vect}$ gibt, der auf Objekten die Identität ist und Endomorphismen $f:V→V$ auf $\operatorname{adj}(f):V→V$ abbildet.\(\endgroup\)
 

Was sagt Theorem 2.7 im Artikel von Conrad aus
von: helmetzer am: Mi. 23. September 2020 03:18:03
\(\begingroup\)Ich beziehe mich auf den zitierten Artikel von Conrad. Was sagt also Theorem 2.7 aus, das über die Definition 2.1 hinausgeht? 2.1: Symmetrisch heißt: die Funktion ändert sich nicht, wenn ich die Argumente beliebig vertausche. 2.7: ich kann die Argumente beliebig vertauschen (egal, wie ich sie vorher nummeriert habe) und die Funktion ändert sich nicht.\(\endgroup\)
 

Re: Koordinatenfreier Entwicklungssatz von Laplace
von: Dune am: Do. 24. September 2020 12:47:47
\(\begingroup\)Sehr spannender Artikel! Mich würde jetzt vor allem interessieren, wie gut sich die Theorie von charakteristischen Polynomen koordinatenfrei formulieren lässt und wie ein koordinatenfreier Beweis von Cayley-Hamilton aussehen würde... Wie wäre es mit einer Fortsetzung...? 😄\(\endgroup\)
 

Re: Koordinatenfreier Entwicklungssatz von Laplace
von: Triceratops am: Do. 24. September 2020 21:58:30
\(\begingroup\)@helmetzer: Die Frage betrifft zwar nicht meinen Artikel und wäre daher im Forum besser aufgehoben, aber ich beantworte sie einmal trotzdem. Theorem 2.7 (was eher ein Lemma ist) besagt, dass ich die Symmetrie/Antisymmetrie/Alterniertheit einer Abbildung auch erkennen kann, indem ich sie umparametrisiere. Also eine Abbildung $f : M^k \to N$ ist genau dann symmetrisch/antisymmetrisch/alternierend, wenn $f \circ M^{\tau} : M^k \to N$ es ist, wobei $\tau \in S_k$ beliebig und ich mit $M^{\tau}$ die induzierte Bijektion $M^k \to M^k$ bezeichne. Zwar ist das ziemlich einfach zu beweisen, aber die Aussage geht definitiv über die Definition hinaus, wenn $\tau \neq \mathrm{id}$. Und im antisymmetrischen Fall braucht man auch die Rechenregel $\mathrm{sgn}(\sigma \tau) = \mathrm{sgn}(\sigma) \mathrm{sgn}(\tau)$, wie der Beweis zeigt. (Genauer gesagt bräuchte man das nicht einmal, wenn man die Charakterisierung über Vertauschungen von zwei Einträgen verwendet.)\(\endgroup\)
 

Re: Koordinatenfreier Entwicklungssatz von Laplace
von: Triceratops am: Do. 24. September 2020 22:10:14
\(\begingroup\)@Dune: Sei $V$ ein endlich-erzeugter freier $R$-Modul. Sei $f : V \to V$ ein Endomorphismus. Wir machen eine Skalarerweiterung $f[T] : V[T] \to V[T]$ bezüglich $R \hookrightarrow R[T]$. Das charakteristische Polynom von $f : V \to V$ ist $\chi(f) := \det(T \cdot \mathrm{id} - f[T]) \in R[T]$. Offenbar gilt $\chi(f \oplus g)=\chi(f) \cdot \chi(g)$ für $f : V \to V$, $g : W \to W$, und für die Multiplikation $\lambda : V \to V$ mit einem Skalar $\lambda \in R$ gilt $\chi(f)=(T-\lambda)^{\dim(V)}$. Daher kennt man $\chi(f)$ für diagonaliserbare $f$. Für $\phi : R \to S$ gilt offenbar $\chi(S \otimes_R f) = \phi(\chi(f))$. Der Satz von Cayley-Hamilton besagt $\chi(f)(f)=0$. Wenn $f$ diagonalisierbar ist, sieht man das nun direkt. Der allgemeine Fall lässt sich darauf zurückführen, wie im Artikel über die Ausdehnung von algebraischen Gleichungen erklärt. Man kann sich nämlich erst wieder auf den Fall beschränken, dass $R$ ein algebraisch abgeschlossener Körper ist, und dann zeigen, dass die diagonalisierbaren Endomorphismen Zariski-dicht in $\mathrm{End}(V)$ liegen. Es gibt aber auch einen sehr schönen Beweis, der mit dem Entwicklungssatz von Laplace arbeitet, siehe Wikipedia.\(\endgroup\)
 

Re: Koordinatenfreier Entwicklungssatz von Laplace
von: Dune am: Fr. 25. September 2020 16:39:51
\(\begingroup\)@"Es gibt aber auch einen sehr schönen Beweis, der mit dem Entwicklungssatz von Laplace arbeitet": Genau darum habe ich die Frage unter diesem Artikel gestellt. 😉 Das Dichtheitsargument, das du vorher skizziert hast, ist natürlich super elegant. Aber am Ende steckt da doch mehr hinter, als man auf den ersten Blick vermutet - gerade beim Nachweis der Dichtheit der diagonalisierbaren Endomorphismen. Da ist mir das Laplace-Argument lieber.\(\endgroup\)
 

 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2023 by Matroids Matheplanet
This web site was originally made with PHP-Nuke, a former web portal system written in PHP that seems no longer to be maintained nor supported. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]