Koordinatenfreier Entwicklungssatz von Laplace
Von: Triceratops
Datum: Do. 17. September 2020 19:18:39
Thema: Mathematik

Koordinatenfreier Entwicklungssatz von Laplace

Der Entwicklungssatz von Laplace aus der linearen Algebra wird üblicherweise als eine Aussage über Matrizen formuliert und durch eine direkte Rechnung bewiesen. In diesem Artikel formulieren und beweisen wir eine koordinatenfreie Version dieses Satzes, die zwar nicht neu, aber relativ unbekannt ist. Sie handelt entsprechend von linearen Abbildungen. Das wesentliche technische Hilfsmittel sind äußere Potenzen.
Es gibt kaum eine Theorie, die elementarer ist [als die lineare Algebra], trotz der Tatsache, dass Generationen von Professoren und Lehrbuchautoren die Einfachheit dieser Theorie durch höchst unangebrachte Rechnungen mit Matrizen verdunkelt haben. — J. Dieudonné, Grundzüge der modernen Analysis, 1960

Darstellungsmatrizen von äußeren Potenzen

Sei $V$ ein $n$-dimensionaler $K$-Vektorraum. Für $0 \leq k \leq n$ setzen wir hier die $k$-te äußere Potenz $\Lambda^k(V)$ als bekannt voraus. Sie besitzt eine universelle multilineare alternierende Abbildung $V^k \longrightarrow \Lambda^k(V)$, die mit $(v_1,\dotsc,v_k) \mapsto v_1 \wedge \cdots \wedge v_k$ bezeichnet wird. Wenn $(b_i)_{1 \leq i \leq n}$ eine Basis von $V$ ist, dann ist $(b_{i_1} \wedge \cdots \wedge b_{i_k})_{\large 1 \leq i_1 < \cdots < i_k \leq n}$ eine Basis von $\Lambda^k(V)$ mit $\binom{n}{k}$ Elementen. Für $k=n$ hat die Basis nur ein Element, nämlich $b_1 \wedge \cdots \wedge b_n$. Sei $f : V \longrightarrow V$ eine lineare Abbildung. Diese induziert für alle $0 \leq k \leq n$ eine lineare Abbildung auf der äußeren Potenz $\Lambda^k(f) : \Lambda^k(V) \longrightarrow \Lambda^k(V)$, die durch $v_1 \wedge \cdots \wedge v_k \mapsto f(v_1) \wedge \cdots \wedge f(v_k)$ charakterisiert ist. Mit den zuvor genannten Basen fragen wir uns nun: Was ist die Darstellungsmatrix von $\Lambda^k(f)$ in Abhängigkeit von der Darstellungsmatrix von $f$? Nun das können wir straight forward ausrechnen: Wähle $a_{i,j} \in K$ mit $\displaystyle f(b_j) = \sum_{1 \leq i \leq n} a_{i,j} \cdot b_i,$ das heißt $A = (a_{i,j})_{1 \leq i,j \leq n}$ ist die Darstellungsmatrix von $f$. Dann gilt für $1 \leq j_1 < \cdots < j_k \leq n$: $\begin{align*} \Lambda^k(f)(b_{j_1} \wedge \cdots \wedge b_{j_k}) &= f(b_{j_1}) \wedge \cdots \wedge f(b_{j_k}) \\ & = \sum_{1 \leq i_1 \leq n} \cdots \sum_{1 \leq i_k \leq n} a_{i_1,j_1} \cdots a_{i_k,j_k} \cdot b_{i_1} \wedge \cdots \wedge b_{i_k}. \end{align*}$ Die $i_1,\dotsc,i_k$ können wir als paarweise verschieden annehmen, weil ansonsten $b_{i_1} \wedge \cdots \wedge b_{i_k}$ sowieso verschwindet. Dann ordnen wir die $i_1,\dotsc,i_k$ der Größe nach an. Genauer gesagt gibt es genau eine Permutation $\sigma \in \Sigma_k$ mit $\displaystyle i_{\sigma^{-1}(1)} < \cdots < i_{\sigma^{-1}(k)}.$ Die Summe oben können wir daher umschreiben zu $\begin{align*} &= \sum_{1 \leq i_1 < \cdots < i_k \leq n} \, \sum_{\sigma \in \Sigma_k} a_{i_{\sigma(1)},j_1} \cdots a_{i_{\sigma(k)},j_k} \cdot b_{i_{\sigma(1)}} \wedge \cdots \wedge b_{i_{\sigma(k)}} \\ &= \sum_{1 \leq i_1 < \cdots < i_k \leq n} \, \left( \sum_{\sigma \in \Sigma_k} \mathrm{sgn}(\sigma) \cdot a_{i_{\sigma(1)},j_1} \cdots a_{i_{\sigma(k)},j_k} \right) \cdot b_{i_1} \wedge \cdots \wedge b_{i_k} \\ & = \sum_{1 \leq i_1 < \cdots < i_k \leq n} \det(A[i_1,\dotsc,i_k;j_1,\dotsc,j_k]) \cdot b_{i_1} \wedge \cdots \wedge b_{i_k}, \end{align*}$ wobei die $k \times k$-Matrix $A[i_1,\dotsc,i_k;j_1,\dotsc,j_k]$ aus $A$ entsteht, indem man sich nur die Spalten $j_1,\dotsc,j_k$ und nur die Zeilen $i_1,\dotsc,i_k$ anschaut. Die letzte Gleichung ist dann eine Anwendung der Leibniz-Regel. Die Determinante einer solchen $k \times k$-Untermatrix von $A$ nennt man auch einen $k$-Minor von $A$. Wir haben also bewiesen: Satz 1. Wenn $A$ die Darstellungsmatrix von $f$ ist, dann besteht die Darstellungsmatrix von $\Lambda^k(f)$ aus allen $k$-Minoren von $A$. Gehen wir Spezialfälle durch: Für $k=0$ ist die Darstellungsmatrix die $1 \times 1$-Einheitsmatrix, die auch $\Lambda^0(f) = \mathrm{id}_K$ darstellt. Für $k=1$ ist die Darstellungsmatrix einfach wieder $A$, die auch $\Lambda^1(f) = f$ darstellt. Für $k=n$ ist die Darstellungsmatrix die $1 \times 1$-Matrix bestehend aus $\det(A)$, die folglich $\Lambda^n(f) : \Lambda^n(V) \longrightarrow \Lambda^n(V)$ darstellt (dies könnte als koordinatenfreie Definition von $\det(f)$ dienen, siehe hier). Für $k=n-1$ haben die Indizes die Form $1 < \cdots < i-1 < i+1 < \cdots < n$ für eindeutige $1 \leq i \leq n$, die wir entsprechend in $i$ umbenennen. In diesem Fall kürzen wir die Untermatrix, die durch Streichen der Spalte $j$ und der Zeile $i$ entsteht, mit $A[i;j]$ ab (abuse of notation). Die Darstellungsmatrix von $\Lambda^{n-1}(f)$ ist also $(\det(A[i;j]))_{1 \leq i,j \leq n}$.

 

Eine perfekte Paarung

Sei $0 \leq k \leq n$. Wenn $X$ eine Menge mit $n$ Elementen ist und $\binom{X}{k}$ die Menge der $k$-elementigen Teilmengen von $X$ bezeichnet, dann hat man eine Bijektion $\binom{X}{k} \longrightarrow \binom{X}{n-k}$, $T \mapsto X \setminus T$. In diesem Abschnitt formulieren wir eine linear-algebraische Version dieser Bijektion1. Sei $V$ ein $K$-Vektorraum der Dimension $n$. Mit der universellen Eigenschaft der äußeren Potenz lässt sich eine natürliche lineare Abbildung $\nabla : \Lambda^k(V) \longrightarrow \mathrm{Hom}(\Lambda^{n-k}(V),\Lambda^n(V))$ definieren durch $(1) \qquad \nabla(v_1 \wedge \cdots \wedge v_k)(w_1 \wedge \cdots \wedge w_{n-k}) := w_1 \wedge \cdots \wedge w_{n-k} \wedge v_1 \wedge \cdots \wedge v_k$. Dazu muss man sich klarmachen, dass der Ausdruck $w_1 \wedge \cdots \wedge w_{n-k} \wedge v_1 \wedge \cdots \wedge v_k$ multilinear und alternierend jeweils von $v_1,\dotsc,v_k$ und von $w_1,\dotsc,w_{n-k}$ abhängt, was klar ist. Satz 2. $\nabla$ ist ein Isomorphismus2. Wir können das mit Basen testen: Sei $(b_1,\dotsc,b_n)$ eine Basis von $V$. Dann erhalten wir die Basis $(b_{i_1} \wedge \cdots \wedge b_{i_k})$ von $\Lambda^k(V)$, indiziert durch alle $i_1 < \cdots < i_k$. Nun ist $\nabla(b_{i_1} \wedge \cdots \wedge b_{i_k})$ per Definition die lineare Abbildung $\Lambda^{n-k}(V) \longrightarrow \Lambda^n(V)$ mit $w_1 \wedge \cdots \wedge w_{n-k} \mapsto w_1 \wedge \cdots \wedge w_{n-k} \wedge b_{i_1} \wedge \cdots \wedge b_{i_k}$. Werten wir diese lineare Abbildung auf einem typischen Basisvektor $b_{j_1} \wedge \cdots \wedge b_{j_{n-k}}$ aus, so erhalten wir $0$ wenn $j_p=i_q$ für gewisse $p,q$. Ansonsten ist $\{j_1,\dotsc,j_{n-k}\}$ im Komplement von $\{i_1,\dotsc,i_k\}$ in $\{1,\dotsc,n\}$ enthalten, aus Kardinalitätsgründen sogar gleich dem Komplement. Das Bild ist dann $b_{j_1} \wedge \cdots \wedge b_{j_{n-k}} \wedge b_{i_1} \wedge \cdots \wedge b_{i_k} = \pm b_1 \wedge \cdots \wedge b_n$. Bis auf Vorzeichen ist $\nabla(b_{i_1} \wedge \cdots \wedge b_{i_k})$ also der duale Basisvektor $(b_{j_1} \wedge \cdots \wedge b_{j_{n-k}})^*$. (Den Begriff der dualen Basis können wir verwenden, indem wir hier den Isomorphismus $K \longrightarrow \Lambda^n(V)$, $1 \mapsto b_1 \wedge \cdots \wedge b_n$ anwenden, also letztlich im Dualraum von $\Lambda^{n-k}(V)$ arbeiten.) Also bildet $\nabla$ eine Basis auf eine Basis ab und ist damit ein Isomorphismus. $\checkmark$ 1Tatsächlich kann man mit einem allgemeineren Körperbegriff auch den Körper mit einem Element $\IF_1$ definieren, und lineare Algebra über $\IF_1$ ist dann dasselbe wie Kombinatorik. Der Isomorphismus $\nabla$ ist für $K=\IF_1$ tatsächlich identisch mit der zuvor genannten Bijektion! 2Wir werden das nicht brauchen, aber man kann dieses Resultat auch so formulieren, dass die zu $\nabla$ gehörige lineare Abbildung $\Lambda^{n-k}(V) \otimes \Lambda^k(V) \longrightarrow \Lambda^n(V)$ (die Teil der Multiplikation der äußeren Algebra $\Lambda(V)$ ist) eine perfekte Paarung ist.

 

Die Adjunkte eines Endomorphismus

Wir verwenden gleich folgende Notation: Für eine lineare Abbildung $f : V \longrightarrow V'$ und einen Vektorraum $W$ bezeichne $f^* : \mathrm{Hom}(V',W) \longrightarrow \mathrm{Hom}(V,W)$ die lineare Abbildung, die durch $g \mapsto g \circ f$ definiert ist. Für $ W=K$ kennt man diese Notation bereits für die zu $f$ duale lineare Abbildung $f^* : V'^* \longrightarrow V^*$. Sei $V$ ein $n$-dimensionaler $K$-Vektorraum und $f : V \longrightarrow V$ ein Endomorphismus. Wir definieren die Adjunkte $\mathrm{adj}(f) : V \longrightarrow V$ mit Hilfe des Isomorphismus $\nabla : V \longrightarrow \mathrm{Hom}(\Lambda^{n-1}(V),\Lambda^n(V))$ (Satz 2 mit $k=1$) durch $(2) \qquad \mathrm{adj}(f) := \nabla^{-1} \circ \Lambda^{n-1}(f)^* \circ \nabla.$ Das bedeutet also, dass das Diagramm ${\qquad\require{AMScd} \begin{CD} V @>{\nabla}>> \mathrm{Hom}(\Lambda^{n-1}(V),\Lambda^n(V)) \\ @V{\mathrm{adj}(f)}VV @VV{\Lambda^{n-1}(f)^*}V \\ V @>>{\nabla}> \mathrm{Hom}(\Lambda^{n-1}(V),\Lambda^n(V)) \end{CD}}$ kommutieren soll3. Aus dieser Definition ergeben sich sofort die Rechenregeln $(3) \qquad \mathrm{adj}(\mathrm{id}_V) = \mathrm{id}_V,$ $(4) \qquad \mathrm{adj}(f \circ g ) = \mathrm{adj}(g) \circ \mathrm{adj}(f).$ Schreiben wir die Definition einmal aus: Für $v \in V$ ist $\mathrm{adj}(f)(v) \in V$ durch $\nabla(\mathrm{adj}(f)(v)) = \Lambda^{n-1}(f)^*(\nabla(v))$, also durch $(5) \qquad f(w_1) \wedge \cdots \wedge f(w_{n-1}) \wedge v = w_1 \wedge \cdots \wedge w_{n-1} \wedge \mathrm{adj}(f)(v)$ für alle $w_1 \wedge \cdots \wedge w_{n-1} \in \Lambda^{n-1}(V)$ gekennzeichnet. Zum Beispiel ist offenbar für $\lambda \in K$ $(6) \qquad \mathrm{adj}(\lambda \cdot \mathrm{id}_V) = \lambda^{n-1} \cdot \mathrm{id}_V.$ Wie sieht die Darstellungsmatrix von $\mathrm{adj}(f)$ bezüglich einer Basis $(b_1,\dotsc,b_n)$ von $V$ aus? Sei $A = (a_{ij})$ die Darstellungsmatrix von $f$, also $f(b_j) = \sum_i a_{ij} b_i$. Die $c_i := b_1 \wedge \cdots \wedge \widehat{b_i} \wedge \cdots \wedge b_n$ (der Hut über $b_i$ bedeutet, dass das $b_i$ weggelassen wird) bilden eine Basis von $\Lambda^{n-1}(V)$. Der zu $c_i$ duale Basisvektor $c_i^* \in \mathrm{Hom}(\Lambda^{n-1}(V),\Lambda^n(V))$ ist durch $c_i^*(c_i) := b_1 \wedge \cdots \wedge b_n$ und $c_i^*(c_j) = 0$ für $j \neq i$ definiert. Daraus folgt $\nabla(b_j) = (-1)^{j-1} c_j^*,$ denn $\nabla(b_j)(c_i) = b_j \wedge b_1 \wedge \cdots \wedge \widehat{b_i} \wedge \cdots \wedge b_n$ verschwindet für $j \neq i$ und ist andernfalls $(-1)^{j-1} b_1 \wedge \cdots \wedge b_n$ wegen der $j-1$ nötigen Vertauschungen. Wegen Satz 1 gilt $\Lambda^{n-1}(f)(c_j) = \sum_i \det(A[i;j]) c_i.$ Die Darstellungsmatrix von $\Lambda^{n-1}(f)^*$ bezüglich der dualen Basis $(c_i^*)$ ist folglich die transponierte Matrix, das heißt $\Lambda^{n-1}(f)^*(c_j^*) = \sum_i \det(A[j;i]) c_i^*.$ Mit diesen Resultaten berechnen wir nun: $\begin{align*} \mathrm{adj}(f)(b_j) &= \nabla^{-1}\left(\Lambda^{n-1}(f)^*(\nabla(b_j)))\right) \\ &= (-1)^{j-1} \nabla^{-1}\left(\Lambda^{n-1}(f)^*(c_j^*)\right) \\ &= (-1)^{j-1} \nabla^{-1}\left( {\sum}_i \det(A[j;i]) c_i^* \right) \\ &= (-1)^{j-1} \nabla^{-1}\left( {\sum}_i \det(A[j;i]) (-1)^{i-1} \nabla(b_i) \right) \\ &= {\sum}_i (-1)^{i+j} \det(A[j;i]) b_i. \end{align*}$ Definieren wir also die Adjunkte von $A$ durch die Matrix $(7) \qquad \mathrm{adj}(A) := ((-1)^{i+j} \det(A[j;i]))_{i,j},$ so haben wir damit bewiesen: Satz 3. Wenn $A$ die Darstellungsmatrix von $f$ bezüglich einer Basis ist, dann ist $\mathrm{adj}(A)$ die Darstellungsmatrix von $\mathrm{adj}(f)$ bezüglich dieser Basis. Jetzt sind ein paar Worte fällig, warum wir uns den ganzen Aufwand mit den äußeren Potenzen überhaupt gemacht haben. Hätte man nicht direkt die Definition der Adjunkten einer Matrix auf lineare Abbildungen verallgemeinern können, indem man eine Basis wählt usw.? Das Problem bei diesem Vorgehen ist, dass nicht klar ist, warum die entstehende lineare Abbildung unabhängig von der Basis ist. Mit dieser Definition wäre übrigens auch die Rechenregel $\mathrm{adj}(f \circ g ) = \mathrm{adj}(g) \circ \mathrm{adj}(f)$ einen Beweis wert, wohingegen sie bei unserer Definititon eine Trivialität ist. Ganz ähnliche Bemerkungen gelten auch für die Definition von $\det(f) \in K$ mittels $\Lambda^n(f) = \det(f) \cdot \mathrm{id}_{\Lambda^n(V)}$. Wir brauchen noch folgende Rechenregel: Für die zu $f : V \longrightarrow V$ duale lineare Abbildung $f^* : V^* \longrightarrow V^*$ gilt $(8) \qquad \mathrm{adj}(f^*)=\mathrm{adj}(f)^*.$ Es ist möglich, allerdings auch sehr aufwändig und nicht so einfach, dies aus unserer Definition von $\mathrm{adj}(f)$ abzuleiten. Man verwendet dabei eine Reihe von natürlichen Isomorphismen, insbesondere den natürlichen Isomorphismus $\vartheta : \Lambda^k(V^*) \longrightarrow \Lambda^k(V)^*$ (für $k=n-1$ und $k=n$), der durch eine Art Leibniz-Formel $\displaystyle\vartheta(\alpha_1 \wedge \cdots \wedge \alpha_k)(v_1 \wedge \cdots \wedge v_k) := \sum_{\sigma \in \Sigma_k} \mathrm{sgn}(\sigma) \prod_{i=1}^{k} \alpha_i(v_{\sigma(i)})$ definiert ist. Es ist einfacher (auch wenn das nicht wirklich dem Motiv dieses Artikels folgt), die Gleichung über die Darstellungsmatrizen zu beweisen. Fixiere also eine Basis von $V$, die zugehörige duale Basis von $V^*$ und sei $A$ die Darstellungsmatrix von $f$. Die Darstellungsmatrix von $f^*$ ist dann die transponierte Matrix $A^T$. Wir müssen also lediglich $(8') \qquad \mathrm{adj}(A^T) = \mathrm{adj}(A)^T$ zeigen, und das rechnet man direkt nach: $\begin{align*} \mathrm{adj}(A^T)_{i,j} &= (-1)^{i+j} \det(A^T[j;i]) \\ &= (-1)^{i+j} \det((A[i;j])^T) \\ &= (-1)^{j+i} \det(A[i;j]) \\ &= \mathrm{adj}(A)_{j,i} \\ &= (\mathrm{adj}(A)^T)_{i,j}. \qquad \checkmark \end{align*}$ 3Äquivalent: $\mathrm{adj}(f)$ ist die zu $\Lambda^{n-1}(f)$ adjungierte lineare Abbildung bezüglich der perfekten Paarung $\Lambda^{n-1}(V) \otimes V \longrightarrow \Lambda^n(V)$.

 

Der Entwicklungssatz von Laplace

Satz 4. Sei $V$ ein endlich-dimensionaler Vektorraum. Sei $f : V \longrightarrow V$ eine lineare Abbildung. Für die Adjunkte $\mathrm{adj}(f) :V \longrightarrow V$ gilt dann $(9) \qquad \mathrm{det}(f) \cdot \mathrm{id}_V = \mathrm{adj}(f) \circ f = f \circ \mathrm{adj}(f).$ Insbesondere gilt, wenn $f$ invertierbar ist, $f^{-1} = \det(f)^{-1} \cdot \mathrm{adj}(f)$. Um diesen Satz zu beweisen, kann man ihn mit Hilfe von Darstellungsmatrizen (die wir ja für $\mathrm{adj}(f)$ bestimmt haben) auf eine Aussage über Matrizen reduzieren, deren Beweis man in jedem Buch zur linearen Algebra und auch bei Wikipedia findet. Es handelt sich um eine Rechnung mit der Leibniz-Formel für die Determinante und insbesondere mit Permutationen. Wir geben nun einen anderen Beweis, der ohne Matrizen auskommt und direkt mit unserer Definition der linearen Abbildung $\mathrm{adj}(f)$ arbeitet. Ich finde ihn daher sehr elegant. Beweis des Satzes. Wir beweisen zunächst $\mathrm{adj}(f) \circ f = \det(f) \cdot \mathrm{id}_V$. Für $v \in V$ ist $\mathrm{adj}(f)(f(v)) \in V$ charakterisiert durch $w_1 \wedge \cdots \wedge w_{n-1} \wedge \mathrm{adj}(f)(f(v)) = f(w_1) \wedge \cdots \wedge f(w_{n-1}) \wedge f(v)$ für alle $w_1 \wedge \cdots \wedge w_{n-1} \in \Lambda^{n-1}(V)$. Wegen $\Lambda^n(f) = \det(f) \cdot \mathrm{id}_{\Lambda^n(V)}$ ist die rechte Seite aber gleich $\det(f) \cdot (w_1 \wedge \cdots \wedge w_{n-1} \wedge v) = w_1 \wedge \cdots \wedge w_{n-1} \wedge (\det(f) \cdot v).$ Dies zeigt bereits $\mathrm{adj}(f)(f(v)) = \det(f) \cdot v$. Zum Beweis von $f \circ \mathrm{adj}(f) = \det(f) \cdot \mathrm{id}_V$ wenden wir die bereits bewiesene Gleichung auf die duale lineare Abbildung $f^* : V^* \longrightarrow V^*$ an. Außerdem verwenden wir die Rechenregeln $\mathrm{adj}(f^*)=\mathrm{adj}(f)^*$ und $\det(f^*)=\det(f)$. Es folgt $\begin{align*} (\det(f) \cdot \mathrm{id}_V)^* &= \det(f) \cdot \mathrm{id}_{V^*} \\ &= \det(f^*) \cdot \mathrm{id}_{V^*} \\ &= \mathrm{adj}(f^*) \circ f^* \\ &= \mathrm{adj}(f)^* \circ f^* \\ &= (f \circ \mathrm{adj}(f))^*. \end{align*}$ Damit ist $\det(f) \cdot \mathrm{id}_V = f \circ \mathrm{adj}(f)$. $\checkmark$

 

Reduktion auf invertierbare Endomorphismen

Wir haben die zweite Gleichung im Entwicklungssatz, also $f \circ \mathrm{adj}(f) = \det(f) \cdot \mathrm{id}_V$, relativ indirekt bewiesen. Wir stellen hier noch einen anderen Beweis dafür vor, der zwar auch indirekt ist, aber mit einer wiederverwendbaren Methode arbeitet. Wir setzen dafür etwas kommutative Algebra (kommutative Ringe, Moduln, Tensorprodukte) voraus. Wir beobachten zunächst, dass sich alles, was bisher gesagt worden ist, unmittelbar auf endlich-erzeugte freie Moduln $V$ über einem kommutativen Ring $R$ (anstelle eines Körpers) und Endomorphismen $f : V \longrightarrow V$ zwischen ihnen verallgemeinern lässt. Diese Moduln haben per Definition eine endliche Basis, und mehr haben wir nicht wirklich benutzt. Wir werden den Entwicklungssatz auch in dieser Allgemeinheit zeigen. Der Punkt ist nämlich, dass wir gleich einen Reduktionsschritt verwenden, der diese Verallgemeinerung von Körper auf kommutative Ringe notwendig macht. Der Beweis für $\mathrm{adj}(f) \circ f = \det(f) \cdot \mathrm{id}_V$ geht wie vorher. Nun machen wir die entscheidende Beobachtung: Wenn $f$ invertierbar wäre, dann besagt diese Gleichung, dass $\mathrm{adj}(f)$ bis auf einen Skalar zu $f$ invers ist. Aber dann kommutiert $\mathrm{adj}(f)$ notwendigerweise mit $f$! Also gilt auch $f \circ \mathrm{adj}(f) = \det(f) \cdot \mathrm{id}_V$. Wir können zwar nicht erwarten, dass $f$ immer invertierbar ist, aber man kann sich mit einem Trick auf diesen Fall zurückziehen. Das Vorgehen deckt sich mit dem aus meinem Artikel Ausdehnung von algebraischen Gleichungen, ist aber etwas koordinatenfreier und an lineare Abbildungen angepasst. Sei $V$ ein endlich-erzeugter freier $R$-Modul. Für einen Homomorphismus kommutativer Ringe $\varphi : R \longrightarrow S$ betrachte das Tensorprodukt $S \otimes_R V$. Das ist ein endlich-erzeugter freier $S$-Modul mit demselben Rang wie $V$, denn $S \otimes_R R^n \cong S^n$. Jeder Endomorphismus $f : V \longrightarrow V$ induziert einen Endomorphismus $S \otimes_R f : S \otimes_R V \longrightarrow S \otimes_R V$, $s \otimes v \mapsto s \otimes f(v)$. Wenn $(b_1,\dotsc,b_n)$ eine Basis von $V$ ist, dann ist $(1 \otimes b_1,\dotsc,1 \otimes b_n)$ eine Basis von $S \otimes_R V$, und die Darstellungsmatrix von $S \otimes_R f$ über $S$ entsteht einfach aus der Darstellungsmatrix von $f$ über $R$, indem wir auf jeden Eintrag den Homomorphismus $\varphi$ anwenden. Daran erkennt man: $(10) \qquad \det(S \otimes_R f) = \varphi(\det(f))$ $(11) \qquad \mathrm{adj}(S \otimes_R f ) = S \otimes_R \mathrm{adj}(f)$ Das sieht man aber auch abstrakt ohne Matrizen. Zum Beispiel prüft man nach, dass $S \otimes_R \mathrm{adj}(f)$ die definierende Gleichung (5) für $\mathrm{adj}(S \otimes_R f)$ erfüllt. Mit Matrizen sieht man außerdem: $(12) \qquad $ Ist $ R \longrightarrow S$ injektiv, so gilt $S \otimes_R f = S \otimes_R g \implies f=g$. Das entscheidende Resultat ist nun: Satz 5. Sei $f : V \longrightarrow V$ ein Endomorphismus eines endlich-erzeugten freien $R$-Moduls $V$. Dann gibt es einen Ringhomomorphismus $R' \longrightarrow R$, einen endlich-erzeugten freien $R'$-Modul $V'$ und einen Endomorphismus $f' : V' \longrightarrow V'$ mit einem Isomorphismus $R \otimes_{R'} V' \cong V$, unter dem $R \otimes_{R'} f'$ zu $f$ korrespondiert, sodass gilt: $R'$ ist ein Integritätsring und $Q(R') \otimes_{R'} f'$ ist invertierbar. Beweis. Wähle eine Basis von $V$ und stelle $f$ diesbezüglich durch eine $n \times n$-Matrix $(a_{ij})$ dar. Diese hat also Koeffizienten in $R$. Setze $R':=\IZ[X_{11},\dotsc,X_{1n},\dotsc,X_{nn}]$, der Polynomring in $n^2$ Unbestimmten. Über $R'$ haben wir die universelle Matrix $(X_{ij})$ und damit eine $R'$-lineare Abbildung $f' : R'^n \longrightarrow R'^n$. Ihre Determinante ist $\sum_{\sigma \in \Sigma_n} \mathrm{sgn}(\sigma) X_{1,\sigma(1)} \cdots X_{n,\sigma(n)}$. Sie ist offensichtlich $\neq 0$, weil wir hier im Polynomring sind. Betrachte den Homomorphismus $\pi : R' \longrightarrow R$, $\pi(X_{ij}) := a_{ij}$. Die universelle Matrix wird dabei auf $(a_{ij})$ abgebildet, sodass $R \otimes_{R'} f' \cong f$. Sei $j : R' \longrightarrow Q(R')$ die Einbettung. Dann ist $\det(Q(R') \otimes_{R'} f') = j(\det(f')) \in Q(R')$ invertierbar, also $Q(R') \otimes_{R'} f'$ invertierbar. $\checkmark$ Beweis des Entwicklungssatzes. Schreibe $f \cong R \otimes_{R'} f'$ wie im Satz. Weil wir den Entwicklungssatz für invertierbare Endomorphismen bereits bewiesen haben, gilt er also für $Q(R') \otimes_{R'} f'$. Wegen (10),(11),(12) gilt er dann auch für $f'$. Wegen (10),(11) gilt er dann auch für $R \otimes_{R'} f' \cong f$. $\checkmark$ Danke an ligning fürs Korrekturlesen.

 


Dieser Artikel kommt von Matroids Matheplanet
https://matheplanet.de

Die Url für diesen Artikel ist:
https://matheplanet.de/default3.html?article=1909