Matrizen sind Homomorphismen zwischen direkten Summen
Von: Triceratops
Datum: Do. 20. Mai 2021 12:49:04
Thema: Mathematik

Matrizen sind Homomorphismen zwischen direkten Summen

Matrizen lernt man in Vorlesungen zur linearen Algebra üblicherweise als "rechteckige Zahlenschemata" kennen. In diesem Artikel werden Matrizen hingegen ausgehend von der Bestimmung der linearen Abbildungen zwischen direkten Summen von Vektorräumen hergeleitet. Die Matrixmultiplikation entsteht in diesem Kontext aus der Komposition von linearen Abbildungen. Damit bekommt man ein gutes Verständnis dafür, was Matrizen und die Matrixmultiplikation eigentlich sind, wobei hier sogar Blockmatrizen inbegriffen sind. Dieser Artikel setzt lediglich Vektorräume, Basen und lineare Abbildungen als bekannt voraus, richtet sich also insbesondere an interessierte Studienanfänger*innen.

Konstruktionen mit Vektorräumen

Alle Vektorräume hier seien über einem festen Körper $K$ definiert.

Direkte Summen

Seien $V_1,\dotsc,V_n$ Vektorräume. Ihre direkte Summe $V_1 \oplus \cdots \oplus V_n$ ist der folgende Vektorraum: Die Elemente sind die Tupel $(v_1,\dotsc,v_n)$ mit $v_1 \in V_1, \dotsc, v_n \in V_n$. Es wird komponentenweise gerechnet, das heißt (für alle $v_i \in V_i$, $v'_i \in V_i$, $\lambda \in K$) • $(v_1,\dotsc,v_n) + (v'_1,\dotsc,v'_n) := (v_1 + v'_1,\dotsc,v_n + v'_n)$, • $\lambda (v_1,\dotsc,v_n) := (\lambda v_1, \dotsc, \lambda v_n)$. Die Vektorraumaxiome folgen leicht aus denen für die $V_1,\dotsc,V_n$. Die direkte Summe stimmt hier mit dem direkten Produkt $V_1 \times \cdots \times V_n$ überein. (Bei unendlich vielen Vektorräumen $V_1,V_2,\dotsc$ wäre das nicht so, aber das nur als Randbemerkung, weil wir stets nur endlich viele Vektorräume hier betrachten.) Jeder endlich-dimensionale $K$-Vektorraum $V$ hat eine Basis $b_1,\dotsc,b_n$, und dann ist $K^n = K \oplus \cdots \oplus K \to V$, $(\lambda_1,\dotsc,\lambda_n) \to \lambda_1 b_1 + \cdots + \lambda_n b_n$ ein Isomorphismus. Es ist also $V$ (bis auf Isomorphie) eine direkte Summe von Kopien von $K$. Jede allgemeine Aussage über direkte Summen lässt sich insbesondere darauf anwenden. Wenn jeweils $V_i$ zu $V'_i$ isomorph ist, dann ist auch $V_1 \oplus \cdots \oplus V_n$ zu $V'_1 \oplus \cdots \oplus V'_n$ isomorph. Allgemeiner induziert jede Folge von linearen Abbildungen $f_i : V_i \to V'_i$ eine lineare Abbildung $f_1 \oplus \cdots \oplus f_n : V_1 \oplus \cdots \oplus V_n \to V'_1 \oplus \cdots \oplus V'_n$, definiert durch $(f_1 \oplus \cdots \oplus f_n)(v_1,\dotsc,v_n) := (f_1(v_1),\dotsc,f_n(v_n))$. Ist allgemeiner $I$ eine endliche Indexmenge und $V_i$ für $i \in I$ jeweils ein Vektorraum, so bilden wir die direkte Summe $\bigoplus_{i \in I} V_i$ ganz analog über Familien $(v_i)_{i \in I}$ mit $v_i \in V_i$. Es handelt sich zugleich, weil $I$ endlich ist, um das direkte Produkt $\prod_{i \in I} V_i$. Wenn $I = \{i_1,\dotsc,i_n\}$ eine Abzählung von $I$ ist, dann ist dieser Vektorraum zu $V_{i_1} \oplus \cdots \oplus V_{i_n}$ isomorph.

Hom-Vektorräume

Für zwei Vektorräume $V,W$ können wir die linearen Abbildungen $V \to W$ zu einem Vektorraum $\mathrm{Hom}(V,W)$ zusammenfassen. Der Nullvektor ist die Nullabbildung $0 : V \to W$. Die Summe von zwei linearen Abbildungen $f,g : V \to W$ ist die lineare Abbildung $f+g : V \to W$ mit $(f+g)(v) := f(v) + g(v)$, und für $\lambda \in K$ ist das skalare Vielfache $\lambda f :V \to W$ durch $(\lambda f)(v) := \lambda f(v)$ definiert. Man muss nachrechnen, dass hierbei $f+g$ und $\lambda f$ tatsächlich $K$-linear sind; hierbei geht die Kommutativität von $K$ übrigens ein. Die Vektorraumaxiome von $\mathrm{Hom}(V,W)$ folgen dann leicht aus denen von $W$.

Ein Spezialfall

Jede lineare Abbildung $f : K \to W$ ist bereits vollständig durch den Vektor $f(1) \in W$ festgelegt, denn es gilt wegen der Linearität $f(\lambda) = f(\lambda \cdot 1) = \lambda \cdot f(1)$. Umgekehrt ist für jedes $w \in W$ die Abbildung $ K \to W$, $\lambda \mapsto \lambda w$ linear, und sie bildet $1$ auf $w$ ab. Wir sehen damit, dass $\mathrm{Hom}(K,W) \to W,\quad f \mapsto f(1)$ ein Isomorphismus von Vektorräumen ist. Insbesondere ist $\mathrm{Hom}(K,K) \cong K$, was wir später brauchen werden.

Fragestellung

Nun stellen wir uns die folgende einfache Frage: Wie sehen lineare Abbildungen zwischen direkten Summen aus? Weil jeder endlich-dimensionale Vektorraum eine direkte Summe von Kopien von $K$ ist, beinhaltet diese Frage insbesondere, wie lineare Abbildungen zwischen endlich-dimensionalen Vektorräumen allgemein aussehen. Die Frage ist also genauer gesagt: Seien $V_1,\dotsc,V_n$ und $W_1,\dotsc,W_m$ zwei Listen von Vektorräumen. Wir wollen die linearen Abbildungen $V_1 \oplus \cdots \oplus V_n \to W_1 \oplus \cdots \oplus W_m$ verstehen. Oder noch besser: wir wollen den Vektorraum $\mathrm{Hom}(V_1 \oplus \cdots \oplus V_n, W_1 \oplus \cdots \oplus W_m)$ aller solchen linearen Abbildungen verstehen. Es liegt nahe, dieses Problem in zwei einfachere Teilprobleme aufzuteilen: Erstens wollen wir, für einen beliebigen Vektorraum $U$, den Vektorraum $\mathrm{Hom}(U,W_1 \oplus \cdots \oplus W_m)$ bestimmen. Zweitens wollen wir, ebenfalls für einen beliebigen Vektorraum $U$, den Vektorraum $\mathrm{Hom}(V_1 \oplus \cdots \oplus V_n, U)$ bestimmen. Im Anschluss können wir beides miteinander kombinieren.

Erste Fragestellung

Schauen wir uns doch einfach einmal an, was eine lineare Abbildung $f : U \to W_1 \oplus \cdots \oplus W_m$ ist. Sie ist zunächst einmal eine Abbildung, das heißt, ordnet jedem Element $u \in U$ ein Element $f(u) \in W_1 \oplus \cdots \oplus W_m$ zu. Dieses hat die Form $f(u) = (w_1,\dotsc,w_m)$ mit $w_i \in W_i$. Diese hängen natürlich von $u$ ab, wir können also $f(u) = (f_1(u),\dotsc,f_m(u))$ schreiben. Wir erhalten damit Abbildungen $f_i : U \to W_i$ für jeden Index $i$, und es gilt $f(u) = (f_1(u),\dotsc,f_m(u))$ für alle $u \in U$. Nun müssen wir noch die Bedingung beachten, dass $f$ linear sein soll. Zum Beispiel ist $f$ additiv, also $f(u) + f(u') = f(u + u')$ für $u,u' \in U$. Hierbei gilt per Definition $f(u) + f(u') = (f_1(u),\dotsc,f_m(u)) + (f_1(u'),\dotsc,f_m(u')) = (f_1(u)+f_1(u'),\dotsc,f_m(u)+f_m(u'))$ und per Definition $f(u+u') = (f_1(u+u'),\dotsc,f_m(u+u')).$ Die Gleichung sagt also nichts anderes, als dass $f_i(u)+f_i(u')=f_i(u+u')$ für jeden Index $i$ gilt. Ganz ähnlich argumentiert man bei der Homogenität von $f$, also der Eigenschaft $f(\lambda u)=\lambda f(u)$ für $\lambda \in K$, die wiederum dazu äquivalent ist, dass $f_i(\lambda u) = \lambda f_i(u)$ für jeden Index $i$ gilt. Halten wir fest: Es ist $f : U \to W_1 \oplus \cdots \oplus W_m$ genau dann linear, wenn für jeden Index $i$ die Abbildung $f_i : U \to W_i$ linear ist. Wir haben also die linearen Abbildungen $U \to W_1 \oplus \cdots \oplus W_m$ vollständig verstanden. Es handelt sich einfach um Tupel linearer Abbildungen $U \to W_i$. Wir können das auch so ausdrücken, dass die Abbildung $\vartheta : \mathrm{Hom}(U,W_1 \oplus \cdots \oplus W_m) \to \mathrm{Hom}(U,W_1) \oplus \cdots \oplus \mathrm{Hom}(U,W_m),\quad f \mapsto (f_1,\dotsc,f_m)$ bijektiv ist. Sie ist tatsächlich sogar linear, was man direkt mit den Definitionen nachrechnen kann. Also ist $\vartheta$ ein Isomorphismus von Vektorräumen. Übrigens kann man auch $f_i = p_i \circ f$ schreiben, wobei $p_i : W_1 \oplus \cdots \oplus W_m \to W_i,\quad (w_1,\dotsc,w_m) \mapsto w_i$ die Projektion auf die $i$-te Koordinate ist.

Zweite Fragestellung

Nun schauen wir uns einmal an, wie lineare Abbildungen $V_1 \oplus \cdots \oplus V_n \to U$ aussehen. Zunächst einmal fällt uns auf, dass es für jeden Index $j$ eine (injektive) lineare Abbildung $\iota_j : V_j \to V_1 \oplus \cdots \oplus V_n,\quad v \mapsto (0,\dotsc,v,\dotsc,0)$ gibt, wobei das $v$ hier im Index $j$ steht und alle anderen Einträge des Tupels $0$ seien. Daher liefert jede lineare Abbildung $f : V_1 \oplus \cdots \oplus V_n \to U$ auch lineare Abbildungen $f_j := f \circ \iota_j : V_j \to U$ für jeden Index $j$. Tatsächlich lässt sich $f$ durch diese Abbildungen ausdrücken: Jeder Vektor in $V_1 \oplus \cdots \oplus V_n$ lässt sich nämlich schreiben als $(v_1,\dotsc,v_n) = \iota_1(v_1) + \cdots + \iota_n(v_n).$ Daraus folgt nun, weil $f$ additiv ist, $f(v_1,\dotsc,v_n) = f(\iota_1(v_1)) + \cdots + f(\iota_n(v_n)) = f_1(v_1) + \cdots + f_n(v_n).$ Hat man umgekehrt lineare Abbildungen $f_j : V_j \to U$ für $j=1,\dotsc,n$ gegeben und definiert damit eine Abbildung $f : V_1 \oplus \cdots \oplus V_n \to U$ durch $f(v_1,\dotsc,v_n) := f_1(v_1) + \cdots + f_n(v_n),$ so ist zunächst einmal $f \circ \iota_j = f_j$ wegen $f(\iota_i(v)) = f(0,\dotsc,v,\dotsc,0) = \underbrace{f_1(0)}_{=0} + \cdots + f_j(v) + \cdots + \underbrace{f_n(0)}_{=0} = f_j(v),$ und andererseits ist $f$ linear: Dazu berechnen wir (natürlich unter Ausnutzung der Linearität der Abbildungen $f_j$) $\begin{align*} f((v_1,\dotsc,v_n)+(v'_1,\dotsc,v'_n)) & = f(v_1+v'_1,\dotsc,v_n+v'_n) \\ & = f_1(v_1+v'_1) + \cdots + f_n(v_n + v'_n) \\ & = (f_1(v_1)+f_1(v'_1)) + \cdots + (f_n(v_n) + f_n(v'_n)) \\ & = (f_1(v_1) + \cdots + f_n(v_n)) + (f_1(v'_1) + \cdots + f_n(v'_n))\\ & = f(v_1,\dotsc,v_n) + f(v'_1,\dotsc,v'_n) \end{align*}$ sowie $\begin{align*} f(\lambda (v_1,\dotsc,v_n)) &= f(\lambda v_1,\dotsc,\lambda v_n) \\ & = f_1(\lambda v_1) + \cdots + f_n(\lambda v_n) \\ & = \lambda f_1(v_1) + \cdots + \lambda f_n(v_n) \\ & = \lambda (f_1(v_1) + \cdots + f_n(v_n)) \\ & = \lambda f(v_1,\dotsc,v_n). \end{align*}$ Was wir hiermit gezeigt haben, ist, dass die Abbildung $\rho : \mathrm{Hom}(V_1 \oplus \cdots \oplus V_n,U) \to \mathrm{Hom}(V_1,U) \oplus \cdots \oplus \mathrm{Hom}(V_n,U),\quad f \mapsto (f \circ \iota_1,\dotsc,f \circ \iota_n)$ bijektiv ist. Das ist also sehr ähnlich zur Situation oben, nur dort hatten wir lineare Abbildungen nachgeschaltet (die "Projektionen" $p_i : W_1 \oplus \cdots \oplus W_m \to W_i$), wogegen wir hier lineare Abbildungen vorschalten (die "Inklusionen" $\iota_j : V_j \to V_1 \oplus \cdots \oplus V_n$). Man rechnet auch wieder nach, dass $\rho$ linear ist, exemplarisch zeigen wir hier einmal die Additivität: Zunächst einmal stellen wir fest, dass allgemein für lineare Abbildungen die Rechenregel $(f+f') \circ g = f \circ g + f' \circ g$ gilt, was sich direkt aus den Definitionen ergibt: $((f+f') \circ g)(x) \stackrel{\text{def. } \circ}{=} (f+f')(g(x)) \stackrel{\text{def. } +}{=} f(g(x)) + f'(g(x)) \stackrel{\text{def. } \circ}{=} (f \circ g)(x) + (f' \circ g)(x) \stackrel{\text{def. } +}{=} (f \circ g + f' \circ g )(x).$ Damit folgt nun für $f,f' : V_1 \oplus \cdots \oplus V_n \to U$: $\begin{align*} \rho(f+f') & = ((f+f') \circ \iota_1,\dotsc,(f+f') \circ \iota_n) \\ & = (f \circ \iota_1 + f' \circ \iota_1,\dotsc,f \circ \iota_n + f' \circ \iota_n) \\ & = (f \circ \iota_1,\dotsc,f \circ \iota_n) + (f' \circ \iota_1,\dotsc,f' \circ \iota_n)\\ & = \rho(f) + \rho(f'). \end{align*}$ Die Homogenität von $\rho$ wird ganz ähnlich nachgerechnet. Also ist $\rho$ ein Isomorphismus von Vektorräumen.

Kombination der Ergebnisse

Jetzt können wir die Ergebnisse zusammensetzen und unsere Frage, wie Homomorphismen zwischen direkten Summen aussehen, beantworten. Seien dazu $V_1,\dotsc,V_n$ und $W_1,\dotsc,W_m$ zwei Listen von Vektorräumen. Wir haben für jeden Vektorraum $U$ Isomorphismen $\mathrm{Hom}(U,\bigoplus_{i=1}^{m} W_i) \to \bigoplus_{i=1}^{m} \mathrm{Hom}(U,W_i),\quad f \mapsto (p_i \circ f)_{i=1,\dotsc,m}$ $\mathrm{Hom}(\bigoplus_{j=1}^{n} V_j,U) \to \bigoplus_{j=1}^{n} \mathrm{Hom}(V_j,U),\quad f \mapsto (f \circ \iota_j)_{j=1,\dotsc,n}$ hergeleitet. Wenden wir den ersten Isomorphismus auf den Vektorraum $\bigoplus_{j=1}^{n} V_j$ anstelle von $U$ an und wenden dann den zweiten Isomorphismus auf jeden Summanden in der direkten Summe einzeln an, erhalten wir $\mathrm{Hom}(\bigoplus_{j=1}^{n} V_j,\bigoplus_{i=1}^{m} W_i) \cong \bigoplus_{i=1}^{m} \mathrm{Hom}(\bigoplus_{j=1}^{n} V_j,W_i) \cong \bigoplus_{i=1}^{m} \left( \bigoplus_{j=1}^{n} \mathrm{Hom}(V_j,W_i) \right).$ Das können wir jetzt noch etwas umschreiben zu einer einfachen, nicht mehr geschachtelten direkten Summe $\bigoplus_{i=1}^{m} \left( \bigoplus_{j=1}^{n} \mathrm{Hom}(V_j,W_i) \right) = \bigoplus_{i \in \{1,\dotsc,m\}} \left( \bigoplus_{j \in \{1,\dotsc,m\}} \mathrm{Hom}(V_j,W_i) \right) \cong \bigoplus_{(i,j) \in \{1,\dotsc,m\} \times \{1,\dotsc,n\}} \mathrm{Hom}(V_j,W_i).$ Fassen wir zusammen: Der Vektorraum aller linearen Abbildungen $f : \bigoplus_{j=1}^{n} V_j \to \bigoplus_{i=1}^{m} W_i$ ist isomorph zur direkten Summe der Vektorräume $\mathrm{Hom}(V_j,W_i)$, wobei alle Indizes $(i,j)$ mit $1 \leq i \leq m$ und $1 \leq j \leq n$ durchlaufen werden. Konkret (das zeigt unser Beweis unmittelbar) wird hierbei $f$ auf das Tupel der linearen Abbildungen $M(f) := (p_i \circ f \circ \iota_j : V_j \to W_i)_{(i,j)}$ abgebildet. Die Umkehrung dieses Isomorphismus kann man auch beschreiben. Dazu muss man sich nur an unserem Beweis entlanghangeln: Ist ein Tupel linearer Abbildungen $(f_{i,j} :V_j \to W_i)_{(i,j) \in \{1,\dotsc,m\} \times \{1,\dotsc,n\}}$ gegeben, so definieren wir zunächst für jeden Index $i$ die lineare Abbildung $f_i : \bigoplus_{j=1}^{n} V_j \to W_i$ durch $f_i(v_1,\dotsc,v_n) := f_{i,1}(v_1) + \cdots + f_{i,n}(v_n) = \sum_{j=1}^{n} f_{i,j}(v_j),$ und schließlich die lineare Abbildung $f : \bigoplus_{j=1}^{n} V_j \to \bigoplus_{i=1}^{m} W_i$ durch $f(v) := (f_1(v),\dotsc,f_m(v))$ für $v \in \bigoplus_{j=1}^{n} V_j$. Das heißt, es gilt die Formel $f(v) = \Bigl(\sum_{j=1}^{n} f_{i,j}(v_j) \Bigr)_{i=1,\dotsc,m}.$ für $v \in \bigoplus_{j=1}^{n} V_j$.

Matrizenschreibweise

Ein Tupel $(f_{i,j})_{(i,j)}$ aus der direkten Summe $\bigoplus_{(i,j) \in \{1,\dotsc,m\} \times \{1,\dotsc,n\}} \mathrm{Hom}(V_j,W_i)$ können wir auch anders darstellen, nämlich mit einem Rechteck, in dessen $i$-ter Zeile jeweils das Tupel $(f_{i,j})_j = (f_{i,1},\dotsc,f_{i,n})$ geschrieben wird. Das heißt so: $\begin{pmatrix} f_{1,1} & f_{1,2} & \dotsc & f_{1,n} \\ f_{2,1} & f_{2,2} & \dotsc & f_{2,n} \\ \vdots & \vdots & & \vdots \\ f_{m,1} & f_{m,2} & \dotsc & f_{m,n} \end{pmatrix}$ Man nennt dies eine $m \times n$-Matrix (also mit $m$ Zeilen und mit $n$ Spalten). Jeder Eintrag dieser Matrix ist eine lineare Abbildung. Damit klar ist, von wo nach wo sie abbilden, ist folgende Veranschaulichung ganz hilfreich: $\begin{matrix} & \begin{matrix} \phantom{f}{\color{blue}{V_1}} & \phantom{f} {\color{blue}{V_2}} & \dotsc & \phantom{f} {\color{blue}{V_n}} \end{matrix} \\ \begin{matrix} {\color{red}{W_1}} \\ {\color{red}{W_2}} \\ \vdots \\ {\color{red} {W_m}} \end{matrix} & \begin{pmatrix} f_{1,1} & f_{1,2} & \dotsc & f_{1,n} \\ f_{2,1} & f_{2,2} & \dotsc & f_{2,n} \\ \vdots & \vdots & & \vdots \\ f_{m,1} & f_{m,2} & \dotsc & f_{m,n} \end{pmatrix} \end{matrix}$ Den Vektorraum aller dieser Matrizen können wir suggestiv nun auch als $\begin{pmatrix} \mathrm{Hom}(V_1,W_1) & \dotsc & \mathrm{Hom}(V_n,W_1) \\ \vdots & & \vdots \\ \mathrm{Hom}(V_1,W_m) & \dotsc & \mathrm{Hom}(V_n,W_m) \end{pmatrix}$ schreiben. Er ist wie gesagt zu $\mathrm{Hom}(\bigoplus_{j=1}^{n} V_j,\bigoplus_{i=1}^{m} W_i)$ isomorph mittels $f \mapsto M(f)$, und gemäß der Definition der direkten Summe wird in ihm "komponentenweise" gerechnet, also $\begin{pmatrix} f_{1,1} & \dotsc & f_{1,n} \\ \vdots & & \vdots \\ f_{m,1} & \dotsc & f_{m,n} \end{pmatrix} + \begin{pmatrix} f'_{1,1} & \dotsc & f'_{1,n} \\ \vdots & & \vdots \\ f'_{m,1} & \dotsc & f'_{m,n} \end{pmatrix} \stackrel{\text{def.}}{=} \begin{pmatrix} f_{1,1} + f'_{1,1} & \dotsc & f_{1,n} + f'_{1,n} \\ \vdots & & \vdots \\ f_{m,1} + f'_{m,1} & \dotsc & f_{m,n} + f'_{m,n} \end{pmatrix}$ und $\lambda \cdot \begin{pmatrix} f_{1,1} & \dotsc & f_{1,n} \\ \vdots & & \vdots \\ f_{m,1} & \dotsc & f_{m,n} \end{pmatrix} \stackrel{\text{def.}}{=} \begin{pmatrix} \lambda \cdot f_{1,1} & \dotsc & \lambda \cdot f_{1,n} \\ \vdots & & \vdots \\ \lambda \cdot f_{m,1} & \dotsc & \lambda \cdot f_{m,n} \end{pmatrix}.$

Der Spezialfall

Schauen wir uns den Spezialfall an, dass jeweils $V_j = K$ und $W_i = K$. Dann können wir eine weitere Vereinfachung vornehmen, weil $\mathrm{Hom}(K,K) \cong K$, $f \mapsto f(1)$ ein Isomorphismus ist. Wir erhalten damit Isomorphismen von Vektorräumen $\mathrm{Hom}(K^n,K^m) \cong \underbrace{\begin{pmatrix} \mathrm{Hom}(K,K) & \dotsc & \mathrm{Hom}(K,K) \\ \vdots & & \vdots \\ \mathrm{Hom}(K,K) & \dotsc & \mathrm{Hom}(K,K) \end{pmatrix}}_{m \text{ Zeilen, } n \text{ Spalten}} \cong \begin{pmatrix} K & \dotsc & K \\ \vdots & & \vdots \\ K & \dotsc & K \end{pmatrix}.$ Dieser Vektorraum wird mit $M_{m \times n}(K)$ bezeichnet; er besteht aus den $m \times n$-Matrizen mit Einträgen aus $K$ (man sagt auch: über $K$). Es gilt demnach, und so haben wir Matrizen also gerade definiert, $\mathrm{Hom}(K^n,K^m) \cong M_{m \times n}(K).$ Konkret ergibt sich aus der allgemeinen Beschreibung des Isomorphismus oben, dass für eine lineare Abbildung $f : K^n \to K^m$ die zugehörige $m \times n$-Matrix $M(f) \in M_{m \times n}(K)$ durch $(f_i(e_j))_{(i,j)}$ gegeben ist, wobei $e_j = (0,\dotsc,1,\dotsc,0) \in K^n$ (mit $1$ beim Index $j$), und dass umgekehrt für eine Matrix $(a_{i,j})_{(i,j)} \in M_{m \times n}(K)$ die lineare Abbildung $f : K^n \to K^m$ gegeben ist durch $f(v) = (\sum_{j=1}^{n} a_{i,j} v_j )_{i=1,\dotsc,m}$. Ein konkretes Beispiel ist die lineare Abbildung $f : K^3 \to K^2$, $f(x,y,z) = (x - y, x - z)$. Sie gehört zur Matrix $M(f) = \begin{pmatrix} 1 & -1 & 0 \\ 1 & 0 & -1 \end{pmatrix}$, denn $f(e_1) = (1,1)$, $f(e_2) = (-1,0)$, $f(e_3)=(0,-1)$. Man muss sich etwas daran gewöhnen, dass $M_{m \times n}(K)$ nichts mit linearen Abbildungen $K^m \to K^n$ zu tun hat, sondern $K^n \to K^m$, also dass die Reihenfolge der Indizes hier umgedreht wird (alternativ kann man versuchen, sich $K^m \leftarrow K^n$ zu merken). Ich merke mir das (siehe auch die Veranschaulichung oben) so, dass die Spalten einer Matrix etwas mit dem Definitionsraum, die Zeilen etwas mit dem Zielraum zu tun haben.

Darstellungsmatrizen

Wenn $B=(b_1,\dotsc,b_n)$ eine geordnete Basis von $V$ und $C=(c_1,\dotsc,c_m)$ eine geordnete Basis von $W$ ist, dann induzieren diese (bzw. sind genau dasselbe wie) Isomorphismen $K^n \to V$, $K^m \to W$, sodass wir weiter Isomorphismen $\mathrm{Hom}(V,W) \cong \mathrm{Hom}(K^n,K^m) \cong M_{m \times n}(K)$ erhalten. Hierbei wird eine lineare Abbildung $f : V \to W$ auf ihre Darstellungsmatrix $M_C^B(f)$ bezüglich der Basen $B,C$ abgebildet; das kann man als Definition der Darstellungsmatrix ansehen. Ihre Einträge $(a_{i,j})$ sind durch $f(b_j) = \sum_{i=1}^{m} a_{i,j} c_i$ definiert.

Matrixmultiplikation

Viele sehr natürliche Operationen mit linearen Abbildungen übertragen sich mit Hilfe der beschriebenen Korrespondenz zu Matrizen ebenfalls auf Matrizen, und umgekehrt. Als Beispiel besprechen wir hier die Komposition von linearen Abbildungen, welche zur Matrixmultiplikation gehört. Tatsächlich werden wir das ganze hier so aufziehen (analog zu unserer Definition von Matrizen oben), dass die Matrixmultiplikation in einem allgemeineren Rahmen einfach über die Komposition von linearen Abbildungen definiert wird. Das hat unter anderem den Vorteil, dass sich Rechenregeln wie zum Beispiel das Assoziativgesetz von selbst ergeben und nicht weiter nachgerechnet werden müssen (denn die Komposition von linearen Abbildungen ist natürlich assoziativ), und dass die Matrixmultiplikation nicht ohne Kontext vom Himmel fällt. Wir betrachten hier drei Listen von Vektorräumen, $(U_1,\dotsc,U_l)$, $(V_1,\dotsc,V_n)$ und $(W_1,\dotsc,W_m)$ und geben uns zwei lineare Abbildungen $\bigoplus_{k=1}^{l} U_k \xrightarrow{~f~} \bigoplus_{j=1}^{n} V_j \xrightarrow{~g~} \bigoplus_{i=1}^{m} W_i$ vor. Dann erhalten wir die lineare Abbildung $\bigoplus_{k=1}^{l} U_k \xrightarrow{~~ g \, \circ \, f ~~} \bigoplus_{i=1}^{m} W_i,$ und es stellt sich die Frage, wie ihre $m \times k$-Matrix $M(g \circ f)$ in Abhängigkeit von der $m \times n$-Matrix $M(g) = (g_{i,j})$ und der $n \times k$-Matrix $M(f) = (f_{j,k})$ aussieht. Das kann man einfach mit unseren Formeln nachrechnen: Es gilt $\begin{align*} g(f(u)) &= \Bigl(\sum_{j=1}^{n} g_{i,j}(f(u)_j)\Bigr)_{i=1}^{m} \\ &= \Bigl(\sum_{j=1}^{n} g_{i,j} \Bigl( \sum_{k=1}^{l} f_{j,k}(u_k) \Bigr) \Bigr)_{i=1}^{m} \\ &= \Bigl(\sum_{j=1}^{n} \sum_{k=1}^{l} g_{i,j}(f_{j,k}(u_k)) \Bigr)_{i=1}^{m} \\ &= \Bigl(\sum_{k=1}^{l} \sum_{j=1}^{n} (g_{i,j} \circ f_{j,k})(u_k) \Bigr)_{i=1}^{m} \\ \end{align*}$ und daher $\displaystyle (g \circ f)_{i,k} = \sum_{j=1}^{n} g_{i,j} \circ f_{j,k}.$ Beachte, dass diese Summe eine wohldefinierte lineare Abbildung $U_k \to W_i$ ist wegen $f_{j,k} : U_k \to V_j$ und $g_{i,j} : V_j \to W_i$. Die damit bestimmte Matrix nennen wir das Produkt der Matrizen $M(g) = (g_{i,j})$ und $M(f) = (f_{j,k})$ und schreiben es als $M(g) \cdot M(f)$. Es gilt also per Konstruktion $M(g \circ f) = M(g) \cdot M(f).$ Zur Veranschaulichung des Matrixproduktes: $\begin{matrix} & \begin{matrix} & \begin{matrix} \cdots & {\color{blue}{U_k}} & \cdots \end{matrix} & \\ \begin{matrix} \color{red}{V_1} \\ \vdots \\ \color{red}{V_n} \end{matrix} & \begin{pmatrix} \cdots & f_{1,k} & \cdots \\ & \vdots & \\ \cdots & f_{n,k} & \cdots \end{pmatrix} & \begin{matrix} \phantom{V_1} \\ \phantom{\vdots} \\ \phantom{V_n} \end{matrix} \end{matrix} \\ \begin{matrix} & \begin{matrix} \color{red}{V_1} & \cdots & \color{red}{V_n} \end{matrix} \\ \begin{matrix} \vdots \\ \color{green}{W_i} \\ \vdots \end{matrix} & \begin{pmatrix} \vdots && \vdots \\ g_{i,1} & \cdots & g_{i,n} \\ \vdots && \vdots \\ \end{pmatrix} \\ & \begin{matrix} \phantom{V_1} & \phantom{\cdots} & \phantom{V_n} \end{matrix} \end{matrix} & \begin{pmatrix} \ddots && \\ & \sum\limits_{j=1}^{n} g_{ij} \circ f_{jk} & \\ && \ddots \end{pmatrix} \end{matrix}$ Man könnte auch heuristisch vorgehen und sich fragen, wie man überhaupt eine sinnvolle lineare Abbildung $U_k \to W_i$ aus den gegebenen Daten bekommen könnte, ohne dabei Daten unter den Tisch fallen zu lassen. Die obige Summe ist die einzig sinnvolle Art und Weise. In dem Spezialfall $U_k = K$, $V_j = K$, $W_i = K$ entspricht die Komposition linearer Abbildungen $K \to K \to K$ dem Produkt von Elementen von $K$; in der obigen Formel ersetzt man also $\circ$ durch $\cdot$, um das klassische Matrixprodukt $\cdot : M_{m \times n}(K) \times M_{n \times l}(K) \to M_{m \times l}(K)$ zu erhalten mit $\displaystyle (B \cdot A)_{ik} = \sum_{j=1}^{n} B_{ij} \cdot A_{jk}.$ Das Produkt $B \cdot A$ von zwei Matrizen $A,B$ über $K$ ist also nur dann definiert, wenn die Zeilenanzahl von $A$ gleich der Spaltenanzahl von $B$ ist. Das merkt man sich am besten so, dass die Komposition $g \circ f$ von (linearen) Abbildungen ja auch nur definiert ist, wenn der Zielraum von $f$ gleich dem Definitionsraum von $g$ ist. Für jeden Vektorraum $V$ ist $\mathrm{End}(V) := \mathrm{Hom}(V,V)$ mit der Komposition linearer Abbildungen ein Ring (sogar eine $K$-Algebra). Also trifft dies insbesondere auf $\mathrm{End}(K^n) \cong M_{n \times n}(K) =: M_n(K)$ zu.

Blockmatrizen

Sei $n = p + q$ und $m = r + s$. Dann gilt $K^n \cong K^p \oplus K^q$ und $K^m \cong K^r \oplus K^s$. Es folgt aus unserer Theorie $\mathrm{Hom}(K^n,K^m) \cong \begin{pmatrix} \mathrm{Hom}(K^p,K^r) & \mathrm{Hom}(K^q,K^r) \\ \mathrm{Hom}(K^p,K^s) & \mathrm{Hom}(K^q,K^s)\end{pmatrix} \cong \begin{pmatrix} M_{r \times p}(K) & M_{r \times q}(K) \\ M_{s \times p}(K) & M_{s \times q}(K)\end{pmatrix}.$ Elemente dieses Vektorraumes in dieser Darstellungsweise nennt man Blockmatrizen. Unser Theorie impliziert auch (eben weil wir uns nicht nur auf Matrizen über $K$ beschränkt haben), wie sich Blockmatrizen multiplizieren lassen (nehmen wir hierbei an, dass die $A',B',C',D'$ Matrizen passender Größen sind): $\begin{pmatrix} A & B \\ C & D \end{pmatrix} \cdot \begin{pmatrix} A' & B' \\ C' & D' \end{pmatrix} = \begin{pmatrix} A \cdot A' + B \cdot C' & A \cdot B' + B \cdot D' \\ C \cdot A' + D \cdot C' & C \cdot B' + D \cdot D' \end{pmatrix}$ Für $p=q=r=s=1$ ergibt sich als Spezialfall das Produkt von zwei $2 \times 2$-Matrizen über $K$. Dass dieses Produkt zwar assoziativ, aber nicht kommutativ ist, liegt daran, dass nicht alle linearen Abbildungen $K^2 \to K^2$ miteinander kommutieren. Man kann auch allgemeinere Partitionen von $n$ und $m$ betrachten, um den allgemeinen Begriff der Blockmatrix zu erhalten. Unsere Theorie ist eigentlich nichts weiter als eine koordinatenfreie Version davon.

Die Rolle von Matrizen

Die lineare Algebra handelt primär von Vektorräumen und linearen Abbildungen, nur sekundär von Matrizen. Dieudonné hat es in dem Buch "Grundzüge der modernen Analysis" ganz wunderbar ausgedrückt:
Es gibt kaum eine Theorie, die elementarer ist [als die lineare Algebra], trotz der Tatsache, dass Generationen von Professoren und Lehrbuchautoren die Einfachheit dieser Theorie durch höchst unangebrachte Rechnungen mit Matrizen verdunkelt haben.
In der Regel kann man sich Matrizen als "Kodierungen" von linearen Abbildungen vorstellen, die nützlich sein können. (Es gibt Ausnahmen wie zum Beispiel in der spektralen Graphentheorie, da die Adjazenzmatrix eines Graphen anscheinend nicht von einer natürlichen linearen Abbildung stammt.) Viele Aussagen über Matrizen lassen sich elegant und schnell beweisen, indem man einfach die entsprechenden Aussagen über lineare Abbildungen beweist. Zum Beispiel ist die Ungleichung für den Rang eines Matrixproduktes $\mathrm{rang}(A \cdot B) \leq \mathrm{rang}(A)$ schnell klar, weil ja $\mathrm{im}(f \circ g) \subseteq \mathrm{im}(f)$ gilt, und daher $\mathrm{rang}(f \circ g) \leq \mathrm{rang}(g)$. Auch die Theorie der Determinanten kann für Endomorphismen endlich-dimensionaler Vektorräume leicht und anschaulich ohne den Umweg über Matrizen entwickelt werden (siehe hier). Das Kronecker-Produkt versteht man am besten über das Tensorprodukt von linearen Abbildungen. Es wäre ein Umweg, die (mehrdimensionale) Kettenregel in der Analysis über die Jacobi-Matrix zu beweisen. In der Darstellungstheorie rächt es sich früher später, als Darstellungen nur Homomorphismen $G \to \mathrm{GL}_n(K)$ zuzulassen, man sollte sie als Homomorphismen $G \to \mathrm{GL}(V)$ für Vektorräume $V$ definieren.

Weiterführende Bemerkungen

Dieser Abschnitt ist nicht mehr unbedingt für Studienanfänger*innen. 1. Die hier vorgestellte Beschreibung der Homomorphismen zwischen direkten Summen mit Matrizen und die Formel für die Matrixmultiplikation gelten genauso für $R$-Moduln, wobei $R$ ein beliebiger Ring ist. Die Beweise sind unverändert. Noch allgemeiner kann man in einer beliebigen Kategorie mit Biprodukten arbeiten. Zum Beispiel lassen sich damit die Automorphismengruppen endlich-erzeugter $\IZ$-Moduln bestimmen; darüber hatte Gockel 2006 einen Artikel geschrieben. Im Fall von $R$-Moduln $V,W$ ist $\mathrm{Hom}_R(V,W)$ allerdings lediglich eine abelsche Gruppe (sogar ein $R$-Modul, wenn $R$ kommutativ ist), und die Aussage, dass jeder endlich-erzeugte $R$-Modul zu $R^n$ isomorph ist, gilt natürlich nicht für beliebige Ringe $R$. Die Theorie beschreibt insofern im Spezialfall nur die Homomorphismen zwischen endlich-erzeugten freien $R$-Moduln. 2. Die Matrixzerlegung der Homomorphismen wird in der Algebra, speziell der Darstellungstheorie, gerne benutzt, zum Beispiel wenn man $V$ und $W$ in direkte Summen von einfachen $R$-Moduln zerlegt hat und damit $\mathrm{Hom}_R(V,W)$ berechnen möchte, wobei das Lemma von Schur dann etwas über die Matrixeinträge aussagt. 3. Ringe wie zum Beispiel $\bigl(\begin{smallmatrix} \IQ & \IQ \\ 0 & \IZ \end{smallmatrix}\bigr)$ muss man nicht ad hoc mit einem Matrixprodukt versehen (von dem man dann nachrechnen müsste, dass es wohldefiniert ist), sondern es handelt sich einfach um den Endomorphismenring $\mathrm{Hom}_{\IZ}(\IQ \oplus \IZ,\IQ \oplus \IZ)$ in unserer Matrixzerlegung (beachte $\mathrm{Hom}_{\IZ}(\IQ,\IZ)=0$). 4. Auch in der homologischen Algebra tauchen die Matrizen in der hier vorgestellten allgemeinen Form auf: Für eine Kettenabbildung $f : (A,d) \to (B,d)$ zwischen Kettenkomplexen definiert man den Abbildungskegel $C(f)$ durch den Komplex mit den Objekten $(A^{n-1} \oplus B^n)_{n \in \IZ}$ und den Differentialen $D := \bigl(\begin{smallmatrix} -d & 0 \\ -f & d \end{smallmatrix}\bigr)$. Für den Nachweis von $D^2=0$ ist es praktisch, zu wissen, dass die Matrixmultiplikation auch für Matrizen linearer Abbildungen funktioniert. (In diesem Kontext wurde ich erstmals darauf aufmerksam.) 5. Bei nicht-kommutativen Gruppen treten zwei Schwierigkeiten auf: erstens ist $\mathrm{Hom}(G,H)$ keine Gruppe, zweitens ist $\mathrm{Hom}(G \times G',H)$ isomorph zur Teilmenge von $\mathrm{Hom}(G,H) \times \mathrm{Hom}(G',H)$ bestehend aus den Paaren von Homomorphismen $(f : G \to H,f' : G' \to H)$, für die $f(g)$ jeweils mit $f'(g')$ kommutiert (wobei $g \in G$, $g' \in G'$ beliebig). 6. Und was passiert im unendlichen Fall? Sind $(V_j)_{j \in J}$ bzw. $(W_i)_{i \in I}$ zwei beliebige Familien von $R$-Moduln, so gilt $\mathrm{Hom}(\bigoplus_{j \in J} V_j, \prod_{i \in I} W_i) \cong \prod_{(i,j) \in I \times J} \mathrm{Hom}(V_j,W_i)$ genau wie vorher, wogegen $\mathrm{Hom}(\bigoplus_{j \in J} V_j, \bigoplus_{i \in I} W_i) = \{f \in \prod_{(i,j) \in I \times J} \mathrm{Hom}(V_j,W_i) : \forall j \in J \, ( \# \{i \in I : f_{i,j} \neq 0\} < \infty)\}$ die Untergruppe der spaltenendlichen $I \times J$-Matrizen ist. 7. Über $\mathrm{Hom}(\prod_{i \in I} V_i,W)$ ist allerdings keine allgemeine Aussage möglich. Über die Baer-Specker-Gruppe weiß man zumindest $\mathrm{Hom}_{\IZ}(\prod_{n \in \IN} \IZ,\IZ) \cong \bigoplus_{n \in \IN} \IZ$, aber das ist schon eine Besonderheit.
Ich bedanke mich bei tactac fürs Korrekturlesen!

 


Dieser Artikel kommt von Matroids Matheplanet
https://matheplanet.de

Die Url für diesen Artikel ist:
https://matheplanet.de/default3.html?article=1938