Kapitel 2: Darstellungsmatrizen linearer Abbildungen zwischen endlich-dimensionalenVektorräumen bezüglich verschiedener Basen Hallo zusammen, ich möchte mich in diesem kleinen Abschnitt mit einem wohl oft zu unrecht als "kompliziert" verschrieenen Thema der linearen Algebra befassen. Wie schon aus der Überschrift zu erkennen, soll es um die verschiedenen Darstellungsformen linearer Abbildungen (Homomorphismen, strukturerhaltende Abbildungen) zwischen Vektorräumen gehen. Da ich pädagogisch leider in keiner Weise geschult bin, bitte ich im Voraus um Entschuldigung für ungewollte, beziehungsweise didaktisch nicht wertvolle gedankliche Sprünge, Unzulänglichkeiten bei Erklärungen und Wortarmut (ich bin auch leider rhetorisch nicht geschult). Gleichzeitig bitte ich von allen Seiten um Verbesserungsvorschläge inhaltlicher, äußerer Art, und um Fehlerbeseitigung. Inhalt - Lineare Abbildungen - Homomorphismen - Bild und Kern - Dimensionsformel - Injektivität und Surjektivität - Wo bleiben die Matrizen? - Lineare Abbildung am Beispiel - Darstellung linearer Abbildungen am Beispiel - Darstellungsmatrizen linearer Abbildungen bezüglich verschiedener Basen - Abbilden mit einer Darstellenden Matrix - Berechnung der Darstellenden Matrix am Beispiel - 5-Schritt-Verfahren zum Rechnen mit Darstellungsmatrizen - Zu komplizert? - Basisänderung - Rang einer linearen Abbildung
Ich setze voraus, mit folgenden Begriffen umgehen zu können: Vektorraum, Erzeugendensystem, Basis, Dimension, Abbildung, Matrix, Matrizenmultiplikation, Gauss-Algorithmus. | Lineare Abbildungen Definition: Lineare Abbildung Eine Abbildung f: V->W zwischen Vektorräumen heißt linear, wenn sie additiv und homogen ist. Axiomatisch ausgedrückt bedeutet das, dass sie den folgenden Gleichungen genügen muss:
| Additivität: | f(x+y) = f(x) + f(y) | Homogenität: | f(a*x)= a* f(x) | Aus diesen Axiomen folgt, dass jede lineare Abbildung mindestens das Nullelement des Definitionsraums auf das Nullelement des Zielraums abbildet, denn: f (0) = f (0+0) = f (0) + f (0) also haben wir f (0) = f (0) + f (0). Subtrahieren wir auf jeder Seite f (0), kommen wir auf: 0 = f (0), was zu zeigen war. qed. Eine solche lineare Abbildung heisst "strukturerhaltend=homomorph". Siehe den nächsten Abschnitt. Bemerkung: Ich möchte gleich zu Anfang eine Warnung geben: Vorsicht, das hier ist die Definition der linearen Abbildung in der linearen Algebra! Sie ist nicht übertragbar, und erst recht nicht äquivalent zu der Definition der linearen Abbildung der Analysis! Dort heißen Abbildungen linear, wenn ihr Graph eine "Linie" ist. Das heißt, eine Analysis-lineare Abbildung ist nur dann auch LA-linear, wenn ihr Graph durch den Ursprung geht, sonst nicht! Ich persönlich bin mit dieser Diskrepanz in der Nomenklatur derart fundierter Begriffe recht unglücklich, aber wer bin ich, darüber zu urteilen?
Homomorphismen So, jetzt könnte man denken: "Ja, jetzt haben wir ne super Definition, und wissen, dass die Null immer auf die Null abgebildet wird, wissen auch dass wir zwischen dem Begriff in der LA und der Analysis unterscheiden müssen, aber wieso heißt denn eine solche Abbildung "strukturerhaltend", und was bedeutet überhaupt das Wortungetüm "Homomorphismus"? "Homo" heißt "gleichartig" und "morph" heißt "Struktur", also bedeutet es soviel wie "strukturerhaltend". Irgendwie muss man ja einen Namen finden! Aber wieso "strukturerhaltend"? Das ist eine gute Frage, aber auch recht leicht zu beantworten, denn schauen wir uns einmal die Addition im Definitionsraum an: Durch die Addition zweier Elemente aus V (Vektoren) x,y wird diesen ein anderes Element dieser Menge eindeutig zugeordnet, d.h. (x,y) --> x+y. Jetzt kommt die Abbildung von V nach W ins Spiel. Die Frage ist, ob es egal ist, ob ich zwei Objekte aus V erst addiere und dann ihre Summe auf ein Objekt aus W abbilde (f(x+y)), oder ob ich erst die Objekte auf ihre Bilder aus W abbilde, und dann die Bilder addiere (f(x)+f(y)). Bei linearen Abbildungen ist das axiomatisch gefordert, und das bedeutet, dass die Struktur von V bezüglich der Addition in V durch die Abbildung nach W dorthin übertragen wird. Anders ausgedrückt: Die Struktur von V bleibt bei Abbildung nach W erhalten. Das gleiche gilt nun auch für die Struktur bezüglich der Skalar-Multiplikation.
Bild und Kern
Jetzt kommen wir zu ein paar weiteren Eigenschaften linearer Abbildungen:
Wir nennen diejenige Teilmenge von W, die von der Abbildung f erfasst wird, Bild(f). Das heißt, Bild(f) ist der Bereich des "Zielraumes", auf den alle Vektoren des Definitionsraums unter f abgebildet werden. Ist Bild(f) der ganze Vektorraum W, so ist f surjektiv. Bild(f) ist ein Untervektorraum des Zielvektorraums, was man mit dem Unterraumkriterium leicht beweisen kann.
\frameon\blue\big\ Definition: Bild(f)__
Der Bildbereich einer linearen Abbildung f:V->W heißt Bild(f)__ und ist ein Unterraum des Zielraums W, weswegen man auch vom Bildraum spricht. Manchmal wird Bild(f) auch mit Im(f) bezeichnet (engl.: image = Bild).
Das heißt:
\big\ Bild(f)\normal:= menge(w \el W \| es existiert mindestens ein v \el V mit f (v) = w).
Es gibt eine weitere wichtige Teilmenge, und zwar diesmal nicht vom Zielraum W, sondern vom Definitionsraum V. Er wird Kern(f) genannt, und besteht aus der Menge derjenigen Vektoren von V, die unter f auf den Nullvektor von W abgebildet werden. Wird nur der Nullvektor von V auf den Nullvektor von W abgebildet, so ist der Kern(f)={0}, und daraus folgt, dass die Abbildung f injektiv ist (Beweis?). Der Kern einer linearen Abbildung ist ein Untervektorraum des Definitionsraums, was man wieder leicht mit dem Unterraumkriterium nachweisen kann. Das führt uns auf folgende
\frameon\blue\big\ Definition: Kern(f)__
Die Menge von Vektoren aus V, die unter f auf Null abgebildet werden, heißt Kern(f)__ und ist ein Untervektorraum von V.
Das heißt:
\big\ Kern(f)\normal:= menge(v\el\ V|f(v)=0).
Dimensionsformel
Jetzt kommen wir zu einer sehr hilfreichen Formel, und zwar der Dimensionsformel für lineare Abbildungen:
\frameon\darkred\big\ Dimensionsformel:
Sei f: V->W eine lineare Abbildung, und sei dim V = n. Es gilt:
\big\ dim Kern(f) + dim Bild(f) = n
Beweis: Es gibt verschiedene Möglichkeiten, zum einen eine kurze, elegante, für welche das Handwerkszeug jedoch nicht vorausgesetzt war (Quotientenvektorräume), und eine etwas längere, welche über den Basisergänzungssatz läuft. Falls wider Erwarten daran Interesse besteht, kann man einen Beweis ja nachliefern.
Bemerkung: Der in der Dimensionsformel ausgedrückte Zusammenhang gibt einen Hinweis darauf, dass man weitere interessante Zusammenhänge derart finden kann; zum Beispiel einen höchst bemerkenswerten: Der Vektorraum Bild(f) ist vollständig in V enthalten( in V! in W ja sowieso!), das soll heißen, dass der Faktorraum (Quotientenraum) V/Kern(f) isomorph zu Bild(f) ist! Das aber nur am Rande.
Injektivität und Surjektivität
Noch eine wichtige Eigenschaft von linearen Abbildungen ist die "Äquivalenz" von Injektivität und Surjektivität unter bestimmten Umständen.
\frameon\darkred\big\Ist f: V->W eine lineare Abbildung mit dim V= dim W = n <\inf. Dann gilt:
f injektiv <=> f surjektiv.
Beweis:
Wir wissen: wenn f injektiv ist, genau dann ist Kern(f) = {0}.
Wir wissen auch: wenn f surjektiv ist, genau dann ist dim Bild(f)= dim W.
Nach der Dimensionsformel gilt: Kern(f)={0} <=> dim Bild(f) = dim V, da die Dimension des Kerns ja Null ist, wenn er nur aus der Null besteht.
Das heißt:
f injektiv <=> Kern(f)={0} <=> dim Bild(f)= dim V (=dim W)
<=> f surjektiv.
qed
Wo bleiben die Matrizen?
So, ich höre schon: "JETZT REICHTS! Was hat das denn mit Matrizen zu tun!?"
Es tut mir auch Leid, dass man dafür soviel Vorbereitung braucht, aber das ist vielleicht der Grund dafür, dass einem das Thema kompliziert erscheint, wenn man es eben ohne diese Vorbereitung betrachtet.
Also, wir wissen jetzt, was lineare Abbildungen sind, und ein paar Eigenschaften kennen wir auch schon, aber wir haben noch keine einzige gesehen!
Das soll sich ändern!
Lineare Abbildung am Beispiel Wählen wir mal einfach "irgendeine" Abbildungsvorschrift explizit, also zB: Sei f: K3-> K3, mit Ist diese Abbildung überhaupt linear? Nun ja, nachprüfen! An der Null kann es schon mal nicht liegen, denn der Nullvektor wird offensichtlich auf den Nullvektor abgebildet. Das ist zwar kein offiziell nachzuprüfendes Axiom, doch kann man in manchen Fällen schnell die Nicht-Linearität verifizieren, falls die Null nicht auf die Null abgebildet wird! Okay, nun zur Additivität: Es muss gelten: f(x+y) = f(x) + f(y). Wir fangen hinten an: und das stimmt. Nun zur Homogenität. Es muss gelten: f (a*x) = a*f (x). das stimmt auch! Also ist unsere Abbildung linear! Jetzt haben wir eine lineare Abbildung f, in der uns sowieso schon bekannten expliziten Darstellungsform. Diese ist auch für manche Überlegungen vorteilhaft, zum Beispiel, wenn man am Kern(f) interessiert ist. Den bekommt man nämlich, indem man folgendes homogenes lineares Gleichungssystem löst: f (x) = 0. Das hieße in unserem konkreten Fall: was uns genau genommen auf folgende drei Gleichungen führt: - 1*x1+1*x2+0*x3 = 0
- 0*x1+1*x2+0*x3 = 0
- 0*x1+0*x2+1*x3 = 0
Die Lösungsmenge eines homogenen LGS ist bekanntlich ein Untervektorraum, in unserem Fall also Kern(f) und somit schließt sich der Kreis.
Darstellung linearer Abbildungen am Beispiel Für folgende Überlegung ist die explizite Darstellungsform schon nicht mehr so vorteilhaft, und wir wollen uns Überlegen, ob man lineare Abbildungen vielleicht noch anders "Darstellen" kann. Angenommen wir wären am Vektorraum Bild(f) interessiert, und wir haben eine lineare Abbildung explizit gegeben. Dann kommen wir mit dieser Darstellungsart nicht gut weiter, und überlegen uns folgendes: Hier haben wir nur die Matrizenmultiplikation verwendet (rückwärts), und schon haben wir die explizite Darstellung der Abbildung in die Form eines Produktes einer Matrix A und eines Vektors x gebracht. Damit erklärt sich die Schreibweise einer Abbildung f (x) = Ax. Das heißt, man erhält das Bild eines beliebigen Vektors des Definitionsraums, indem man ihn einfach mit der Matrix A multipliziert (von links). Wir sind aber immer noch auf der Suche nach Bild(f). Dazu betrachten wir noch mal die Form Aufpassen! Das ist ein Spaltenvektor, keine 3x3-Matrix! Wir "zerlegen" diesen Spaltenvektor in drei Summanden: was ja aufgrund der komponentenweise erklärten Addition von Vektoren möglich ist. Jetzt wenden wir noch die Skalarmultiplikation (auch rückwärts) an: und erhalten eine Linearkombination der Spaltenvektoren der Matrix A. Der Unterraum Bild(f) wird von genau diesen Spaltenvektoren erzeugt, womit wir hier ein Erzeugendensystem von Bild(f) haben. Um auf eine Basis zu kommen, muss man natürlich eine maximale Anzahl an linear unabhängigen Vektoren aus dem Erzeugendensystem heraussuchen. Das heißt im Klartext: Sei f: V->W, f(x)=Ax, eine lineare Abbildung. Dann wird Bild(f) von den Spalten der Matrix A erzeugt (dazu muss man die Matrix A als "Ansammlung" von Spaltenvektoren ansehen). Kern(f) hingegen ist der Lösungsraum des homogenen LGS Ax=0.
Darstellungsmatrizen linearer Abbildungen bezüglich verschiedener Basen "Soweit so gut, ABER was heißt dann Darstellungsmatrix bezüglich irgendwelcher Basen?!" Ganz einfach: Man kann jede lineare Abbildung zwischen zwei Vektorräumen bezüglich zweier zugehörigen Basen durch eine Matrix darstellen. Sei f: V->W eine lineare Abbildung explizit angegeben. Ohne Beschränkung der Allgemeinheit nehmen wir dimV=dimW=3 an. BV={v1, v2, v3} und BW={w1, w2, w3} seien zwei beliebige zugehörige Basen von V und W. Die Darstellungsmatrix M von f bezüglich der Basen BV und BW wird mit bezeichnet. "Ja gut, aber wie sieht die denn aus?" Nun erstmal ein vorübergehender Schock: Die Spalten der Darstellungsmatrix von f sind die Bilder der Basisvektoren aus BV, jedoch als Linearkombination der Basisvektoren aus BW geschrieben. Das klingt etwas kompliziert, ist aber im Grunde ganz einfach: Um die erste Spalte unserer Matrix zu bekommen, müssen wir zuerst den ersten Vektor der Basis BV, also v1, abbilden. Das Bild ist f(v1), und das ist ein Vektor aus W. Man kann jeden Vektor aus W bekanntlich eindeutig als Linearkombination der Basisvektoren aus BW darstellen. Das sähe dann so aus: f (v1) = a1*w1 + a2*w2 + a3*w3 mit (eindeutig) bestimmten Zahlen a1, a2, a3. Damit hätten wir doch schon unsere erste Spalte: Das gleiche machen wir auch für die beiden restlichen Vektoren, und bekommen für f (v2)=b1*w1+b2*w2+b3*w3, und für f (v3)=c1*w1+c2*w2+c3*w3. Damit haben wir nun die restlichen Spalten: und setzen daraus unsere Darstellungsmatrix zusammen: Eigentlich gar nicht schwierig, oder?
Abbilden mit einer darstellenden Matrix "Aber wie bilde ich denn jetzt einen beliebigen Vektor aus V ab, wenn ich die Abbildung durch diese Matrix da gegeben hab? Einfach wie oben den abzubildenden Vektor mit der Matrix multiplizieren?" NEIN!!! GANZ Vorsichtig! Vorhin hatten wir zwar auch eine Matrix, es war auch eine Darstellungsmatrix, ABER es war ein Sonderfall, und der ist nicht auf den allgemeinen Fall übertragbar! Wir kommen noch auf diesen Sonderfall, und wann man einfach einen Vektor mit der Matrix multiplizieren darf, um ihn abzubilden, und wann nicht.
Berechnung der Darstellenden Matrix am Beispiel Aber vorerst behandeln wir ein Beispiel: Nehmen wir einfach das Beispiel von oben: hier ist V=IR3 und W=IR3, und wir brauchen dazu noch eine beliebige Basis von V und eine von W. Für BV nehmen wir und für BW nehmen wir Wie sieht die Darstellungsmatrix M von f bezüglich BV und BW jetzt aus? Also, die erste Spalte ist das Bild des ersten Basisvektors aus BV, als Linearkombination der Vektoren aus BW dargestellt. Das heißt, wir müssen als erstes den Vektor abbilden: Den Vektor müssen wir als Linearkombination der Vektoren darstellen. Wenn das (so wie hier) nicht auf Anhieb ersichtlich ist, dann macht man das mit Hilfe des Gauss-Algorithmus, und kommt auf also ist die erste Spalte unserer Darstellungsmatrix M: . Das machen wir jetzt auch mit den anderen beiden Basisvektoren, und erhalten für die zweite Spalte: und analog die dritte Spalte (1;0;5)
Damit haben wir unsere Darstellungsmatrix: $_BV M_BW (f)=(3/5,3/5,1;4/5,-7/10,0;-7/5,21/10,5)
Okay, ich gebe zu, keine sehr schönen Zahlen, wahrscheinlich ist auch noch ein Rechenfehler drin, jedoch ich hoffe, dass das Prinzip klar wurde.
5-Schritt-Verfahren zum Rechnen mit Darstellungsmatrizen Zurück zum allgemeinen Fall. Wie wird ein beliebiger Vektor von V abgebildet, wenn man ihn nicht einfach mit der Darstellungsmatrix multiplizieren darf? Nun, ich glaube es ist sinnvoll, das anhand einer festen Schrittfolge zu verdeutlichen: - Den abzubildenden Vektor v muss man als Linearkombination der Basis BW schreiben.
- Die Koeffizienten dieser Linearkombination fasst man selbst als Vektor auf.
- Diesen "transformierten" Vektor multipliziert man nun mit der Darstellungsmatrix.
- Das Bild des transformierten Vektors fasst man als Koeffizientenvektor auf (wie in Schritt 2. nur rückwärts) und bildet mit den Einträgen dieses Vektors eine Linearkombination aus den Basisvektoren von BW.
- Jetzt muss man das alles nur noch zusammenfassen, und man hat das gesuchte Bild f(v).
Zu kompliziert? Es erscheint schon relativ aufwendig, mit Darstellungsmatrizen zu rechnen, der hier allgemein behandelte Fall ist aber auch der theoretisch "schlimmste" Fall, der eintreten kann, denn es gibt bestimmte Situationen, bei denen das nicht so aufwendig ist. Diese wollen wir uns jetzt ansehen: Hat man eine Darstellungsmatrix M bezüglich der Standardbasen, so tritt der einfachste Fall (siehe oben) ein: Man kann die Abbildung f dann als f(x)=Mx schreiben, was nichts anderes Bedeutet, als dass man aus dieser Matrix die explizite Darstellung direkt ablesen kann, beziehungsweise umgekehrt (vgl oben). Hat man eine Darstellungsmatrix M gegeben, wobei BV die Standardbasis ist, und BW eine beliebige Basis, dann kann man direkt bei Schritt 3. anfangen, denn man muss den abzubildenden Vektor ja nicht erst transformieren. Hat man eine Darstellungsmatrix M gegeben, wobei BV eine beliebige Basis ist, und BW die Standardbasis, dann muss man den abzubildenden Vektor zwar transformieren, jedoch kann man sich den Schritt 4. sparen.
Basisänderung "Was ist, wenn ich nur eine Darstellungsmatrix und die zugehörigen Basen angegeben habe und ich möchte die explizite Darstellung haben, oder eine Darstellungsmatrix bezüglich anderer Basen?" Wenn man diese Frage genau betrachtet, fällt auf, dass es sich um die gleiche Fragestellung handelt, jedoch im ersten Fall ist eine Darstellungsmatrix bezüglich der Standardbasen gefragt, und im zweiten Fall ist eine Darstellungsmatrix bezüglich beliebigen anderen Basen gefragt. Allgemein gesagt heißt das, dass wenn wir aus dem gegebenen eine Darstellungsmatrix bezüglich zwei beliebigen anderen Basen ermitteln können, können wir auch die Matrix bezüglich der Standardbasen ermitteln, woraus die explizite Darstellung direkt abzulesen ist. Wir brauchen also noch zwei weitere Basen, für V nehmen wir völlig beliebig und für W nehmen wir Unser Ziel ist es die Matrix bezüglich dieser Basen aufzustellen, welche die Abbildung von oben repräsentiert. Dabei haben wir die obige Abbildung aber nur als Matrix bezüglich anderer Basen gegeben. Was nun? Wir erinnern uns, was die Spalten einer Darstellungsmatrix noch mal bedeuten: "Die Spalten der Darstellungsmatrix von f sind die Bilder der Basisvektoren aus BV, jedoch als Linearkombination der Basisvektoren aus BW geschrieben." Also müssen wir jetzt erstmal die drei Vektoren aus BV2 unter f abbilden, und dazu gehen wir nach obiger Schrittfolge vor: Wir können den ersten Vektor folgendermaßen als Linearkombination der Basis BV darstellen: also müssen wir den Vektor mit der obigen Darstellungsmatrix multiplizieren: und mit den Einträgen dieses Vektors jetzt eine Linearkombination mit den Vektoren aus BW bilden: Somit haben wir das Bild des ersten Basisvektors aus BV2, und dieses müssen wir jetzt als Linearkombination der Basis BW2 darstellen (wie üblich werden die Koeffizienten mit dem Gauss-Algorithmus ermittelt): und damit haben wir die erste Spalte unserer "neuen" Darstellungsmatrix: Die anderen zwei Spalten erhält man analog, sie lauten: Damit ergibt sich die Darstellungsmatrix bezüglich der Basen und  Man sieht, dass wir zwei völlig verschieden wirkenden Matrizen haben, die tatsächlich dieselbe lineare Abbildung repräsentieren. Da es in IR3 unendlich viele Basen gibt, gibt es auch unendlich viele Darstellungsmatrizen einer solchen Abbildung. Dass hier wirklich ein und dieselbe Abbildung repräsentiert wird, davon kann man sich leicht selbst überzeugen: Wenn wir einen bestimmten Vektor per Darstellungsmatrix abbilden, muss natürlich das gleiche Bild rauskommen, wie wenn man den Vektor mit einer anderen Darstellungsmatrix der selben Abbildung abbildet. Das Abbilden per Einsetzen in die explizite Darstellung kommt dem Abbilden per Darstellungsmatrix bezüglich der Standardbasen gleich. Oben haben wir den Vektor über die erste Matrix abgebildet und bekamen als Bild . Dass das stimmt, sehen wir, wenn wir den Vektor mal in die explizite Form einsetzen: Generell ist zu bemerken, dass man jede mxn-Matrix über einem Körper K als eine lineare Abbildung von Kn nach Km auffassen kann. In diesem Zusammenhang Definieren wir noch den Rang einer linearen Abbildung :
Rang einer linearen Abbildungen Definition: Rang einer linearen Abbildung bzw einer Matrix. Sei f eine lineare Abbildung von V nach W, und A eine darstellende Matrix der linearen Abbildung. Dann bezeichnet man die Dimension von Bild(f) mit Rang(f) bzw rg(f). | Es zeigt sich, daß Rang(f) gleich dem Rang einer darstellenden Matrix A ist. Man kann das eine oder das andere ermitteln, indem man die Anzahl linear unabhängiger Spalten von A bestimmt. Ich hoffe es konnte etwas helfen Thorsten
Weitere Beiträge in der Reihe Lineare Algebra für Dummies: Vektorräume Determinanten Ein Zwischenkapitel auf dem Weg zur Diagonalisierbarkeit Transformationsmatrizen Kapitel 5: Eigenwerte, Eigenraum, Diagonalisierung, charakteristisches Polynom. Eine Besprechung mehrerer Lineare-Algebra-Bücher.
|