Inhalt

7.3 Der Zusammenhang zwischen linearen Abbildungen und Matrizen

In diesem Abschnitt studieren wir den Zusammenhang zwischen linearen Abbildungen und Matrizen. Das sieht auf den ersten Blick nach furchtbar viel Rechnerei aus (besonders im zweiten Teil des Abschnitts, wenn wir die Matrizen \(M^\mathscr B_\mathscr C(f)\) definieren und untersuchen, was bei »Basiswechsel« passiert). Diese Überlegungen sind aber wichtig für das strukturelle Verständnis: Siehe Bemerkung 7.35.

Zuerst betrachten wir lineare Abbildungen \(K^n\to K^m\) zwischen Standardvektorräumen über einem Körper \(K\). Wir kennen schon die Abbildungen der Form \(\mathbf f_A\), \(x\mapsto Ax\) für Matrizen \(A\in M_{m\times n}(K)\). Mit Satz 7.14 sehen wir leicht, dass jede lineare Abbildung \(f\colon K^n\to K^m\) die Form \(\mathbf f_A\) für eine eindeutig bestimmte Matrix \(A\in M_{m\times n}(K)\) hat. Wir formulieren das als den folgenden

Satz 7.26

Seien \(m,n \ge 0\). Die Abbildung

\[ M_{m\times n}(K) \rightarrow \operatorname{Hom}_K(K^n, K^m), \quad A \mapsto (\mathbf f_A\colon x\mapsto Ax), \]

ist ein Isomorphismus mit Umkehrabbildung

\[ f \mapsto M(f):= (a_{ij})_{i,j}, \]

wobei

\[ f(e_j) = (a_{1j}, \dots , a_{mj})^t \in K^m. \]

Hier bezeichnet das \(e_j\) links den \(j\)-ten Standardbasisvektor in \(K^n\), dem Definitionsbereich von \(f\).

Die \(j\)-te Spalte von \(M(f)\) ist also der Vektor \(f(e_j)\in K^m\).

Proof
Der Beweis ist im Grunde nicht schwierig, sondern besteht eher darin, zu »organisieren«, was gezeigt werden muss, und diese Liste dann abzuarbeiten – Sie sollten versuchen, einen eigenen Beweis aufzuschreiben, bevor Sie den Beweis hier lesen.

Wir überprüfen, dass die Abbildung \(A\mapsto \mathbf f_A\) linear ist, und dass die beiden gegebenen Abbildungen zueinander invers sind. Die Linearität der Abbildung \(f\mapsto M(f)\) folgt dann aus Lemma 7.10, sobald wir gezeigt haben, dass die Abbildungen invers zueinander sind. (Es ist natürlich auch möglich, die Linearität dieser Abbildung direkt nachzurechnen.)

Die Tatsache, dass \(A\mapsto \mathbf f_A\) eine lineare Abbildung ist, schreibt man unmittelbar aus; für \(A,B\in M_{m\times n}(K)\), \(a,b\in K\) und \(x\in K^n\) gilt

\[ (aA+bB)x = a(Ax) + b(Bx), \]

also \(\mathbf f_{aA+bB} = a\mathbf f_A + b\mathbf f_B\).

Nun überprüfen wir, dass die Abbildungen \(A\mapsto \mathbf f_A\) und \(f\mapsto M(f)\) zueinander invers sind. Sei zunächst \(A\in M_{m\times n}(K)\). Wir wollen zeigen, dass \(A=M(\mathbf f_A)\). Wir schreiben dazu \(A=(a_{ij})_{i,j}\) und \(M(\mathbf f_A) = (a_{ij}^\prime )_{i,j}\). Wir haben dann nach Definition von \(M(\mathbf f_A)\), dass

\[ (a_{1j}, \dots , a_{mj})^t = Ae_j = \mathbf f_A(e_j) = (a_{1j}^\prime , \dots , a_{mj}^\prime )^t, \]

wobei wir noch für die erste Gleichheit benutzen, dass \(Ae_j\) gerade die \(j\)-te Spalte von \(A\) ist, und für die zweite Gleichheit die Definition von \(\mathbf f_A\) benutzen. Es folgt also \(a_{ij}=a_{ij}^\prime \) für alle \(i\) und \(j\).

Es bleibt noch zu zeigen, dass \(\mathbf f_{M(f)} = f\) für jede lineare Abbildung \(f\colon K^n\to K^m\) gilt. Nach Satz 7.14 genügt es zu zeigen, dass \(\mathbf f_{M(f)}(e_j) = f(e_j)\) für alle \(j=1, \dots , n\) gilt. In der Tat haben wir, wenn wir \(M(f) = (a_{ij})_{i,j}\) schreiben, dass

\[ \mathbf f_{M(f)}(e_j) = M(f) e_j = (a_{1j}, \dots , a_{mj})^t = f(e_j) \]

nach Definition der \(a_{ij}\).

Proof

Man kann den Beweis der Bijektivität der Abbildung \(f\mapsto M(f)\) auch »direkter« führen, indem man mithilfe von Satz 7.14 die Injektivität und Surjektivität nachweist. Es ist aber auch nützlich, die Umkehrabbildung anzugeben, wie wir es getan haben.

Lemma 7.27

Seien \(f\colon K^m\to K^l\) und \(g\colon K^n\to K^m\) lineare Abbildungen und seien \(M(f)\in M_{l\times m}(K)\) und \(M(g)\in M_{m\times n}(K)\) die zugehörigen Matrizen im Sinne von Satz 7.26.

Dann gilt \(M(f\circ g) = M(f)M(g)\).

Proof
Weil die in Satz 7.26 angegebenen Abbildungen zwischen dem Raum der linearen Abbildungen und dem Raum der Matrizen bijektiv sind, ist das eine rein formale Folgerung aus Satz 5.48, der besagt, dass für Matrizen \(A\in M_{l\times m}(K)\), \(B\in M_{m\times n}(K)\) gilt, dass \(\mathbf f_A\circ \mathbf f_B = \mathbf f_{AB}\).

In der Tat erhalten wir so

\[ f\circ g = \mathbf f_{M(f)}\circ \mathbf f_{M(g)} = \mathbf f_{M(f)M(g)}, \]

also \(M(f\circ g) = M(\mathbf f_{M(f)M(g)}) = M(f)M(g)\), wie gewünscht.

Proof

Mit dem Lemma sehen wir erneut (vergleiche den Kommentar nach Lemma 7.10), dass eine Abbildung \(f\colon K^n\to K^n\) genau dann ein Isomorphismus ist, wenn \(M(f)\) eine invertierbare Matrix ist.

Bemerkung 7.28

Wenn man etwas sorgfältiger arbeitet, kann man die Vektorraumisomorphismen \(M_{m\times n}(K)\stackrel{\sim }{\smash {\longrightarrow }\rule{0pt}{0.4ex}}\operatorname{Hom}_K(K^n, K^m)\) und die Verträglichkeit mit dem Matrizenprodukt auch beweisen, ohne die Assoziativität des Matrizenprodukts (in voller Allgemeinheit) zu benutzen. Es genügt zu wissen, dass für Matrizen \(A\) und \(B\) und Standardbasisvektoren \(e_j\) der richtigen Größe stets \((AB)e_j = A(Be_j)\) gilt, was man fast »ohne Rechnung« sieht. Das ermöglicht es, die Assoziativität des Matrizenprodukts als Folgerung aus der offensichtlichen Tatsache zu erhalten, dass die Verkettung von Abbildungen assoziativ ist. Jedenfalls untermauert die Entsprechung zwischen Matrizen und linearen Abbildung, dass das Matrixprodukt assoziativ sein »muss«.

Wir wollen nun Satz 7.26 auf den Fall beliebiger Vektorräume \(V\) und \(W\) der Dimension \(n\) und \(m\) übertragen. Dabei fixieren wir Basen \(\mathscr B=(v_1, \dots , v_n)\) von \(V\) und \(\mathscr C=(w_1, \dots , w_m)\) von \(W\). Die Koordinatenabbildungen \(c_\mathscr B\) und \(c_\mathscr C\) sind Isomorphismen \(V\cong K^n\) und \(W\cong K^m\), die wir uns als Identifizierungen vorstellen können; siehe Bemerkung 7.30.

Satz 7.26 erhalten wir zurück, wenn wir \(V=K^n\), \(W=K^m\) und als Basen die Standardbasen fixieren. Da wir für eine lineare Abbildung \(f\colon V\to W\) aus den Koordinatenvektoren der \(f(v_i)\) bezüglich \(\mathscr C\) eine Matrix konstruieren, ist es hier wichtig, dass wir die Anordnung (also die Nummerierung) der Basisvektoren in den Basen \(\mathscr B\) und \(\mathscr C\) fixieren. Wenn wir unten sagen »Sei \(\mathscr B\) eine Basis des endlich-dimensionalen Vektorraums \(V\).«, so ist damit ein Tupel von Elementen aus \(V\) (mit fixierter Reihenfolge, also nicht nur eine Teilmenge von \(V\)) gemeint. Man spricht auch von einer (an-)geordneten Basis.

Satz 7.29

Seien \(V\), \(W\) Vektorräume der Dimensionen \(n=\dim V\), \(m=\dim W\), und seien \(\mathscr B=(v_1, \dots , v_n)\), \(\mathscr C=(w_1, \dots , w_m)\) Basen von \(V\) bzw. \(W\). Dann sind die Abbildungen

\[ M_{m\times n}(K) \longrightarrow \operatorname{Hom}_K(V,W), \quad A\mapsto c_{\mathscr C}^{-1}\circ \mathbf f_A \circ c_{\mathscr B} \]

und

\[ \operatorname{Hom}_K(V,W) \longrightarrow M_{m\times n}(K), \quad f\mapsto M^{\mathscr B}_{\mathscr C}(f) := M(c_{\mathscr C}\circ f \circ c_{\mathscr B}^{-1}) \]

zueinander inverse Vektorraumisomorphismen.

Proof
Wir können die Aussage des Satzes in die folgenden Punkte aufteilen:

  1. Die gegebene Abbildung \(M_{m\times n}(K) \longrightarrow \operatorname{Hom}_K(V,W)\) ist linear.

  2. Die gegebene Abbildung \(\operatorname{Hom}_K(V,W) \longrightarrow M_{m\times n}(K)\) ist linear.

  3. Die Verkettung \(M_{m\times n}(K) \longrightarrow \operatorname{Hom}_K(V,W) \longrightarrow M_{m\times n}(K)\) ist die Identitätsabbildung.

  4. Die Verkettung \(\operatorname{Hom}_K(V,W) \longrightarrow M_{m\times n}(K)\longrightarrow \operatorname{Hom}_K(V,W)\) ist die Identitätsabbildung.

Jeder dieser Punkte lässt sich durch einfache Überlegungen zeigen bzw. auf Satz 7.26 zurückführen, und es ist besser (und vielleicht sogar einfacher), wenn Sie sich selbst durch das Gestrüpp von Bezeichnungen (das sich an dieser Stelle leider nicht ganz vermeiden lässt) schlagen, als den Beweis hier nachzulesen.

Wegen Lemma 7.10 genügt es, einen der beiden Punkte (1), (2) zu zeigen, wenn man zuerst (3) und (4) abhandelt.

zu (3). Es gilt

\[ M^\mathscr B_\mathscr C(c_{\mathscr C}^{-1}\circ \mathbf f_A \circ c_{\mathscr B}) = M(c_{\mathscr C}\circ c_{\mathscr C}^{-1}\circ \mathbf f_A \circ c_{\mathscr B}\circ c_\mathscr B^{-1}) = M(\mathbf f_A) = A. \]

zu (4). Es gilt

\[ c_\mathscr C^{-1}\circ \mathbf f_{M^\mathscr B_\mathscr C(f)} \circ c_{\mathscr B}= c_\mathscr C^{-1}\circ \mathbf f_{M(c_{\mathscr C}\circ f\circ c_{\mathscr B}^{-1})} \circ c_{\mathscr B}= c_\mathscr C^{-1}\circ c_{\mathscr C}\circ f\circ c_{\mathscr B}^{-1} \circ c_{\mathscr B}=f. \]

zu (1). Sind \(\varphi \colon V_1\to V_2\) und \(\psi , \psi ^\prime \colon V_2\to V_3\) Vektorraum-Homomorphismen, so gilt \((\psi +\psi ^\prime )\circ \varphi = \psi \circ \varphi + \psi ^\prime \circ \varphi \). Denn auf beiden Seiten steht die Abbildung \(v_1\mapsto \psi (\varphi (v_1)) + \psi ^\prime (\varphi (v_1))\). Entsprechend ist es, wenn die Summe zweier Abbildungen auf der rechten Seite einer Verkettung steht. Mithilfe dieser Überlegung und der Linearität der Abbildung \(A\mapsto \mathbf f_A\) (Satz 7.26) folgt die Kompatibilität der Abbildung mit der Addition. Die Kompatibilität mit der Skalarmultiplikation kann man in analoger (aber noch einfacherer) Weise zeigen. (Stattdessen bzw. zusätzlich kann man mit ganz ähnlichen Argumenten die Linearität in (2) zeigen.)

Proof

Mit anderen Worten: Für alle \(v\in V\) gilt

\[ M^{\mathscr B}_{\mathscr C}(f) c_{\mathscr B}(v) = c_{\mathscr C}(f(v)). \]

Man nennt \(M^{\mathscr B}_{\mathscr C}(f)\) auch die darstellende Matrix von \(f\), oder sagt, \(f\) werde bezüglich der Basen \(\mathscr B\) und \(\mathscr C\) durch die Matrix \(M^{\mathscr B}_{\mathscr C}(f)\) dargestellt. Für ein Element \(v_j\) der Basis \(\mathscr B\) ist \(c_\mathscr B(v_j) = e_j\in K^n\) der \(j\)-te Standardbasisvektor, also ist \(M^{\mathscr B}_{\mathscr C}(f) c_{\mathscr B}(v_j) = c_{\mathscr C}(f(v_j))\) die \(j\)-te Spalte von \(M^{\mathscr B}_{\mathscr C}(f)\). Das ist die Beschreibung von \(M^{\mathscr B}_{\mathscr C}(f)\), die Sie sich merken sollten:

Die \(j\)-te Spalte von \(M^{\mathscr B}_{\mathscr C}(f)\) ist der Koordinatenvektor (bezüglich \(\mathscr C\)) des Bildes \(f(v_j)\) vom \(j\)-ten Vektor in \(\mathscr B\).

Mit dieser Beschreibung können wir auch die Bijektivität der Abbildung \(f\mapsto M^\mathscr B_\mathscr C(f)\) noch einmal auf etwas anderem Wege begründen, und zwar indem wir die Aussage direkt auf Satz 7.14 zurückführen: Die Abbildung ist injektiv, weil die lineare Abbildung \(f\) durch die Bilder \(f(v_j)\) der Vektoren in \(\mathscr B\) eindeutig bestimmt ist. Sie ist surjektiv, weil wir als Bilder der \(v_j\) beliebige Elemente in \(W\) (und damit beliebige Koordinatenvektoren) vorgeben können.

Im Fall \(V=K^n\), \(W=K^m\) und wenn \(\mathscr B\) und \(\mathscr C\) die Standardbasen bezeichnen, dann ist \(M^{\mathscr B}_{\mathscr C}(f) = M(f)\).

Bemerkung 7.30

Wir können die Abbildungen, die hier eine Rolle spielen, wie folgt aufschreiben:

\begin{tikzcd} [sep=large]
        V \arrow{r}{f}\arrow{d}{c_\Bscr} & W\arrow{d}{c_\Cscr} \\
        K^n & K^m
    \end{tikzcd}

Die vertikalen Abbildungen sind Isomorphismen. Wir können diese Abbildungen und ihre Umkehrabbildungen benutzen um \(V\) und \(K^n\) einerseits, und \(W\) und \(K^m\) andererseits zu identifizieren. Wenn wir diese Identifizierung vornehmen, ist eine Abbildung \(V\to W\) »praktisch dasselbe« wie eine Abbildung \(K^n\to K^m\). Formal gesprochen können wir das obige »Diagramm« vervollständigen, indem wir \(\varphi \) als die Verkettung \(c_\mathscr C\circ f\circ c_\mathscr B^{-1}\) definieren:

\begin{tikzcd} [sep=large]
        V \arrow{r}{f}\arrow{d}{c_\Bscr} & W\arrow{d}{c_\Cscr} \\
        K^n \arrow{r}{\varphi} & K^m
    \end{tikzcd}

Die beiden Abbildungen \(V\to K^m\) (die Verkettung \(V\to W\to K^m\) und die Verkettung \(V\to K^n\to K^m\)) stimmen überein:

\[ c_\mathscr C\circ f = c_\mathscr C\circ f \circ c_\mathscr B^{-1} \circ c_\mathscr B= \varphi \circ c_\mathscr B. \]

Diesen Sachverhalt drückt man auch dadurch aus, dass man von einem kommutativen Diagramm spricht.

Da \(c_\mathscr C\) und \(c_\mathscr B\) Isomorphismen sind, erhalten wir aus der Kommutativität des Diagramms auch die Gleichungen

\[ f = c_\mathscr C^{-1}\circ \varphi \circ c_\mathscr B,\qquad \varphi = c_\mathscr C\circ f\circ c_\mathscr B^{-1}, \]

die zeigen, dass die Abbildung

\[ \operatorname{Hom}_K(V, W) \to \operatorname{Hom}_K(K^n, K^m),\quad f\mapsto c_\mathscr C\circ f\circ c_\mathscr B^{-1}, \]

eine Bijektion ist. Da die Abbildung auch linear ist, wie man leicht nachprüft, ist es ein Isomorphismus. Es gilt dann \(M^\mathscr B_\mathscr C(f) = M(\varphi )\).

Insgesamt sehen wir, dass wir den Isomorphismus aus Satz 7.29 auch als Verkettung

\[ \operatorname{Hom}_K(V,W) \stackrel{\sim }{\smash {\longrightarrow }\rule{0pt}{0.4ex}}\operatorname{Hom}_K(K^n, K^m)\stackrel{\sim }{\smash {\longrightarrow }\rule{0pt}{0.4ex}}M_{m\times n}(K) \]

des obigen Isomorphismus mit dem Isomorphismus aus Satz 7.26 erhalten können.

Bemerkung 7.31

Als »toy example« ist vielleicht die folgende Bemerkung nützlich: Dass man nach Wahl von Basen eine lineare Abbildung zwischen endlich-dimensionalen Vektorräumen durch eine Matrix beschreiben kann, ist im weitesten Sinne dazu analog, dass man nach Durchnummerieren der Elemente eine Abbildung \(f\colon X\to Y\) zwischen endlichen Mengen (mit \(n\) und \(m\) Elementen) durch eine Tabelle

\(1\)

\(2\)

\(\cdots \)

\(n\)

\(a_1\)

\(a_2\)

\(\cdots \)

\(a_n\)

mit \(a_j\in \{ 1, \dots , m\} \) beschreiben kann. Das Durchnummerieren entspricht der Wahl von Bijektionen \(c_X\colon X\to \{ 1, \dots , n\} \), \(c_Y\colon \{ 1,\dots , m\} \to Y\). Dann ist \(a_j = c_Y(f(c_X^{-1}(j))) = (c_Y\circ f\circ c_X^{-1})(j)\). Vergleichen Sie diese Vorschrift mit der Definition von \(M^\mathscr B_\mathscr C(f)\).

Satz 7.32

Seien \(f\colon V\rightarrow W\), \(g\colon W\rightarrow U\) Homomorphismen endlich-dimensionaler Vektorräume \(V\), \(W\), \(U\) mit Basen \(\mathscr B\), \(\mathscr C\), \(\mathscr D\). Dann gilt

\[ M^{\mathscr C}_{\mathscr D}(g) M^{\mathscr B}_{\mathscr C}(f) = M^{\mathscr B}_{\mathscr D}(g\circ f). \]

Proof
Wir haben

\begin{align*} M^{\mathscr C}_{\mathscr D}(g) M^{\mathscr B}_{\mathscr C}(f) & = M(c_{\mathscr D}\circ g\circ c_{\mathscr C}^{-1}) M(c_{\mathscr C}\circ f \circ c_{\mathscr B}^{-1}) \\ & = M(c_{\mathscr D}\circ g\circ c_{\mathscr C}^{-1} \circ c_{\mathscr C}\circ f \circ c_{\mathscr B}^{-1}) = M^{\mathscr B}_{\mathscr D}(g\circ f). \end{align*}

Dabei haben wir für die Gleichheit in der Mitte Lemma 7.27 benutzt.

Proof

Korollar 7.33

Seien \(V\) und \(W\) endlich-dimensionale Vektorräume derselben Dimension \(n\) mit Basen \(\mathscr B\) und \(\mathscr C\), und sei \(f\colon V\to W\) eine lineare Abbildung. Die Abbildung \(f\) ist genau dann ein Isomorphismus, wenn die Matrix \(M^\mathscr B_\mathscr C(f)\) invertierbar ist, und in diesem Fall gilt

\[ M^\mathscr B_\mathscr C(f)^{-1} = M^\mathscr C_\mathscr B(f^{-1}). \]

Proof
Ist \(f\) invertierbar mit Umkehrhomomorphismus \(f^{-1}\), so folgt aus dem Satz, dass

\[ M^\mathscr B_\mathscr C(f) M^\mathscr C_\mathscr B(f^{-1}) = M^\mathscr C_\mathscr C(f\circ f^{-1}) = M^\mathscr C_\mathscr C(\operatorname{id})=E_n. \]

Ist \(A:=M^\mathscr B_\mathscr C(f)\) invertierbar, so erhalten wir eine Umkehrabbildung von \(f = c_\mathscr C^{-1}\circ \mathbf f_A \circ c_\mathscr B\) als \(c_\mathscr B^{-1}\circ \mathbf f_{A^{-1}}\circ c_\mathscr C\).

Proof

Korollar 7.34 Basiswechsel

Sei \(f\colon V\rightarrow W\) ein Homomorphismus endlich-dimensionaler \(K\)-Vektorräume, seien \(\mathscr B\), \(\mathscr B^\prime \) Basen von \(V\) und \(\mathscr C\), \(\mathscr C^\prime \) Basen von \(W\). Dann gilt

\[ M^{\mathscr B^\prime }_{\mathscr C^\prime }(f) = M^{\mathscr C}_{\mathscr C^\prime }(\operatorname{id}_W) M^{\mathscr B}_{\mathscr C}(f) M^{\mathscr B^\prime }_{\mathscr B}(\operatorname{id}_V). \]

Proof
Das folgt unmittelbar durch zweifache Anwendung des vorhergehenden Satzes.
Proof

Wir schreiben auch \(M^{\mathscr B^\prime }_{\mathscr B}:=M^{\mathscr B^\prime }_{\mathscr B}(\operatorname{id}_V)\) und nennen diese Matrix die Basiswechselmatrix, die den Basiswechsel von \(\mathscr B^\prime \) nach \(\mathscr B\) beschreibt. Es gilt \(M^{\mathscr B^\prime }_{\mathscr B} c_{\mathscr B\prime }(v) = c_{\mathscr B}(v)\). Die \(j\)-te Spalte von \(M^{\mathscr B^\prime }_{\mathscr B}\) ist also \(c_\mathscr B(b_j^\prime )\) (wenn wir \(\mathscr B^\prime = (b_1^\prime , \dots , b_{\dim (V)}^\prime )\) schreiben).

Bemerkung 7.35

Die als Basiswechsel bezeichnete Aussage von Korollar 7.34 lässt sich zwar auch ge- bzw. missbrauchen, um Rechenaufgaben zu stellen, ihr liegt aber ein wichtiges Konzept zugrunde. Um zu verstehen, was eine lineare Abbildung »wirklich macht«, ist es oft sehr hilfreich, ein geeignetes Koordinatensystem zu wählen. Sich zu erlauben, so einen Koordinatenwechsel durchzuführen bedeutet gerade, dass man für eine lineare Abbildung einen Basiswechsel durchführen kann.

Dies ist sowohl für die geometrische Anschauung, als auch »algebraisch«, also für die Durchführung konkreter Rechnungen, und auch für weitergehende theoretische Überlegungen nützlich.

Siehe Satz 7.37 und Beispiel 7.38 für konkretere Hinweise dazu.

Korollar 7.36
\[ M^{\mathscr B^\prime }_{\mathscr B} M^{\mathscr B}_{\mathscr B^\prime } = E_n. \]

Insbesondere gilt: Jede Basiswechselmatrix ist invertierbar. Umgekehrt kann jede invertierbare Matrix \(A\in M_n(K)\) als Basiswechselmatrix gesehen werden. Genauer gilt: Ist \(V\) ein \(n\)-dimensionaler \(K\)-Vektorraum, \(\mathscr B\) eine Basis von \(V\), und \(A = (a_{ij})_{i,j}\in M_n(K)\) invertierbar, so existiert genau eine Basis \(\mathscr B^\prime = (b_1^\prime , \dots , b_n^\prime )\) von \(V\), so dass \(A = M^{\mathscr B^\prime }_{\mathscr B}\), nämlich

\[ b_j^\prime = \sum _{i=1}^n a_{ij}b_i. \]

Sei \(f\colon V\to W\) eine lineare Abbildung zwischen endlich-dimensionalen Vektorräumen \(V\) und \(W\). Wenn wir uns erlauben, in \(V\) und \(W\) geeignete Basen zu wählen, dann können wir \(f\) immer durch eine Matrix einer sehr einfachen Form darstellen:

Satz 7.37 Smith-sche Normalform

Sei \(f\colon V\to W\) ein Homomorphismus zwischen endlich-dimensionalen Vektorräumen, \(n= \dim V\), \(m=\dim W\). Dann gibt es Basen \(\mathscr B\) von \(V\) und \(\mathscr C\) von \(W\), so dass

\[ M^\mathscr B_\mathscr C(f) = \left( \begin{array}{cc} E_r & 0 \\ 0 & 0 \end{array} \right) \]

(als Blockmatrix verstanden). Dabei ist \(r = \operatorname{rg}(f)\) der Rang von \(f\).

Proof
Vielleicht können Sie den Beweis selber finden? Versuchen Sie das erst einmal. Es gibt (mindestens) zwei Möglichkeiten, entweder mit der »Basiswechseltheorie«, die wir gerade behandeln, oder mit einem ziemlich elementaren Argument mit Matrizen.

Wir suchen Basen \(b_1, \dots , b_n\) und \(c_1, \dots , c_m\) von \(V\) bzw. \(W\), so dass

\begin{equation} \label{eq:smith} f(b_j) = \begin{cases} c_j & j \le r \\ 0 & j > r \end{cases}. \end{equation}
7.1

Für \(j{\gt}r\) soll also \(b_j\in \operatorname{Ker}(f)\) gelten, und das führt auf das folgende Vorgehen:

Sei \(U\subseteq V\) ein Komplement von \(\operatorname{Ker}(f)\), sei \(r = \dim (U)\), sei \(b_1,\dots , b_r\) eine Basis von \(U\) und sei \(b_{r+1},\dots , b_n\) eine Basis von \(\operatorname{Ker}(f)\). Dann ist \(\mathscr B=(b_1,\dots , b_n)\) eine Basis von \(V\). Für \(j=1,\dots , r\) sei \(c_j = f(b_j)\). Nach Definition von \(U\) gilt \(\operatorname{Ker}(f_{|U}) = U\cap \operatorname{Ker}(f) = 0\), also ist die Einschränkung \(f_{|U}\colon U\to \operatorname{Im}(f)\) ein Isomorphismus. Insbesondere ist das System \(c_1,\dots , c_r\) linear unabhängig, und wir können es zu einer Basis \(\mathscr C= (c_1,\dots , c_m)\) von \(W\) ergänzen.

Offenbar gilt dann die Beschreibung (7.1). Außerdem ist \(r = \dim (U) = \dim (V)-\dim \operatorname{Ker}(f) = \operatorname{rg}(f)\) nach der Dimensionsformel für lineare Abbildungen (Theorem 7.23).

Eine Alternative, den Satz zu beweisen, ist zu zeigen, dass man jede Matrix auf die im Satz gegebene Form bringen kann, wenn man elementare Zeilenumformungen und elementare Spaltenumformungen durchführt. Zeilenumformungen entsprechen, wie wir gesehen haben, der Multiplikation mit gewissen invertierbaren Matrizen von links (Bemerkung 5.37). Analog entsprechen Spaltenumformungen der Multiplikation mit invertierbaren Matrizen von rechts (auch hier kann man die Matrizen \(E_{ij}(a)\), \(P_{ij}\) und invertierbare Diagonalmatrizen der entsprechenden Größe verwenden). Diese invertierbaren Matrizen kann man wie oben besprochen als Basiswechselmatrizen interpretieren.

Proof

Eine oberflächlich ähnliche Frage, die aber wesentlich schwieriger zu beantworten ist und die uns in der Linearen Algebra 2 für längere Zeit beschäftigen wird, ist die folgende: Gegeben ein Endomorphismus \(f\colon V\to V\), was ist eine möglichst einfache Gestalt von \(M^{\mathscr B}_{\mathscr B}(f)\), die man für geeignetes \(\mathscr B\) erreichen kann? (Hier soll beide Male dieselbe Basis von \(V\) verwendet werden.) Es ist für gegebenes \(f\) im allgemeinen nicht möglich, eine Basis \(\mathscr B\) zu finden, so dass \(M^{\mathscr B}_{\mathscr B}(f)\) eine Diagonalmatrix ist.

Beispiel 7.38

Sei \(A = \frac13 \begin{pmatrix} 4 & -2 \\ -1 & 5 \end{pmatrix}\) und \(f\colon \mathbb R^2\to \mathbb R^2\) die zugehörige Abbildung. Sei \(\mathscr E= (e_1, e_2)\) die Standardbasis und sei

\[ \mathscr B= (b_1, b_2) = \left( \begin{pmatrix} 4 \\ 2 \end{pmatrix}, \begin{pmatrix} -2 \\ 2 \end{pmatrix} \right). \]

Dies ist ebenfalls eine Basis von \(\mathbb R^2\). Als Basiswechselmatrizen erhalten wir

\[ M^\mathscr B_\mathscr E= M^\mathscr B_\mathscr E(\operatorname{id}) = \begin{pmatrix} 4 & -2 \\ 2 & 2 \end{pmatrix},\quad M^\mathscr E_\mathscr B= (M^\mathscr B_\mathscr E)^{-1} = \frac16 \begin{pmatrix} 1 & 1 \\ -1 & 2 \end{pmatrix}. \]

Die Matrix \(M^\mathscr B_\mathscr E\) erhalten wir also, indem wir einfach die Vektoren von \(\mathscr B\) als Spalten in eine Matrix schreiben. Die Matrix \(M^\mathscr E_\mathscr B\) können wir dann als die dazu inverse Matrix auf dem üblichen Wege berechnen.

Dann gilt

\begin{align*} M^\mathscr B_\mathscr B(f) & = M^\mathscr E_\mathscr B\ A\ M^\mathscr B_\mathscr E\\[.2cm]& = \frac{1}{18}\begin{pmatrix} 1 & 1 \\ -1 & 2 \end{pmatrix}\begin{pmatrix} 4 & -2 \\ -1 & 5 \end{pmatrix}\begin{pmatrix} 4 & -2 \\ 2 & 2 \end{pmatrix}\\[.2cm]& = \begin{pmatrix} 1 & 0 \\ 0 & 2 \end{pmatrix}. \end{align*}

Bezüglich des durch \(\mathscr B\) gegebenen Koordinatensystems ist die Abbildung \(f\) also einfach die Abbildung, die die \(b_1\)-Achse punktweise fixiert und die die \(b_2\)-Achse mit dem Faktor \(2\) streckt.

\begin{tikzpicture} [scale=0.85] \clip (-3.5,-3.5) rectangle + (8,8); \begin{scope}  \draw [->, gray, thick] (-6.8*.5, 0) – (8.8*.5, 0); \draw [->, gray, thick] (0, -6.8*.5) – (0, 8.8*.5); 

\foreach \x in {-6, -4, -2, 2, 4, 6, 8}{ \draw [gray] (\x *.5, -0.1) – (\x *.5, 0.1) node[black, below, yshift=-.1cm] {\x }; }; \foreach \x in {-6, -4, -2, 2, 4, 6, 8}{ \draw [gray] (-0.1, \x *.5) – (0.1, \x *.5) node[black, left, xshift=-.1cm] {\x }; }; 

\coordinate (a) at (0, 0); \coordinate (b) at (1.2*.5, 0); \coordinate (c) at (.6*.5, 1*.5); \coordinate (d) at (.6*.5, 2*.5); \coordinate (e) at (.6*.5, 2.3*.5); \coordinate (f) at (0, 1.3*.5); \coordinate (g) at (1.5*.5, 1.7*.5); \coordinate (h) at (.6*.5, 2.6*.5); \coordinate (i) at (.5*.5, 2.72*.5); \coordinate (j) at (.7*.5, 2.72*.5); \coordinate (k) at (.45*.5, 2.52*.5); 

\draw [thick] (a) – (c) – (b); \draw [thick] (c) – (e); \draw [thick] (d) – (f); \draw [thick] (d) – (g); \draw [thick] (h) circle[radius=.3cm*.5]; \fill (f) circle[radius=.1cm*.5]; \fill (g) circle[radius=.1cm*.5]; \fill (i) circle[radius=.06cm*.5]; \fill (j) circle[radius=.06cm*.5]; \draw [thick] (k) arc (240:300:.15) ; \end{scope} \begin{scope} [cm={1.33333, -.333333, -.6666666, 1.6666666, (0,0)}] \coordinate (a) at (0, 0); \coordinate (b) at (1.2*.5, 0); \coordinate (c) at (.6*.5, 1*.5); \coordinate (d) at (.6*.5, 2*.5); \coordinate (e) at (.6*.5, 2.3*.5); \coordinate (f) at (0, 1.3*.5); \coordinate (g) at (1.5*.5, 1.7*.5); \coordinate (h) at (.6*.5, 2.6*.5); \coordinate (i) at (.5*.5, 2.72*.5); \coordinate (j) at (.7*.5, 2.72*.5); \coordinate (k) at (.45*.5, 2.52*.5); 

\draw [thick, red] (a) – (c) – (b); \draw [thick, red] (c) – (e); \draw [thick, red] (d) – (f); \draw [thick, red] (d) – (g); \draw [thick, red] (h) circle[radius=.3cm*.5]; \fill [red] (f) circle[radius=.1cm*.5]; \fill [red] (g) circle[radius=.1cm*.5]; \fill [red] (i) circle[radius=.06cm*.5]; \fill [red] (j) circle[radius=.06cm*.5]; \draw [red, thick] (k) arc (240:300:.15) ; \end{scope} 

\end{tikzpicture}
\begin{tikzpicture} [scale=0.85] \clip (-3.5,-3.5) rectangle + (8,8); \begin{scope}  \draw [->, gray, thick] (-6.8*.5, 0) – (8.8*.5, 0); \draw [->, gray, thick] (0, -6.8*.5) – (0, 8.8*.5); 

\foreach \x in {-6, -4, -2, 2, 4, 6, 8}{ \draw [gray] (\x *.5, -0.1) – (\x *.5, 0.1) node[black, below, yshift=-.1cm] {\x }; }; \foreach \x in {-6, -4, -2, 2, 4, 6, 8}{ \draw [gray] (-0.1, \x *.5) – (0.1, \x *.5) node[black, left, xshift=-.1cm] {\x }; }; 

\fill [red] (2, 1) circle[radius=.5mm] node[below right, black] {$b_1$}; \fill [red] (-1, 1) circle[radius=.5mm] node[below right, black, xshift=-.3cm] {$b_2$}; 

\coordinate (a) at (0, 0); \coordinate (b) at (1.2*.5, 0); \coordinate (c) at (.6*.5, 1*.5); \coordinate (d) at (.6*.5, 2*.5); \coordinate (e) at (.6*.5, 2.3*.5); \coordinate (f) at (0, 1.3*.5); \coordinate (g) at (1.5*.5, 1.7*.5); \coordinate (h) at (.6*.5, 2.6*.5); \coordinate (i) at (.5*.5, 2.72*.5); \coordinate (j) at (.7*.5, 2.72*.5); \coordinate (k) at (.45*.5, 2.52*.5); \end{scope} \begin{scope} [cm={2,1,-2,2, (0,0)}] \coordinate (a) at (0, 0); \coordinate (b) at (1.2*.5, 0); \coordinate (c) at (.6*.5, 1*.5); \coordinate (d) at (.6*.5, 2*.5); \coordinate (e) at (.6*.5, 2.3*.5); \coordinate (f) at (0, 1.3*.5); \coordinate (g) at (1.5*.5, 1.7*.5); \coordinate (h) at (.6*.5, 2.6*.5); \coordinate (i) at (.5*.5, 2.72*.5); \coordinate (j) at (.7*.5, 2.72*.5); \coordinate (k) at (.45*.5, 2.52*.5); 

\draw [thick, red] (a) – (c) – (b); \draw [thick, red] (c) – (e); \draw [thick, red] (d) – (f); \draw [thick, red] (d) – (g); \draw [thick, red] (h) circle[radius=.3cm*.5]; \fill [red] (f) circle[radius=.1cm*.5]; \fill [red] (g) circle[radius=.1cm*.5]; \fill [red] (i) circle[radius=.06cm*.5]; \fill [red] (j) circle[radius=.06cm*.5]; \draw [red, thick] (k) arc (240:300:.15) ; \end{scope} \begin{scope} [cm={2,1,-1,1, (0,0)}] \foreach \x in {-9,...,9}{\draw [thick, dotted] (\x ,-10) – (\x ,10); }; \foreach \x in {-9,...,9}{\draw [thick, dotted] (-10, \x ) – (10, \x ); }; 

\coordinate (a) at (0, 0); \coordinate (b) at (1.2*.5, 0); \coordinate (c) at (.6*.5, 1*.5); \coordinate (d) at (.6*.5, 2*.5); \coordinate (e) at (.6*.5, 2.3*.5); \coordinate (f) at (0, 1.3*.5); \coordinate (g) at (1.5*.5, 1.7*.5); \coordinate (h) at (.6*.5, 2.6*.5); \coordinate (i) at (.5*.5, 2.72*.5); \coordinate (j) at (.7*.5, 2.72*.5); \coordinate (k) at (.45*.5, 2.52*.5); 

\draw [thick, black] (a) – (c) – (b); \draw [thick, black] (c) – (e); \draw [thick, black] (d) – (f); \draw [thick, black] (d) – (g); \draw [thick, black] (h) circle[radius=.3cm*.5]; \fill [black] (f) circle[radius=.1cm*.5]; \fill [black] (g) circle[radius=.1cm*.5]; \fill [black] (i) circle[radius=.06cm*.5]; \fill [black] (j) circle[radius=.06cm*.5]; \draw [black, thick] (k) arc (240:300:.15) ; \end{scope} 

\end{tikzpicture}

In beiden Bildern wird dieselbe Abbildung \(f\colon \mathbb R^2\to \mathbb R^2\) (wie oben definiert) gezeigt, und in beiden Bildern ist die rote Figur das Bild der schwarzen Figur. Während man links »nichts erkennen kann«, sieht man rechts, dass die gegebene Abbildung bezüglich des durch \(b_1\), \(b_2\) gegebenen »Koordinatensystems« (das durch die gepunkteten Linien angedeutet wird) einfach eine Streckung um den Faktor \(2\) in Richtung der \(b_2\)-Achse ist.

Darüber, wie man systematisch so eine »schöne« Basis \(\mathscr B\) zu einer gegebenen Abbildung \(f\) findet, werden wir in Kapitel 10 und in der Linearen Algebra 2 mehr lernen.

Wir haben gesehen, dass für jede lineare Abbildung \(V\to W\) der Kern ein Untervektorraum von \(V\) ist. Andererseits gilt

Lemma 7.39

Sei \(U\) ein Untervektorraum des [endlich erzeugten] \(K\)-Vektorraums \(V\). Dann gibt es eine lineare Abbildung \(f\colon V\to W\) mit \(\operatorname{Ker}(f) = U\).

Proof
Sei \(U^\prime \subseteq V\) ein Komplement von \(U\). Jedes \(v\in V\) lässt sich dann eindeutig als \(u+u^\prime \) mit \(u\in U\), \(u^\prime \in U^\prime \) schreiben. Wir definieren die Abbildung \(f\colon V\to U^\prime \) durch \(v=u+u^\prime \mapsto u^\prime \). (Man nennt diese Abbildung die Projektion auf \(U^\prime \). Sie hängt aber von der Zerlegung \(V=U\oplus U^\prime \), also auch von \(U\) ab.)

Für \(u\in U\) ist die obige Zerlegung \(u = u+0\), also gilt \(U\subseteq \operatorname{Ker}(f)\). Ist umgekehrt \(v = u+u^\prime \in \operatorname{Ker}(f)\), so gilt \(u^\prime = 0\), also \(v\in U\).

Proof

Da wir die Lösungsmenge eines linearen Gleichungssystems als einen Kern sehen können, erhalten wir mit wenig Mehraufwand den Satz, dass jeder Untervektorraum von \(K^n\) die Lösungsmenge eines linearen Gleichungssystems ist. Siehe auch Bemerkung 7.57 und Abschnitt 7.6.4.

Satz 7.40

Jeder Untervektorraum \(U\subseteq K^n\) ist Lösungsmenge eines homogenen linearen Gleichungssystems. Jedes lineare Gleichungssystem mit Lösungsmenge \(U\) hat \(\ge n-\dim (U)\) Gleichungen, und es ist möglich, mit \(n-\dim (U)\) Gleichungen auszukommen.

Proof
Sei \(U\subseteq K^n\) ein Untervektorraum. Wir müssen eine Matrix \(A\) finden, so dass \(\operatorname{Ker}(A) = U\). Wegen des Zusammenhangs zwischen Matrizen und linearen Abbildungen ist es äquivalent, eine lineare Abbildung \(f\colon K^n\to K^m\) mit \(\operatorname{Ker}(f) = U\) zu finden.

Sei \(U^\prime \subseteq K^n\) ein Komplement von \(U\) und sei \(g\colon K^n \to U^\prime \) die Projektion. Sei \(h\colon U^\prime \to K^m\) ein Isomorphismus (mit \(m:=\dim U^\prime = n - \dim U\)). Dann ist \(h\circ g\) ein Vektorraum-Homomorphismus \(K^n \to K^m\) mit Kern \(U\).

Die Anzahl der Gleichungen ist gleich \(m = n-\dim (U)\). Aus der Dimensionsformel für lineare Abbildungen, Theorem 7.23, folgt, dass es nicht möglich ist, mit weniger Gleichungen auszukommen.

Proof