Inhalt

9.5 Ergänzungen *

Bemerkung 9.39 Eindeutigkeit der Determinante

Ergänzend hier noch einige zusätzliche Anmerkungen dazu, inwiefern die Determinante »eindeutig bestimmt« ist bzw. eine Abbildung \(M_n(K)\to K\) ist, die sich in »natürlicher Weise« ergibt. Um sich zu überzeugen, dass es sich lohnt, die Determinante in die Theorie der linearen Abbildungen mit aufzunehmen, benötigt man diese Überlegungen natürlich nicht. Die Determinante wird uns beim weiteren Aufbau der Theorie an verschiedenen Stellen nutzen. Natürlich ist die Determinante auch nicht eindeutig bestimmt als Abbildung \(M_n(K)\to K\) – es ist ja klar, dass es viele andere Abbildungen \(M_n(K)\to K\) gibt (sowohl interessante wie die Spurabbildung aus Abschnitt 9.4, als auch viele uninteressante). Es ist also eher die Frage, durch welche ihrer Eigenschaften man die Determinante eindeutig charakterisieren kann. Wir haben gesehen, dass die Determinante die eindeutig bestimmte Abbildung \(M_n(K)\to K\) ist, die alternierend und multilinear in den Spalten ist und die Einheitsmatrix auf das Element \(1\in K\) abbildet. Aus den weiteren Überlegungen (insbesondere Satz 9.17) ergibt sich, dass sie auch die einzige solche Abbildung ist, die alternierend und multilinear in den Zeilen ist, und die Einheitsmatrix auf \(1\) abbildet. Eine andersartige Charakterisierung erlaubt nun der folgende Satz, in dem wir zunächst über die Einschränkung von \(\det \) auf den Definitionsbereich \(GL_n(K)\) und Wertebereich \(K^\times \) sprechen; vergleiche aber auch das dem Satz folgende Lemma.

Satz 9.40

Einer invertierbaren Matrix ihre Determinante zuzuordnen ist der eindeutig bestimmte Gruppenhomomorphismus \(GL_n(K)\to K^\times \), der jede Diagonalmatrix der Form \(\operatorname{diag}(1,\dots , 1,a)\), \(a\in K^\times \), auf \(a\) abbildet.

Mit anderen Worten: Ist \(\Delta \colon GL_n(K)\to K^\times \) eine Abbildung mit \(\Delta (AB) = \Delta (A)\Delta (B)\) für alle \(A, B\in GL_n(K)\) und mit \(\Delta (\operatorname{diag}(1,\dots , 1, a))=a\) für alle \(a\in K^\times \), so gilt \(\Delta (A)=\det (A)\) für alle \(A\in GL_n(K)\); und die Determinante hat diese beiden Eigenschaften.

Beweis

Siehe Hausaufgabe 11.4.

Mit Methoden, die über das hinausgehen, was uns im Moment zur Verfügung steht, kann man das folgende Lemma beweisen. Es zeigt über unendlichen Körpern und unter der vernünftigen Zusatzvoraussetzung, dass die Determinante als ein polynomialer Ausdruck in den Koeffizienten der betrachteten Matrix gegeben sei, dass die Determinante für invertierbare Matrizen schon die Werte auf allen Matrizen festlegt.

Lemma 9.41

Seien \(K\) ein unendlicher Körper und \(\Delta \colon M_n(K)\to K\) eine Abbildung, wobei \(\Delta (A)\) durch einen polynomialen Ausdruck in den Einträgen von \(A\) gegeben sei. Es gelte \(\Delta (A)=\det (A)\) für alle \(A\in GL_n(K)\).

Dann gilt \(\Delta (A) = \det (A)\).

Um das Lemma zu beweisen, benutzt man ein Argument aus der Topologie, nämlich, dass die Menge der invertierbaren Matrizen in der Menge aller Matrizen »dicht« liegt. Über einem allgemeinen Körper verwendet man dafür die sogenannte Zariski-Topologie, die in der algebraischen Geometrie eingeführt wird. Über dem Körper der reellen Zahlen (und ähnlich über dem Körper der komplexen Zahlen) kann man die üblichen Begriffe des Grenzwerts und der Stetigkeit benutzen. Die Menge \(GL_n(\mathbb R)\) ist dicht in \(M_n(\mathbb R)\); das bedeutet, dass es zu jeder Matrix \(A\in M_n(K)\) eine Folge \((A_i)_{i\ge 0}\) invertierbarer Matrizen mit \(\lim _{i\to \infty } A_i = A\) gilt. Der Limes von Matrizen soll hier einfach eintragsweise gebildet werden. Wir lassen den Beweis hier aus. Die Voraussetzung an \(\Delta \) impliziert, dass diese Abbildung ebenso wie die Determinante in den Einträgen der Matrix stetig ist, es gilt also

\[ \Delta (A) = \lim _{i\to \infty } \Delta (A_i) = \lim _{i\to \infty } \det (A_i) = \det (A) \]

wegen der Voraussetzung, dass \(\Delta \) und \(\det \) für invertierbare Matrizen übereinstimmen.

Bemerkung 9.42

Hierher passt auch gut eine Erläuterung, wie sich die Leibniz-Formel aus den Eigenschaften der Determinante sozusagen zwingend ergibt, wie man also »auf die Formel kommen kann«. Natürlich wissen wir schon, dass die Determinante die eindeutig bestimmte in den Spalten alternierende multilineare Abbildung \(M_n(K)\to K\) ist, die \(E_n\) auf \(1\) abbildet, und deshalb mit dem durch die Leibniz-Formel gegebenen Ausdruck übereinstimmen muss. Man kann den Zusammenhang folgendermaßen noch expliziter herstellen und, wenn man möchte, auch den Existenzbeweis für die Determinante führen, ohne die Leibniz-Regel zu benutzen.

Wir benutzen dafür wieder die Notation, die wir in Abschnitt 9.3 definiert haben, um den Laplaceschen Entwicklungssatz zu formulieren. Sei \(A\in M_n(K)\) und \(A_{ij}\) also die Matrix, die aus \(A\) entsteht, indem die \(i\)-te Zeile und \(j\)-te Spalte durch die jeweiligen (transponierten) Standardbasisvektoren ersetzt werden. Sei \(A^\circ _{ij}\) die Matrix, die aus \(A\) entsteht, indem die \(j\)-te Zeile durch den Standardbasisvektor \(e_i\) ersetzt wird. Die anderen Einträge der \(i\)-ten Zeile sollen nicht verändert werden. Dann lässt sich \(A^\circ _{ij}\) durch elementare Spaltenumformungen vom Typ I in die Matrix \(A_{ij}\) umformen; es folgt \(\Delta (A_{ij}) = \Delta (A^\circ _{ij})\) für jede Determinantenfunktion \(\Delta \colon M_n(K)\to K\).

Mit dieser Bemerkung erhalten wir die Aussage des Laplaceschen Satzes für die \(j\)-te Spalte für jede Determinantenfunktion \(\Delta \), also

\[ \Delta (A) = \sum _{i=1}^n a_{ij}\Delta (A^\circ _{ij}) = \sum _{i=1}^n a_{ij}\Delta (A_{ij}), \]

wobei wir im ersten Schritt die Multilinearität von \(\Delta \), konkret die Linearität in der \(j\)-ten Spalte benutzen.

Die Leibniz-Formel wird in diesem Argument nicht benötigt. Stattdessen können wir nun die Leibniz-Formel aus dem Entwicklungssatz induktiv »herleiten«. Nehmen wir also an, dass wir die Leibniz-Formel für Determinanten der Größe \((n-1)\times (n-1)\) bereits kennen. Wir erhalten durch Entwicklung nach der letzten Spalte, dass

\[ \det (A) = \sum _{i=1}^n (-1)^{i+n} a_{in} \det (A^\prime _{in}) = \sum _{i=1}^n (-1)^{i+n} a_{in} \sum _{\sigma \in S_{n-1}} \operatorname{sgn}(\sigma )\prod _{k=1}^{n-1} a_{k^{(i)}, \sigma (k)} \]

wobei wir (nur an dieser einen Stelle) \(k^{(i)} = \begin{cases} k & k {\lt} i \\ k+1 & k\ge i\end{cases}\) setzen. Die letzte Summe können wir mit der Leibniz-Formel für \(\det (A)\) identifizieren, indem wir die entsprechende Überlegung im Beweis von Satz 9.29 in die andere Richtung als dort durchführen.

Wie schon bemerkt, kann man in dieser Weise auch die Existenz einer Determinantenfunktion \(\Delta \) mit \(\Delta (E_n) = 1\) durch Induktion nach \(n\) zeigen. Insbesondere wird die Leibniz-Formel an keiner Stelle zwingend für den Aufbau der Theorie benötigt.

Beispiel 9.43

Die Grundidee des »global positioning system« GPS, das Navigationssysteme benutzen, um den aktuellen Aufenthaltsort festzustellen, ist die folgende (wir ignorieren mehrere wichtige Verbesserungen und »Details«):

GPS basiert darauf, dass Satelliten die Erde umkreisen und es zu jedem Zeitpunkt möglich ist, anhand der Signale, die diese Satelliten aussenden, für mindestens drei Satelliten \(S_i\), \(i=1,2,3\), die Position \((a_i, b_i, c_i)^t\in \mathbb R^3\) und die Entfernung \(d_i\) von \(S_i\) zum Punkt \(P\), dessen Position bestimmt werden soll, zu ermitteln. (Wie man die Satelliten entsprechende Signale aussenden lässt, hat ebenfalls mehrere interessante mathematische Aspekte. Es kann ja keine Kommunikation in die andere Richtung stattfinden.)

Das bedeutet, dass die gesuchten Koordinaten \(x, y, z\) des Punktes \(P\) die folgenden Gleichungen erfüllen. (Siehe Ergänzung 7.60 und Abschnitt 11.2.1.)

\begin{align*} (x-a_1)^2 + (y-b_1)^2 + (z-c_1)^2 & = d_1^2\\ (x-a_2)^2 + (y-b_2)^2 + (z-c_2)^2 & = d_2^2\\ (x-a_3)^2 + (y-b_3)^2 + (z-c_3)^2 & = d_3^2.\\ \end{align*}

Auch wenn diese quadratischen Gleichungen nicht direkt im Einflußbereich der linearen Algebra liegen, können wir uns folgendermaßen behelfen. Wir ziehen die dritte Gleichung von der ersten ab, und ziehen die dritte Gleichung von der zweiten Gleichung ab. Dadurch erhalten wir das äquivalente Gleichungssystem

\begin{align*} 2(a_3-a_1)x + 2(b_3-b_1)y + 2(c_3-c_1)z & = d_1^2 + (a_3-a_1)^2 + (b_3-b_1)^2 +(c_3-c_1)^2\\ 2(a_3-a_2)x + 2(b_3-b_2)y + 2(c_3-c_2)z & = d_1^2 + (a_3-a_2)^2 + (b_3-b_2)^2 +(c_3-c_2)^2\\ (x-a_3)^2 + (x-b_3)^2 + (x-c_3)^2 & = d_3^2.\\ \end{align*}

Eine weitere Eigenschaft des Systems ist, dass die drei Satelliten \(S_1\), \(S_2\), \(S_3\) sich niemals gleichzeitig auf einer Geraden befinden. Mit anderen Worten: Nach der Verschiebung, die \(S_1\) in den Ursprung verschiebt, befinden sich \(S_2\) und \(S_3\) auf verschiedenen Ursprungsgeraden. Die Matrix

\[ \begin{pmatrix} a_2-a_1 & a_3-a_1 \\ b_2-b_1 & b_3-b_1 \\ c_2-c_1 & c_3-c_1 \\ \end{pmatrix} \]

hat also Rang \(2\). Daher (Zeilenrang=Spaltenrang) hat wenigstens eine der Matrizen

\[ \begin{pmatrix} a_2-a_1 & a_3-a_1 \\ b_2-b_1 & b_3-b_1 \\ \end{pmatrix},\qquad \begin{pmatrix} a_2-a_1 & a_3-a_1 \\ c_2-c_1 & c_3-c_1 \\ \end{pmatrix},\qquad \begin{pmatrix} b_2-b_1 & b_3-b_1 \\ c_2-c_1 & c_3-c_1 \\ \end{pmatrix} \]

eine Determinante \(\ne 0\). Nehmen wir ohne Einschränkung an, dass die erste dieser Matrizen eine nicht-verschwindende Determinante hat.

Wir schreiben die ersten beiden Gleichungen des obigen Gleichungssystem um als

\begin{align*} 2(a_3-a_1)x + 2(b_3-b_1)y & =- 2(c_3-c_1)z + d_1^2 + (a_3-a_1)^2 + (b_3-b_1)^2 +(c_3-c_1)^2 =: r_1(z)\\ 2(a_3-a_2)x + 2(b_3-b_2)y & =- 2(c_3-c_2)z + d_1^2 + (a_3-a_2)^2 + (b_3-b_2)^2 +(c_3-c_2)^2 =: r2(z)\\ \end{align*}

und betrachten das Ergebnis als lineares Gleichungssystem in den Unbestimmten \(x\) und \(y\). Unsere Voraussetzung, dass die Koeffizientenmatrix dieses Gleichungssystems invertierbar ist, hat zur Folge, dass wir die eindeutig bestimmte Lösung (für fixiertes \(z\)) mit der Cramerschen Regel (hier genügen auch die Formeln aus Abschnitt 2.5) schreiben können als

\[ x = \frac{ \det \begin{pmatrix} r_1(z) & 2(b_3-b_1)y \\ r_2(z) & 2(b_3-b_2)y \\ \end{pmatrix} }{\det \begin{pmatrix} 2(a_2-a_1) & 2(a_3-a_1) \\ 2(b_2-b_1) & 2(b_3-b_1) \\ \end{pmatrix} },\qquad y = \frac{ \det \begin{pmatrix} 2(a_3-a_1) & r_1(z) \\ 2(a_3-a_1) & r_2(z) \\ \end{pmatrix} }{\det \begin{pmatrix} 2(a_2-a_1) & 2(a_3-a_1) \\ 2(b_2-b_1) & 2(b_3-b_1) \\ \end{pmatrix} }. \]

Wir erhalten damit Ausdrücke für \(x\) und \(y\), die wir als Funktionen im Parameter \(z\) verstehen und in die dritte Gleichung unseres Gleichungssystems einsetzen können. Das liefert eine quadratische Gleichung für \(z\).

Diese Gleichung hat zwei Lösungen für \(z\), und durch Einsetzen in die soeben hergeleiteten Formel für \(x\) und \(y\) erhalten wir zwei Punkte als Lösung des aufgestellten Gleichungssystems. Eine entspricht dem gesuchten Punkt, die andere einem Punkt, der »offensichtlich« nicht auf der Erdoberfläche liegen kann und daher verworfen werden kann.

Siehe C. Rousseau, Y. Saint-Aubin, Mathematik und Technologie, Springer 2012, https://doi.org/10.1007/978-3-642-30092-9 für viele weitere interessante Ausführungen zu GPS.

Ergänzung 9.44 Quaternionen und Drehungen

An dieser Stelle möchte ich bei Gelegenheit noch etwas über den Zusammenhang zwischen den Quaternionen und Drehungen von \(\mathbb R^3\) und \(\mathbb R^4\) ergänzen. Für den Moment zwei Referenzen:

Wikipedia (Englisch)

W. Klingenberg, Lineare Algebra und Geometrie  [ Kl ] , Abschnitt 8.4.