Inhalt

19.5 Existenz von Orthonormalbasen

Wir wollen nun zeigen, dass es für ein Skalarprodukt auf einem endlichdimensionalen \(\mathbb K\)-Vektorraum \(V\) immer eine Basis von \(V\) gibt, so dass die zugehörige Strukturmatrix die Einheitsmatrix ist. (Das ist natürlich nur für positiv definite Formen möglich, vergleiche Beispiel 19.50.) Mit dem Verfahren von Gram und Schmidt gibt es sogar einen einfachen Algorithmus, um eine solche Basis rechnerisch zu bestimmen.

Definition 19.59

Sei \(V\) ein \(\mathbb K\)-Vektorraum mit einem Skalarprodukt \((\cdot , \cdot )\). Eine Familie \(v_1,\dots , v_m\in V\) heißt Orthogonalsystem, falls \(v_i\ne 0\) für alle \(i=1, \dots , m\) und für alle \(i\ne j\) gilt: \((v_i,v_j)=0\). Gilt zusätzlich \(\lVert v_i\rVert =1\) für alle \(i\), so bezeichnet man die Familie auch als Orthonormalsystem.

Sofern die \(v_i\) eine Basis von \(V\) bilden, spricht man auch von einer Orthogonalbasis bzw. Orthonormalbasis.

Beispiel 19.60

Sei \(V= \mathbb K^n\) mit dem Standardskalarprodukt. Dann bildet die Standardbasis eine Orthonormalbasis.

Lemma 19.61

Sei \(V\) ein endlichdimensionaler \(\mathbb K\)-Vektorraum mit einem Skalarprodukt \((\cdot , \cdot )\) und sei \(v_1,\dots , v_n\in V\) ein Orthogonalsystem. Dann sind \(v_1,\dots , v_n\) linear unabhängig.

Beweis

Sei \(a_1 v_1 + \cdots + a_n v_n = 0\). Wir bilden das Skalarprodukt mit \(v_i\) und sehen \(a_i (v_i, v_i) = 0\). Weil nach Definition eines Orthogonalsystems \(v_i\ne 0\) ist, gilt \((v_i, v_i) {\gt}0\) und es folgt \(a_i = 0\). Da wir diesen Schluss für alle \(i\) durchführen können, folgt, dass nur die triviale Linearkombination der \(v_i\) den Nullvektor darstellt.

Satz 19.62 Gram-Schmidtsches Orthonormalisierungsverfahren

Sei \(V\) ein \(\mathbb K\)-Vektorraum mit einem Skalarprodukt \((\cdot , \cdot )\) und sei \(\mathscr B=(b_1,\dots , b_n)\) eine Basis von \(V\). Dann existiert eine Basis \(v_1,\dots , v_n\) von \(V\), für die gilt:

  1. \(v_1, \dots , v_n\) ist eine Orthonormalbasis,

  2. \(V_i:=\langle v_1,\dots , v_i \rangle = \langle b_1,\dots , b_i\rangle \) für alle \(i\),

  3. Für alle \(i\) gilt mit \(\mathscr B_i = (b_1,\dots , b_i)\), \(\mathscr C_i = (v_1,\dots , v_i)\):

    \[ \det M^{\mathscr C_i}_{\mathscr B_i} \in \mathbb R_{{\gt}0}. \]

Durch diese Bedingungen sind \(v_1,\dots , v_n\) eindeutig bestimmt, und zwar gilt

\[ v_i = \frac{v_i^\prime }{\lVert v_i^\prime \rVert }\quad \text{ mit } \quad v^\prime _i = b_i - \sum _{k=1}^{i-1} (v_k, b_i) v_k. \]

Beweis

Wir führen Induktion nach \(n\). Der Fall \(n=1\) ist klar, denn dann ist offenbar \(v_1 := \frac{b_1}{\lVert b_1\rVert }\) eine mögliche, und gleichzeitig die einzige Definition, die die angegebenen Bedingungen erfüllt.

Im Induktionsschritt können wir nach Induktionsvoraussetzung (angewandt auf den Vektorraum \(\langle b_1, \dots , b_{n-1}\rangle \)) annehmen, dass \(v_1, \dots , v_{n-1}\) bereits konstruiert sind, dass sie eine Orthonormalbasis von \(\langle b_1,\dots , b_{n-1}\rangle \) bilden und dass Bedingung (c) für \(i=1, \dots , n-1\) gilt, sowie dass sie durch diese Bedingungen eindeutig festgelegt und durch die Formel im Satz gegeben sind.

Es bleibt zu zeigen, dass diese Familie durch einen Vektor \(v_n\) zu einer Orthonormalbasis von \(V\) ergänzt werden kann, so dass (c) gilt, dass \(v_n\) dadurch eindeutig bestimmt ist, und dass die am Ende angegebene Formel gilt.

Um die Existenz von \(v_n\) zu zeigen, benutzen wir die Formel in der Aussage des Satzes. Für \(i=1, \dots , n-1\) gilt

\[ (v_i, v_n^\prime ) = (v_i, b_n) - \sum _{k=1}^{n-1} (v_k, b_n)(v_i, v_k) = 0, \]

weil \((v_k, v_i)=0\) für \(k\ne i\) und \((v_i, v_i)=1\) gilt. Es ist klar, dass \(b_n\not\in \langle v_1, \dots , v_{n-1}\rangle \) ist, und das impliziert \(v_n^\prime \ne 0\), so dass wir durch \(\lVert v_n^\prime \rVert \) teilen können. Weil \(v_n\) ein Vielfaches von \(v_n^\prime \) ist, gilt auch \((v_n, v_i)=0\) für \(i=1, \dots , n-1\). Es ist auch klar, dass \(\lVert v_n\rVert = 1\) ist. Also ist \(v_1, \dots , v_n\) eine Orthonormalbasis.

Es bleibt noch Teil (c) zu zeigen. Wir schreiben \(\mathscr B= (b_1, \dots , b_n)\), \(\mathscr C= (v_1,\dots , v_n)\) und \(\mathscr B_{n-1}\), \(\mathscr C_{n-1}\) wie in (c). Die Basiswechselmatrix \(M^\mathscr C_\mathscr B\) hat die Form

\[ \begin{pmatrix} M^{\mathscr C_{n-1}}_{\mathscr B_{n-1}} & \ast \\ 0 & \lVert v_n^\prime \rVert ^{-1} \end{pmatrix}. \]

Nach Induktionsvoraussetzung ist \(\det M^{\mathscr C_{n-1}}_{\mathscr B_{n-1}} {\gt} 0\), und es folgt \(\det M^{\mathscr C}_{\mathscr B} {\gt} 0\).

Zur Eindeutigkeit argumentieren wir wie folgt. Es ist klar, dass

\[ v_n = a_n b_n + \sum _{i=1}^{n-1} a_i v_i \]

mit \(a_i\in \mathbb K\) und \(a_n\ne 0\) gelten muss. Aus Bedingung (c) ergibt sich \(a_n \in \mathbb R_{{\gt} 0}\). Die Bedingung \((v_i, v_n)=0\) übersetzt sich (wegen \((v_k, v_i) = 0\) für \(i\ne k\)) in

\[ 0= a_n (v_i, b_n) + a_i (v_i, v_i) = a_n (v_i, b_n) + a_i, \]

also

\[ a_i = -a_n (v_i, b_n). \]

Wir erhalten also

\[ v_n = a_n \left(b_n - \sum _{i=1}^{n-1} (v_i, b_n) v_i\right) \]

und haben so gezeigt, dass \(v_n\) ein positives Vielfaches des im Satz angegebenen Vektors \(v_n^\prime \) sein muss. Weil außerdem \(\lVert v_n\rVert = 1\) gefordert wird, folgt, dass der im Satz gegebene Ausdruck den eindeutig bestimmten Vektor \(v_n\) angibt, so dass (a), (b), (c) gelten.

Als wichtige unmittelbare Folgerung halten wir noch einmal fest, dass zu jedem Skalarprodukt eine Orthonormalbasis existiert.

Korollar 19.63

Sei \(V\) ein endlichdimensionaler \(\mathbb K\)-Vektorraum mit einem Skalarprodukt. Dann existiert eine Orthonormalbasis für dieses Skalarprodukt.

Im Fall eines Skalarprodukts (auf einem \(\mathbb K\)-Vektorraum \(V\)) vereinfacht sich der Begriff des orthogonalen Komplements eines Untervektorraums \(U\subseteq V\) insofern, als stets \(U\cap U^\perp = 0\) gilt. Dann für \(v\in U\cap U^\perp \) muss ja \((v,v) = 0\) gelten, und da das Skalarprodukt positiv definit ist, folgt \(v=0\). Insbesondere gilt dann \(V = U\oplus U^\perp \). Mit dem Satz von Gram und Schmidt können wir eine Orthonormalbasis \(v_1, \dots , v_r\) von \(U\) finden und ergänzen zu einer Orthonormalbasis \(v_1, \dots , v_n\) von \(V\). Es gilt dann

\[ U^\perp = \langle v_{r+1}, \dots , v_n\rangle , \]

wie man leicht nachrechnet. Insbesondere erhalten wir in diesem Fall einen neuen Beweis von Satz 19.32 und von Korollar 19.33.

Die Determinante der Strukturmatrix einer Sesquilinearform ist abhängig von der Wahl der Basis, die Situation ist hier also anders als bei Endomorphismen, denn der Basiswechsel für Sesquilinearformen ist gegeben durch \(A\mapsto S^\ast AS\) (für eine Basiswechselmatrix \(S\in GL_n(\mathbb K)\)). Die Determinante ändert sich dabei um den Faktor \(\det (S^\ast )\det (S) = \lvert \det (S)\rvert ^2\). Aus der Existenz von Orthonormalbasen erhalten wir so aber immerhin das folgende Korollar.

Korollar 19.64

Sei \(V\) ein endlichdimensionaler \(\mathbb K\)-Vektorraum mit einem Skalarprodukt \(\beta \) und \(\mathscr B\) eine Basis von \(V\). Dann ist die Determinante der Strukturmatrix \(M_\mathscr B(\beta )\) eine positive reelle Zahl.

Beweis

Ist \(\mathscr B\) eine Orthonormalbasis für \(\beta \), so gilt \(M_\mathscr B(\beta )=E_n\) (mit \(n=\dim (V)\)), also \(\det (M_\mathscr B(\beta )) = 1\). Im allgemeinen Fall unterscheidet sich, wie soeben erläutert wurde, die Determinante davon um einen Faktor der Form \(\lvert \det (S)\rvert ^2\) (mit \(S\in GL_n(\mathbb K)\)), also um eine positive reelle Zahl. Daraus folgt die Behauptung.

Die Zahl \(\det (M_\mathscr B(\beta ))\) nennt man auch die Gramsche Determinante von \(\beta \) bezüglich der Basis \(\mathscr B\).

Bemerkung 19.65

Wir erhalten aus dem Korollar auf die folgende Weise einen neuen Beweis der Ungleichung von Cauchy-Schwarz (im positiv definiten Fall). Sei nämlich \(V\) ein \(\mathbb K\)-Vektorraum mit Skalarprodukt \((\cdot , \cdot )\). Seien \(v,w\in V\) linear unabhängig. Dann ist die Einschränkung des Skalarprodukts auf den Unterraum \(\langle v,w\rangle \) ebenfalls ein Skalarprodukt, wir können also \(V\) durch diesen Raum ersetzen und annehmen, dass \(\mathscr B=(v, w)\) eine Basis von \(V\) ist.

Das Korollar zeigt dann, dass

\[ (v,v)(w,w) - (v,w)(w,v) = \det \begin{pmatrix} (v,v) & (v,w) \\ (w,v) & (w,w) \end{pmatrix} =\det M_\mathscr B((\cdot , \cdot )) {\gt} 0, \]

und das liefert wegen \(\lvert (v,w)\rvert = \lvert (w,v)\rvert \) genau die gewünschte Aussage.

Satz 19.66 Hauptminorenkriterium für positive Definitheit

Sei \(V\) ein endlichdimensionaler \(\mathbb K\)-Vektorraum mit Basis \(b_1,\dots , b_n\) und sei \(\beta \) eine hermitesche Sesquilinearform auf \(V\). Dann sind äquivalent:

  1. \(\beta \) ist positiv definit,

  2. für alle \(r=1,\dots , n\) gilt

    \[ \det (\beta (b_i,b_j))_{i=1,\dots , r,\ j=1,\dots , r} \in \mathbb R_{{\gt} 0}. \]

Zur Erläuterung der Terminologie: Unter den Minoren einer Matrix versteht man die Determinanten von quadratischen Untermatrizen (also von Matrizen, die aus der ursprünglich gegebenen Matrix durch das Streichen von Zeilen und Spalten entstehen). Unter den Hauptminoren einer quadratischen Matrix versteht man die Determinanten derjenigen Untermatrizen, die durch Streichen von Zeilen und Spalten mit denselben Indizes entstehen (also beispielsweise die erste Zeile und erste Spalte und vierte Zeile und vierte Spalte). Mit demselben Argument wie im folgenden Beweis zeigt man, dass alle Hauptminoren der Strukturmatrix eines Skalarprodukts in \(\mathbb R_{{\gt} 0}\) liegen. Umgekehrt muss man aber nur die sogenannten führenden Hauptminoren, also die Determinanten der quadratischen Untermatrizen, in denen nur die ersten \(r\) Zeilen und Spalten übrig sind, auf Positivität überprüfen, um sicherzustellen, dass eine gegebene hermitesche Sesquilinearform positiv definit ist.

Beweis

Ist \(\beta \) positiv definit, so ist die Einschränkung von \(\beta \) auf jeden Untervektorraum von \(V\) ebenfalls positiv definit. Aus Korollar 19.64 folgt die Positivität der Determinanten.

Gelte nun \(\det (\beta (b_i,b_j))_{i=1,\dots , r,\ j=1,\dots , r} \in \mathbb R_{{\gt} 0}\) für alle \(r\).

Wir zeigen durch Induktion nach \(n\), dass \(\beta \) positiv definit ist. Der Fall \(n=1\) ist klar. Im Fall \(n {\gt} 1\) schreiben wir \(U:= \langle b_1, \dots , b_{n-1}\rangle \) und haben nach Induktionsvoraussetzung, dass die hermitesche Sesquilinearform \(U\times U\to K\), \((u, u^\prime )\mapsto \beta (u, u^\prime )\) positiv definit ist. Sei \(v_1, \dots , v_{n-1}\) eine Orthonormalbasis für diese Form.

Sei nun \(v_n\ne 0\) irgendein Vektor, der zu \(v_1, \dots , v_{n-1}\) orthogonal ist. Dass ein solcher existiert, kann man entweder aus Satz 19.32 folgern (denn wegen \(\det (\beta (b_i,b_j))_{i=1,\dots , n,\ j=1,\dots , n}\ne 0\) ist \(\beta \) nicht-ausgeartet). Alternativ kann man ähnlich wie im Satz von Gram-Schmidt einen solchen Vektor direkt angeben, zum Beispiel

\[ v_n = b_n - \sum _{i=1}^{n-1} \beta (v_i, b_n) v_i. \]

Dann hat die Strukturmatrix von \(\beta \) bezüglich dieser Basis die Form

\[ \operatorname{diag}(1, \dots , 1, \beta (v_n, v_n)). \]

Das Vorzeichen der Determinante der Strukturmatrix einer hermiteschen Form ist von der Wahl der Basis unabhängig (vergleiche den Beweis von Korollar 19.64), aus unserer Voraussetzung folgt also

\[ \beta (v_n, v_n) = \det (\operatorname{diag}(1, \dots , 1, \beta (v_n, v_n))) {\gt} 0. \]

Weil \(\beta \) durch eine Diagonalmatrix mit nur positiven Einträgen auf der Diagonale dargestellt werden kann, ist die Form positiv definit.

Bemerkung 19.67
  1. Weil in der Situation des Satzes \(\beta \) negativ definit ist genau dann, wenn \(-\beta \) positiv definit ist, erhalten wir auch die Äquivalenz der folgenden Aussagen:

    1. \(\beta \) ist negativ definit,

    2. für alle \(r=1,\dots , n\) gilt

      \[ (-1)^r \det (\beta (b_i,b_j))_{i=1,\dots , r,\ j=1,\dots , r} \in \mathbb R_{{\gt} 0}. \]
  2. Ist \(\beta \) positiv semi-definit, dann sind die Determinanten, die in Satz 19.66 betrachtet werden, alle \(\ge 0\). (Denn eine positiv semidefinite Form ist nach Korollar 19.54 entweder positiv definit oder ausgeartet.) Diese Bedingung reicht aber nicht aus, um sicherzustellen, dass eine gegebene Form positiv semidefinit ist. Siehe  [ Lo2 ] Abschnitt VII.5, für eine Diskussion im Fall der reellen Zahlen als Grundkörper.

Ergänzung 19.68 Die Komplexifizierung eines euklidischen Vektorraums

Sei \(\beta \) ein Skalarprodukt auf dem \(\mathbb R\)-Vektorraum \(\mathbb R^n\), sei \(B\) die Strukturmatrix von \(\beta \) bezüglich der Standardbasis. Dann ist die durch \(B\) gegebene Sesquilinearform auf \(\mathbb C^n\) ebenfalls ein Skalarprodukt ist. Da \(B\) reell und symmetrisch ist, gilt \(B^\ast = B^t = B\), also ist diese Sesquilinearform hermitesch.

Ist \(b_1,\dots , b_n\) eine Orthonormalbasis des \(\mathbb R\)-Vektorraums \(\mathbb R^n\) bezüglich \(\beta \), so bilden \(b_1, \dots , b_n\) auch eine Orthonormalbasis des \(\mathbb C\)-Vektorraums \(\mathbb C^n\) bezüglich dieser Sesquilinearform. Die Existenz einer Orthonormalbasis impliziert, dass es sich um ein Skalarprodukt handelt. (Alternativ könnte man die positive Definitheit mit dem Hauptminorenkriterium nachweisen.)

Sei nun \(V\) ein \(\mathbb R\)-Vektorraum mit einem Skalarprodukt \(\beta \). Sei \(V_\mathbb C= V\otimes _\mathbb R\mathbb C\) die Erweiterung der Skalare von \(\mathbb R\) nach \(\mathbb C\) des Vektorraums \(V\) wie in Abschnitt 18.5.3. Wir definieren eine Sesquilinearform auf \(V_\mathbb C\) durch

\[ \beta _\mathbb C\colon V_\mathbb C\times V_\mathbb C\to \mathbb C,\quad (v\otimes a, w\otimes b)\mapsto \overline{a}b\beta (v,w). \]

Wie üblich geben wir nur an, was mit den Elementartensoren passiert, die Abbildung muss dann bilinear fortgesetzt werden. Es ist klar, dass diese Abbildung tatsächlich eine Sesquilinearform ist und dass diese hermitesch ist. Dass sie auch positiv definit ist, kann man mit denselben Argumenten wie im Fall des Standardvektorraums zeigen, indem man eine Basis wählt. In der Tat, sei \(\mathscr B= (b_1, \dots , b_n)\) eine Orthonormalbasis von \(V\) bezüglich \(\beta \) (als \(\mathbb R\)-Vektorraum). Dann ist \(b_1\otimes 1, \dots , b_n\otimes 1\) eine Basis von \(V_\mathbb C\), und anhand der Formel, mit der wir \(\beta _\mathbb C\) definiert haben, folgt unmittelbar, dass es sich um eine Orthonormalbasis handelt. Also ist \(\beta _\mathbb C\) ein Skalarprodukt.