Inhalt

10.1 Eigenwerte, Eigenvektoren

Um Hilfsmittel zu entwickeln, die uns erlauben zu entscheiden, ob ein Vektorraum-Endomorphismus oder eine Matrix diagonalisierbar sind, und letztlich auch nicht-diagonalisierbare Endomorphismen besser verstehen zu können, nähern wir uns der Sache schrittweise. Ist \(f\colon V\to V\) ein diagonalisierbarer Endomorphismus und \(\mathscr B\) eine Basis von \(V\), so dass \(M^\mathscr B_\mathscr B(f)\) eine Diagonalmatrix ist (Satz 7.37), so gilt für jeden der Basisvektoren \(b_i\) aus \(\mathscr B\), dass \(f(b_i)\) ein Vielfaches von \(b_i\) ist. Dieser wichtigen Eigenschaft geben wir in der folgenden Definition einen Namen.

Definition 10.3

Seien \(K\) ein Körper, \(V\) ein \(K\)-Vektorraum und \(f\) ein Endomorphismus von \(V\).

  1. Ein Vektor \(v \in V\setminus \{ 0\} \) heißt Eigenvektor von \(f\) zum Eigenwert \(\lambda \in K\), falls \(f(v)=\lambda v\). Ein Element \(\lambda \in K\) heißt Eigenwert der linearen Abbildung \(f\), falls ein Vektor \(v\in V\setminus \{ 0\} \) existiert, der Eigenvektor von \(f\) zum Eigenwert \(\lambda \) ist.

  2. Ist \(\lambda \) ein Eigenwert von \(f\), so heißt die Menge

    \[ V_\lambda = V_\lambda (f) = \{ v \in V;\ f(v)=\lambda v \} \]

    aller Eigenvektoren zum Eigenwert \(\lambda \) zusammen mit dem Nullvektor der Eigenraum von \(f\) zum Eigenwert \(\lambda \). (Dies ist ein Untervektorraum von \(V\).)

Gelegentlich verwenden wir die Schreibweise \(V_\lambda (f) = \{ v\in V;\ f(v)=\lambda v\} \) auch dann, wenn \(\lambda \) kein Eigenwert von \(f\) sei (und dann handelt es sich einfach um den Nullvektorraum).

Dass die hier definierten Eigenräume tatsächlich Untervektorräume sind, prüft man unmittelbar nach, indem man ausnutzt, dass die Abbildung \(f\) linear ist. Dass \(v\in V\setminus \{ 0\} \) ein Eigenvektor eines Endomorphismus \(f\) von \(V\) sei, können wir auch dadurch ausdrücken, dass \(f\) die Gerade (d.h. den eindimensionalen Unterraum) \(\langle v\rangle \) in sich abbildet. Die Eigenvektoren von \(f\) zum Eigenwert \(0\) sind genau die Elemente von \(\operatorname{Ker}(f)\setminus \{ 0\} \). Ein geometrisches Beispiel: Ist \(f\colon \mathbb R^3\to \mathbb R^3\) eine Drehung, also eine abstandserhaltende Abbildung mit \(\det (f) = 1\) (siehe Ergänzung 9.24), und ist \(v\) ein Eigenvektor von \(f\) zum Eigenwert \(1\), so ist die von \(v\) erzeugte Gerade eine/die Drehachse der Drehung. In Beispiel 10.11 sehen wir, dass jede Drehung von \(\mathbb R^3\) einen Eigenvektor vom Eigenwert \(1\), also eine Drehachse, besitzt.

Der Zusammenhang zum Begriff der Diagonalisierbarkeit ist der folgende.

Satz 10.4

Ein Endomorphismus \(f\) eines endlichdimensionalen Vektorraums \(V\) ist genau dann diagonalisierbar, wenn eine Basis \(\mathscr B\) von \(V\) existiert, die aus Eigenvektoren von \(f\) besteht.

Proof
Dass eine Basis \(\mathscr B\) aus Eigenvektoren von \(f\) besteht, ist offenbar dazu äquivalent, dass \(M^\mathscr B_\mathscr B(f)\) eine Diagonalmatrix ist. Daraus folgt direkt die Behauptung.
Proof

Analog definieren wir wieder die Begriffe des Eigenwerts, Eigenvektors und Eigenraums einer quadratischen Matrix \(A\). Es handelt sich dabei genau um die Eigenwerte, Eigenvektoren und Eigenräume des Endomorphismus \(\mathbf f_A\) von \(K^n\), der durch \(v\mapsto Av\) definiert ist. Explizit ausgeschrieben bedeutet das:

Definition 10.5

Sei \(n\in \mathbb N\) und \(A\in M_n(K)\).

  1. Ein Vektor \(v \in K^n\setminus \{ 0\} \) heißt Eigenvektor von \(A\) zum Eigenwert \(\lambda \in K\), falls \(Av =\lambda v\). Ein Element \(\lambda \in K\) heißt Eigenwert der Matrix \(A\), falls ein Vektor \(v\in K^n\setminus \{ 0\} \) existiert, der Eigenvektor von \(A\) zum Eigenwert \(\lambda \) ist.

  2. Ist \(\lambda \) ein Eigenwert von \(A\), so heißt die Menge

    \[ V_\lambda = V_\lambda (A) = \{ v \in K^n;\ Av=\lambda v \} \]

    aller Eigenvektoren zum Eigenwert \(\lambda \) zusammen mit dem Nullvektor der Eigenraum von \(A\) zum Eigenwert \(\lambda \). (Dies ist ein Untervektorraum von \(K^n\).)

Bemerkung 10.6

Die Einführung der Begriffe Eigen-wert, -vektor, … schreibt man David Hilbert (1862 – 1943, einer der wichtigsten Mathematiker seiner Zeit) zu, der in der Einleitung seiner Arbeit Grundzüge einer allgemeinen Theorie der linearen Integralgleichungen, Nachr. Königl. Ges. der Wissensch. zu Göttingen (Math.-physik. Kl.) (1904), 49–91, schreibt: »… gelange ich zu Formeln, die die Entwickelung einer willkürlichen Funktion nach gewissen ausgezeichneten Funktionen, die ich Eigenfunktionen nenne, liefern …«. Vielleicht war er vom Begriff des Eigentons aus der Akustik beeinflusst. Jedenfalls geht es darum, Eigenschaften eines »Systems« (für uns: einer linearen Abbildung) zu finden bzw. zu benennen, die besonders charakteristisch dafür und sozusagen »diesem System eigen« sind. Auch das Wort Eigenschaft beginnt ja, aus dem gleichen Grund, mit diesem Wortteil.

Viele Anwendungsprobleme lassen sich als Eigenwertprobleme formulieren, d.h. als die Aufgabenstellung, Eigenwerte und Eigenvektoren einer linearen Abbildung zu finden, unter anderem in der Physik, Chemie, Biologie, in den Ingenieurwissenschaften, den Wirtschaftswissenschaften und anderen Gebieten. Siehe den Abschnitt Praktische Beispiele auf der Wikipedia-Seite zum Begriff Eigenwertproblem. Siehe auch Wikipedia (Englisch). Siehe Abschnitt 10.3 für einige konkrete Beispiele.

Oft handelt es sich bei den dabei betrachteten Vektorräumen um Vektorräume von Funktionen. Als einfaches Beispiel betrachten wir den Vektorraum \(C^\infty (\mathbb R)\) aller beliebig oft differenzierbaren Funktionen \(\mathbb R\to \mathbb R\), und darauf die Ableitung \(D\colon C^\infty (\mathbb R) \to C^\infty (\mathbb R)\) als Endomorphismus. Aus den Ableitungsregeln (hier benötigen wir nur \((f+g)^\prime = f^\prime +g^\prime \) und \((af)^\prime = a\, f^\prime \) für differenzierbare Funktionen \(f, g\) und \(a\in \mathbb R\)) folgt, dass \(D\) eine lineare Abbildung ist. Die Exponentialfunktion \(\exp \) ist ein Eigenvektor von \(D\) mit Eigenwert \(1\), denn es gilt \(D(\exp ) = \exp ^\prime = \exp \). Die Sinusfunktion ist ein Eigenvektor von der Verkettung \(D\circ D\), also der zweifachen Ableitung, und zwar mit Eigenwert \(-1\).

Physics is very interesting. There are many, many interesting theorems. Unfortunately, there are no definitions.

David Kazhdan

…it is impossible to explain honestly the beauties of the laws of nature in a way that people can feel, without their having some deep understanding of mathematics. I am sorry, but this seems to be the case.

Richard Feynman

Fundort: https://www.jmilne.org/math/

Für einen Endomorphismus eines endlichdimensionalen \(K\)-Vektorraums \(V\) stimmen die Eigenwerte von \(f\) und der darstellenden Matrix \(M^\mathscr B_\mathscr B(f)\) bezüglich irgendeiner Basis \(\mathscr B\) überein, wie das folgende Lemma zeigt.

Lemma 10.7
  1. Seien \(V, W\) Vektorräume über dem Körper \(K\), \(f\) ein Endomorphismus von \(V\) und \(\iota \colon V\to W\) ein Isomorphismus. Dann ist \(g:= \iota \circ f\circ \iota ^{-1}\) ein Endomorphismus von \(W\). Es haben \(f\) und \(g\) dieselben Eigenwerte, und ist \(\lambda \in K\) ein Eigenwert von \(f\) und \(g\), so induziert \(\iota \) einen Isomorphismus \(V_\lambda (f)\stackrel{\sim }{\smash {\longrightarrow }\rule{0pt}{0.4ex}}V_\lambda (g)\). Insbesondere gilt \(\dim V_\lambda (f)=\dim V_\lambda (g)\).

  2. Sei \(f\) ein Endomorphismus des endlichdimensionalen \(K\)-Vektorraums \(V\) und sei \(\mathscr B\) eine Basis von \(V\). Genau dann ist ein Element \(\lambda \in K\) ein Eigenwert von \(f\), wenn \(\lambda \) ein Eigenwert der Matrix \(M^\mathscr B_\mathscr B(f)\) ist, und in diesem Fall induziert der Koordinatenisomorphismus \(c_\mathscr B\colon V\to K^n\) einen Isomorphismus zwischen den zugehörigen Eigenräumen von \(f\) und \(M^\mathscr B_\mathscr B(f)\). Insbesondere haben die Eigenräume zu \(\lambda \) dieselbe Dimension.

  3. Zueinander konjugierte Matrizen \(A\in M_n(K)\), \(SAS^{-1}\) (mit \(S\in GL_n(K)\)) haben dieselben Eigenwerte. Die Eigenräume von \(A\) und \(SAS^{-1}\) zu einem gemeinsamen Eigenwert \(\lambda \) haben dieselben Dimensionen.

Proof
zu (1). Ist \(v\in V\), \(v\ne 0\), mit \(f(v)=\lambda v\), so folgt

\[ g(\iota (v)) = \iota (f(\iota ^{-1}(\iota (v)))) = \iota (f(v)) = \lambda \iota (v), \]

mithin ist \(\iota (v)\) ein Eigenvektor von \(g\) und insbesondere \(\lambda \) ein Eigenwert von \(g\). Genauer folgt, dass \(\iota \) eine Abbildung \(V_\lambda (f)\to V_\lambda (g)\) induziert. Analog induziert \(\iota ^{-1}\) eine Abbildung \(V_\lambda (g)\to V_\lambda (f)\). Die Verkettung dieser beiden Abbildungen ist die Identität, und damit ist Teil (1) bewiesen.

zu (2). Die Behauptung folgt direkt aus Teil (1), wenn man für \(\iota \) den Koordinatenisomorphismus \(c_\mathscr B\) hernimmt.

zu (3). Dies können wir als Folgerung aus Teil (2) erhalten, denn daran sehen wir, dass die Eigenwerte der darstellenden Matrix eines Endomorphismus von der Wahl der Basis unabhängig sind. Weil \(A\) und \(SAS^{-1}\) Matrizen sind, die beide dieselbe lineare Abbildung \(K^n\to K^n\) (nämlich, beispielsweise, \(\mathbf f_A\)) bezüglich unterschiedlicher Basen darstellen, folgt die Behauptung.

Proof

Aus dem Lemma und den uns bekannten Charakterisierungen der Eigenschaft eines Endomorphismus bzw. einer Matrix, (nicht) invertierbar zu sein, erhalten wir den folgenden Satz.

Satz 10.8 Charakterisierung von Eigenwerten

Seien \(K\) ein Körper und \(V\) ein endlichdimensionaler \(K\)-Vektorraum. Sei \(f\colon V \rightarrow V\) ein Endomorphismus, \(n=\dim V\), \(\mathscr B\) eine Basis von \(V\), \(A = M^{\mathscr B}_{\mathscr B}(f)\). Sei \(\lambda \in K\). Die folgenden Aussagen sind äquivalent:

  1. \(\lambda \) ist Eigenwert von \(f\),

  2. \(\lambda \) ist Eigenwert von \(A\),

  3. \(\operatorname{Ker}(f-\lambda \cdot \operatorname{id}_V) \ne \{ 0 \} \),

  4. \(\operatorname{Ker}(A-\lambda E_n) \ne \{ 0\} \),

  5. \(\det (f-\lambda \cdot \operatorname{id}_V) = 0\),

  6. \(\det (A-\lambda E_n) = 0\).

In diesem Fall ist \(\operatorname{Ker}(f-\lambda \cdot \operatorname{id}_V)\) der Eigenraum von \(f\) zum Eigenwert \(\lambda \) und \(\operatorname{Ker}(A-\lambda E_n)\) der Eigenraum von \(A\) zum Eigenwert \(\lambda \).

Korollar 10.9

Die Eigenwerte einer oberen Dreiecksmatrix sind genau die Diagonaleinträge der Matrix.

Proof
Eine obere Dreiecksmatrix ist genau dann invertierbar, wenn alle ihre Diagonaleinträge \(\ne 0\) sind. Für eine obere Dreiecksmatrix \(A\) ist also \(\det (A-\lambda E_n) = 0\) dazu äquivalent, dass \(\lambda \) auf der Diagonale von \(A\) vorkommt. Die Behauptung folgt nun aus Satz 10.8.
Proof

Im allgemeinen Fall ist die Bestimmung der Eigenwerte (und Eigenräume) einer Matrix aufwändiger. Die Eigenwerte von \(A\) sind die Nullstellen der Funktion \(K\to K\), \(\lambda \mapsto \det (A-\lambda E_n)\). Die Leibniz-Formel zeigt, dass es sich um eine Polynomfunktion in \(\lambda \), die höchste Potenz von \(\lambda \), die hier auftritt ist \(n\). Für \(n=2\) lassen sich die Nullstellen durch Lösen einer quadratischen Gleichung bestimmen, aber für größere \(n\) gibt es keine praktikablen (und für \(n \ge 5\): überhaupt keine) allgemeinen Lösungsformeln. In konkret gegebenen Fällen lassen sich die Nullstellen aber oft bestimmen. Äquivalent kann man stattdessen mit \(\det (\lambda E_n - A)\) arbeiten; das hat den (kleinen) Vorteil, dass dann \(\lambda ^n\) mit dem Koeffizient \(1\) auftritt.

Der Eigenraum \(\operatorname{Ker}(A-\lambda E_n)\) zum Eigenwert \(\lambda \) ist die Lösungsmenge des homogenen linearen Gleichungssystems mit Koeffizientenmatrix \(A-\lambda E_n\). Ist \(\lambda \) bekannt, so lässt sich also mit dem Gauß-Algorithmus eine Basis bestimmen. Die Dimension zu errechnen, ist wegen \(\dim (\operatorname{Ker}(A-\lambda E_n)) = n-\operatorname{rg}(A-\lambda E_n)\) dazu gleichwertig, den Rang dieser Matrix zu finden.

Mit dem Satz können wir auch beweisen, dass eine Matrix \(A\) und ihre transponierte Matrix dieselben Eigenwerte haben.

Lemma 10.10

Sei \(K\) ein Körper und sei \(A\in M_{n\times n}(K)\) eine quadratische Matrix. Die Matrizen \(A\) und \(A^t\) haben dieselben Eigenwerte, und ist \(\lambda \in K\) ein Eigenwert, so gilt \(\dim V_\lambda (A) = \dim V_\lambda (A^t)\).

Proof
Dass \(\lambda \in K\) ein Eigenwert von \(A\) ist, ist dazu äquivalent, dass \(\operatorname{Ker}(A-\lambda E_n)\ne 0\) ist, und in diesem Fall ist \(\operatorname{Ker}(A-\lambda E_n)\) der zugehörige Eigenraum. Es gilt aber \((A-\lambda E_n)^t = A^t - \lambda E_n\), und wegen Theorem 7.42 (Zeilenrang und Spaltenrang einer Matrix stimmen überein) gilt \(\dim (\operatorname{Ker}(A-\lambda E_n)) = \dim (\operatorname{Ker}(A^t-\lambda E_n))\).
Proof

Der Arme ist unter die Dichter gegangen. Für die Mathematik hatte er nicht genug Fantasie!

… hat angeblich D. Hilbert gesagt, als ihm berichtet wurde, dass einer
seiner früheren Studenten von der Mathematik in die Germanistik gewechselt sei.

Beispiel 10.11

Wir haben in Beispiel 7.38 schon ein Beispiel einer diagonalisierbaren Abbildung (bzw. Matrix) gesehen. Einfache Klassen von weiteren Beispielen sind die folgenden.

  1. Sei \(K=\mathbb R\). Für reelle Zahlen \(-1 {\lt} a, b {\lt} 1\) mit \(a^2 + b^2 = 1\) hat die Matrix \(\begin{pmatrix} a & -b \\ b & a \end{pmatrix}\) keine Eigenwerte, ist also insbesondere nicht diagonalisierbar. Das stimmt mit der geometrischen Anschauung überein, dass die zugehörige lineare Abbildung eine Drehung um den Ursprung ist (Ergänzung 7.60). Diese Drehung bildet keine Ursprungsgerade auf sich selbst ab, weil wir die Drehungen um \(0^\circ \) und um \(180^\circ \) ausgeschlossen haben (sie entsprechen den Werten \(a=1\) bzw. \(a=-1\)).

  2. Sei \(K=\mathbb R\), und \(f\colon \mathbb R^3\to \mathbb R^3\) eine Drehung, d.h. \(\det (f) = 1\) und für die darstellende Matrix \(A= M(f)\) gilt \(A^{-1} = A^t\) (Ergänzung 9.24).

    Es gilt dann, weil \(\det (A)=1\) und die Determinante einer Matrix mit der Determinante ihrer Transponierten übereinstimmt,

    \[ \det (A-E_3) = \det (A- AA^t) = \det (A)\det (E_3-A^t) = \det (E_3-A) = -\det (A-E_3). \]

    Im letzten Schritt haben wir dabei ausgenutzt, dass \(3\) ungerade ist.

    Es folgt, dass \(det(A-E_n)=0\), somit dass \(1\) ein Eigenwert von \(f\) ist, es gibt also einen Vektor \(v\in \mathbb R^3\) mit \(f(v) = v\). Die von \(v\) erzeugte Gerade kann man sich anschaulich als Drehachse vorstellen, da ihre Elemente sämtlich festgelassen werden.

    Aus unserer Definition von Drehungen folgt leicht, dass die Verkettung von zwei (oder mehr) Drehungen wieder eine Drehung ist. Insbesondere hat die Verkettung von zwei Drehungen wieder eine Drehachse.

  3. Sei \(K= \mathbb R\), \(n\) eine ungerade natürliche Zahl und \(f\) ein Endomorphismus eines \(n\)-dimensionalen \(\mathbb R\)-Vektorraums. Dann hat \(f\) einen Eigenwert in \(\mathbb R\). Denn die Abbildung \(\varphi \colon \mathbb R\to \mathbb R\), \(\lambda \mapsto \det (A-\lambda E_n)\), ist eine Polynomfunktion vom Grad \(n\), wie wir anhand der Leibniz-Formel sehen. Jede solche Polynomfunktion (von ungeradem Grad!) hat mindestens eine Nullstelle. Um dies zu zeigen, kann und muss man analytische Eigenschaften des Körpers der reellen Zahlen benutzen, etwa den Zwischenwertsatz. Daraus folgt die Behauptung, weil \(\lim _{x\to -\infty } \varphi (x) = \infty \) und \(\lim _{x\to \infty } \varphi (x) = -\infty \) gilt.

    Ist \(\lambda \) eine Nullstelle von \(\varphi \), so ist \(\det (A-\lambda E_n)=0\), also \(\lambda \) ein Eigenwert von \(f\).

  4. Sei nun \(K\) irgendein Körper und \(A= \begin{pmatrix} a & b \\ 0 & d \end{pmatrix}\) eine obere Dreiecksmatrix der Größe \(2\times 2\). Die Eigenwerte von \(A\) sind dann \(a\) und \(d\), es hat also \(A\) zwei Eigenwerte oder einen Eigenwert, je nachdem, ob \(a\ne d\) oder \(a=d\) ist.

    Ist \(a\ne d\) und sind \(v_1\), \(v_2\) Eigenvektoren von \(A\), so können diese offenbar nicht Vielfache voneinander sein, weil die zugehörigen Eigenwerte sonst gleich wären. Folglich bilden \(v_1\) und \(v_2\) eine aus Eigenvektoren bestehende Basis. Die Matrix \(A\) ist dann diagonalisierbar, und zwar konjugiert zu \(\operatorname{diag}(a,d)\). Genauer können wir \(v_1 = e_1\) wählen. Um auch für \(v_2\) konkret eine Möglichkeit anzugeben, müsste man eine weitere Fallunterscheidung treffen.

    Ist andererseits \(a= d\), so ist der Eigenraum \(V_a(A)\) die Lösungsmenge des homogenen linearen Gleichungssystems mit Koeffizientenmatrix \(\begin{pmatrix} 0 & b \\ 0 & 0 \end{pmatrix}\). Dieser Raum stimmt genau dann mit \(K^2\) überein, wenn \(b=0\) ist; genau in diesem Fall ist also \(A\) diagonalisierbar.

    Insbesondere sehen wir, dass über jedem Körper \(K\) die Matrix \(\begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix}\) nicht diagonalisierbar ist.

Bemerkung 10.12

Zum Abschluss dieses Abschnitts noch eine wichtige Bemerkung über ein Phänomen, das bisher keine Rolle gespielt hat, aber nun berücksichtigt werden muss: Die Frage, ob eine Matrix diagonalisierbar ist, ist im allgemeinen davon abhängig, über welchem Körper wir sie betrachten. Mit anderen Worten: Eine Matrix \(A\in M_n(K)\), die nicht diagonalisierbar ist, kann – aufgefasst als Matrix in \(M_n(L)\) für einen geeigneten Erweiterungskörper \(L\) von \(K\) – diagonalisierbar sein. Ähnlich verhält es sich mit der Frage, ob eine Matrix überhaupt einen Eigenwert besitzt.

Als konkretes Beispiel betrachten wir wie in Beispiel 10.11 (1) eine Drehmatrix \(\begin{pmatrix} a & -b \\ b & a \end{pmatrix}\in M_2(\mathbb R)\) mit \(-1 {\lt} a,b, {\lt} 1\), \(a^2+b^2 = 1\). Aufgefasst als Matrix in \(M_2(\mathbb C)\), wenn wir also den Grundkörper durch den Körper \(\mathbb C\) der komplexen Zahlen ersetzen, ist diese Matrix diagonalisierbar. Ihre Eigenwerte sind die beiden Lösungen der quadratischen Gleichung \(x^2 - 2ax + 1\), das sind \(a+ib\) und \(a-ib\). Unsere Voraussetzungen implizieren, dass \(b\ne 0\), also handelt es sich um komplexe Zahlen, die nicht in \(\mathbb R\) liegen.