Diagonalisierbarkeit von Matrizen

Diagonalisierbarkeit – Worum geht’s?

Eine quadratische Matrix $A$ lässt sich unter bestimmen Anforderungen diagonalisieren, d.h. es gibt eine invertierbare Transformationsmatrix $U$ und eine Diagonalmatrix $D$ (also eine Matrix, die außerhalb der Diagonalen nur Nullen enthält), sodass gilt

$$ A = UDU^{-1}$$

Diagonalisieren – Wozu das ganze?

Diagonalmatrizen sind super praktisch, weil man mit ihnen so leicht rechnen kann. Da sie nur auf der Diagonalen Einträge haben, ist eine Matrixmultiplikation unglaublich einfach, weil wir nur die Diagonalelemente multiplizieren müssen:

$$ \begin{pmatrix} 3 & 0 & 0 \\ 0 & 4 & 0 \\ 0 & 0 & -1 \end{pmatrix} \cdot \begin{pmatrix} 2 & 0 & 0 \\ 0 & -6 & 0 \\ 0 & 0 & -2 \end{pmatrix} = \begin{pmatrix} 6 & 0 & 0 \\ 0 & -24 & 0 \\ 0 & 0 & 2 \end{pmatrix} $$

Auch die Inverse können wir damit total leicht bestimmen, indem wir die Kehrwerte auf der Diagonalen nehmen:

$$ \begin{pmatrix} 3 & 0 & 0 \\ 0 & 4 & 0 \\ 0 & 0 & -1 \end{pmatrix}\cdot \begin{pmatrix} \frac{1}{3} & 0 & 0 \\ 0 & \frac{1}{4} & 0 \\ 0 & 0 & -1 \end{pmatrix} = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix} $$

(An dieser Stelle sieht man, dass eine Diagonalmatrix nur dann invertierbar ist, wenn keine Null auf der Diagonalen steht)

Wenn wir nun eine Potenz unserer Matrix $A$ berechnen wollen z.B. $A^5$, dann wäre das sehr umständlich. Wenn wir allerdings wissen, dass $ A = UDU^{-1}$, geht es ganz leicht:

$$ \begin{align*} A^5 &= (UDU^{-1})^5 = (UDU^{-1}) (UDU^{-1}) (UDU^{-1}) (UDU^{-1}) (UDU^{-1}) \\ &= UD(U^{-1}U)D(U^{-1}U)D(U^{-1}U)D(U^{-1}U)DU^{-1} = UD^5U^{-1} \end{align*} $$

$D^5$ können wir ganz leicht bestimmen, und dann müssen wir nur noch zwei Matrixmultiplikationen machen anstatt 4.

Wie kann man eine Matrix diagonalisieren? Allgemeine Erklärung

Wann kann man nun eine Matrix $A \in \mathbb{R}^n$ diagonalisieren? Wenn wir $n$ linear unabhängige Eigenvektoren finden! Wir erinnern uns, $v$ ist ein Eigenvektor zu $A$, wenn $Av = \lambda v$ für ein $\lambda \in \mathbb{R}$, ein so genannter Eigenwert. Wenn wir nun $n$ unabhängige Eigenvektoren $v_1, v_2, \ldots, v_n$ haben, können wir diese hintereinander zu einer Matrix $U$ schreiben, welche aufgrund der linearen Unabhängigkeit der Spalten invertierbar ist:

$$ U = \left( \begin{array}{c|c|c|c} v_1 & v_2 & \cdots & v_n \end{array} \right) $$

Mit der Definition der Eigenvektoren (Gleichung *) ist dann:

$$ \begin{align*} A\cdot U &= A \cdot \left( \begin{array}{c|c|c|c} v_1 & v_2 & \cdots & v_m \end{array} \right) = \left( \begin{array}{c|c|c|c} Av_1 & Av_2 & \cdots & Av_n \end{array} \right) \\ &\stackrel{*}{=} \left( \begin{array}{c|c|c|c} \lambda_1v_1 & \lambda_2v_2 & \cdots & \lambda_nv_n \end{array} \right) = \left( \begin{array}{c|c|c|c} v_1 & v_2 & \cdots & v_n \end{array} \right) \begin{pmatrix} \lambda_1 & & & \\ & \lambda_2 & & \\ & & \ddots & \\ & & & \lambda_n \end{pmatrix} \\ &= U \cdot D \end{align*} $$

Wem es nicht direkt klar ist, sollte nochmal kurz durchrechnen, dass es tatsächlich $U \cdot D$ ist, und nicht umgekehrt.

Aus den Gleichungen haben wir nun also das was wir wollten: $ A\cdot U = U\cdot D$, denn wir wissen ja dass $U$ invertierbar ist und es folgt damit:

$$ A = UDU^{-1}$$

Wir haben also unsere Transformationsmatrix $U$ und unsere Diagonalmatrix $D$ gefunden, $U$ bestehend aus den Eigenvektoren und $D$ bestehend aus den Eigenwerten.

Wie kann man eine Matrix diagonalisieren? Erklärung am Beispiel

Wenn wir also eine Matrix $A$ diagonalisieren wollen – bzw. schauen, ob es überhaupt geht – dann müssen wir offensichtlich die Eigenwerte und Eigenvektoren bestimmen. Wenn dann zu jeden Eigenwert die geometrische Vielfachheit gleich der algebraischen Vielfachheit ist, bedeutet dass, dass wir $n$ linear unabhängige Eigenvektoren gefunden haben, denn dann haben wir für jeden $k$-fachen Eigenwert auch $k$ linear unabhängige Eigenvektoren. Zusätzlich sind Eigenvektoren zu unterschiedlichen Eigenwerten immer zueinander linear unabhängig!

Gegeben sei die Matrix

$$ A = \begin{pmatrix} 1 & -2 & -1 \\ -6 & 2 & -2 \\ 15 & 6 & 9 \end{pmatrix} $$

Wie in den Erklärungen zu Eigenwerten und -vektoren berechnet, sind die Eigenwerte:

$$\lambda_1 = 2, ~~\lambda_2 = 4,~~\lambda_3 = 6$$

jeweils mit arithmetischer Vielfachheit 1. Zu jedem Eigenwert fanden wir dort auch nur einen Eigenvektor, die geometrischen Vielfachheiten sind also auch jeweils 1 und damit gleich den geometrischen. $A$ ist also diagonalisierbar. Die Eigenvektoren lauteten, wobei $v_1$ zu $\lambda_1$ gehört usw:

$$ v_1 = \begin{pmatrix} -1 \\ -1 \\ 3 \end{pmatrix},~v_2 = \begin{pmatrix} -1 \\ 0 \\ 3 \end{pmatrix}, ~ v_3 = \begin{pmatrix} 0 \\ -1 \\ 2 \end{pmatrix} $$

Um die Diagonalierung vollständig zu machen, schreiben wir nun noch die tatsächliche Diagonalmatrix $D$ auf, bestehend aus den Eigenwerten:

$$ D = \begin{pmatrix} 2 & 0 & 0 \\ 0 & 4 & 0 \\ 0 & 0 & 6 \end{pmatrix} $$

Mit zugehöriger Transformationsmatrix $U$, bestehend aus den Eigenvektoren (in der richtigen Reihenfolge, passend zu den Eigenwerten!!!):

$$ U = \left( \begin{array}{c|c|c} v_1 & v_2 & v_3 \end{array} \right) = \begin{pmatrix} -1 & -1 & 0 \\ -1 & 0 & -1 \\ 3 & 3 & 2 \end{pmatrix} $$

Ihr könnt euch nochmal rechnerisch vergewissern, dass es stimmt, indem ihr zeigt, dass $A = UDU^{-1}$. Kleiner Tipp: zeigt einfach $AU = UD$, dann müsst ihr $U$ nicht invertieren 😉

Ein Beispiel mit mehrfachen Eigenwerten

–> folgt in Kürze!

Ein Beispiel, einer nicht diagonalisierbaren Matrix

Für die Matrix

$$ A = \begin{pmatrix} -2 &-4 & 2 \\ -2 & -4 & -3 \\ 1 & 2 & -2 \end{pmatrix} $$

hatten wir auf der Erklärungsseite für Eigenwerte und -vektoren bereits berechnet, dass die Eigenwerte lauten: $\lambda_1 = 0$ mit geometrischer und arithmetischer Vielfachheit 1, und $\lambda_2 = -4$ mit arithmetischer Vielfachheit 2 aber geometrischer Vielfachheit 1. $A$ ist also nicht diagonalisierbar.

Diagonalisierbarkeit heißt nicht gleich Invertierbarkeit!

Abschließend möchte ich noch zwei Beispiele bringen, die die Zusammengehörigkeit von Invertierbarkeit und Diagonalisierbarkeit widerlegen. Studenten sagen in Prüfungen gerne mal das das eine das andere impliziert oder umgekehrt, aber das ist schlicht falsch.

Diagonalisierbarkeit impliziert nicht Invertierbarkeit

Auch wenn Diagonalisierbarkeit einer Matrix eine ziemlich starke Eigenschaft ist, muss die Matrix deshalb nicht invertierbar sein. Die folgende Matrix ist beispielsweise diagonalisierbar (denn sie ist bereits diagonal), ist aber nicht invertierbar, denn es steht eine Null auf der Diagonalen (also ist ein Eigenwert Null bzw die Determinante ist Null)

$$ A = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 0 \end{pmatrix} $$

Invertierbarkeit impliziert nicht Diagonalisierbarkeit

Auch andersrum geht es nicht: Nehmen wir beispielsweise die Matrix

$$ A = \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix} $$

die offenbar invertierbar ist, da ihre Determinante 1 ist. Damit sie diagonalisierbar ist, müssten die geometrischen Vielfachheiten der Eigenwerte gleich der algebraischen Vielfachheiten derselben sein. Das charakteristische Polynom ist:

$$ det(\begin{pmatrix} 1-\lambda & 1 \\ 0 & 1-\lambda \end{pmatrix}) = (1-\lambda)(1-\lambda) \stackrel{!}{=}0 $$

Es hat also die doppelte Nullstelle $\lambda_1 = \lambda_2 = 1$. Der einzige Eigenwert ist also 1 mit algebraischer Vielfachheit 2

Schauen wir uns die geometrische Vielfachheit an:

$$ (A-\lambda\mathbb{I})v = \begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix}v \stackrel{!}{=} 0 $$

Das impliziert $v_2 = 0$. Wir finden also nur den Eigenvektor $v = \begin{pmatrix} 1 \\ 0 \end{pmatrix}$. Die geometrische Vielfachheit von $\lambda_1$ ist also nur 1 und damit ungleich der geometrischen. $A$ ist also nicht diagonalisierbar.

9 thoughts on “Diagonalisierbarkeit von Matrizen

  1. Sehr hilfreich vielen Dank. Vielleicht könntest du die Bedingung, dass algebraische und geometrische Vielfachheit gleich sein müssen etwas deutlicher erklären.

  2. Sehr hilfreich. Vor Allem der Nicht-Zusammenhang von Invertierbarkeit und Diagonalisierbarkeit wurde mir zum ersten mal richtig klar. Weiter so, Tiger!

    1. Hi Heli,

      ich habe soeben bei https://matheistkeinarschloch.de/eigenwert-und-eigenvektoren/ nochmal gleich am Anfang ein bisschen versucht anschaulicher zu machen was es bedeutet, einen Vektor mit einer Matrix zu multiplizieren, und dementsprechend auch, was ein Eigenwert und Eigenvektor anschaulich sind.

      U ist ja nun nur die Matrix aus Eigenvektoren, d.h. A * U ist gerade die Streckung der Eigenvektoren, die in U stehen. Und weil das eben nur eine Streckung ist, koennen wir statt A auch die Diagonalmatrix nehmen, die halt auch nichts anderes tut, als strecken.

      Hilft das ein bisschen?

    2. Es gibt klasse Videos von 3Blue1Brown auf Youtube zu dem Thema, oder auf Deutsch kann ich Mathe Peter empfehlen.

      So ich wie ich das bis jetzt verstanden habe, sucht man ja zu einer Matrix mit standartbasis eine neue Basis, sodass die neue matrix die das selbe beschreibt was die alte gemacht hat nur das sie jetzt eine diagonalmatrix ist.
      Also die alte Matrix hat gewisse Vektoren (die eigenvektoren) die sie nur skaliert hat und nicht gedreht, was man ihr aber nicht direkt ablesen konnte, und nachdem man den ganzen bums gemacht hat weiß man welche Vektoren (auf dieser aufgespannten Gerade des eigenvektors) um welchen Faktor (=Eigenwert) skaliert werden. Was gewisse berechnung um einiges leichte machen kann.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert