+0  
 
0
360
1
avatar+55 

Bestimmen Sie eine Orthogonalbasis aus Eigenvektoren von
\(
A=\left(\begin{array}{ccc}
1 & 2 & -4 \\
2 & -2 & -2 \\
-4 & -2 & 1
\end{array}\right)
\)

 19.05.2021
 #1
avatar+2594 
+2

Ein Klassiker der linearen Algebra. Ich lass' an einigen Stellen die Zwischenrechnungen weg, damit die Lösung hier nicht allzu riesig wird. Wenn dadurch irgendwas unklar wird, bist du gern eingeladen, nochmal nachzufragen.

 

Um Eigenvektoren zu finden, ist es sehr sinnvoll, erstmal die Eigenwerte zu bestimmen. Diese sind die Nullstellen des charakteristischen Polynoms:

 

\(\chi_A(x) = det(A-x\cdot E_3) = -x^3+27x+54 = -(x-6)(x+3)^3\)

 

Wir sehen: Die Eigenwerte sind x1=6 mit algebraischer Vielfachheit (=Vielfachheit der Nullstelle im char. Polynom) 1 und x2=-3 mit alg. Vielfachheit 2.

 

Die Eigenvektoren sind nun die Vektoren v, für die gilt Av = xiv für i=1 oder i=2. Das ist äquivalent zu Av-xiv = 0 oder, nach Ausklammern, (A-xiE3)v = 0. Sie sind also genau die Vektoren, die im Kern von A-xiE3 sind.

 

Durch Lösen des entsprechenden Gleichungssystems (zB. per Gauß) findet man

 

ker(A-6+E3) = span({(-2,-1,2)T})

 

Unser erster Eigenvektor zum Eigenwert 6 ist also v1 = (-2,-1,2)T.

Nun zum nächsten Eigenwert:

 

ker(A+3*E3) = span({(1,0,1)T, (-1,2,0)T}) = span({(4,2,5)T,(-1,2,0)T}).

 

Die ersten beiden Vektoren sind die, die mein Matrixrechner ausgespuckt hat. Sie sind linear unabhängig und Eigenvektoren und wären daher als Vektoren für eine Transformationsmatrix zum Diagonalisieren geeignet, würden aber keine Orthogonalbasis bilden, weil sie nicht senkrecht aufeinander stehen. Nach kurzem Probieren fand ich den Vektor (4,2,5)T (=5* der erste Vektor + der zweite Vektor). Der ist immer noch lin. unabhängig zu (-1,2,0)T und auch ein Eigenvektor, steht jetzt aber senkrecht auf dem zweiten. Daher wähle ich

 

v2 = (4,2,5)T und v3 = (-1,2,0)T.

 

Nun ist {v1,v2,v3} eine Orthogonalbasis aus Eigenvektoren.

 

Man muss natürlich das Senkrechtstehen der Vektoren nicht durch Probieren zusammenbasteln, da gibt's schon auch Algorithmen dafür - den Gram-Schmidt-Algorithmus nämlich. Du kannst also auch erstmal eine Basis aus (irgendwelchen) Eigenvektoren bilden und dann Gram-Schmidt darauf loslassen, dann erhältst du immer eine Orthogonalbasis aus Eigenvektoren. Sogar mehr, nämlich gleichzeitig auch eine Orthonormalbasis aus Eigenvektoren. Dann ist deine Transformationsmatrix für's Diagonalisieren eine orthogonale Matrix und zum Invertieren reicht Transponieren. Wenn's eine Basis aus Eigenvektoren gibt, dann gibt's immer auch eine Orthonormalbasis aus Eigenvektoren, denn Gram-Schmidt ändert nichts an der Eigenvektor-Eigenschaft.

 20.05.2021

37 Benutzer online

avatar
avatar
avatar
avatar