Eigenwert, Eigenvektoren einer Matrix
-
Gegeben sei die Matrix:
( 0 1 )
( 1 0 )wie kann ich daraus den eigentwert und die eigenvektoren sowie den winkel, den die eigenvektoren zueinander bilden berechnen???
cu
-
( 0 1 )
( 1 0 ) =: AAlso zunächst mal die Eigenwerte:
(wobei I natürlich die Einheitsmatrix ist!)det(A-λI)=0
| 0-λ 1 |
| 1 0-λ | = λ2-1 = 0=>
λ1=1
λ2=-1Edit: Aua, ich glaube, ich such mir mal 'nen Kaffee, so viele Fehler...
-
danke dir;-)
schaut ja gar net so schwer aus! hast du da so ein script zu dem thema?noch ne frage:
wie kann ich den winkel, den die eigenvektoren zueinander berechnen???cu
-
laars schrieb:
danke dir;-)
schaut ja gar net so schwer aus! hast du da so ein script zu dem thema?laars schrieb:
noch ne frage:
wie kann ich den winkel, den die eigenvektoren zueinander berechnen???Es gilt ab=|a|*|b|*cosφ
wobei, a und b Vektoren, φ der eingeschlossene Winkel.
-
ok.......
wie berechnen ich von der matrix eigenwert u eigenvektor?
irgendwas mit drehung??A= (cosφ -sinφ)
(sinφ cosφ)
-
Wie du die Eigenwerte berechnest, steht doch oben. Für die Eigenvektoren soll gelten: Av=λv => (A-λI)v=0, d.h., daß du das homogene LGS (A-λI)v=0 lösen mußt, um die zugehörigen Eigenvektoren zu finden.
-
eigenvektoren sind immer senkrecht zueinander.
-
b7f7 schrieb:
eigenvektoren sind immer senkrecht zueinander.
Denk nochmal drüber nach, was passiert, wenn Du 2 Eigenvektoren zum selben Eigenwert hast (und das hast Du immer).
-
b7f7 schrieb:
eigenvektoren sind immer senkrecht zueinander.
i.A. sind zwei Eigenvektoren zu paarweise verschiedenen Eigenwerten nur linaer
unabhängig. Senkrecht stehen die nicht zwangsweise aufeinander. Das gilt z.B.
(speziell) für normale Matrizen.
-
SG1 schrieb:
b7f7 schrieb:
eigenvektoren sind immer senkrecht zueinander.
Denk nochmal drüber nach, was passiert, wenn Du 2 Eigenvektoren zum selben Eigenwert hast (und das hast Du immer).
ich glaub Taurins Antwort hat dein Einwand entkräftet, da ja lineare unabhängigkeit der eigenvektoren gefordert ist.
das bedeutet das eigenvektoren gleich sind wenn ein faktor l existiert, sodas x=lx; wobei l=0 ausgeschlossen wird.
(A- Lambda*I)*x*l=Lambda*xl
ist halt das gleiche wie
(A- Lambda*I)*x=Lambda*x
soweit ich mich erinner war die Forderung an Eigenvectoren, dass sie eine orthogonale Basis des Eigenraums der Matrix aufspannen und die Eigenwerte die Länge der Eigenvectoren angeben.
-
det(A-Lamda E) = | cos Phi - Lamda -sin Phi |
| sin Phi cos Phi - Lamda |= (cos Phi - Lamda)² + sin² Phi
= (cos² Phi - 2 Lamda * cos Phi + Lamda) + sin² Phipasst das soweit???
-
ok ich seh ein das ich mich irrte.
schon allein aus
(A-Lambda*I)*x=0
wird ja klar das ausser der trivialen Lösung 0 zu jedem Lambda ein kompletter Hyperplane als Lösungsmenge in Frage kommt.
-
det(A-Lamda E) = | cos Phi - Lamda -sin Phi |
| sin Phi cos Phi - Lamda |= (cos Phi - Lamda)² + sin² Phi
= cos²Phi + sin²Phi - 2*Lamda*cosPhi + Lamda²cos²Phi+sin²Phi = 1
= Lamda² -2*Lamda*cosPhi + 1
Lamda 1,2 = 2cosPhi +- Wurzel(4cos² Phi - 4) / 21-cos² = sin²
Lamda 1,2 = cosPhi +- Wurzel(-sin²Phi)
stimmt das?
was kommt dann für Lamda1 und Lamda2 raus? bzw dann eigenwerte??
cu
-
Gegeben sei eine Matrix:
\[A = \[ \left( \begin{array}{ccc} \cos\phi & -\sin\phi \\ \sin\phi & \cos\phi \end{array} \right)\]Berechnen sie den Eigenwert u die Eigenvektoren, sowie den Winkel , den die Eigenvektoren zueinander bilden!
\[det (A-\lambda E) = \[ \left( \begin{array}{ccc} \cos\phi -\lambda & -\sin\phi \\ \sin\phi & \cos\phi -\lambda \end{array} \right)\] \[= \cos^2\phi - 2\lambda\cos\phi + \lambda^2 + \sin^2\phi\] \[= \lambda^2 - 2\lambda\cos\phi + 1\] \[\lambda 1,2 = \frac{2\cos \phi\pm\sqrt{4\cos^2\phi - 4}}{2}\] \[\lambda 1,2 = \cos\phi \pm \sqrt{\cos^2\phi - 1}\] \[\lambda 1,2 = \cos\phi \pm \sqrt{-\sin^2\phi}\]ich komm nimma weiter!!??
wie komm ich nun zu Lamda1 u Lamda2?? u dann zu den Eigenwerten....das Minus unter der Wurzel gefällt mir nicht!!
-
Das sieht doch schon sehr gut aus!
\par \lambda_{1,2} = \cos\phi \pm \sqrt{\cos^2\phi - 1} \par \lambda_{1,2} = \cos\phi \pm i \sqrt{\sin^2 \phi} \par \lambda_{1,2} = \cos\phi \pm i \sin \phi
Nur wirst du hier um ein wenig komplexe Rechnung wohl nicht herumkommen:Edit:
\par \lambda_{1} = \cos\phi + i \sin \phi \par \lambda_{2} = \cos\phi - i \sin \phi
D.h. also:
-
sieht sehr gut aus:
nun will ich den eigenvektor berechnen:
für :Der zu einem Eigenwert gehörende Eigenvektor v1 ist die Lösung der Gleichung:
\[(A - \cos\phi + i\sin\phi E)v1 = 0 \Rightarrow Ax1 = 0 \] \[\Rightarrow \[ \left( \begin{array}{ccc} \cos\phi - \cos\phi + i\sin\phi & -\sin\phi \\ \sin\phi & \cos\phi -\cos\phi +i\sin\phi \end{array}\right) =\[ \left( \begin{array}{cc} x1 \\ x2 \end{array} \right) = 0 \] \[i\*x1\sin\phi - x2\*\sin\phi = 0 \] \[x1*\sin\phi + i*x2\sin\phi = 0 \]
schaut gut aus oder? wie mach i das weiter da??
-
hilft dir das wenn ich mal behaupte, dass wenn die determinate Null ist man eine Unbekannte frei wählen kann?
-
b7f7 schrieb:
hilft dir das wenn ich mal behaupte, dass wenn die determinate Null ist man eine Unbekannte frei wählen kann?
nö, ich wüsste nix damit anzufangen....hmm
-
\par\ \lambda_1 = \cos\phi + i\sin\phi: \par -i x\_1\sin\phi - x\_2 \sin\phi = 0 \par x\_1 \sin\phi - i x\_2\sin\phi = 0Naja, von einem Vorzeichenfehler mal abgesehen
Multiplizier doch mal die erste Gleichung mit i, dann fällt dir auf, daß eine Gleichung überflüssig ist. D.h. du hast nur noch eine Gleichung mit zwei Unbekannten, d.h. du kannst eine Unbekannte frei wählen und die andere daraus bestimmen.
-
wenn ich die erste Gleichung mit i multipliziere dann hab ich sowas:
\[x1\sin\phi - i*x2\sin\phi = 0 \] \[x1\sin\phi - i*x2\sin\phi = 0 \] \[x1\sin\phi = i x2\sin\phi \] \[x1 = i x2 \]passts so??