Man untersuche folgende Matrix auf Orthogonalitaet, hilfe!
-
wikipedia schrieb:
Eine quadratische, reelle Matrix A \isin \mathbb{R}^{n \times n} nennt man orthogonale Matrix, wenn sie mit dem Skalarprodukt verträglich ist, wenn also für jedes Paar von Vektoren v und w die Gleichung \langle v,w \rangle = \langle Av,Aw \rangle gilt. Die Matrix A ist genau dann orthogonal, wenn ihre Spalten (oder ihre Zeilen), als Vektoren aufgefasst, zueinander orthonormal sind (nicht nur orthogonal), anders gesagt, falls A^{T} \cdot A = I_n oder (gleichwertig) AT = A − 1 gilt. Die Entsprechung bei den komplexen Zahlen ist die unitäre Matrix.
Falls ihr in (ich schätze mal) LA I noch kein Skalarprodukt definiert habt, dann müsst ihr es sicherlich mit der transponierten Matrix machen...
-
cos a sin a 0 -sin a cos a 0 0 0 1
Ist das Inverse und so mit gilt die Orthogonalitaet
oder seh ich das falsch?
-
Eigentlich sieht man es der Matrix ja auch an, aber ihr habt wohl noch keine Isometrie-Normalform gemacht, oder?
-
sagt mir jetzt nix nein.
-
Orthogonalität folgt auch, wenn das Skalarprodukt aller unterschiedlichen Spalten-(oder Zeilen)vektoren = 0 ist.
-
megaweber schrieb:
Orthogonalität folgt auch, wenn das Skalarprodukt aller unterschiedlichen Spalten-(oder Zeilen)vektoren = 0 ist.
Und zusätzlich alle Spalten (oder Zeilen) die Länge eins haben, d.h. eine Matrix ist ortogonal, wenn alle Spalten (oder Zeilen) orthonormal sind.
Ersatzweise könnte man auch argumentieren, dass die Matrix hier eine Drehung ist und deswegen orthogonal seien muss (stand oben schon mal).
Und die Sache mit A^T A = Einheitsmatrix (bzw. der Test A^T = A^-1) geht natürlich auch.
-
am schnellsten ohne was zu rechnen gehts wohl so: die inverse einer drehung ist die um den geminussten winkel, unter verwendung der paritaet von sin und cos sieht man, dass dabei nur das minus wandert, und dadurch entsteht eben die transponierte matrix.
-
das einfachste ist wenn du das kreuzprodukt der beiden ersten zeilen bildest, es mueste colinear mit der dritten zeile sein
fuer
cos[e]alpha[/e] -sin[e]alpha[/e] 0 sin[e]alpha[/e] cos[e]alpha[/e] 0 0 0 1
also
0 0 cos[e]alpha[/e]*cos[e]alpha[/e]- (-sin[e]alpha[/e])*sin[e]alpha[/e]
q.e.d.
-
Und was soll einem das sagen? Ich kann für zwei beliebige erste Vektoren der Matrix in die dritte Spalte das Kreuzprodukt reinschreiben. Das macht die Matrix aber noch lange nicht orthogonal.
-
erstens ist das nicht einfacher und zweitens ist es falsch, denn wenn ich die ersten beiden zeilen mit 3 multipliziere, stimmts immernoch.
-
PeterTheMaster schrieb:
erstens ist das nicht einfacher
0 0 x zu bestimmen ist nicht einfacher? :o
und zweitens ist es falsch, denn wenn ich die ersten beiden zeilen mit 3 multipliziere, stimmts immernoch.
wenn du das machst, ist es nicht mehr die zu untersuchende matrix. was bezweckst du damit?
bezueglich skalierung von zu sich orthogonale vectoren: die regel besagt doch dass man jeden vector einer orthogonalen basis beliebig skalieren kann (ausser mit 0) und die orthogonale basis wird nicht beeintraechtigt.
wichtig ist nur dass bei dem ganzen die ersten beiden werte vom kreuzprodukt 0 sind.
-
ich machte die orthogonalitaet der matrix kaputt, aber das kriterium funktioniert immer noch. ich bezwecke damit zu zeigen, dass das kriterium unsinn ist.
fuer mich ist es einfacher, zu beobachten, was die paritaet mit einem minus macht, als ein kreuzprodukt auszurechnen. aber das ist sicher geschmackssache.
-
PeterTheMaster schrieb:
ich machte die orthogonalitaet der matrix kaputt, aber das kriterium funktioniert immer noch. ich bezwecke damit zu zeigen, dass das kriterium unsinn ist.
hmm... ich bin kein mathe guru und muss gestehen ich stehe auf dem schlauch, ich dachte mit der skalierung der basis vectoren kann man nichts an der orthogonalitaet aendern
sorry, fuer meinen unsinn, aber ich verstehe gerade echt nicht wo mein fehler liegt.
-
Die Spalten-Vektoren einer orthogonalen Matrix müssen ortho*normal* sein, also orthogonal sein und Einheitslänge haben. Die Skalierung lässt natürlich orthogonale Vektoren orthogonal, verändert aber deren Länge.
-
Jester schrieb:
Die Spalten-Vektoren einer orthogonalen Matrix müssen ortho*normal* sein, also orthogonal sein und Einheitslänge haben. Die Skalierung lässt natürlich orthogonale Vektoren orthogonal, verändert aber deren Länge.
ja, hab's mir angelesen, das hatte ich wohl voreilig gleichgesetzt mit der basis eines raumes. in dem fall muss natuerlich der betrag vom kreuzprodukt der beiden zeilen zusaetzlich 1 sein.
was aber auch der fall ist
-
rapso schrieb:
Jester schrieb:
Die Spalten-Vektoren einer orthogonalen Matrix müssen ortho*normal* sein, also orthogonal sein und Einheitslänge haben. Die Skalierung lässt natürlich orthogonale Vektoren orthogonal, verändert aber deren Länge.
ja, hab's mir angelesen, das hatte ich wohl voreilig gleichgesetzt mit der basis eines raumes. in dem fall muss natuerlich der betrag vom kreuzprodukt der beiden zeilen zusaetzlich 1 sein.
was aber auch der fall istund zusätzlich mußt du noch überprüfen, dass die ersten beiden Spalten-Vektoren orthogonal aufeinander stehen und Länge 1 haben.
Ich denke am einfachsten ist tatsächlich einfach A*A^T auszurechnen, das überprüft das gleich alles auf einmal.
-
Mir ist mein Fehler schon aufgefallen ^^
Man soll ja die Matrix mit deren Inversen multiplizieren und wenn da dann die Einheitsmatrix bei rauskommt, dann ist sie Orthogonal.
-
T0bi schrieb:
Mir ist mein Fehler schon aufgefallen ^^
Man soll ja die Matrix mit deren Inversen multiplizieren und wenn da dann die Einheitsmatrix bei rauskommt, dann ist sie Orthogonal.
Nein, mit der Transponierten... wenn Du mit der Inversen mulitplizierst kommt immer die Einheitsmatrix raus (sofern die Inverse halt existiert).