Man untersuche folgende Matrix auf Orthogonalitaet, hilfe!



  • Hi Community,
    wir haben gerade die Thematik analytische Geometrie und momentan geht es um Orthogonalitaet. Jetzt habe ich folgende Aufgabe:

    Man untersuche folgende Matrix auf Orthogonalitaet:

    cos[e]alpha[/e] -sin[e]alpha[/e] 0
    sin[e]alpha[/e]  cos[e]alpha[/e] 0
       0     0 1
    

    Muesste ja die Rotations Matrix um x3 sein, oder?
    Naja egal, soweit ich nun weiß muss man versuchen das Inverse einer Matrix finden um zu zeigen das es Orthogonalitaet gibt, also habe ich folgendes Schema:

    cos[e]alpha[/e] -sin[e]alpha[/e] 0 | 1 0 0
    sin[e]alpha[/e]  cos[e]alpha[/e] 0 | 0 1 0
       0     0 1 | 0 0 1
    

    nun die linke Seite so umformen das sich die Einheitsmatrix ergibt, allerdings haenge ich hier schon beim 3ten Schritt ...

    Also was ich bislang getan hab ist:
    1. Zeile 1 | :cosα
    2. Zur Zeile 2 -sinα addieren

    Hm kann mir erst mal jemand bestaetigen, ob mein Vorgehen soweit ok ist? und mir evtl. dann noch weiter helfen?

    Gruß Tobi



  • T0bi schrieb:

    Naja egal, soweit ich nun weiß muss man versuchen das Inverse einer Matrix finden

    Du wolltest wohl von AT = A-1 ausgehend die Inverse berechnen und schauen, ob sie gleich der Transponierten ist? Kannst auch die Transponierte bilden und schauen, ob es die Inverse ist, indem du sie mit A multiplizierst, das ist evtl. einfacher 😉

    Den Gauss-Algorithmus solltest du aber unabhängig davon üben, wie mir scheint ...

    T0bi schrieb:

    1. Zeile 1 | :cosα
    2. Zur Zeile 2 -sinα addieren

    2. Zur Zeile 2 die mit -sinα multiplizierte Zeile 1 addieren.



  • wikipedia schrieb:

    Eine quadratische, reelle Matrix A \isin \mathbb{R}^{n \times n} nennt man orthogonale Matrix, wenn sie mit dem Skalarprodukt verträglich ist, wenn also für jedes Paar von Vektoren v und w die Gleichung \langle v,w \rangle = \langle Av,Aw \rangle gilt. Die Matrix A ist genau dann orthogonal, wenn ihre Spalten (oder ihre Zeilen), als Vektoren aufgefasst, zueinander orthonormal sind (nicht nur orthogonal), anders gesagt, falls A^{T} \cdot A = I_n oder (gleichwertig) AT = A − 1 gilt. Die Entsprechung bei den komplexen Zahlen ist die unitäre Matrix.

    Falls ihr in (ich schätze mal) LA I noch kein Skalarprodukt definiert habt, dann müsst ihr es sicherlich mit der transponierten Matrix machen...



  • cos a sin a 0 
    -sin a cos a 0 
         0     0 1
    

    Ist das Inverse und so mit gilt die Orthogonalitaet 🙂 oder seh ich das falsch?



  • Eigentlich sieht man es der Matrix ja auch an, aber ihr habt wohl noch keine Isometrie-Normalform gemacht, oder?



  • sagt mir jetzt nix nein.



  • Orthogonalität folgt auch, wenn das Skalarprodukt aller unterschiedlichen Spalten-(oder Zeilen)vektoren = 0 ist.



  • megaweber schrieb:

    Orthogonalität folgt auch, wenn das Skalarprodukt aller unterschiedlichen Spalten-(oder Zeilen)vektoren = 0 ist.

    Und zusätzlich alle Spalten (oder Zeilen) die Länge eins haben, d.h. eine Matrix ist ortogonal, wenn alle Spalten (oder Zeilen) orthonormal sind.

    Ersatzweise könnte man auch argumentieren, dass die Matrix hier eine Drehung ist und deswegen orthogonal seien muss (stand oben schon mal).

    Und die Sache mit A^T A = Einheitsmatrix (bzw. der Test A^T = A^-1) geht natürlich auch.



  • am schnellsten ohne was zu rechnen gehts wohl so: die inverse einer drehung ist die um den geminussten winkel, unter verwendung der paritaet von sin und cos sieht man, dass dabei nur das minus wandert, und dadurch entsteht eben die transponierte matrix.



  • das einfachste ist wenn du das kreuzprodukt der beiden ersten zeilen bildest, es mueste colinear mit der dritten zeile sein

    fuer

    cos[e]alpha[/e] -sin[e]alpha[/e] 0
    sin[e]alpha[/e]  cos[e]alpha[/e] 0
       0     0 1
    

    also

    0 0   cos[e]alpha[/e]*cos[e]alpha[/e]- (-sin[e]alpha[/e])*sin[e]alpha[/e]
    

    q.e.d.



  • Und was soll einem das sagen? Ich kann für zwei beliebige erste Vektoren der Matrix in die dritte Spalte das Kreuzprodukt reinschreiben. Das macht die Matrix aber noch lange nicht orthogonal. 😕



  • erstens ist das nicht einfacher und zweitens ist es falsch, denn wenn ich die ersten beiden zeilen mit 3 multipliziere, stimmts immernoch.



  • PeterTheMaster schrieb:

    erstens ist das nicht einfacher

    0 0 x zu bestimmen ist nicht einfacher? :o

    und zweitens ist es falsch, denn wenn ich die ersten beiden zeilen mit 3 multipliziere, stimmts immernoch.

    wenn du das machst, ist es nicht mehr die zu untersuchende matrix. was bezweckst du damit?

    bezueglich skalierung von zu sich orthogonale vectoren: die regel besagt doch dass man jeden vector einer orthogonalen basis beliebig skalieren kann (ausser mit 0) und die orthogonale basis wird nicht beeintraechtigt.

    wichtig ist nur dass bei dem ganzen die ersten beiden werte vom kreuzprodukt 0 sind.



  • ich machte die orthogonalitaet der matrix kaputt, aber das kriterium funktioniert immer noch. ich bezwecke damit zu zeigen, dass das kriterium unsinn ist.

    fuer mich ist es einfacher, zu beobachten, was die paritaet mit einem minus macht, als ein kreuzprodukt auszurechnen. aber das ist sicher geschmackssache.



  • PeterTheMaster schrieb:

    ich machte die orthogonalitaet der matrix kaputt, aber das kriterium funktioniert immer noch. ich bezwecke damit zu zeigen, dass das kriterium unsinn ist.

    hmm... ich bin kein mathe guru und muss gestehen ich stehe auf dem schlauch, ich dachte mit der skalierung der basis vectoren kann man nichts an der orthogonalitaet aendern 😞

    sorry, fuer meinen unsinn, aber ich verstehe gerade echt nicht wo mein fehler liegt.



  • Die Spalten-Vektoren einer orthogonalen Matrix müssen ortho*normal* sein, also orthogonal sein und Einheitslänge haben. Die Skalierung lässt natürlich orthogonale Vektoren orthogonal, verändert aber deren Länge.



  • Jester schrieb:

    Die Spalten-Vektoren einer orthogonalen Matrix müssen ortho*normal* sein, also orthogonal sein und Einheitslänge haben. Die Skalierung lässt natürlich orthogonale Vektoren orthogonal, verändert aber deren Länge.

    ja, hab's mir angelesen, das hatte ich wohl voreilig gleichgesetzt mit der basis eines raumes. in dem fall muss natuerlich der betrag vom kreuzprodukt der beiden zeilen zusaetzlich 1 sein.
    was aber auch der fall ist 🙂



  • rapso schrieb:

    Jester schrieb:

    Die Spalten-Vektoren einer orthogonalen Matrix müssen ortho*normal* sein, also orthogonal sein und Einheitslänge haben. Die Skalierung lässt natürlich orthogonale Vektoren orthogonal, verändert aber deren Länge.

    ja, hab's mir angelesen, das hatte ich wohl voreilig gleichgesetzt mit der basis eines raumes. in dem fall muss natuerlich der betrag vom kreuzprodukt der beiden zeilen zusaetzlich 1 sein.
    was aber auch der fall ist 🙂

    und zusätzlich mußt du noch überprüfen, dass die ersten beiden Spalten-Vektoren orthogonal aufeinander stehen und Länge 1 haben.

    Ich denke am einfachsten ist tatsächlich einfach A*A^T auszurechnen, das überprüft das gleich alles auf einmal. 🙂



  • Mir ist mein Fehler schon aufgefallen ^^

    Man soll ja die Matrix mit deren Inversen multiplizieren und wenn da dann die Einheitsmatrix bei rauskommt, dann ist sie Orthogonal.



  • T0bi schrieb:

    Mir ist mein Fehler schon aufgefallen ^^

    Man soll ja die Matrix mit deren Inversen multiplizieren und wenn da dann die Einheitsmatrix bei rauskommt, dann ist sie Orthogonal.

    Nein, mit der Transponierten... wenn Du mit der Inversen mulitplizierst kommt immer die Einheitsmatrix raus (sofern die Inverse halt existiert).


Anmelden zum Antworten