Senkrechte zu einem Vector berechnen



  • Hab ne Frage hierzu:

    berechne dir den orthogonalraum zu dem vektor und nimm einen beliebigen vektor daraus.

    in einem Reellen Vektorraum mit kanonischen Skalarprodukt ist das der Lösungsraum des Gleichungssystems

    x y z | 0
    

    Wie bekomme ich denn hier aus einer Gleichung eine Lösungsmenge mit 3 Elementen? Und müsste es nicht

    x1 * x2 + y1 * y2 + z1 * z2 = 0
    

    heißen, wobei v=(x1,y1,z1) der gegebene Vektor ist und (x2,y2,z2) der gesuchte Vektor, der orthogonal zu v ist? (Wahrscheinlich wieder hohe "unimathematik", die ich nicht verstehe?) 😃



  • Matzer schrieb:

    Hab ne Frage hierzu:

    berechne dir den orthogonalraum zu dem vektor und nimm einen beliebigen vektor daraus.

    in einem Reellen Vektorraum mit kanonischen Skalarprodukt ist das der Lösungsraum des Gleichungssystems

    x y z | 0
    

    Wie bekomme ich denn hier aus einer Gleichung eine Lösungsmenge mit 3 Elementen? Und müsste es nicht

    x1 * x2 + y1 * y2 + z1 * z2 = 0
    

    Die Gleichung hat nicht drei Lösungen, sondern unendlich viele (und die Schreibweise "x y z | 0" ist eine Kurzschreibung für die Skalarprodukt-Gleichung - dem Mathematiker sind die Variablenbezeichnungen egal, darum rechnet er nur mit den Koeffizienten ;)).



  • Die Gleichung hat nicht drei Lösungen, sondern unendlich viele

    Nehmen wir mal den Vektor (1,2,3) und dazu soll ich alle möglichen orthogonalen Vektoren berechnen. Jover erwähnte etwas von "den Orthogonalraum" auszurechnen. Ich nehme man an, dass dies die Menge aller Vektoren ist, die zu obigem Vektor orthogonal sind. Wie berechne ich diesen Orthogonalraum jetzt bzw. was bedeutet

    Reellen Vektorraum mit kanonischen Skalarprodukt ist das der Lösungsraum des Gleichungssystems

    x y z | 0
    

    Das Aufgelöst ergibt dir eine Basis des Orthogonalraumes.

    b1=(-y/x, 1, 0)^T    b2=(-z/x, 0, 1)^T
    

    Wenn ich mit obigem Vektor den Ansatz mit dem Skalarprodukt nehme, dann komme ich hierauf:

    1*x1 + 2*x2 + 3*x3 = 0
    

    , wobei (x1, x2, x3) der/die zu (1,2,3) orthogonale(n) Vektor(en) sein soll(en). Aber ich habe ja nur eine Gleichung, wie berechne ich damit denn dann die ganze Menge der orthogonalen Vektoren?



  • Aber ich habe ja nur eine Gleichung, wie berechne ich damit denn dann die ganze Menge der orthogonalen Vektoren?

    da nur irgendein normalvektor benötigt wird, kann man 2 komponenten der normalvektors frei wählen.
    schau einfach meinen beitrag von gestern genauer an. ich hoffe es ist verständlich, sonst einfach noch mal fragen.

    mfg
    EricC



  • nicht ganz frei. einer der beiden gewählten werte sollte ungleich null sein. 😉



  • da nur irgendein normalvektor benötigt wird, kann man 2 komponenten der normalvektors frei wählen.
    schau einfach meinen beitrag von gestern genauer an. ich hoffe es ist verständlich, sonst einfach noch mal fragen.

    mfg
    EricC

    Sagen wir ich wähle für die ersten zwei Komponenten des orthogonalen Vektor konkrete Zahlen, die dritte lass ich "variabel" (1,1,a3)... Dann habe ich mit
    dem Skalaprodukt und dem vorgebenen Vektor (1,2,3)
    1*1 + 2*1 + 3*a3 = 0 => 3*a3 = -3 =>a3 =-1, d.h. der Vektor (1,1,-1) ist orthogonal zu (1,2,3)
    Damit habe ich aber nur einen Vektor... oben war aber die rede von einem ganzen "Raum". Dass ich mir irgendeinen Vektor zusammenbasteln kann, ist klar, aber wie komme ich auf die Berechnung der (gesamten) Menge der zu diesem Vektor orthogonalen Funktionen? (Ich hab in einem Skript etwas von Orthogonalräumen in Zusammenhang mit Basen gelesen, vielleicht kann ja darauf jemand mal genauer eingehen)



  • Bzw. kann ich, um den Orthogonalenraum zum Vektor v =(1,2,3) zu finden, auch folgenden Ansatz machen:
    Ich wähle einen Vektor w =(λ,μ, π). Dann bilde ich das Skalarprodukt

    <v,w> = 1*[e]lambda[/e] + 2*[e]mu[/e] + 3*[e]pi[/e] = 0
    =>3*[e]pi[/e] = -2*[e]mu[/e]-[e]lambda[/e]
    =>  [e]pi[/e] = -2/3*[e]mu[/e] - 1/3*[e]lambda[/e]
    

    D.h. alle Vektoren (λ,μ, -2/3μ -1/3λ) wären orthogonal zu oberen. Kann man das so durchgehen lassen? 😃



  • Es ist das Selbe. Du definierst wiederum einen zweidimensionalen Unterraum. Wenn du mal den Vektor ein wenig auseinanderziehst erhälts du λ*(1, 0, -1/3) + μ * (0, 1, -2/3). Daraus kannst du die beiden Basisvektoren ablesen, die oben allgemeiner berechnet wurden.



  • Daraus kannst du die beiden Basisvektoren ablesen, die oben allgemeiner berechnet wurden.

    D.h., dass alle Linearkombinationen dieser Basiskvektoren sind orthogonal zu meinem Ausgangsvektor, womit ich dann auch automatisch den Orthogonalraum habe?



  • zur Erklärung: Gegeben sei der Vektor x=(1 2 3).

    Jeder Vektor (x y z) der die Gleichung: 1*x + 2*y + 3*z = 0 erfüllt steht normal auf x (bezüglich des kanonischen Skalarprodukts).

    Auflösen dieses Gleichungssystems (mit _einer_ Gleichung) ergibt, dass jeder Vektor normal auf x steht, wenn er sich aus den Vektoren (-2 1 0) und (-3 0 1) linear Kombinieren lässt.

    Also steht z.B.: 2*(-2 1 0) + (-3 0 1) = (-7 2 1) normal auf (1 2 3).

    Probe: (-7 2 1) . (1 2 3) = -7*1 + 2*2 + 1*3 = 0 [OK]



  • Alles klar, ich denk ich hab's verstanden 😃 Aber im Prinzip reduziert sich die Frage im IR^3 (also im Anschauungsraum) doch darauf, zu einem Normalenvektor die von ihm beschriebene Ebene zu finden. Bekommt man sowas an der Uni bei Anwendungen dieser Aufgabenstellung auch mitgeteilt oder sollte der Student bereits so abstrakt denken können, dass dies für ihn vollkommen klar ist? Das obige Prinzip kann man ja (wahrscheinlich) für beliebige Vektorräume anwenden(z.B. stetige Funktionen), und in jedem Vektorraum kann man das Ergebnis(den Orthogonalenraum) vermutlich anders interpretieren. Ich wüsste jetzt z.B. nicht, wie man es zu interpretieren hätte, dass zwei Funktionen zueinander orthogonal sind, bzw. welchen Nutzen ich daraus ziehe.



  • siehe Fourieranalysis



  • Ok, da liegt der Vorteil aber doch nur darin, dass durch die Integration über eine unendlichen Reihe die "orthogonalen" Funktionen (cos(mx) usw...) bezüglich eines bestimmten Skalarproduktes wegfallen und der Rest stehen bleibt(so ungefähr 😃 ). Als Fourier diese Darstellung gefunden hatte, wusste er bestimmt noch nicht, dass die betrachteten Funktionen (sin(mx) usw..) orthgonal zueinander sind. Also welche konkrete Bedeutung hat es, dass Funktionen "orthogonal" zueinander sind bzw. welchen Vorteil? Kann ich durch orthogonale Funktionen eine Funktion besser approximieren (es gibt ja auch die (Lagrange oder Legendre)? Polynome, die (paarweise?) orthogonal zueinander sind und die, soweit ich weiß, besonders in der Approximationstheorie zum Einsatz kommen).



  • Bei diesen Anwendungen wird der Begriff der Orthogonalität über ein inneres Produkt definiert und hat nichts mit dem anschaulichen "rechten Winkel" zu tun.

    Und in der Approximationstheorie (wie du sie nennst) werden unter anderem paarweise orthogonale Funktionen benötigt.
    Google mal nach "Satz von Stone Weierstraß" und Fourierapproximation.

    Man kann sich das auch teilweise anschaulich im IR^3 vorstellen.



  • Jover schrieb:

    Bei diesen Anwendungen wird der Begriff der Orthogonalität über ein inneres Produkt definiert und hat nichts mit dem anschaulichen "rechten Winkel" zu tun.

    Dass das nichts mit dem rechten Winkel der Anschauung zu tun hat, ist mir bewusst. Allerdings klammere ich mich immer noch sehr an den Gedanken, dass es eine gewisse "Interpretation" dafür gibt, warum zwei (Polynom-)Funktion, die bezüglich eines bestimmten Skalarprodukts "orthogonal" sind, eine Funktion am besten approximieren.

    Dieses "Ich definiere mir irgendein Skalarprodukt(dass natürlich den Axiomen genügt) und siehe da, es liefert mir die gewünschten Eigenschaften" ist mir ein wenig suspekt^^. Naja, vielleicht blick ich es auch einfach noch nicht ganz und sollte warten, bis ich selbst studiere 😃 Werde jetzt erstmal nach den genannten Begriffen googlen, vielen Dank dafür



  • Ich denke, beim Approximationssatz von Stone Weierstraß wirsd du fündig.

    Aber um es zu verstehen, denke ich fehlt dir noch etwas wissen in Linearer Algebra und Analysis.



  • Matzer schrieb:

    Dieses "Ich definiere mir irgendein Skalarprodukt(dass natürlich den Axiomen genügt) und siehe da, es liefert mir die gewünschten Eigenschaften" ist mir ein wenig suspekt

    Nun, das was ich jetzt schreibe, ist zwar mathematisch etwas flapsig, aber es gibt dir vielleicht immerhin eine Idee, daß man sich da nicht einfach nur was definiert hat:

    Nehmen wir das Standardskalarprodukt: <a, b> = <(a1 a2 ...), (b1 b2 ...)> = a1 b1 + a2 b2 + ...
    Dieses Skalarprodukt funktioniert auch in großen Vektorräumen, prinzipiell sogar in solchen, mit unendlich vielen Komponenten (wenigstens, wenn die Summe konvergiert).
    Eine Funktion, sagenwirmal, f:[0 1]->R ist aber prinzipiell auch nichts anderes als ein Vektor mit überabzählbar vielen Komponenten. Es gibt halt nicht mehr die Komponente in y-Richtung, sondern die Komponente an der Stelle 0,5 (diese Stelle enthält den Funktionswert: f(0,5)) usw. Wenn man jetzt dieses naive Standardskalarprodukt von oben anwendet: <f,g>, dann bekommt man eine Summe über die überabzählbar vielen Komponentenprodukte f(x)*g(x), mithin also ein Integral darüber.

    Aber selbst wenn es nicht mehr anschaulich ist, daß ist doch das Tolle an der Mathematik: Du hast dir irgendwo(TM) man was bewiesen, stellst fest, daß ein anderes Problem der gleichen Axiomatik gehorcht und kannst deine Beweise direkt übertragen, ohne, daß es besonders anschaulich wäre. Darum versucht man ja überhaupt erst, Funktionen durch Vektorräume zu beschreiben, usw.



  • Nun, das was ich jetzt schreibe, ist zwar mathematisch etwas flapsig, aber es gibt dir vielleicht immerhin eine Idee, daß man sich da nicht einfach nur was definiert hat:...

    Vielen Dank, genau nach so einer "flapsigen" Erklärung habe ich gerade gesucht 😃 So sehr ich ich es auch versuche, so ganz von der Anschauung kann ich mich noch nicht lösen ^^ Und wenn man nach Erklärung sucht, findet man meist immer nur

    [e]int[/e]f(x)*g(x) erfüllt die Axiome eines Skalarprodukts und deshalb gilt blabla
    

    Also nochmals vielen Dank, bis dann



  • Dann schau aber, dass du dich vom Anschaulichen löst, wenn du studieren willst 😉


Anmelden zum Antworten