Nabsala
-
Hilfesuchender2 schrieb:
@Jodocus, hast Du schon verifiziert, dass sich die Ergebnisse nicht entsprechen? Ich seh's auf Anhieb nicht, aber finde auch gerade keinen Fehler in meiner eigenen Rechnung, die zum selben Ergebnis kommt. Ich war natürlich auch schon drüber gestolpert, dass die Identität, die man auf Wikipedia dazu findet, so überhaupt nicht nach der Form, die wir hier haben, ausschaut.
IMHO fehlt da der Summand
-
@Jodocus, da hat sich nur ein Fehler in den Indizes eingeschlichen, multipliziere mal die Zeile darunter aus, dann kommt doch genau das bei heraus, was wir in der Zeile darüber richtigerweise haben wollen?
-
Nee, kommt's auch nicht... soll ich meine Rechnung jetzt nochmal runter schreiben hier
-
Hilfesuchender2 schrieb:
Nee, kommt's auch nicht... soll ich meine Rechnung jetzt nochmal runter schreiben hier
Weiter hab ich's mir ehrlich gesagt nicht angesehen, weil ich schon bei Zeile 3 ein Problem habe.
Was hast du denn gerechnet? Damit es schneller geht, kannst du ja Komponenten-Schreibweise mit Einstein-Summenkonvention benutzen.
-
Ich hab keine Ahnung wie die Summenkonvention geht, ich hab's jetzt mal rutnergeschrieben...
\newcommand{\pd}[2]{\frac{\partial #1}{\partial #2}} \begin{align*} \begin{bmatrix} \pd{\sum a\_ib\_i}{x_1} \\ \vdots \\ \pd{\sum a\_ib\_i}{x_n} \end{bmatrix} &= \begin{bmatrix} \sum b\_i \pd{a\_i}{x_1} \\ \vdots \\ \sum b\_i \pd{a\_i}{x_n} \\ \end{bmatrix} + \text{analog} \\ &= \sum (b_i \begin{bmatrix} \pd{a\_i}{x\_1} \\ \vdots \\ \pd{a\_i}{x\_n} \end{bmatrix}) + \text{analog} \\ &= \begin{bmatrix} \pd{a\_1}{x\_1} & \cdots & \pd{a\_n}{x\_1} \\ \vdots & \vdots & \vdots \\ \pd{a\_1}{x\_n} & \cdots & \pd{a\_n}{x\_n} \end{bmatrix} \vec{b} + \text{analog}\\ &= (\vec{\nabla}\vec{a}^T)\vec{b} + \text{analog} \end{align*}
-
Ich denke, diese Matrix die man da aufspannt, macht das, was das Kreuzprodukt in der Identität verursacht... Man beachte halt die Transponierung von a. Also vielleicht steht da wirklich dasselbe und ich bin nur zu blöd das zu sehen. Oder ich habe einfach einen gravierenden Fehler gemacht, würde mich nicht überraschen.
-
Also wenn ich auf die Identität für Vektorfelder auf de.wikipedia.org/wiki/Nabla-Operator mal die Jacobi-Identität für Kreuzprodukte anwende, komme ich auf
-
Hilfesuchender2 schrieb:
Ich denke, diese Matrix die man da aufspannt, macht das, was das Kreuzprodukt in der Identität verursacht... Man beachte halt die Transponierung von a. Also vielleicht steht da wirklich dasselbe und ich bin nur zu blöd das zu sehen. Oder ich habe einfach einen gravierenden Fehler gemacht, würde mich nicht überraschen.
Also dein letzter Schritt ist mir nicht klar. Was bedeutet denn ? Der Gradient macht nur auf einem Skalarfeld Sinn.
-
Ja naja, das ist eben eine formale Darstellung der Jacobi-Matrix, die man da hat, mit dem Nabla-Vektor.
Aber mir fällt natürlich auf, dass das _nicht_ exakt die Form hat, die die Herleitung in meinem ersten Posting verwendet. Hast Du da denn mal reingeschaut, ergibt das dort für Dich einen Sinn?
-
Ich hab mal in den Link geguckt, damit meint der wohl tatsächlich die Jacobi-Matrix. Ich bin die Notation und den etwas lachsen Umgang, den Gradienten wie einen Vektor zu behandeln, nicht gewohnt.
IMHO ist bei deiner Herleitung am Ende durch zu ersetzen, denn die Matrix, die du da stehen hast, ist ja gerade die Transponierte der Jacobimatrix.
-
Aber ist doch eben laut meiner Herleitung eine Matrix, oder nicht? Wohingegen ich doch als "Skalar" betrachten würde? Ich bin gerade am Boden zerstört, da passt doch etwas nicht und ich scheine heute kein Stück weiter gekommen zu sein
Dazu kommen auch noch Regeln wie z.B. dass sozusagen die Differentiale nach rechts "offen lässt", um ein Skalar dranzumultiplizieren. Aber davon könnte ich mich womöglich noch überzeugen.
-
Ne, du scheinst schon Recht zu haben, die Jacobi-Matrix ist mir in so einem Zusammenhang mit dem Gradienten noch nicht untergekommen.
Jetzt bin ich zu müde, vielleicht werde ich das morgen mal versuchen auszurechnen.
-
Also, jetzt noch mal ordentlich (das heißt für mich ohne dieses m.M.n obskure Jacobi-Matrix-Gefrickel) und extra-ausführlich. Zur Notation: der i-te, normierte Basisvektor ist , und Einsteinsche Summenkonvention, d.h. wenn in einem Ausdruck ein Index zwei mal auftaucht, wird drüber summiert, z.B.:
oderUnd los gehts:
\begin{align} \vec 0 &= \vec\nabla_{\vec a}\left( (X\vec a - \vec y)^\intercal (X\vec a - \vec y) \right)\\ &= \vec\nabla_{\vec a}\left( (X\vec a - \vec y) \cdot (X\vec a - \vec y) \right)\\ &= \vec\nabla_{\vec a}(\vec v \cdot \vec v)\\ &= \partial\_i(v\_j v\_j)\hat e\_i\\ &= 2v\_j(\partial\_i v\_j) \hat e\_i && \text{Produkt-Regel angewendet}\\ &= 2\hat e\_i (x\_{jl}a\_l - y\_j) \partial\_i (x\_{jl}a\_l - y\_j) && \vec v \text{ eingesetzt und } X\vec a \text{ in Komponentenschreibweise}\\ &= 2\hat e\_i (x\_{jl}a\_l - y\_j) \delta_{il} x_{jl} && \partial\_i y\_j = 0\ \forall i,j \text{ und } \partial\_i x\_{jl}a\_l = x\_{jl} \partial\_i a\_l = x_{jl} \delta_{il} = x_{ji}, (\delta \text{ ist das Kronecker-Symbol, von der Summe über l bleibt nur der Term mit } l = i \text{ übrig.})\\ &= 2\hat e\_i(x\_{jl}x_{ji}a\_l - x\_{ji}y_j) \\ &= 2\hat e\_i(x\_{ij}^\intercal x_{jl} a\_l - x\_{ij}^\intercal y_j) && \text{Jetzt nur noch Transponieren und dafür Indizes tauschen, jetzt stehen da Vektor-Matrix und Matrix-Matrix-Produkte}\\ &= 2(X^\intercal X\vec a - X^\intercal \vec y) \end{align}
Sei , dann istUnd das ist genau das Ergebnis.
Wenn du diese Technik mit Summenkonvention nicht kennst, solltest du die ruhig lernen, denn damit spart man sich viel Schreibarbeit, auch wenn manche Mathematiker die überhaupt nicht mögen.
Edit: Augh, hab noch ein paar Tippfehler in der Indexschlacht zurechtgedreht.
-
Als kleine Übung kannst du ja jetzt mal testen, ob du das gleiche Ergebnis bekommst, wenn du explizit die Vektoridentität
einsetzt.
Dafür kannst du ausnutzen, dass ( ist der Levi-Civita-Tensor) und gilt.
-
Ich kann nur kurz zum Besten geben, dass ich Dir sehr dankbar bin. Auch wenn die Schreibweise nichts anders macht, als würde man alles korrekt per Hand aufschreiben, werde ich wohl ein paar Stunden damit warm werden müssen. Aber es hat natürlich einen gewissen Charme "normal" zu rechnen, statt irgendwelche Nabla-Verrenkungen anzustellen. Wobei ich mich dann natürlich frage, ob ich strukturell, also an wiederkehrenden algebraischen Mustern, etwas nicht verstanden habe, wenn mir die Rechenweise der beiden verlinkten nicht sofort einleuchtet. Es rechnen ja scheinbar eine Fülle von Menschen so.
Das werde ich irgendwann die nächstenen Abende mal angehen. Abends ist ja an sich nicht so die beste Zeit, aber geht nicht anders...Viele Grüße
-
Es gibt keinen Unterschied zwischen der "normalen" und "Nabla-Verrenkungs"-Rechnung. Die Nabla-Identitäten musst du halt ggf. erst mal beweisen, wenn sie dir unklar sind (über explizite Index-Schlachten) und dann hast du schon die "normale" Rechnung dastehen.
Die ES ist nichts besonderes, sie lässt nur die Summenzeichen weg, das ist alles, sodass man sich beim Herleiten auf das wesentliche beschränken kann: die Indizes, ihre Reihenfolge etc. Wenn du die normale Rechnung willst, muss du eben nur die Sigmas für doppelte Indizes aufschreiben und es sieht "korrekt" aus.