Nabsala
-
Okay, ich hab's jetzt geschafft. Ich hatte den Anfang der Rechnung tatsächlich schon durchgeführt, aber da hatte ich das "Matrixmuster", das dann zu führt einfach nicht erkannt und aufgegeben in der Annahme, dass es zu keinem "einfacheren" Ergebnis führen würde.
Super, ohne Deine Hilfe hätte ich's nicht gepackt!Wobei da natürlich noch das Vorgehen in den jetzt zwei Skripten noch etwas unklar bleibt, wie im Vorpost beschrieben!
-
Mag mir mal jemand erklären, woher auf einmal die gemischten Terme bzw. mit in Zeile 3 von del nibbla's Posting auftauchen? Jedenfalls sind nach Anwenden der Produktregel auf jeden Term in Zeile 2 nur Terme vom Typ und vorhanden.
Und außerdem: warum widerspricht dieses Ergebnis dann nicht der Identität
?
-
Das ist die Produkregel der partiellen Differenzierung, wenn ich Dich richtig verstehe?
-
Achso, da hat sich ein Fehler eingeschlichen, das muss natürlich ein sein... im anderen Summanden ist's ja richtig?
-
Nee, im anderen Summanden muss es beim ersten natürlich eine 1 als Index sein. Aber ich will nicht mäkeln, ohne die ausführliche Rechnung zu sehen hätte ich nicht die Motivation gehabt selbst nochmal! zu rechnen um den kritischen Punkt zu überwinden, der ja erst etwas weiter unten kommt.
-
@Jodocus, hast Du schon verifiziert, dass sich die Ergebnisse nicht entsprechen? Ich seh's auf Anhieb nicht, aber finde auch gerade keinen Fehler in meiner eigenen Rechnung, die zum selben Ergebnis kommt. Ich war natürlich auch schon drüber gestolpert, dass die Identität, die man auf Wikipedia dazu findet, so überhaupt nicht nach der Form, die wir hier haben, ausschaut.
-
Hilfesuchender2 schrieb:
Das ist die Produkregel der partiellen Differenzierung, wenn ich Dich richtig verstehe?
Also wenn ich die Produktregel auf jeden einzelnen Term anwende, erhalte ich:
\left(\frac\partial{\partial x\_1}(a\_1 b\_1+\dots+a\_n b\_n),\dots,\frac\partial{\partial x\_n}(a\_1 b\_1+\dots+a\_n b\_n)\right)^\intercal = \left( (a\_1\partial\_1 b\_1 + b\_1 \partial\_1 a\_1) + (a\_2 \partial\_1 b\_2 + b\_2 \partial\_1 a\_2) + ... + (a\_n \partial\_1 b\_n + b\_n \partial\_1 a\_n), \dots, (a\_1 \partial\_n b\_1 + b\_1 \partial\_n a\_1) + ... + (a\_n \partial\_n b\_n + b\_n \partial\_n a\_n)\right)^\intercal
-
Hilfesuchender2 schrieb:
@Jodocus, hast Du schon verifiziert, dass sich die Ergebnisse nicht entsprechen? Ich seh's auf Anhieb nicht, aber finde auch gerade keinen Fehler in meiner eigenen Rechnung, die zum selben Ergebnis kommt. Ich war natürlich auch schon drüber gestolpert, dass die Identität, die man auf Wikipedia dazu findet, so überhaupt nicht nach der Form, die wir hier haben, ausschaut.
IMHO fehlt da der Summand
-
@Jodocus, da hat sich nur ein Fehler in den Indizes eingeschlichen, multipliziere mal die Zeile darunter aus, dann kommt doch genau das bei heraus, was wir in der Zeile darüber richtigerweise haben wollen?
-
Nee, kommt's auch nicht... soll ich meine Rechnung jetzt nochmal runter schreiben hier
-
Hilfesuchender2 schrieb:
Nee, kommt's auch nicht... soll ich meine Rechnung jetzt nochmal runter schreiben hier
Weiter hab ich's mir ehrlich gesagt nicht angesehen, weil ich schon bei Zeile 3 ein Problem habe.
Was hast du denn gerechnet? Damit es schneller geht, kannst du ja Komponenten-Schreibweise mit Einstein-Summenkonvention benutzen.
-
Ich hab keine Ahnung wie die Summenkonvention geht, ich hab's jetzt mal rutnergeschrieben...
\newcommand{\pd}[2]{\frac{\partial #1}{\partial #2}} \begin{align*} \begin{bmatrix} \pd{\sum a\_ib\_i}{x_1} \\ \vdots \\ \pd{\sum a\_ib\_i}{x_n} \end{bmatrix} &= \begin{bmatrix} \sum b\_i \pd{a\_i}{x_1} \\ \vdots \\ \sum b\_i \pd{a\_i}{x_n} \\ \end{bmatrix} + \text{analog} \\ &= \sum (b_i \begin{bmatrix} \pd{a\_i}{x\_1} \\ \vdots \\ \pd{a\_i}{x\_n} \end{bmatrix}) + \text{analog} \\ &= \begin{bmatrix} \pd{a\_1}{x\_1} & \cdots & \pd{a\_n}{x\_1} \\ \vdots & \vdots & \vdots \\ \pd{a\_1}{x\_n} & \cdots & \pd{a\_n}{x\_n} \end{bmatrix} \vec{b} + \text{analog}\\ &= (\vec{\nabla}\vec{a}^T)\vec{b} + \text{analog} \end{align*}
-
Ich denke, diese Matrix die man da aufspannt, macht das, was das Kreuzprodukt in der Identität verursacht... Man beachte halt die Transponierung von a. Also vielleicht steht da wirklich dasselbe und ich bin nur zu blöd das zu sehen. Oder ich habe einfach einen gravierenden Fehler gemacht, würde mich nicht überraschen.
-
Also wenn ich auf die Identität für Vektorfelder auf de.wikipedia.org/wiki/Nabla-Operator mal die Jacobi-Identität für Kreuzprodukte anwende, komme ich auf
-
Hilfesuchender2 schrieb:
Ich denke, diese Matrix die man da aufspannt, macht das, was das Kreuzprodukt in der Identität verursacht... Man beachte halt die Transponierung von a. Also vielleicht steht da wirklich dasselbe und ich bin nur zu blöd das zu sehen. Oder ich habe einfach einen gravierenden Fehler gemacht, würde mich nicht überraschen.
Also dein letzter Schritt ist mir nicht klar. Was bedeutet denn ? Der Gradient macht nur auf einem Skalarfeld Sinn.
-
Ja naja, das ist eben eine formale Darstellung der Jacobi-Matrix, die man da hat, mit dem Nabla-Vektor.
Aber mir fällt natürlich auf, dass das _nicht_ exakt die Form hat, die die Herleitung in meinem ersten Posting verwendet. Hast Du da denn mal reingeschaut, ergibt das dort für Dich einen Sinn?
-
Ich hab mal in den Link geguckt, damit meint der wohl tatsächlich die Jacobi-Matrix. Ich bin die Notation und den etwas lachsen Umgang, den Gradienten wie einen Vektor zu behandeln, nicht gewohnt.
IMHO ist bei deiner Herleitung am Ende durch zu ersetzen, denn die Matrix, die du da stehen hast, ist ja gerade die Transponierte der Jacobimatrix.
-
Aber ist doch eben laut meiner Herleitung eine Matrix, oder nicht? Wohingegen ich doch als "Skalar" betrachten würde? Ich bin gerade am Boden zerstört, da passt doch etwas nicht und ich scheine heute kein Stück weiter gekommen zu sein
Dazu kommen auch noch Regeln wie z.B. dass sozusagen die Differentiale nach rechts "offen lässt", um ein Skalar dranzumultiplizieren. Aber davon könnte ich mich womöglich noch überzeugen.
-
Ne, du scheinst schon Recht zu haben, die Jacobi-Matrix ist mir in so einem Zusammenhang mit dem Gradienten noch nicht untergekommen.
Jetzt bin ich zu müde, vielleicht werde ich das morgen mal versuchen auszurechnen.
-
Also, jetzt noch mal ordentlich (das heißt für mich ohne dieses m.M.n obskure Jacobi-Matrix-Gefrickel) und extra-ausführlich. Zur Notation: der i-te, normierte Basisvektor ist , und Einsteinsche Summenkonvention, d.h. wenn in einem Ausdruck ein Index zwei mal auftaucht, wird drüber summiert, z.B.:
oderUnd los gehts:
\begin{align} \vec 0 &= \vec\nabla_{\vec a}\left( (X\vec a - \vec y)^\intercal (X\vec a - \vec y) \right)\\ &= \vec\nabla_{\vec a}\left( (X\vec a - \vec y) \cdot (X\vec a - \vec y) \right)\\ &= \vec\nabla_{\vec a}(\vec v \cdot \vec v)\\ &= \partial\_i(v\_j v\_j)\hat e\_i\\ &= 2v\_j(\partial\_i v\_j) \hat e\_i && \text{Produkt-Regel angewendet}\\ &= 2\hat e\_i (x\_{jl}a\_l - y\_j) \partial\_i (x\_{jl}a\_l - y\_j) && \vec v \text{ eingesetzt und } X\vec a \text{ in Komponentenschreibweise}\\ &= 2\hat e\_i (x\_{jl}a\_l - y\_j) \delta_{il} x_{jl} && \partial\_i y\_j = 0\ \forall i,j \text{ und } \partial\_i x\_{jl}a\_l = x\_{jl} \partial\_i a\_l = x_{jl} \delta_{il} = x_{ji}, (\delta \text{ ist das Kronecker-Symbol, von der Summe über l bleibt nur der Term mit } l = i \text{ übrig.})\\ &= 2\hat e\_i(x\_{jl}x_{ji}a\_l - x\_{ji}y_j) \\ &= 2\hat e\_i(x\_{ij}^\intercal x_{jl} a\_l - x\_{ij}^\intercal y_j) && \text{Jetzt nur noch Transponieren und dafür Indizes tauschen, jetzt stehen da Vektor-Matrix und Matrix-Matrix-Produkte}\\ &= 2(X^\intercal X\vec a - X^\intercal \vec y) \end{align}
Sei , dann istUnd das ist genau das Ergebnis.
Wenn du diese Technik mit Summenkonvention nicht kennst, solltest du die ruhig lernen, denn damit spart man sich viel Schreibarbeit, auch wenn manche Mathematiker die überhaupt nicht mögen.
Edit: Augh, hab noch ein paar Tippfehler in der Indexschlacht zurechtgedreht.