Ableitung mit Gradienten |
18.09.2019, 08:37 | CrazyWasserratte | Auf diesen Beitrag antworten » |
Ableitung mit Gradienten Hallo, wir gehen von einem multilinearem Fall aus [latex]y = f(x_{1}, ... x_{m}) = a_{0} + \sum\limits_{k=1}^{m} a_{k}x_{k}[\latex] Danach soll die Summe der quadratischen Abweichungen minimiert werden die wie folgt sind: [latex]F(\vec{a}) = (X\vec{a}-\vec{y})^{T}(X\vec{a}-\vec{y})[\latex] Um ein Minimum zu berechnen muss die folgende Bedingung erfüllt sein: [latex]\vec{\nabla}_{\vec{a}}F(\vec{a}) = \vec{\nabla}_{\vec{a}}(X\vec{a}-\vec{y})^{T}(X\vec{a}-\vec{y}) = \vec{0}[\latex] Wenn man nun die Ableitung ausrechnet erhält man: [latex]\vec{\nabla}_{\vec{a}}F(\vec{a}) = \vec{\nabla}_{\vec{a}}(X\vec{a}-\vec{y})^{T}(X\vec{a}-\vec{y})[\latex] was weiter ausgerechnet wird zu: [latex] = (\vec{\nabla}_{\vec{a}}(X\vec{a}-\vec{y}))^{T}(X\vec{a}-\vec{y}) + ((X\vec{a}-\vec{y})^{T}(\vec{\nabla}_{\vec{a}}(X\vec{a}-\vec{y})))^{T}[\latex] Mir ist leider nicht klar wie ich auf die letzte Gleichung komme. Meine Ideen: Ich habe mir überlegt ob hier mit der Produktregel abgeleitet wird, allerdings bin ich nicht so fit im Umgang mit Matrizen, sodass sich mir hier die Rechenschritte nicht erschließen. Danke! |
||
18.09.2019, 08:41 | CrazyWasserratte | Auf diesen Beitrag antworten » |
RE: Ableitung mit Gradienten Hallo, noch einmal meine Frage anständig formatiert: wir gehen von einem multilinearem Fall aus Danach soll die Summe der quadratischen Abweichungen minimiert werden die wie folgt sind: Um ein Minimum zu berechnen muss die folgende Bedingung erfüllt sein: Wenn man nun die Ableitung ausrechnet erhält man: was weiter ausgerechnet wird zu: Mir ist leider nicht klar wie ich auf die letzte Gleichung komme. |
||
18.09.2019, 09:03 | klarsoweit | Auf diesen Beitrag antworten » |
RE: Ableitung mit Gradienten Hm. Ich hätte jetzt auch eher diesen Ausdruck erwartet: |
|
Verwandte Themen
Die Beliebtesten » |
|
Die Größten » |
|
Die Neuesten » |