Gradientenabstiegsverfahren bei Online-Lernen |
30.11.2012, 13:32 | yiiit | Auf diesen Beitrag antworten » | |||||
Gradientenabstiegsverfahren bei Online-Lernen Hallo, ich habe folgendes Problem: ich kriege eine bisher approximierte Funktion, einen neuen Datenpunkt (x,y) sowie meine zuletzt vorhergesagten y-Wert rein. Ziel ist es nun, die Funktion mittels online Lernen durch den neu hinzugekommenen Punkt upzudaten. Im einfachsten Fall handelt es sich dabei um eine Regression. Meine Ideen: Mein Gedankengang ist der folgende: Ich stelle zunächst die Fehlerfunktion auf: Dabei sind x,y die Koordinaten des neuen Punktes und alpha sind die Parameter der (hier linearen) Funktion (also b und m). Dann leite ich diese Funktion nach den Parametern ab und erhalte: Wie komme ich jetzt zu dem Schluss wie meine Parameter geupdated werden müssen? Ich gehe beim Gradientenabstiegsverfahren in Richtung des negativen Gradienten und da diese Ableitung doch eben diesen darstellt, ergeben sich die neuen Parameter doch wie folgt: , wobei Eta die Schrittweite festlegt. In Code sieht es dann so aus:
|
|
Verwandte Themen
Die Beliebtesten » |
|
Die Größten » |
|
Die Neuesten » |