Gregor Roth untersucht in seinem Artikel den Gradientenabstieg und dessen Anwendung zur Minimierung der Kostenfunktion. Innerhalb jeder Iteration wird ein neuer, besserer Wert für jeden einzelnen θ-Parameter des Theta-Vektors berechnet. Die Lernrate α kontrolliert die Größe des Berechnungsschritts innerhalb jeder ...