4.4.6 Gradientenverfahren - NerimanK/Cloud-Computing-Technology---Google-Home GitHub Wiki

Das Gradientenverfahren ist eine mathematische Methode, die zum Lösen von allgemeinen Optimierungsproblemen angewendet wird und ist ein wichtiger Bestandteil im Maschine Learning um die Minimierung einem Fehler zwischen einem erwartendem Wert Y und dem Realem Output Y‘ zu ermitteln. Das Verfahren wird bei reellen, differenzierbaren Funktionen gebraucht um die optimalen Extremstellen zu bestimmen. Unterdessen ist zu beachten, dass die Zielfunktion im Bereich des definierbaren Definitionsbereiches differenzierbar ist, um den Gradienten zu berechnen. So wird in jedem Schritt der Gradient der Funktion an der Stelle x bestimmt. Der Gradient bestimmt dabei die „Richtung“ an, an der der Wert der Zielfunktion am stärksten neigt, um somit an das Optimum näher zu rücken. Die Variable x wird daraufhin dem Gradienten verändert, sodass in der nächsten Iteration die Stelle x‘ betrachtet werden kann, welche sich näher am Optimum befindet, als an der Stelle x. Dieses Verfahren wiederholt sich iterativ, bis sich der Wert der Zielfunktion sich nicht mehr verbessern lässt. Falls keine Verbesserung stattfindet ist das Optimum bestimmt und das Verfahren ist beendet (Gupta, 2017).