Lexikon der Mathematik: Gradientenverfahren
Gradientenmethode, auch als Verfahren des steilsten Abstiegs bezeichnet, spezielles numerisches Lösungsverfahren für nichtlineare Optimierungsprobleme, ein Verfahren zur Minimierung einer differenzierbaren Funktion f : ℝn → ℝ.
Es sei f : ℝn → ℝ eine partiell differenzierbare Funktion mit jeweils stetigen partiellen Ableitungen und dem Gradienten (grad f). Ferner möge f ein (lokales oder sogar globales) Minimum besitzen und λ > 0 beliebig und fest gegeben sein. Dann nennt man den zur Minimum-Suche dienenden Algorithmus
Gradienten-Verfahren. Der Vektor −(grad f)(x(k)) ist eine Abstiegsrichtung für f in xk. Darüberhinaus ist die Richtungsableitung von f in xk in Richtung −(grad f)(x(k)) am kleinsten, weshalb man auch vom Verfahren des steilsten Abstiegs spricht.
Die Konvergenz der entstehenden Vektorfolge (x(k))k∈ℕ gegen ein lokales oder sogar globales Minimum der Funktion f ist i. allg. nicht gesichert und bedarf zusätzlicher Untersuchungen. Ferner hat die freie Wahl des Parameters λ > 0 sowie des Start-vektors x(0) ∈ ℝn wesentlichen Einfluß auf den Erfolg oder Mißerfolg des Verfahrens und kann z. B. im Rahmen einer Einbettung in einen genetischen Algorithmus erfolgen.
Eine gute Wahl von λ =: tk ist wie folgt: Man wählt tk ≥ 0 als Minimum der Abbildung
Diese Wahl von tk nennt man manchmal auch Cauchy-Prinzip. Spezielle andere Wahlen der Schrittweite tk sind ebenfalls gebräuchlich.
Abschließend sei bemerkt, daß dieses Verfahren im Kontext Neuronale Netze die Basis der Backpropagation-Lernregel bildet sowie in entsprechend angepaßter Form natürlich auch zur numerischen Bestimmung lokaler oder globaler Maxima eingesetzt werden kann.
Schreiben Sie uns!