Lexikon der Mathematik: Subgradientenoptimierung
Methoden zur Optimierung von nicht überall differenzierbaren Funktionen.
Sei f : ℝn → ℝ eine konvexe Funktion. Als solche ist f subdifferenzierbar, d. h. für alle x ∈ ℝn ist die Menge ∂f(x0) nicht leer. Zunächst gilt in Analogie zu der entsprechenden Optimalitätsbedingung erster Ordnung, daß f genau in dem Falle einen lokalen Minimalpunkt in \(\bar{x}\in {{\mathbb{R}}}^{n}\) hat, falls 0 ∈ ∂f(x0) zutrifft. Ein typisches Subgradientenverfahren beginnt mit einem Startvektor x0 und erzeugt Iterierte xk wie folgt: In Schritt k berechne man ein Element γk ∈ ∂f(xk). Falls γk = 0 ist, so ist xk optimal. Andernfalls berechnet man
und iteriert erneut, bis ein Stoppkriterium erfüllt ist. Nicht differenzierbare Optimierungsprobleme mit Nebenbedingungen lassen sich ähnlich behandeln.
Schreiben Sie uns!