Direkt zum Inhalt

Lexikon der Mathematik: Subgradientenoptimierung

Methoden zur Optimierung von nicht überall differenzierbaren Funktionen.

Sei f : ℝn → ℝ eine konvexe Funktion. Als solche ist f subdifferenzierbar, d. h. für alle x ∈ ℝn ist die Menge ∂f(x0) nicht leer. Zunächst gilt in Analogie zu der entsprechenden Optimalitätsbedingung erster Ordnung, daß f genau in dem Falle einen lokalen Minimalpunkt in \(\bar{x}\in {{\mathbb{R}}}^{n}\) hat, falls 0 ∈ ∂f(x0) zutrifft. Ein typisches Subgradientenverfahren beginnt mit einem Startvektor x0 und erzeugt Iterierte xk wie folgt: In Schritt k berechne man ein Element γk∂f(xk). Falls γk = 0 ist, so ist xk optimal. Andernfalls berechnet man \begin{eqnarray}{x}_{k+1\text{}}:=\text{}{x}_{k}-\text{}{t}_{k}\cdot\frac{{\gamma}_{{k}}}{\text{||}{\gamma}_{k}||}\quad ({t}_{k}\text{}\gt \text{}0)\end{eqnarray}

und iteriert erneut, bis ein Stoppkriterium erfüllt ist. Nicht differenzierbare Optimierungsprobleme mit Nebenbedingungen lassen sich ähnlich behandeln.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

  • Die Autoren
- Prof. Dr. Guido Walz

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.