Direkt zum Inhalt

Lexikon der Mathematik: hyperbolische Lernregel

eine spezielle Lernregel für dreischichtige Neuronale Netze, deren formale Neuronen in der verborgenen Schicht hyperbolische Aktivierungsfunktionen besitzen; die Lernregel ist nur anwendbar, wenn die vorgegebenen Trainingswerte auf einem mehrdimensionalen regulären Gitter erklärt sind, und generiert dann Netze, die diese Trainingswerte approximieren oder interpolieren.

Im folgenden wird die prinzipielle Idee der hyperbolischen Lernregel kurz im zweidimensionalen Fall erläutert: Wenn man einem dreischichtigen Feed-Forward-Netz mit hyperbolisch aktivierten Neuronen in der verborgenen Schicht eine Menge von P2 (P ∈ ℕ. P ≥ 2) zweidimensionalen Gitter-Trainingswerten (x(k,l), y(k,l)) ∈ [0, 1]2 × ℝ. 1 ≤ k, lP. präsentiert. wobei \begin{eqnarray}{x}^{(k,l)}=({x}_{1}^{(k,l)},{x}_{2}^{(k,l)}):=\left(\frac{k-1}{P-1},\frac{l-1}{P-1}\right),\end{eqnarray} dann sollten die Gewichte gkl ∈ ℝ, 0 ≤ k, lP, die Differenzgewichte d1kl, d2kl ∈ ℝ, 0 ≤ k, lP, sowie die Dilatationsparameter ϱkl ∈ ℝ, 0 ≤ k, lP, so gewählt werden, daß für alle \begin{eqnarray}\tilde{k},\tilde{l}\in \{1,\ldots, P\}\end{eqnarray} die quadrierten Fehler \begin{eqnarray}{\left({y}^{(\tilde{k},\tilde{l})}-\displaystyle \sum _{k=0}^{P}\displaystyle \sum _{l=0}^{P}{g}_{kl}T({\varrho }_{kl}\displaystyle \prod _{j=1}^{2}({x}_{j}^{(\tilde{k},\tilde{l})}-{d}_{jkl}))\right)}^{2}\end{eqnarray} möglichst klein werden. Dabei möge T zunächst eine beliebige, fest vorgegebene sigmoidale Transferfunktion sein.

Setzt man nun formal y(k,l) ≔ 0, falls k = 0, k = P + 1, l = 0 oder l = P + 1 gilt, dann berechnet die hyperbolische Lernregel die zu bestimmenden Netzparameter für alle Indizes k, l ∈ {0,…, P} wie folgt: \begin{eqnarray}\begin{array}{ll}{\varrho }_{kl}:={(P-1)}^{2},\quad {d}_{1kl}:=\frac{k-0.5}{P-1},\quad {d}_{2kl}:=\frac{l-0.5}{P-1},\\ {g}_{kl}:=\frac{1}{2}({y}^{(k,l)}-{y}^{(k+1,l)}-{y}^{(k,l+1)}+{y}^{(k+1,l+1)}).\end{array}\end{eqnarray}

Die Lernregel ist also nicht-iterativ, d. h. in Echtzeit ausführbar, und fixiert die Parameter z. B. im Fall einer sigmoidalen Transferfunktion T : ℝ → ℝ mit der Eigenschaft T(ξ) = 0 für ξ ≤ −1/4 und T(ξ) = 1 für ξ ≥ 1/4 so, daß alle Fehler Null werden (Interpolation). Für allgemeinere sigmoidale Transferfunktionen mit lediglich asymptotischen Verhalten limξ→−∞T(ξ) = 0 und limξ→∞T(ξ) = 1 geht die Interpolation i. allg. verloren und man hat nur noch eine Approximation des Datensatzes.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

  • Die Autoren
- Prof. Dr. Guido Walz

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.