Direkt zum Inhalt

Lexikon der Mathematik: Radial-Basis-Function-Netz

RBF-Netz, (engl. radial basis function network), ein Neuronales Netz, dessen wesentliche formale Neuronen glockenförmige Transferfunktionen mit Radial-Typ-Aktivierung besitzen.

Im folgenden wird kurz ein vorwärtsgerichtetes diskretes dreischichtiges RBF-Netz vorgestellt, welches in den verborgenen Neuronen eine glockenförmige Transferfunktion T mit jeweils Radial-Typ-Aktivierungen besitzen möge und mit der Backpropagation-Lernregel trainiert werde: Wenn man diesem dreischichtigen Feed-Forward-Netz eine Menge von t Trainingswerten (x(s), y(s)) ∈ ℝn × ℝm, 1 ≤ st, präsentiert, dann sollten die Gewichte gpj ∈ ℝ, 1 ≤ pq, 1 ≤ jm, und die Differenzgewichte dip ∈ ℝ, 1 ≤ in, 1 ≤ pq, sowie die Dilatationsparameter ϱp ∈ ℝ, 1 ≤ pq, so gewählt werden, daß für alle j ∈ {1, …, m} und für alle s ∈ {1, …, t} die quadrierten Fehler

\begin{eqnarray}{\left({y}_{j}^{(s)}-\displaystyle \sum _{p=1}^{q}{g}_{pj}T({\varrho }_{p}{\displaystyle \sum _{i=1}^{n}({x}_{i}^{(s)}-{d}_{ip})}^{2})\right)}^{2}\end{eqnarray}

möglichst klein werden. Nimmt man nun an, daß die glockenförmige Transferfunktion T stetig differenzierbar ist und setzt t partiell differenzierbare Fehlerfunktionen

\begin{eqnarray}\begin{array}{cc}{F}^{(s)}:{{\mathbb{R}}}^{qm}\times {{\mathbb{R}}}^{nq}\times {{\mathbb{R}}}^{q}\to {\mathbb{R}}, & 1\le s\le t,\end{array}\end{eqnarray}

an als

\begin{eqnarray}\begin{array}{l}{F}^{(s)}(\mathrm{..},{g}_{pj},\mathrm{..},{d}_{ip},\mathrm{..},{\varrho }_{p},\mathrm{..})\\ :=\displaystyle \sum _{j=1}^{m}{\left({y}_{j}^{(s)}-\displaystyle \sum _{p=1}^{q}{g}_{pj}T({\varrho }_{p}\displaystyle \sum _{i=1}^{n}{({x}_{i}^{(s)}-{d}_{ip})}^{2})\right)}^{2},\end{array}\end{eqnarray}

dann erhält man für die Suche nach dem Minimum einer Funktion F(s) mit dem Gradienten-Verfahren folgende Vorschriften für einen Gradienten-Schritt, wobei λ > 0 ein noch frei zu wählender sogenannter Lernparameter ist:

  1. Gewichte gpj, 1 ≤ pq, 1 ≤ jm:

    \begin{eqnarray}{g}_{pj}^{(neu)}:={g}_{pj}-\lambda {F}_{{g}_{pj}}^{(s)}(\mathrm{..},{g}_{pj},\mathrm{..},{d}_{ip},\mathrm{..},{\varrho }_{p},\mathrm{..}).\end{eqnarray}

  2. Differenzgewichte dip, 1 ≤ in, 1 ≤ pq:

    \begin{eqnarray}{d}_{ip}^{(neu)}:={d}_{ip}-\lambda {F}_{{d}_{ip}}^{(s)}(\mathrm{..},{g}_{pj},\mathrm{..},{d}_{ip},\mathrm{..},{\varrho }_{p},\mathrm{..}).\end{eqnarray}

  3. Dilatationsparameter ϱp, 1 ≤ pq:

    \begin{eqnarray}{\varrho}_{p}^{(neu)}:={\varrho }_{p}-\lambda {F}_{{\varrho }_{p}}^{(s)}(\mathrm{..},{g}_{pj},\mathrm{..},{d}_{ip},\mathrm{..},{\varrho }_{p},\mathrm{..}).\end{eqnarray}

In den obigen Aktualisierungsvorschriften bezeichnen \({F}_{{g}_{pj}}^{(s)}\), \({F}_{{d}_{ip}}^{(s)}\) und \({F}_{{\varrho }_{p}}^{(s)}\) jeweils die partiellen Ableitungen von F(s) nach gpj, dip und ϱp, und die in Zusammenhang mit der Backpropagation-Lernregel für Standard-Netze gemachten Bemerkungen lassen sich sinngemäß auf den vorliegenden Fall eines RBF-Netzes übertragen, wobei in diesem Fall allerdings die Batch-Mode-Variante häufig deutlich bessere Resultate liefert als die On-Line-Variante.

Lesermeinung

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

  • Die Autoren
- Prof. Dr. Guido Walz

Artikel zum Thema

Partnervideos