Direkt zum Inhalt

Lexikon der Mathematik: linearer Assoziierer

Bezeichnung für ein spezielles zweischichtiges Neuronales Netz, das mit der Hebb-Lernregel trainiert wird und im Ausführ-Modus auf den Trainingswerten exakt arbeitet, sofern die Eingabe-Trainingsvektoren orthonormal sind.

Im folgenden wird der lineare Assoziierer kurz skizziert: Es sei ein zweischichtiges neuronales Feed-Forward-Netz mit Ridge-Typ-Aktivierung und identischer Transferfunktion in den Ausgabe-Neuronen gegeben (vgl. auch die Abbildung).

Abbildung 1 zum Lexikonartikel linearer Assoziierer
© Springer-Verlag GmbH Deutschland 2017
 Bild vergrößern

Wenn man diesem Netz eine Menge von t Trainingswerten (x(s), y(s)) ∈ ℝn × ℝm, 1 ≤ st, präsentiert, setzt man generell Θj = 0, 1 ≤ jm, und entsprechend der Hebb-Lernregel

\begin{eqnarray}{w}_{ij}:=\displaystyle \sum _{S=1}^{t}{x}_{i}^{(s)}{y}_{j}^{(s)}\end{eqnarray}

für 1 ≤ in und 1 ≤ jm. Sind die Trainingsvektoren x(s), 1 ≤ st, orthonormal, dann arbeitet das entstandene neuronale Netz im Ausführ-Modus perfekt auf den Trainingswerten, d. h.

\begin{eqnarray}\displaystyle \sum _{i=1}^{t}{w}_{ij}{x}_{i}^{(s)}={y}_{j}^{(s)}\end{eqnarray}

für 1 ≤ jm und 1 ≤ st, und wird (Hebbtrainierter) linearer Assoziierer genannt.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

  • Die Autoren
- Prof. Dr. Guido Walz

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.