Direkt zum Inhalt

Lexikon der Mathematik: adaptive-resonance-theory

Sammelbegriff für einen Forschungsschwerpunkt im Bereich Neuronale Netze, der sich mit der Konstruktion und Analyse von Strategien beschäftigt, die selbständig vorgegebene Eingabewerte klassifizieren können.

Die adaptive-resonance-theory ist eng mit der Kohonen-Lernregel verknüpft, wobei der wesentliche Unterschied darin besteht, daß letztere i.allg. mit einer a priori fixierten Anzahl von Klassen arbeitet, während es im Rahmen der adaptive-resonance-theory ermöglicht wird, die Anzahl der Klassen in Abhängigkeit von den zu klassifizierenden Eingabewerten zu modifizieren (Lösung des sogenannten Stabilitäts-Plastizitäts-Problems).

Im folgenden wird das Prinzip der adaptive-resonance-theory an einem einfachen Beispiel (diskrete Variante) erläutert: Eine endliche Menge von t Vektoren x(s) ∈ ℝn, 1 ≤ st, soll klassifiziert werden, d. h. in sogenannte Cluster eingeordnet werden. Dazu werden schrittweise Klassifikationsvektoren w(i) ∈ ℝn, i ∈ ℕ, generiert, die die einzelnen Cluster repräsentieren und aus diesem Grunde auch kurz als Cluster-Vektoren bezeichnet werden. Im einfachsten Fall lautet die entsprechende Klassifizierungsstrategie bei vorgegebenem ϵ > 0 (ϵ wird in diesem Kontext auch Aufmerksamkeitsparameter genannt) sowie beliebig gegebenem Lernparameter λ ∈ (0, 1) wie folgt:

Im ersten Schritt (s = 1) setze w(1) := x(1) und j := 1. Im s-ten Schritt (1 < s ≤ t) zur Klassifikation von x(s) berechne jeweils ein Maß für die Entfernung von x(s) zu allen bereits definierten Cluster-Vektoren w(i), 1 ≤ ij (z. B. über den Winkel, den euklidischen Abstand, o.ä.). Falls die kleinste so berechnete Entfernung kleiner als ϵ ist, dann schlage x(s) dem zugehörigen Cluster zu. Falls mehrere Cluster-Vektoren diese Eigenschaft besitzen, nehme das Cluster mit dem kleinsten Index. Falls der so fixierte Cluster-Vektor den Index i hat, ersetze ihn durch \begin{eqnarray}{{\mathscr{w}}}^{(i)}+\lambda ({x}^{(s)}-{{\mathscr{w}}}^{(i)}),\end{eqnarray}

d. h. durch eine Konvexkombination des alten Cluster-Vektors mit dem neu klassifizierten Vektor; alle übrigen Cluster-Vektoren bleiben unverändert (moderate Adaption und Gewährleistung von Stabilität). Falls die kleinste so berechnete Entfernung größer oder gleich ϵ ist, dann ergänze die Menge der Cluster-Vektoren durch w(j+1) := x(s) und erhöhe den Zählindex j um 1 (signifikante Adaption und Gewährleistung von Plastizität).

Iteriere dieses Vorgehen mehrmals, verringere ϵ und/oder λ Schritt für Schritt und breche den Algorithmus ab, wenn z. B. der Maximalabstand aller zu klassifizierenden Vektoren zu ihrem jeweiligen Cluster-Vektor eine vorgegebene Schranke unterschreitet oder aber eine gewisse Anzahl von Iterationen durchlaufen worden sind.

Wenn im Rahmen einer wie oben skizzierten Strategie ein zu klassifizierender Vektor einem Cluster zugeordnet werden kann, spricht man auch von adaptiver Resonanz. Seit etwa Mitte der siebziger Jahre haben insbesondere Stephen Grossberg und Gail Carpenter eine ganze Palette von wesentlich verfeinerten Varianten des obigen Typs vorgeschlagen und studiert (sowohl im diskreten als auch im kontinuierlichen Kontext), die heute in der einschlägigen Literatur vielfach unter dem Stichwort ART-Architekturen abgehandelt werden.

Lesermeinung

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

  • Die Autoren
- Prof. Dr. Guido Walz

Partnervideos