Direkt zum Inhalt

Lexikon der Mathematik: lernende Vektorquantisierung

Vektorquantisierung, LVQ (engl. learning vector quantization), eine spezielle Lernregel im Bereich Neuronale Netze, die seit etwa Ende der siebziger Jahre in der Literatur diskutiert wird und inzwischen in zahlreichen LVQ-Variationen zu finden ist.

Die ursprüngliche lernende Vektorquantisierung ist eng verwandt mit der Kohonen-Lernregel, wobei der wesentliche Unterschied darin besteht, daß letztere eine unüberwachte Lernregel ist, während LVQ primär überwacht arbeitet.

Im folgenden wird das Prinzip der lernenden Vektorquantisierung an einem einfachen Beispiel (diskrete Variante) erläutert: Gegeben sei eine endliche Menge von t Vektoren x(s) ∈ ℝn, 1 ≤ st, eine endliche Menge von j Klassifikationsvektoren oder Cluster-Vektoren w(i) ∈ ℝn, 1 ≤ ij, sowie eine Klassifikationsfunktion f : {1, …, t} → {1, …, j}, die jedem Vektor x(s) vermöge w(f(s)) einen entsprechenden Cluster-Vektor zuordnet. Dabei ist im allgemeinen j wesentlich kleiner als t, und die über f induzierte Zuordnung beschreibt unter Zugriff auf die Indizes der beteiligten Vektoren die Zugehörigkeit eines Vektors zu einer bestimmten Klasse.

Die Justierung der Cluster-Vektoren in Abhängigkeit von den zu klassifizierenden Vektoren geschieht nun im einfachsten Fall wie folgt, wobei λ ∈ (0, 1) ein noch frei zu wählender Lernparameter ist: Im s-ten Schritt (1 ≤ st) zur Aktualisierung von w(f(s)) berechne jeweils ein Maß für die Entfernung von x(s) zu allen Cluster-Vektoren w(i), 1 ≤ ij (z. B. über den Winkel, den euklidischen Abstand, o.ä.).

Falls w(f(s)) zu den Cluster-Vektoren mit minimalem Abstand zu x(s) gehört (konsistente Klassifizierung), ersetze w(f(s)) durch

\begin{eqnarray}{w}^{(f(s))}+\lambda ({x}^{(s)}-{w}^{(f(s))});\end{eqnarray}

alle übrigen Cluster-Vektoren bleiben unverändert.

Falls w(f(s)) nicht zu den Cluster-Vektoren mit minimalem Abstand zu x(s) gehört (inkonsistente Klassifizierung), ersetze w(f(s)) durch

\begin{eqnarray}{w}^{(f(s))}-\lambda ({x}^{(s)}-{w}^{(f(s))});\end{eqnarray}

alle übrigen Cluster-Vektoren bleiben unverändert. Iteriere dieses Vorgehen mehrmals, erniedrige λ Schritt für Schritt und breche den Algorithmus ab, wenn z. B. der Maximalabstand aller zu klassifizierenden Vektoren zu ihrem jeweiligen Cluster-Vektor eine vorgegebene Schranke unterschreitet, oder aber eine gewisse Anzahl von Iterationen durchlaufen worden sind. Der oben skizzierte Prototyp der lernenden Vektorquantisierung ist im Laufe der Zeit in verschiedenste Richtungen wesentlich verallgemeinert worden. Erwähnt seien in diesem Zusammenhang nur die Verschmelzung oder Aufteilung einzelner Cluster in Abhängigkeit von einer gewissen Abstandsfunktion sowie die Cluster-abhängige und nicht mehr globale Modifikation des Parameters λ.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

  • Die Autoren
- Prof. Dr. Guido Walz

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.