Lernvektorquantisierung

Was ist Lernvektorquantisierung?
Die Lernvektorquantisierung (LVQ) ist ein Algorithmus, der eine Art künstlicher neuronaler Netze ist und eine neurale Berechnung verwendet. Im weiteren Sinne kann gesagt werden, dass es sich um eine Art von Computational Intelligence handelt. Dieser Algorithmus erfordert einen kompetitiven Ansatz, bei dem man alles gewinnen kann, und bezieht sich auch auf andere neuronale Netzwerkalgorithmen wie Perceptron und Backpropagation. Der LVQ-Algorithmus erlaubt es, die Anzahl der zu unterziehenden Trainingsinstanzen auszuwählen und dann zu erfahren, wie diese Instanzen aussehen. LVQ wurde von Teuvo Kohonen erfunden und ist verwandt mit dem k-nearest neighbor Algorithmus.

Das grundlegende Ziel des Lernens der Vektorquantisierung in Bezug auf die Informationsverarbeitung besteht darin, im Bereich der beobachteten Datenproben einen Satz von Codebuchvektoren vorzubereiten. Ferner werden diese Vektoren dann für die Klassifizierung von unsichtbaren Vektoren verwendet. Zu Beginn wird ein zufälliger Pool von Vektoren zusammengesetzt, und diese werden dann Trainingsproben ausgesetzt. Bei der Verwendung einer Alles-gewinnt-alle-Strategie werden entweder eine oder diejenigen ausgewählt, die dem gegebenen Eingabemuster am ähnlichsten sind. Diese werden dann so eingestellt, dass sie näher an dem Eingabevektor oder manchmal weiter weg von dem Nächstplatzierten sind. Bei Wiederholung dieses Prozesses führt dies zu einer Verteilung von Codebuchvektoren im Eingangsraum, die die Verteilung von Abtastwerten, die dem Testdatensatz zugrunde liegen, approximieren kann. Dieser Algorithmus wird für die prädiktive Modellierung verwendet.


War die Erklärung zu "Lernvektorquantisierung" hilfreich? Jetzt bewerten:

Weitere Erklärungen zu