Das Growing Neural Gas (GNG) ist ein künstliches neuronales Netz, bei dem während des Adaptionsprozesses Neuronen eingefügt und gelöscht werden können. Bei anderen künstlichen neuronalen Netzen wie Self-Organizing Maps (SOM) oder Neural Gas (NG) muss vorab die Netzwerkgröße festgelegt werden. Das im Jahr 1995 von Bernd Fritzke entwickelte Growing Neural Gas kann als Weiterentwicklung des NG angesehen werden.
Arbeitsweise
Zu Beginn existieren zwei Startneuronen. Im Laufe der Konditionierung des Netzes werden neue Neuronen eingefügt, sodass eine adäquate Anpassung des Netzes an die Eingabedaten stattfinden kann. Verbindungen zwischen den Neuronen werden ähnlich wie beim NG eingefügt und gelöscht.
Neue Neuronen werden nach einer im Vorfeld durch den Anwender festgelegten Anzahl an Iterationen eingefügt.
Beim Einfügeprozess wird das Ziel einer Minimierung des Quantisierungsfehlers verfolgt. Der Quantisierungsfehler entsteht durch die Zuweisung der Eingabe- zu den Referenzvektoren, wodurch eine Komprimierung des Datensatzes stattfindet.
Siehe auch
Literatur
- Bernd Fritzke: Wachsende Zellstrukturen – Ein selbstorganisierendes Neuronales Netzwerkmodell. In: M. Dal Chin et al. (Hrsg.): Arbeitsberichte des Instituts für mathematische Maschinen und Datenverarbeitung (Informatik), Bd. 25, Nr. 9, Institut für mathematische Maschinen und Datenverarbeitung, Friedrich-Alexander-Universität Erlangen, Nürnberg, 1992.
- Bernd Fritzke, A growing neural gas network learns topologies (PDF; 780 kB). In: Tesauro, G.; Touretzky, D. S. & Leen, T. K. (Eds.), Advances in Neural Information Processing Systems 7, MIT Press, 1995, 625–632
- Bernd Fritzke: Vektorbasierte Neuronale Netze, elektronisch publizierte Habilitationsschrift, 1998 (PDF; 17,0 MB)