Zusammenfassung
KNN lassen sich auf Hardware- oder Software-Basis simulieren. Für die Hardwaresimulation können eine Reihe von Computerarchitekturen verwendet werden. Zu diesen Computerklassen gehören beispielsweise SIMD- und MIMD-Parallelrechner, die aus mehreren einfachen Prozessoren bestehen und parallel die gleichen Daten verarbeiten. Parallelrechner werden deshalb eingesetzt, weil ihre Struktur mit denen der neuronalen Netze ve-gleichbar ist. Beide Strukturen bestehen aus einer großen Anzahl von parallel arbeitenden Neuronen bzw. Prozessoren, die über Verbindungen Informationen austauschen.
This is a preview of subscription content, log in via an institution.
Buying options
Tax calculation will be finalised at checkout
Purchases are for personal use only
Learn about institutional subscriptionsPreview
Unable to display preview. Download preview PDF.
Literatur
Während Parallelrechner mit Gleitkommaarithmetik arbeiten, verwenden Neurocomputer eine Festkommaarithmetik mit einer Genauigkeit von 8–16 Bit. Bei VLSI-Chips reduziert sich die Genauigkeit auf 4–8 Bit, und diese liegt bei optischen Computern teilweise darunter Zell (1994), S. 452.
Es werden IBM-PC-kompatible Rechner unter MS-DOS und MS-Windows, Sun Workstations und HP-Workstations unterstützt.
Zell (1994)
Der gesamte Quellcode zu SNNS ist für Forschungszwecken frei verfügbar und befindet sich auf dem Anonymous FTP-Server ftp.informatik.uni-stuttgart.de (129.69.211.2).
Die Verwendung der Programmiersprache ANSI-C bietet sich aus Effizienz- und Portabilitätsgründen an.
Nessus wurde speziell zur Beschreibung von Netzwerktopologien entwickelt. Die Hauptaufgabe des Nessus-Compilers war es, aus der Netzwerkdefinition eine Eingabedatei für den Simulatorkern zu erzeugen.
Ein Zyklus besteht aus der Präsentation aller vorhandenen Pattern an das KNN.
Eine vollständige Übersicht der Update-Funktionen, die die Aktivierungsausbreitung bestimmen, findet sich im Handbuch Zell et al. (1994), S. 57 – S. 62.
Die Zellen berechnen ihre Aktivierung quasi-simultan.
Die Eigenschaft ist von sehr großem Vorteil, weil zu einem Trainingspattern mehrere Testpattern analysiert werden. Es ist also möglich, ein Trainingspattern gleichzeitig mit einem Validierungs- und einem Generalisierungspattern zu laden und die Güte des Netzes zu testen.
Durch einen entsprechenden Aufruf eines Prozesses kann unter UNIX der Prozeß weiter abgearbeitet werden, obwohl der Elternprozeß (Shell) zuvor beendet wurde. Es kann nach der Anmeldung auf einen Server ein Prozeß gestartet werden, der selbst nach Beendigung der Sitzung weiterläuft.
Bis zur Veröffentlichung von SNNS4.0 wurde snnsbat zur Abarbeitung der Batch Jobs verwendet. Diese Schnittstelle konnte allerdings nur mit einer begrenzten Anzahl Lernregeln betrieben werden. Netz-topologische Manipulationen waren nicht möglich. Einige Zeit nach Erscheinen von SNNSv4.0 wurde batchman fertiggestellt, das diese Nachteile aufhob. Allerdings sind batchman und snnsbat nicht zueinander kompatibel. Die Syntax von batchman ist komplett neu konzipiert worden und ähnelt Programmen wie AWK, Pascal, Modula2 und C.
Der Kern des Shell-Scripts kann dem Anhang C entnommen werden.
siehe Abschnitt 6.2.1.5
Zusätzlich zu der eigenen Bibliothek wurde die von Klatte et al. (1993) verwendet.
Zur näheren Erläuterung der Parameter wird auf Abschnitt 6.2.1 verwiesen.
siehe Abschnitt 6.2.2.3
Es gibt wenig deutsche Literatur zu TCL. Zu der aktuellen Version von TCL 7.4 und Tk 4.0 gibt es nur eine deutsche Übersetzung Welch (1996), die dem Autor bekannt ist. Eine kleine Einführung in TCL kann auch in Maurer (1996) nachgelesen werden und ausführlicher in Johnson (1996).
Es können sowohl ANSI-C- als auch C++-Funktionen verwendet werden.
Diese Art der Eingabe bietet sich für standardisierte Eingabewerte an.
Stattdessen sind dort nur einige allgemeine Informationen zur Identität des Autors untergebracht.
Insgesamt sind 128 Prozeduren auf 17 Dateien verteilt.
Diese Konventionen sind in WELCH (1996), S. 143 ff. aufgeführt und beschrieben.
Es gibt weitere leistungsfähige Simulatoren, wie z.B. NEMESIS [vgl. Heuer (1997), S. 427 ff.]
Rights and permissions
Copyright information
© 1998 Springer Fachmedien Wiesbaden
About this chapter
Cite this chapter
Benenati, I. (1998). Simulationsinstrumente für KNN. In: Neuronale Netze im Portfoliomanagement. Deutscher Universitätsverlag, Wiesbaden. https://doi.org/10.1007/978-3-663-08788-5_3
Download citation
DOI: https://doi.org/10.1007/978-3-663-08788-5_3
Publisher Name: Deutscher Universitätsverlag, Wiesbaden
Print ISBN: 978-3-8244-2117-6
Online ISBN: 978-3-663-08788-5
eBook Packages: Springer Book Archive