|
Die neuen Features des NeuroCoM in der Version 1.2
|
|
3D View
Ein View mit der Möglichkeit zur dreidimensionalen Visualisierung des
Netzwerkverhaltens (ein Ausgang über zwei Eingänge aufgetragen) ist
hinzugekommen. Die Wertebereiche der Eingangsvariablen können definiert
werden, der Ausgangswertebereich ist durch die Sigmoid-Funktion auf
[0,1] festgelegt.
Toolbar
In der (nunmehr bunten) Toolbar sind fast alle Menüeinträge zugänglich geworden, die
Aufteilung und Reihenfolge der Buttons folgt dabei der Menüzeile.
Dateiformate
Die Formate der Eingangs- und Ausgangsdateien (Lerndaten, Run-Dateien,
etc.) werden jetzt "vor Ort", also an der Auswahlstelle der Datei
definiert. Die Ausgangsdatei bei Run kann jetzt entweder als
Soll/Ist-Vergleich der Ausgangswerte (Comparison), oder im gleichen
Format wie die Lerndatei erzeugt werden (Data). Durch letztere Variante
besteht somit die Möglichkeit, das Netzverhalten mit beliebigen
Datensätzen zu testen und mit anderen Tools (z.B. Tabellenkalkulation,
Statistikprogramme, etc.) weiterzuverarbeiten.
Statistik
Zur statistischen Beurteilung des Lernzustandes kann im NeuroCoM eine
beliebige Testdatei ausgewertet werden. Dies kann insbesondere auch die
Lerndatei sein, denn durch die Lokalisation und Angabe des maximalen
Fehlers kann die Güte der Netzleistung zusätzlich zur Aussage des
gemittelten Fehlers besser beurteilt werden.
Trainingsverfahren
Bei den Trainingsverfahren stehen jetzt verschiedene Algorithmen mit
zusätzlichen Optionen zur Verfügung.
- Backprop
Die Methode "Backprop" bezeichnet das bisher verwendete Verfahren mit Momentum-Term
und Error-Backpropagation. Die Änderung der Gewichte wird dabei nach jedem Präsentieren
eines Lernmusters vorgenommen (stochastischer oder offline-Modus).
- Adaptive Backprop
Beim Adaptive Backprop werden zunächst alle Muster präsentiert und die berechneten
Gewichtsänderungen aufsummiert. Erst am Ende einer "Epoche" (Gesamtheit der Lernmuster)
wird die Gewichtsänderung vorgenommen (Batch-Modus).
Weisen die Änderungen gleiches Vorzeichen auf, so wird die Lernrate (für jedes Gewicht
existiert eine eigene) erhöht, bei wechselndem Vorzeichen wird sie erniedrigt. Auch bei
diesem Verfahren kann ein Momentum-Term benutzt werden.
- Quickprop
Quickprop versucht, statt durch eine schrittweise Annäherung direkt in das Minimum der
Fehlerfunktion zu gelangen. Da hierbei (bewußt) von falschen Annahmen ausgegangen wird
(parabelförmiger Verlauf der Fehlerfunktion, Unabhängigkeit der Gewichte), handelt es sich
auch hierbei um ein iteratives Verfahren, das aber vielfach schneller zum Ergebnis führt.
- Flat Spot Elimination
Sigmoide Funktionen verlaufen in ihren Randbereichen sehr flach (Ableitung >0). Da
Änderungen proportional zur Ableitung vorgenommen werden, kann die Addition eines
konstanten Terms zur Ableitung ein Perzeptron leichter aus seinem Sättigungsbereich (dem
Flat Spot) bringen.
- Output Error Distortion
Der berechnete Fehler eines Ausgangsneurons kann noch einmal nichtlinear verzerrt werden,
so daß größere Fehler überproportional stark gewichtet werden.
Online-Dokumentation
Der größte Teil des Handbuchs steht jetzt auch als Online-Hilfe zur
Verfügung und bietet über Inhaltsverzeichnis, Stichwortindex und
Querverweise einen bequemen Zugriff auf die benötigten Informationen.
Übersicht ·
Softcomputing ·
NeuroCoM-Beschreibung ·
Bildschirmabzug ·
Preisinformation
TransferTech GmbH
Eichendorffstr. 1
D-38110 Braunschweig
Germany
|
info@transfertech.de
|
Tel: ++49(05307) 4 90 91 60
Fax: ++49(05307) 4 90 91 61 |
© 2002 - 2010 by TransferTech GmbH