Ausblick

Nachdem erläutert wurde, wie ein mehrschichtiges Netz
mit Backpropagation- Lernalgorithmus funktioniert,
kann man sich Gedanken darüber machen, wie das Lernen
sinnvoll beschleunigt wird. Ein Problem ist die
Initialisierung der Gewichte und Schwellwerte vor dem
Beginn des Lernens. Wählt man zufällig eine gute
Initialisierung, ist das Problem bereits nach wenigen
Iterationen gelöst. Wählt man hingegen eine ungünstige
Initialisierung, kann es vorkommen, dass man in keiner
angemessenen Zeit ein Ergebnis erwarten kann. Das liegt
unter anderem an dem Verfahren des Gradientenabstiegs.
Wie bereits erwähnt, kann der Gradientenabstieg in einem
lokalen Minimum hängen bleiben. Klug wäre es nun, durch
ein anderes Lernverfahren am Anfang das Tal mit dem
globalen Minimum zu finden und dann erst mit dem
Gradientenabstiegsverfahren das globale Minimum
zu lokalisieren bzw. zu approximieren. Es wäre daher
sinvoll das bereits vorgestellte Lernverfahren, mit einem
genetischen Lernalgorithmus zu ergänzen. Dieser ist wegen
seiner Eigenschaften besonders gut für den ersten Abschnitt
des Lernens geeignet. Die Funktionsweise des genetischen
Lernalgorithmus und dessen Auswirkung auf die Lerngeschwindigkeit
und die mitunter daraus resultierende Güte des Netzes ist mit
sicherheit ein interessanter Ausblick für eine mögliche
Optimierung des Lernverfahrens.