15.10.2013 Aufrufe

Approximationstheorie

Approximationstheorie

Approximationstheorie

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

8.4 Neuronale Netze 179<br />

1 2 3 . . . m<br />

ϕ ϕ ϕ . . . ϕ<br />

1 2 3 ... n<br />

Abbildung 8.8: Ein “Layer” eines neuronalen Netzwerkes: Die n Eingangskanäle werden,<br />

jeweils mit zu wählenden Gewichten, in alle Neuronen geführt. Diese Neuronen sind alle<br />

Kopien voneinander, haben also dieselbe Anregungsfunktion<br />

mit meist zufälligen Werten vor und minimiert dann die Abweichung des Netwerkes von den<br />

vorgegebenen Daten:<br />

N<br />

min (fw (xj) − yj)<br />

w<br />

2 .<br />

j=1<br />

Das ist ein nichtlineares Optimierungsproblem und für sowas gibt es Methoden, normalerweise<br />

sogenannte Abstiegsverfahren, siehe beispielsweise [58, 70]. Was ein paar ganz interessante<br />

Bemerkungen hervorruft:<br />

1. Solche nichtlinearen Optimierungsverfahren finden normalerweise nur lokale Minima<br />

und es kann somit nicht garantiert werden, daß das Netzwerk die Parameter wirklich<br />

optimal einstellt.<br />

2. Durch die zufällige Vorbelegung kann es passieren, daß bei verschiedenen “Trainingssitzungen”<br />

dieselben Eingaben zu verschiedenen Resultaten führen.<br />

3. Generell haben neuronale Netzwerke relativ wenige wirklich beweisbare Eigenschaften<br />

und man kann nie wirklich garantieren, daß das Netzwerk für alle Eingabewerte gesicherte<br />

Ergebnisse liefert.<br />

Man kann noch vieles über neuronale Netze erzählen, aber das alles wäre wieder eine ganz<br />

andere Geschichte für sich.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!