15.10.2013 Aufrufe

Approximationstheorie

Approximationstheorie

Approximationstheorie

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

178 8 DER SATZ VON KOLMOGOROFF<br />

Abbildung 8.7: Die Sigmoidfunktion aus (8.20). Durch Umskalierung σ (λ·), λ > 0, kann<br />

man den Steigungsteil natürlich beliebig steil oder flach machen. Obwohl die Funktion nie<br />

exakt die Werte 0 und 1 annimmt, erreicht sie diese aber “praktisch” schon relativ bald.<br />

Wie der Name sagt, stehen Eingabelayer immer am Anfang, Ausgabelayer immer am Ende des<br />

Prozesses. Derartige Layer können nun beliebig baumartig ineinander verschachtelt werden und<br />

führen dann eben zu einem neuronalen Netzwerk 225 .<br />

Die “moderne” numerische Bedeutung des Satzes von Kolmogoroff liegt nun darin, daß<br />

man ihn als einen Darstellungssatz für neuronale Netzwerke interpretieren kann, wobei für j =<br />

0, . . . , 2s zuerst je einen Eingabelayer basierend auf φj verwendet 226 , diese Ausgaben dann<br />

durch jeweils einen einfachen Layer mit Anregungsfunktion g, Gewichten λ1, . . . , λs und nur<br />

einem Ausgabkanal schickt und die Resultate durch ein triviales Ausgabenetzwerk kombinieren<br />

lässt. Trivial bedeutet in diesem Fall, daß alle Gewichte den Wert 1 und die Anregungsfunktion<br />

die Identität ist. Toll – neuronale Netze können also jede Funktion darstellen, aber (zumindest,<br />

wenn man Satz 8.2 verwenden will) in diesem Fall muss eine der Anregungsfunktionen sehr<br />

massiv von der darzustellenden Funktion f abhängen und müsste dann selbst wieder durch ein<br />

geeignetes Teilnetzwerk approximiert werden.<br />

Bleibt noch eine Frage zum Schluss: Wie erstellt man eigentlich generell so ein Netzwerk<br />

in einer Anwendung? Das ist erstaunlich einfach! Man verwendet sogenannte Trainingsdaten<br />

(x j , yj) ∈ R s+1 , belegt die freien Parameter w, also die Gewichte in den einzelnen Layern,<br />

224Wer will kann dies als eine Einführung von projektiven Koordinaten sehen, auch wenn wir hier beim besten<br />

Willen keine projektive Geometrie betreiben.<br />

225Enthält dieses Netzwerk als Graph keine geschlossenen Kreise, dann spricht man von einem Feedworward–<br />

Netzwerk, mit Kreisen kann es noch lustiger werden, denn dann kann sich das Netzwerk ja auch rekursiv selbst<br />

anregen.<br />

226Die φj sind monoton steigende Funktionen von [0, 1] nach [0, 1], wenn man die noch für x < 0 zu 0 und für<br />

x > 1 zu 1 fortsetzt, dann hat man es durchaus mit einer Art Sigmoidfunktion zu tun.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!