Approximationstheorie
Approximationstheorie
Approximationstheorie
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
178 8 DER SATZ VON KOLMOGOROFF<br />
Abbildung 8.7: Die Sigmoidfunktion aus (8.20). Durch Umskalierung σ (λ·), λ > 0, kann<br />
man den Steigungsteil natürlich beliebig steil oder flach machen. Obwohl die Funktion nie<br />
exakt die Werte 0 und 1 annimmt, erreicht sie diese aber “praktisch” schon relativ bald.<br />
Wie der Name sagt, stehen Eingabelayer immer am Anfang, Ausgabelayer immer am Ende des<br />
Prozesses. Derartige Layer können nun beliebig baumartig ineinander verschachtelt werden und<br />
führen dann eben zu einem neuronalen Netzwerk 225 .<br />
Die “moderne” numerische Bedeutung des Satzes von Kolmogoroff liegt nun darin, daß<br />
man ihn als einen Darstellungssatz für neuronale Netzwerke interpretieren kann, wobei für j =<br />
0, . . . , 2s zuerst je einen Eingabelayer basierend auf φj verwendet 226 , diese Ausgaben dann<br />
durch jeweils einen einfachen Layer mit Anregungsfunktion g, Gewichten λ1, . . . , λs und nur<br />
einem Ausgabkanal schickt und die Resultate durch ein triviales Ausgabenetzwerk kombinieren<br />
lässt. Trivial bedeutet in diesem Fall, daß alle Gewichte den Wert 1 und die Anregungsfunktion<br />
die Identität ist. Toll – neuronale Netze können also jede Funktion darstellen, aber (zumindest,<br />
wenn man Satz 8.2 verwenden will) in diesem Fall muss eine der Anregungsfunktionen sehr<br />
massiv von der darzustellenden Funktion f abhängen und müsste dann selbst wieder durch ein<br />
geeignetes Teilnetzwerk approximiert werden.<br />
Bleibt noch eine Frage zum Schluss: Wie erstellt man eigentlich generell so ein Netzwerk<br />
in einer Anwendung? Das ist erstaunlich einfach! Man verwendet sogenannte Trainingsdaten<br />
(x j , yj) ∈ R s+1 , belegt die freien Parameter w, also die Gewichte in den einzelnen Layern,<br />
224Wer will kann dies als eine Einführung von projektiven Koordinaten sehen, auch wenn wir hier beim besten<br />
Willen keine projektive Geometrie betreiben.<br />
225Enthält dieses Netzwerk als Graph keine geschlossenen Kreise, dann spricht man von einem Feedworward–<br />
Netzwerk, mit Kreisen kann es noch lustiger werden, denn dann kann sich das Netzwerk ja auch rekursiv selbst<br />
anregen.<br />
226Die φj sind monoton steigende Funktionen von [0, 1] nach [0, 1], wenn man die noch für x < 0 zu 0 und für<br />
x > 1 zu 1 fortsetzt, dann hat man es durchaus mit einer Art Sigmoidfunktion zu tun.