15.10.2013 Aufrufe

Approximationstheorie

Approximationstheorie

Approximationstheorie

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

8.4 Neuronale Netze 177<br />

w = (w0, . . . , wn) und 224 x = (1, x), denn dann wird (8.18) zu<br />

f(x) = ϕw(x) = ϕ w T x , x ∈ R n . (8.19)<br />

Beispiel 8.14 (Aktivierungsfunktionen) Typische Aktivierungsfunktionen für neuronale Netze<br />

sind<br />

1. ϕ(x) = sgn x, also<br />

ϕw(x) = 1 ⇔ 0 < w T x = w0 +<br />

n<br />

j=1<br />

wj xj ⇔<br />

n<br />

wj xj > −w0,<br />

das Neuron feuert also, wenn das innere Produkt größer als eine Aktivierungsschwelle,<br />

auf englisch Threshold .<br />

2. ϕ : R → [0, 1] strikt monoton steigend, also sozusagen eine kontinuierliche Aktivierung<br />

im Gegensatz zur Sprunfunktion x ↦→ sgn x.<br />

3. Ein konkrete Aktivierungsfunktion von dieser Art ist die Sigmoidfunktion<br />

siehe [3] bzw Abb. 8.7.<br />

σ(x) =<br />

j=1<br />

1<br />

, (8.20)<br />

1 + e−x Ein neuronales Netzwerk besteht nun aus einer beliebigen Anzahl von Lagen, auf Englisch als<br />

Layer bezeichnet, die man erst einmal als Funktionen f : R n → R m bezeichnen könnte. Soweit<br />

ist das nicht spektakulär, aber jeder dieser Layer soll eine einfache Struktur haben und nur<br />

auf einem Neuron beruhen. Und zwar werden alle Eingabedaten gewichtet in Kopien desselben<br />

Neurons geführt, siehe Abb. und die Resultate als Ausgabewerte genommen. Mathematisch ist<br />

so ein Layer also als<br />

ℓ(x) = ϕw(j)(x) : j = 1, . . . , m =<br />

⎡<br />

⎢<br />

⎣<br />

ϕ w(1) T x <br />

.<br />

ϕ w(m) T x <br />

dargestellt. Es gibt zwei spezielle Typen von Layern, nämlich<br />

⎤<br />

⎥<br />

⎦ , w(j) ∈ R n+1 , j = 1, . . . , m,<br />

(8.21)<br />

Eingabelayer, bei denen m = n und w(j)k = δjk ist, wo also alle Eingabekanäle einmal<br />

durchs Neuron gejagt werden und<br />

Ausgabelayer, bei denen m = 1 ist, also einfach die Eingangskanäle gewichtet aufsummiert<br />

und dann durch das Neuron “gefiltert” werden.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!