18.01.2014 Aufrufe

IEKP-KA/2013-8 - Institut für Experimentelle Kernphysik - KIT

IEKP-KA/2013-8 - Institut für Experimentelle Kernphysik - KIT

IEKP-KA/2013-8 - Institut für Experimentelle Kernphysik - KIT

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

42 5. Statistische Methoden<br />

1<br />

0.8<br />

g(y)=<br />

1<br />

1+e<br />

-y<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

-5 -4 -3 -2 -1 0 1 2 3 4 5<br />

y<br />

Abbildung 5.5.: Zeichnung der Sigmoid Funktion nach Formel 5.12.<br />

die das Intervall (−∞, ∞) auf (0, 1) abbildet und für kleine Werte y linear angenährt<br />

werden kann. Die Sigmoid Funktion ist in Abbildung 5.5 dargestellt. Auf die besondere<br />

Bedeutung dieser Funktion als Aktivierungsfunktion wird in Teil 5.3.4 näher eingegangen.<br />

Ein solches Netzwerk mit Aktivierungsfunktion wird als künstliches Neuron bezeichnet.<br />

Die Namensgebung trägt dem biologischen Vorbild auf dem ein solches Netzwerk basiert<br />

Rechnung. Gemeint ist eine Nervenzelle, die im zentralen Nervensystem über Synapsen<br />

mit anderen Nervenzellen verknüpft ist. Die Synapsen entsprechen in diesem Bild den<br />

Gewichten w i , wobei das Gewicht des Bias w 0 einem Schwellwert entspricht, ab dessen<br />

Überschreitung das Neuron aktiv wird ( ”<br />

feuert“).<br />

Mit einem künstlichen Neuron kann bereits eine Trennung einfacher, durch eine Hyperebene<br />

linear trennbarer Populationen, vorgenommen werden. Für nichtlineare und stark korrelierte<br />

Verteilungen ist sowohl das Likelihoodverhältnis, als auch ein einzelnes künstliches<br />

Neuron zur Ausgabe einer Test-Statistik ungeeignet. Ein Beispiel einer solchen Verteilung<br />

im zweidimensionalen Fall ist in Abbildung 5.6 dargestellt. Hier wird augenscheinlich klar,<br />

dass die beiden Populationen H 0 und H 1 nicht durch eine gerade Linie getrennt werden<br />

können.<br />

5.3.2. Multi-Layer-Perzeptron<br />

Um nichtlineare Probleme zu lösen werden Schichten mehrerer künstlicher Neuronen hintereinander<br />

geschaltet. Man spricht dann von einem Multi-Layer-Perzeptron (MLP). In der<br />

ersten Schicht werden die einzelnen n Eingabewerte x i aufgenommen. Die letzte Schicht<br />

besteht aus einem einzelnen Neuron, welches den Ausgabewert y(x) liefert. Dazwischen<br />

befindet sich mindestens eine versteckte Schicht 2 aus k Neuronen, die Eingabewerte gemäß<br />

(<br />

)<br />

n∑<br />

ϕ j (x) = g w j0 + w ji x i (5.13)<br />

für jedes Neuron der versteckten Schicht ϕ j transformiert. w j0 sind die Gewichte des Bias.<br />

Das Ausgabeneuron gibt dann, wie ein einzelnes Neuron mit k Eingangsparametern ϕ j ,<br />

den Ausgabewert entsprechend<br />

⎛<br />

⎞<br />

k∑<br />

y(⃗ϕ) = ˜g ⎝ ˜w 0 + ˜w j ϕ j ⎠ . (5.14)<br />

2 engl.: Hidden layer<br />

i=1<br />

j=1<br />

42

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!