IEKP-KA/2013-8 - Institut für Experimentelle Kernphysik - KIT
IEKP-KA/2013-8 - Institut für Experimentelle Kernphysik - KIT
IEKP-KA/2013-8 - Institut für Experimentelle Kernphysik - KIT
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
42 5. Statistische Methoden<br />
1<br />
0.8<br />
g(y)=<br />
1<br />
1+e<br />
-y<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
-5 -4 -3 -2 -1 0 1 2 3 4 5<br />
y<br />
Abbildung 5.5.: Zeichnung der Sigmoid Funktion nach Formel 5.12.<br />
die das Intervall (−∞, ∞) auf (0, 1) abbildet und für kleine Werte y linear angenährt<br />
werden kann. Die Sigmoid Funktion ist in Abbildung 5.5 dargestellt. Auf die besondere<br />
Bedeutung dieser Funktion als Aktivierungsfunktion wird in Teil 5.3.4 näher eingegangen.<br />
Ein solches Netzwerk mit Aktivierungsfunktion wird als künstliches Neuron bezeichnet.<br />
Die Namensgebung trägt dem biologischen Vorbild auf dem ein solches Netzwerk basiert<br />
Rechnung. Gemeint ist eine Nervenzelle, die im zentralen Nervensystem über Synapsen<br />
mit anderen Nervenzellen verknüpft ist. Die Synapsen entsprechen in diesem Bild den<br />
Gewichten w i , wobei das Gewicht des Bias w 0 einem Schwellwert entspricht, ab dessen<br />
Überschreitung das Neuron aktiv wird ( ”<br />
feuert“).<br />
Mit einem künstlichen Neuron kann bereits eine Trennung einfacher, durch eine Hyperebene<br />
linear trennbarer Populationen, vorgenommen werden. Für nichtlineare und stark korrelierte<br />
Verteilungen ist sowohl das Likelihoodverhältnis, als auch ein einzelnes künstliches<br />
Neuron zur Ausgabe einer Test-Statistik ungeeignet. Ein Beispiel einer solchen Verteilung<br />
im zweidimensionalen Fall ist in Abbildung 5.6 dargestellt. Hier wird augenscheinlich klar,<br />
dass die beiden Populationen H 0 und H 1 nicht durch eine gerade Linie getrennt werden<br />
können.<br />
5.3.2. Multi-Layer-Perzeptron<br />
Um nichtlineare Probleme zu lösen werden Schichten mehrerer künstlicher Neuronen hintereinander<br />
geschaltet. Man spricht dann von einem Multi-Layer-Perzeptron (MLP). In der<br />
ersten Schicht werden die einzelnen n Eingabewerte x i aufgenommen. Die letzte Schicht<br />
besteht aus einem einzelnen Neuron, welches den Ausgabewert y(x) liefert. Dazwischen<br />
befindet sich mindestens eine versteckte Schicht 2 aus k Neuronen, die Eingabewerte gemäß<br />
(<br />
)<br />
n∑<br />
ϕ j (x) = g w j0 + w ji x i (5.13)<br />
für jedes Neuron der versteckten Schicht ϕ j transformiert. w j0 sind die Gewichte des Bias.<br />
Das Ausgabeneuron gibt dann, wie ein einzelnes Neuron mit k Eingangsparametern ϕ j ,<br />
den Ausgabewert entsprechend<br />
⎛<br />
⎞<br />
k∑<br />
y(⃗ϕ) = ˜g ⎝ ˜w 0 + ˜w j ϕ j ⎠ . (5.14)<br />
2 engl.: Hidden layer<br />
i=1<br />
j=1<br />
42