IEKP-KA/2013-8 - Institut für Experimentelle Kernphysik - KIT
IEKP-KA/2013-8 - Institut für Experimentelle Kernphysik - KIT
IEKP-KA/2013-8 - Institut für Experimentelle Kernphysik - KIT
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
5.3. Künstliche neuronale Netze 43<br />
Abbildung 5.6.: Beispiel nicht einfacher, durch eine Hyperebene linear separierbarer, Populationen<br />
H 0 und H 1 im zweidimensionalen Parameterraum der Variablen<br />
x 1 und x 2 [39].<br />
Die Neuronen einer einzelnen Schicht werden dabei jeweils in Vorwärtsrichtung miteinander<br />
verknüpft, so dass ein sogenanntes Feed-Forward Netzwerk entsteht. Die Topologie<br />
eines solchen Netzwerkes ist in Abbildung 5.7 dargestellt. Die versteckte Schicht führt<br />
Bias<br />
∑<br />
i<br />
w j0<br />
x i w ji<br />
∑ ϕ j<br />
j<br />
̃w j<br />
Input<br />
variables<br />
x 1<br />
⋮<br />
⋮<br />
ϕ j (⃗x)<br />
y(⃗ϕ)<br />
x n<br />
Input<br />
Hidden<br />
Layer<br />
Output<br />
Node<br />
Abbildung 5.7.: Multi Layer Perzeptron mit einer versteckten Lage.<br />
dabei eine Transformation der Eingabewerte nach x 1 , ...x n → ϕ 1 (x), ...ϕ n (x) in einen sogenannten<br />
Merkmalsraum 3 durch, in dem die Populationen linear separierbar sind. Die<br />
lineare Separation kann dann vom Ausgabeneuron durchgeführt werden. Prinzipiell sind<br />
alle Topologien, mit beliebig vielen versteckten Schichten, sowie Neuronen und verschiedenen<br />
Verbindungen auch in Rückwärtsrichtung, denkbar. Ein Feed-Forward Netzwerk mit<br />
nur einer versteckten Schicht ist jedoch für die meisten Separationsprobleme ausreichend.<br />
Aufgabe ist es nun die Gewichte w ij zu bestimmen, die die Eigenschaften der Transformation<br />
x → ⃗ϕ(x), sowie die Hyperebene zur Trennung der Populationen festlegen. Diese<br />
Anpassung der Gewichte an die Signal- und Untergrundverteilungen des Separationspro-<br />
3 engl.: Feature space<br />
43