IEKP-KA/2013-8 - Institut für Experimentelle Kernphysik - KIT
IEKP-KA/2013-8 - Institut für Experimentelle Kernphysik - KIT
IEKP-KA/2013-8 - Institut für Experimentelle Kernphysik - KIT
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
46 5. Statistische Methoden<br />
Daraus folgt direkt aus der Umkehrbarkeit des Terms der Schnittmenge P (A ∪ B) =<br />
P (B ∪ A)<br />
P (B|A) · P (A)<br />
P (A|B) = . (5.19)<br />
P (B)<br />
Gleichung 5.19 wird Bayes Theorem genannt und stellt eine Verknüpfung zwischen den<br />
beiden Ereignissen A und B her [38]. Der Term P (B|A) wird als Likelihood bezeichnet<br />
und stellt die Messgrundlage dar. P (A) wird Prior genannt und bietet eine Möglichkeit<br />
Vorwissen in die statistische Auswertung einfließen zu lassen. P (B) stellt eine Normierungskonstante<br />
dar. Das Ergebnis P (A|B) wird dann als Posteriori Wahrscheinlichkeit<br />
bezeichnet.<br />
Mithilfe der Bayes Statistik kann eine Interpretation der Ausgabe eines neuronalen Netzwerks<br />
mit Sigmoid Aktivierungsfunktion gegeben werden. Betrachtet man zwei gaussförmig<br />
verteilte Populationen H 0 und H 1 im Parameterraum mit d Dimensionen um ⃗µ 0,1 und<br />
deren Kovarianzmatrix ∑ nach<br />
(<br />
1<br />
P (x|H 0,1 ) =<br />
(2π) d/2 | ∑ | 1/2 · exp − 1 2 (x − ⃗µ 0,1) T ∑ )<br />
−1<br />
(x − ⃗µ0,1 ) (5.20)<br />
und betrachtet die Wahrscheinlichkeit der Zugehörigkeit zu H 0 mit Bayes Theorem<br />
P (H 0 |x) =<br />
so erhält man mit der Substitution<br />
P (x|H 0 )P (H 0 )<br />
P (x|H 0 )P (H 0 ) + P (x|H 1 )P (H 1 ) , (5.21)<br />
a = ln P (x|H 0)P (H 0 )<br />
P (x|H 1 )P (H 1 )<br />
(5.22)<br />
aus Gleichung 5.21 die Sigmoid Funktion<br />
P (H 0 |x) =<br />
1<br />
. (5.23)<br />
1 + e−a Für die Substitution in Gleichung 5.22, die dem Liklihoodverhältnis aus Gleichung 5.8<br />
entspricht, erhält man mit 5.20<br />
a = w T x + w 0 (5.24)<br />
mit<br />
w 0 = − 1 2 ⃗µT 0<br />
∑ −1⃗µ0<br />
+ 1 2 ⃗µT 1<br />
w = ∑ −1<br />
(⃗µ0 − ⃗µ 1 ) (5.25)<br />
∑ −1⃗µ1<br />
+ ln P (H 0)<br />
P (H 1 ) . (5.26)<br />
Damit kann die Ausgabe eines neuronalen Netzwerks mit Sigmoid Aktivierungsfunktion<br />
als Posterior Wahrscheinlichkeit nach Bayes Theorem interpretiert werden [40]. Man erhält<br />
damit nicht nur eine einfache Separation, sondern eine Wahrscheinlichkeit für ein Ereignis,<br />
vom Typ H 0 oder H 1 zu sein.<br />
In der NeuroBayes R○ Software werden Bayes Methoden außerdem im Preprocessing angewandt.<br />
Hier werden die Eingangsparameter zur optimalen Verwendung im neuronalen<br />
Netz vorbereitet.<br />
Die NeuroBayes R○ Software ist zur Verwendung in zwei Teile geteilt. Zum einen existiert<br />
der NeuroBayes R○ Teacher, mit dem ein Netzwerk aufgebaut und trainiert werden kann.<br />
Das trainierte Netzwerk wird dann abgespeichert und kann über den NeuroBayes R○-Expert<br />
aufgerufen und für Analyseaufgaben verwendet werden.<br />
46