18.01.2014 Aufrufe

IEKP-KA/2013-8 - Institut für Experimentelle Kernphysik - KIT

IEKP-KA/2013-8 - Institut für Experimentelle Kernphysik - KIT

IEKP-KA/2013-8 - Institut für Experimentelle Kernphysik - KIT

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

46 5. Statistische Methoden<br />

Daraus folgt direkt aus der Umkehrbarkeit des Terms der Schnittmenge P (A ∪ B) =<br />

P (B ∪ A)<br />

P (B|A) · P (A)<br />

P (A|B) = . (5.19)<br />

P (B)<br />

Gleichung 5.19 wird Bayes Theorem genannt und stellt eine Verknüpfung zwischen den<br />

beiden Ereignissen A und B her [38]. Der Term P (B|A) wird als Likelihood bezeichnet<br />

und stellt die Messgrundlage dar. P (A) wird Prior genannt und bietet eine Möglichkeit<br />

Vorwissen in die statistische Auswertung einfließen zu lassen. P (B) stellt eine Normierungskonstante<br />

dar. Das Ergebnis P (A|B) wird dann als Posteriori Wahrscheinlichkeit<br />

bezeichnet.<br />

Mithilfe der Bayes Statistik kann eine Interpretation der Ausgabe eines neuronalen Netzwerks<br />

mit Sigmoid Aktivierungsfunktion gegeben werden. Betrachtet man zwei gaussförmig<br />

verteilte Populationen H 0 und H 1 im Parameterraum mit d Dimensionen um ⃗µ 0,1 und<br />

deren Kovarianzmatrix ∑ nach<br />

(<br />

1<br />

P (x|H 0,1 ) =<br />

(2π) d/2 | ∑ | 1/2 · exp − 1 2 (x − ⃗µ 0,1) T ∑ )<br />

−1<br />

(x − ⃗µ0,1 ) (5.20)<br />

und betrachtet die Wahrscheinlichkeit der Zugehörigkeit zu H 0 mit Bayes Theorem<br />

P (H 0 |x) =<br />

so erhält man mit der Substitution<br />

P (x|H 0 )P (H 0 )<br />

P (x|H 0 )P (H 0 ) + P (x|H 1 )P (H 1 ) , (5.21)<br />

a = ln P (x|H 0)P (H 0 )<br />

P (x|H 1 )P (H 1 )<br />

(5.22)<br />

aus Gleichung 5.21 die Sigmoid Funktion<br />

P (H 0 |x) =<br />

1<br />

. (5.23)<br />

1 + e−a Für die Substitution in Gleichung 5.22, die dem Liklihoodverhältnis aus Gleichung 5.8<br />

entspricht, erhält man mit 5.20<br />

a = w T x + w 0 (5.24)<br />

mit<br />

w 0 = − 1 2 ⃗µT 0<br />

∑ −1⃗µ0<br />

+ 1 2 ⃗µT 1<br />

w = ∑ −1<br />

(⃗µ0 − ⃗µ 1 ) (5.25)<br />

∑ −1⃗µ1<br />

+ ln P (H 0)<br />

P (H 1 ) . (5.26)<br />

Damit kann die Ausgabe eines neuronalen Netzwerks mit Sigmoid Aktivierungsfunktion<br />

als Posterior Wahrscheinlichkeit nach Bayes Theorem interpretiert werden [40]. Man erhält<br />

damit nicht nur eine einfache Separation, sondern eine Wahrscheinlichkeit für ein Ereignis,<br />

vom Typ H 0 oder H 1 zu sein.<br />

In der NeuroBayes R○ Software werden Bayes Methoden außerdem im Preprocessing angewandt.<br />

Hier werden die Eingangsparameter zur optimalen Verwendung im neuronalen<br />

Netz vorbereitet.<br />

Die NeuroBayes R○ Software ist zur Verwendung in zwei Teile geteilt. Zum einen existiert<br />

der NeuroBayes R○ Teacher, mit dem ein Netzwerk aufgebaut und trainiert werden kann.<br />

Das trainierte Netzwerk wird dann abgespeichert und kann über den NeuroBayes R○-Expert<br />

aufgerufen und für Analyseaufgaben verwendet werden.<br />

46

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!