avtomatska analiza gibanja v izbranih moštvenih športnih igrah
avtomatska analiza gibanja v izbranih moštvenih športnih igrah avtomatska analiza gibanja v izbranih moštvenih športnih igrah
130 Dodatek p(xj|Θ) = = K αk · N(xj|θk) k=1 K k=1 αk (2π) n/2 |Σk| n/2e−1 2 (xj−µk) TΣ − k 1(xj −µk) . (C.1) Če predpostavimo, da so posamezni vzorci iz mnoˇzice X medsebojno neodvisni, lahko zapiˇsemo verjetnost p(X|Θ) za vzorce iz mnoˇzice X pri pogoju Θ oziroma verjetje za parametre Θ pri mnoˇzici vzorcev X kot p(X|Θ) = = N p(xj) j=1 N K j=1 k=1 Logaritem tega verjetja pa zapiˇsemo kot L(Θ) = = N log(p(xj)) k=1 N K log( k=1 k=1 αk (2π) n/2 |Σk| n/2e−1 2 (xj−µk) TΣ −1 k (xj−µk) . (C.2) αk (2π) n/2 |Σk| n/2e−1 2 (xj−µk) TΣ − k 1(xj−µk) ). (C.3) Vsako iteracijo algoritma EM sestavljata dva koraka: E-korak in M-korak [92]. V E-koraku izračunamo vpliv posamezne komponente GMM modela na posamezen vzorec iz mnoˇzice X. V M-koraku pa izboljˇsamo oceno parametrov modela na podlagi ocene pogojne verjetnosti v E-koraku. • E-korak: Predpostavimo, da imamo v neki iteraciji algoritma porazdelitev s parametri µk in kovariančno matriko Σk, ki je uteˇzena z uteˇzjo αk. Potem lahko izračunamo prispevek te komponente k celotni verjetnosti p(xj|Σk) kot pjk = αk p(xj|Σk) K . (C.4) p(xj|Σi) i=1
C.2 Metoda podpornih vektorjev (ang. Support Vector Machine - SVM) 131 • M-korak: Po izračunanem prispevku posameznih komponent lahko izračunamo nove parametre k-te komponente kot Σ i+1 k = N j=1 α i+1 k = 1 N µ i+1 k = N N pjk. (C.5) j=1 pjkxj j=1 N pjk k=1 pjk(xj − µ i+1 k ) T Σ −1 k (xj − µ i+1 k ) N pjk k=1 . (C.6) . (C.7) Začetne vrednosti parametrov porazdelitve lahko izberemo poljubno, čeprav se najpogosteje za izračun začetnih parametrov uporablja metoda K-tih povprečij (ang. K-means) [69], na podlagi katere določimo začetnih K razredov vzorcev. Nato za vsakega izmed razredov izračunamo srednjo vrednot µ 0 k in kovariančno matriko Σ0 k . V primeru, da nimamo na voljo boljˇse ocene uteˇzi αk, le-te določimo kot αk = 1/N. Postopek ocenjevanja parametrov ponavljamo, dokler je sprememba Logaritma verjetja med dvema zaporednima iteracijama L(Θ i ) − L(Θ i+1 ) večja od naprej izbranega praga ε. C.2 Metoda podpornih vektorjev (ang. Support Vector Machine - SVM) Metoda podpornih vektorjev je eno izmed osnovnih metod za binarno klasifikacijo podatkov [62, 63, 64, 65, 93], ki je bila prvič predstavljena ˇze leta 1963 [94]. Glavni cilj metode je v n-dimenzionalnem prostoru poiskati hiperravnino (ang. hyperplane), s katero je mogoče optimalno ločiti dva razreda vzorcev. Pri tem skuˇsamo v postopku optimizacije poiskati tisto hiperravnino, s katero je mogoče doseči maksimalno razdaljo med razredoma, s čimer doseˇzemo najboljˇso generalizacijo razvrˇsčanja.
- Page 98 and 99: 80 Ocenjevanje izvedbe aktivnosti z
- Page 100 and 101: 82 Ocenjevanje izvedbe aktivnosti z
- Page 102 and 103: 84 Ocenjevanje izvedbe aktivnosti z
- Page 104 and 105: 86 Ocenjevanje izvedbe aktivnosti z
- Page 106 and 107: 88 Ocenjevanje izvedbe aktivnosti z
- Page 108 and 109: 90 Ocenjevanje izvedbe aktivnosti z
- Page 110 and 111: 92 Ocenjevanje izvedbe aktivnosti z
- Page 112 and 113: 94 Ocenjevanje izvedbe aktivnosti z
- Page 114 and 115: 96 Ocenjevanje izvedbe aktivnosti z
- Page 116 and 117: 98 Ocenjevanje izvedbe aktivnosti z
- Page 118 and 119: Poglavje 6 Prototipni sistem za ana
- Page 120 and 121: 102 Prototipni sistem za analizo mo
- Page 122 and 123: 104 Prototipni sistem za analizo mo
- Page 124 and 125: 106 Zaključki Prispevek 1: Metoda
- Page 126 and 127: 108 Zaključki je mogoče iz ˇsabl
- Page 128 and 129: Literatura 110 [1] L. Wang, W. Hu,
- Page 130 and 131: 112 Literatura Bayesian networks. C
- Page 132 and 133: 114 Literatura [39] F. Li. Descript
- Page 134 and 135: 116 Literatura [59] W. S. Erdmann.
- Page 136 and 137: 118 Literatura [81] Kurt Jensen. Co
- Page 138 and 139: 120 Literatura [104] Nikola Paveˇs
- Page 140 and 141: 122 Dodatek ˇSablona ”Motion”
- Page 142 and 143: 124 Dodatek ˇSablona ”Middle”
- Page 144 and 145: 126 Dodatek Aktivnost Korespondenca
- Page 146 and 147: 128 Dodatek ˇSablone akt 52 fl mot
- Page 150 and 151: 132 Dodatek C.2.1 Linearna klasifik
- Page 152 and 153: 134 Dodatek −γ||xi−xj|| 2 KRBF
- Page 154 and 155: 136 Dodatek tega pa predvidimo tudi
- Page 156 and 157: 138 Dodatek pa spremenljivka zavzam
- Page 158 and 159: 140 Dodatek • preslikava I : P
- Page 160 and 161: 142 Dodatek koraku lahko tako pride
- Page 162 and 163: 144 Dodatek
- Page 164 and 165: 146 Izobrazba ˇ Zivljenjepis 1998
- Page 166 and 167: 148 Objavljena dela [7] M. Perˇse,
- Page 168 and 169: 150 Objavljena dela [22] J. Perˇs,
C.2 Metoda podpornih vektorjev (ang. Support Vector Machine - SVM) 131<br />
• M-korak: Po izračunanem prispevku posameznih komponent lahko<br />
izračunamo nove parametre k-te komponente kot<br />
Σ i+1<br />
k =<br />
N<br />
j=1<br />
α i+1<br />
k<br />
= 1<br />
N<br />
µ i+1<br />
k =<br />
N<br />
N<br />
pjk. (C.5)<br />
j=1<br />
pjkxj<br />
j=1<br />
N<br />
pjk<br />
k=1<br />
pjk(xj − µ i+1<br />
k ) T Σ −1<br />
k (xj − µ i+1<br />
k )<br />
N<br />
pjk<br />
k=1<br />
. (C.6)<br />
. (C.7)<br />
Začetne vrednosti parametrov porazdelitve lahko izberemo poljubno, čeprav<br />
se najpogosteje za izračun začetnih parametrov uporablja metoda K-tih povprečij<br />
(ang. K-means) [69], na podlagi katere določimo začetnih K razredov vzorcev.<br />
Nato za vsakega izmed razredov izračunamo srednjo vrednot µ 0 k in kovariančno<br />
matriko Σ0 k . V primeru, da nimamo na voljo boljˇse ocene uteˇzi αk, le-te določimo<br />
kot αk = 1/N.<br />
Postopek ocenjevanja parametrov ponavljamo, dokler je sprememba<br />
Logaritma verjetja med dvema zaporednima iteracijama L(Θ i ) − L(Θ i+1 ) večja<br />
od naprej izbranega praga ε.<br />
C.2 Metoda podpornih vektorjev<br />
(ang. Support Vector Machine - SVM)<br />
Metoda podpornih vektorjev je eno izmed osnovnih metod za binarno klasifikacijo<br />
podatkov [62, 63, 64, 65, 93], ki je bila prvič predstavljena ˇze leta 1963 [94].<br />
Glavni cilj metode je v n-dimenzionalnem prostoru poiskati hiperravnino (ang.<br />
hyperplane), s katero je mogoče optimalno ločiti dva razreda vzorcev. Pri<br />
tem skuˇsamo v postopku optimizacije poiskati tisto hiperravnino, s katero je<br />
mogoče doseči maksimalno razdaljo med razredoma, s čimer doseˇzemo najboljˇso<br />
generalizacijo razvrˇsčanja.