Traitement automatique du signal ECG pour l'aide au diagnostic de ...
Traitement automatique du signal ECG pour l'aide au diagnostic de ...
Traitement automatique du signal ECG pour l'aide au diagnostic de ...
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
CHAPITRE 3. EFFET DU SOUS-ÉCHANTILLONNAGE 28<br />
L’hypothèse <strong>de</strong>s variances communes c<strong>au</strong>se l’annulation <strong>du</strong> facteur <strong>de</strong> normalisation<br />
et <strong>de</strong> la partie quadratique <strong>de</strong> l’exponentielle <strong>de</strong> l’Equation (3.13).<br />
La frontière <strong>de</strong> décision entre les classes c et l sera donc linéaire. La région où<br />
P r(H = c|X = x) = P r(H = l|X = x) sera linéaire en x, et en p dimensions<br />
sera un hyperplan. Il en va <strong>de</strong> même <strong>pour</strong> toutes les frontières <strong>de</strong> décision entre<br />
<strong>de</strong>ux classes prises <strong>de</strong>ux à <strong>de</strong>ux.<br />
On peut voir que l’Equation (3.15) et la fonction discriminante linéaire yc(x)<br />
yc(x) = x T Σ −1 µ T c − 1<br />
2 µT c Σ −1 µ c + log πc<br />
(3.16)<br />
sont équivalentes en termes <strong>de</strong> décision, avec H(x) = argmaxc yc(x).<br />
En pratique on ne connait pas les paramètres <strong>de</strong> la distribution g<strong>au</strong>ssienne, et<br />
on les estime donc grâce à nos données, en veillant à ce que les expressions <strong>de</strong>s<br />
estimateurs maximisent la vraisemblance :<br />
ˆπc = Nc/N (3.17)<br />
Nc <br />
ˆµ c = xi/Nc<br />
ˆΣc =<br />
i=1<br />
C Nc <br />
c=1 i=1<br />
(3.18)<br />
(xi − ˆµ c)(xi − ˆµ c)) T /(N − C), (3.19)<br />
où Nc est le nombre <strong>de</strong> battements dans la classe c. Une fois les probabilités<br />
à postériori connues <strong>pour</strong> chaque classe, le classifieur attribue l’échantillon à la<br />
classe la plus probable.<br />
Pour un LDA non-pondéré, expliqué dans [17], la vraisemblance est définie<br />
comme :<br />
V =<br />
C<br />
Nc <br />
c=1 n=1<br />
log(gc(x, µ c, Σ)), (3.20)<br />
où C est le nombre <strong>de</strong> classes, Nc le nombre <strong>de</strong> données d’entraînement dans<br />
la classe c, et gk(x, µc, Σ) est la valeur <strong>de</strong> la distribution g<strong>au</strong>ssienne <strong>de</strong> moyenne<br />
ˆµ et <strong>de</strong> covariance commune ˆ Σ.<br />
Or, la proportion relative <strong>de</strong>s classes influence un tel classifieur : si une classe domine<br />
les données d’entrainement, alors le classifieur est h<strong>au</strong>tement influencé par<br />
ces classes [1], [28]. Une solution <strong>pour</strong> contrer ce phénomène a été étudiée dans<br />
[17]. Elle consiste à pondérer les contributions <strong>de</strong> chaque donnée d’apprentissage.<br />
Pour un LDA pondéré, la vraisemblance s’écrit donc :<br />
C Nc <br />
V = ωc log(gc(x, µ c, Σ)). (3.21)<br />
c=1 n=1