24.06.2013 Views

Traitement automatique du signal ECG pour l'aide au diagnostic de ...

Traitement automatique du signal ECG pour l'aide au diagnostic de ...

Traitement automatique du signal ECG pour l'aide au diagnostic de ...

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

CHAPITRE 3. EFFET DU SOUS-ÉCHANTILLONNAGE 28<br />

L’hypothèse <strong>de</strong>s variances communes c<strong>au</strong>se l’annulation <strong>du</strong> facteur <strong>de</strong> normalisation<br />

et <strong>de</strong> la partie quadratique <strong>de</strong> l’exponentielle <strong>de</strong> l’Equation (3.13).<br />

La frontière <strong>de</strong> décision entre les classes c et l sera donc linéaire. La région où<br />

P r(H = c|X = x) = P r(H = l|X = x) sera linéaire en x, et en p dimensions<br />

sera un hyperplan. Il en va <strong>de</strong> même <strong>pour</strong> toutes les frontières <strong>de</strong> décision entre<br />

<strong>de</strong>ux classes prises <strong>de</strong>ux à <strong>de</strong>ux.<br />

On peut voir que l’Equation (3.15) et la fonction discriminante linéaire yc(x)<br />

yc(x) = x T Σ −1 µ T c − 1<br />

2 µT c Σ −1 µ c + log πc<br />

(3.16)<br />

sont équivalentes en termes <strong>de</strong> décision, avec H(x) = argmaxc yc(x).<br />

En pratique on ne connait pas les paramètres <strong>de</strong> la distribution g<strong>au</strong>ssienne, et<br />

on les estime donc grâce à nos données, en veillant à ce que les expressions <strong>de</strong>s<br />

estimateurs maximisent la vraisemblance :<br />

ˆπc = Nc/N (3.17)<br />

Nc <br />

ˆµ c = xi/Nc<br />

ˆΣc =<br />

i=1<br />

C Nc <br />

c=1 i=1<br />

(3.18)<br />

(xi − ˆµ c)(xi − ˆµ c)) T /(N − C), (3.19)<br />

où Nc est le nombre <strong>de</strong> battements dans la classe c. Une fois les probabilités<br />

à postériori connues <strong>pour</strong> chaque classe, le classifieur attribue l’échantillon à la<br />

classe la plus probable.<br />

Pour un LDA non-pondéré, expliqué dans [17], la vraisemblance est définie<br />

comme :<br />

V =<br />

C<br />

Nc <br />

c=1 n=1<br />

log(gc(x, µ c, Σ)), (3.20)<br />

où C est le nombre <strong>de</strong> classes, Nc le nombre <strong>de</strong> données d’entraînement dans<br />

la classe c, et gk(x, µc, Σ) est la valeur <strong>de</strong> la distribution g<strong>au</strong>ssienne <strong>de</strong> moyenne<br />

ˆµ et <strong>de</strong> covariance commune ˆ Σ.<br />

Or, la proportion relative <strong>de</strong>s classes influence un tel classifieur : si une classe domine<br />

les données d’entrainement, alors le classifieur est h<strong>au</strong>tement influencé par<br />

ces classes [1], [28]. Une solution <strong>pour</strong> contrer ce phénomène a été étudiée dans<br />

[17]. Elle consiste à pondérer les contributions <strong>de</strong> chaque donnée d’apprentissage.<br />

Pour un LDA pondéré, la vraisemblance s’écrit donc :<br />

C Nc <br />

V = ωc log(gc(x, µ c, Σ)). (3.21)<br />

c=1 n=1

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!