24.06.2013 Views

Traitement automatique du signal ECG pour l'aide au diagnostic de ...

Traitement automatique du signal ECG pour l'aide au diagnostic de ...

Traitement automatique du signal ECG pour l'aide au diagnostic de ...

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

CHAPITRE 3. EFFET DU SOUS-ÉCHANTILLONNAGE 26<br />

naturellement bien meilleurs que <strong>pour</strong> ce second paradigme, mais en situation<br />

réelle, les battements annotés ne sont généralement pas disponibles <strong>pour</strong> tous<br />

les patients. Ce mémoire suit donc le second paradigme.<br />

Un <strong>au</strong>tre élément doit être intro<strong>du</strong>it : la validation croisée (ou cross-validation<br />

en anglais). Lorsque l’on utilise certains modèles, on doit estimer <strong>de</strong>s paramètres<br />

mais <strong>au</strong>ssi <strong>de</strong>s hyper-paramètres, qui conditionnent la complexité <strong>du</strong> modèle.<br />

A titre d’exemple, si l’on veut approximer une fonction y par<br />

y =<br />

N<br />

ai ∗ x i , (3.11)<br />

i=0<br />

où les ai sont <strong>de</strong>s paramètres et N est un hyper-paramètre.<br />

Dans notre cas, les coefficients <strong>de</strong>s frontières <strong>de</strong> classification <strong>du</strong> classifieur LDA<br />

sont <strong>de</strong>s paramètres (voir Section 3.1.5). Tandis que le nombre <strong>de</strong> battements<br />

norm<strong>au</strong>x après rééchantillonnage K (on notera que le nombre <strong>de</strong> centroï<strong>de</strong>s et<br />

<strong>de</strong> battements après rééchantillonnage sont les mêmes) et les caractéristiques<br />

sélectionnées (et leur nombre) sont <strong>de</strong>s hyper-paramètres.<br />

Pour estimer ces <strong>de</strong>rniers, on doit utiliser une partie <strong>de</strong> l’ensemble d’apprentissage<br />

et pas l’ensemble <strong>de</strong> test puisqu’on le réserve <strong>pour</strong> évaluer les performances<br />

indépendamment. On gar<strong>de</strong> donc habituellement une partie <strong>de</strong> l’ensemble<br />

d’apprentissage <strong>pour</strong> estimer les paramètres (le nouvel ensemble d’entrainement)<br />

et l’<strong>au</strong>tre partie sert à estimer les hyper-paramètres (on appelle cette<br />

partie l’ensemble <strong>de</strong> validation).<br />

Dans bon nombre d’applications, on désire utiliser <strong>au</strong> maximum les données disponibles.<br />

On ne se contente pas <strong>de</strong> diviser les données en trois parties (ensemble<br />

d’apprentissage, <strong>de</strong> validation et <strong>de</strong> test) mais on utilise une technique <strong>de</strong> validation<br />

croisée, par exemple le leave-one-out [23] :<br />

Les données sont divisées en ensembles d’apprentissage et <strong>de</strong> test. Celles d’apprentissage<br />

sont alors divisées par patient. Ensuite tous les patients s<strong>au</strong>f un sont<br />

utilisés <strong>pour</strong> entrainer un modèle et celui-ci est évalué avec les données <strong>du</strong> <strong>de</strong>rnier<br />

patient. Cette procé<strong>du</strong>re est répétée en changeant le patient servant à évaluer<br />

les performances. Lorsque chaque patient a servi à évaluer une fois, les performances<br />

obtenues sont alors moyennées. La Table 3.3 présente un pseudo-co<strong>de</strong><br />

<strong>pour</strong> la validation croisée par leave-one-out.<br />

3.1.5 Classification supervisée<br />

Deux classifieurs ont été utilisés. L’Analyse Discriminante Linéaire (LDA en<br />

anglais) et un LDA pondéré issu <strong>de</strong> la littérature [17]. L’avantage <strong>de</strong> ces <strong>de</strong>ux<br />

classifieurs est qu’ils ont une closed-form solution, qu’ils sont rapi<strong>de</strong>s et qu’il n’y<br />

a pas <strong>de</strong> paramètre supplémentaire à ajuster. Les désavantages sont qu’ils sont<br />

linéaires, et sensibles <strong>au</strong>x outliers. En effet, ce sont <strong>de</strong>s modèles génératifs qui<br />

stipulent la g<strong>au</strong>ssianité <strong>de</strong>s classes, et estimer une g<strong>au</strong>ssienne revient à estimer<br />

la moyenne et l’écart-type, qui sont fort influencés par les outliers. Commençons

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!