14.09.2014 Views

Traitement et analyse de séries chronologiques continues de ...

Traitement et analyse de séries chronologiques continues de ...

Traitement et analyse de séries chronologiques continues de ...

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Partie 2 – Chapitre 5 : Les métho<strong>de</strong>s d’évaluation <strong>de</strong>s incertitu<strong>de</strong>s<br />

selon la distribution a posteriori <strong>de</strong> θ. De plus le calcul <strong>de</strong> la vraisemblance<br />

dépend également <strong>de</strong>s variables d’entrée du modèle, elles-mêmes sources<br />

d’incertitu<strong>de</strong>, ce qui explique l’écriture finale <strong>de</strong> la vraisemblance L(Y|θ,X,γ).<br />

- De même, la probabilité a priori <strong>de</strong> θ est potentiellement conditionnée par les<br />

caractéristiques attendue <strong>de</strong>s résidus, d’où la notation P(θ,γ).<br />

- De ce fait la probabilité a posteriori <strong>de</strong>s paramètres dépend elle-même <strong>de</strong>s<br />

valeurs <strong>de</strong> X <strong>et</strong> <strong>de</strong>s caractéristiques supposées γ <strong>de</strong>s résidus.<br />

- Le terme <strong>de</strong> proportionnalité est adopté dans la mesure où le numérateur <strong>de</strong> la<br />

formule initiale P(Y) est une constante qui n’intervient pas dans la mise en œuvre<br />

<strong>de</strong>s techniques numériques <strong>de</strong> simulation appliquées pour le calcul <strong>de</strong> la<br />

distribution a posteriori (voir paragraphe 5.3.4). C<strong>et</strong>te constante est parfois<br />

appelée constante <strong>de</strong> normalisation, dans la mesure où elle garantit que la valeur<br />

<strong>de</strong> la distribution a posteriori est inférieure à 1. c<strong>et</strong>te constante, que nous notons<br />

C, s’exprime selon le théorème <strong>de</strong>s probabilités totales <strong>de</strong> la manière suivante :<br />

<br />

C L Y | , X, P( , )<br />

<br />

j<br />

j<br />

Eq. 5.31<br />

j<br />

avec j la j-ème partition <strong>de</strong> l’ensemble <strong>de</strong>s valeurs possibles du jeu <strong>de</strong> paramètres θ.<br />

Nous avons adopté ici la forme discrète du théorème <strong>de</strong> Bayes, mais ce <strong>de</strong>rnier peut<br />

également s’exprimer sous forme continue :<br />

<br />

f , X, | Y<br />

post<br />

<br />

<br />

<br />

<br />

<br />

<br />

L Y | , X, f ( , )<br />

<br />

j<br />

pri<br />

L Y | , X, f ( , )<br />

pri<br />

Eq. 5.32<br />

avec f pri <strong>et</strong> f post les <strong>de</strong>nsités <strong>de</strong> probabilité a priori <strong>et</strong> a posteriori <strong>de</strong>s paramètres.<br />

Il nous semble important <strong>de</strong> préciser comme le rappelle Reichert (2009, p.196) que la<br />

statistique bayésienne partage les mêmes axiomes <strong>de</strong> probabilité que la statistique fréquentielle.<br />

C’est ainsi que la formule <strong>de</strong> vraisemblance estimée à partir <strong>de</strong>s observations selon le principe<br />

<strong>de</strong> la statistique fréquentielle est utilisée dans le cadre bayésien pour traduire le <strong>de</strong>gré <strong>de</strong><br />

confiance <strong>de</strong>s observations au vu <strong>de</strong>s valeurs <strong>de</strong>s jeux possibles <strong>de</strong> paramètres.<br />

5.3.1.3 Principe d’apprentissage<br />

Un autre intérêt <strong>de</strong> l’inférence bayésienne est le principe d’apprentissage. En eff<strong>et</strong>, pour un<br />

calage donné d’un modèle, la distribution a priori <strong>de</strong>s paramètres reflète la connaissance<br />

actuelle. Dans le cas d’un premier calage, celle-ci peut être assez vague, on parle dans ce cas<br />

d’une distribution a priori non informative. Mais si <strong>de</strong>s calages du modèle ont déjà été effectués<br />

antérieurement, la distribution a posteriori déterminée lors du calage précé<strong>de</strong>nt peut être utilisée<br />

comme nouvelle distribution a priori. Ainsi, en même temps que <strong>de</strong>s nouvelles observations<br />

sont disponibles, les calages successifs du modèle s’effectuent sur la base <strong>de</strong>s connaissances<br />

acquises à l’issue du calage précé<strong>de</strong>nt. Le modélisateur ne repart donc pas <strong>de</strong> zéro, ce qui<br />

potentiellement contribue à une meilleure efficacité <strong>et</strong> à une plus gran<strong>de</strong> rapidité du calage.<br />

65

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!