Traitement et analyse de séries chronologiques continues de ...

Traitement et analyse de séries chronologiques continues de ... Traitement et analyse de séries chronologiques continues de ...

theses.insa.lyon.fr
from theses.insa.lyon.fr More from this publisher
14.09.2014 Views

Partie 2 – Chapitre 5 : Les méthodes d’évaluation des incertitudes l’infini, la même densité de probabilité. Autrement dit, elles constituent un échantillon de variables suivant une distribution stationnaire. Echantillonnage de la distribution a posteriori Le principe d’un échantillonnage par la méthode de Monte Carlo par Chaîne de Markov (MCMC) consiste à construire une chaîne de Markov convergeant vers la distribution a posteriori des paramètres. Il s’agit donc de la démarche inverse de celle où la fonction de transition est connue et la distribution stationnaire inconnue. Il s’agit dans notre cas de définir une fonction de transition qui permet d’échantillonner à chaque pas de la chaîne de Markov un jeu de paramètres selon la distribution a posteriori désirée. La taille de la chaîne simulée dépend ensuite du nombre d’itérations à partir duquel la chaîne converge, caractérisant la phase non stable préalable à la convergence, et de la taille de l’échantillon que désire le modélisateur pour estimer les caractéristiques de la probabilité a posteriori. Une moyenne de 10 000 jeux est en général considérée comme suffisante dans les études de modélisation. Il n’existe pas un choix unique pour la fonction de transition (appelée aussi noyau de transition). Différentes fonctions peuvent être utilisées dès lors qu’elles garantissent les caractéristiques d’ergodicité et de réversibilité de la chaîne. En notant f trans la densité de la fonction de transition, cette dernière doit vérifier les conditions suivantes : f post ftrans fpost (ergodicité) Eq. 5.35 , , f f f f (réversibilité) Eq. 5.36 trans i1 i post i trans i i1 post i1 La propriété d’ergodicité implique que si le jeu de paramètres à l’étape i de la séquence θ i suit la densité de probabilité f post (θ i ), et le jeu à l’étape suivante θ i+1 la densité f trans (θ i ,θ i+1 ), alors θ i+1 suit également la densité f post (θ i+1 ). Ainsi, la chaîne sera construite de manière symétrique quel que soit le sens de sa construction (réversibilité). Il faut de plus définir la valeur du jeu de paramètres initial, à partir duquel la chaîne est construite. Ce dernier a une influence directe sur la rapidité avec laquelle la chaîne converge. De ce point de vue, il est possible de construire plusieurs chaines de Markov en parallèle, initialisées en différents points de l’espace des paramètres, afin d’échantillonner correctement l’espace et de vérifier le moment à partir duquel les chaines convergent effectivement vers la même distribution. Les algorithmes MCMC Plusieurs algorithmes pour la mise en œuvre de la méthode MCMC sont actuellement disponibles dans la littérature, selon la manière dont est construit l’échantillon. Ces derniers diffèrent notamment selon les choix des éléments suivants : i) la fonction de transition, ii) le nombre de chaines de Markov construites, iii) le choix de la(des) valeur(s) du(des) jeu(x) initial(aux), iv) le critère de convergence adopté et v) la manière de sélectionner les jeux constituant l’échantillon final. Ces choix conditionnent la simplicité de l’algorithme mais aussi son efficacité, c’est-à-dire la rapidité avec laquelle la ou les chaîne(s) de Markov convergent et avec laquelle l’échantillon est construit. Pour une chaîne de Markov donnée, le principe commun de ces algorithmes consiste, à chaque état de la chaîne, à d’abord générer un candidat dans l’espace possible des paramètres. 72

Partie 2 – Chapitre 5 : Les méthodes d’évaluation des incertitudes Ce dernier est ensuite accepté ou rejeté de manière à garantir un échantillonnage suivant la distribution a posteriori. S’il est accepté, le jeu candidat incrémente la chaîne de Markov, sinon la chaîne est incrémentée par la même valeur que celle de l’état précédent. Ainsi les états de la chaîne où le point candidat est majoritairement rejeté correspondent à des points de vraisemblance élevés. Quelles que soient les méthodes, elles incluent des paramètres dont la bonne évaluation conditionne la validité et l’efficacité de l’algorithme. La réalisation d’un diagnostic de convergence a posteriori (voir paragraphe 5.3.4.5) s’avère ainsi indispensable pour une application rigoureuse de la méthode. 5.3.4.3 L’algorithme de Metropolis Le premier algorithme MCMC de la littérature est celui proposé en 1953 par Metropolis (Metropolis et al. 1953). Initialement développé pour la simulation des niveaux d’énergie des atomes dans une structure cristalline, il s’agit de l’algorithme le plus simple. Principe de l’algorithme Les points candidats sont générés suivant une loi de tirage symétrique, puis évalués suivant une probabilité d’acceptation. En notant θ 0 le jeu candidat et q et α ces deux probabilités, la fonction de transition de la chaîne f trans s’écrit à chaque état de la chaîne : f , q , , Eq. 5.37 trans i1 0 i1 0 i1 0 La propriété d’ergodicité de la chaîne est vérifiée si la loi q choisie est irréductible et apériodique (l’algorithme n’échantillonne pas de façon cyclique et aucune région de l’espace possible des paramètres n’échappe à son exploration). Des exemples de telles distributions sont la loi uniforme, la loi multi-normale centrée sur la valeur du jeu à partir duquel le candidat suivant est échantillonné ou encore la loi de Student (Brooks 1998). Les étapes de l’algorithme sont les suivantes : 1. Tirage d’un jeu de paramètres candidat θ 0 à partir de tirages symétriques q(θ i+1 , θ i ) 2. Evaluation de f post (θ 0 \Y) suivant le théorème de Bayes : post \ \ f Y L Y f Eq. 5.38 0 0 pri 0 3. Evaluation de la probabilité d’acceptation α(θ 0 , θ i ) du jeu θ 0 : , 0 f post 0 min ,1 f 1 i post i 4. Comparaison de α(θ 0 , θ i ) avec une variable uniforme U sur [0,1] : - Si α(θ 0 , θ i ) > U, alors on garde θ 0 , θ i+1 = θ 0 - Sinon, θ 0 est rejeté, θ i+1 = θ i 5. i = i + 1 Si i < N, retour à l’étape 1, sinon arrêt de l’algorithme. f f post post 0 0 0 0 Eq. 5.39 73

Partie 2 – Chapitre 5 : Les métho<strong>de</strong>s d’évaluation <strong>de</strong>s incertitu<strong>de</strong>s<br />

l’infini, la même <strong>de</strong>nsité <strong>de</strong> probabilité. Autrement dit, elles constituent un échantillon <strong>de</strong><br />

variables suivant une distribution stationnaire.<br />

Echantillonnage <strong>de</strong> la distribution a posteriori<br />

Le principe d’un échantillonnage par la métho<strong>de</strong> <strong>de</strong> Monte Carlo par Chaîne <strong>de</strong> Markov<br />

(MCMC) consiste à construire une chaîne <strong>de</strong> Markov convergeant vers la distribution a<br />

posteriori <strong>de</strong>s paramètres. Il s’agit donc <strong>de</strong> la démarche inverse <strong>de</strong> celle où la fonction <strong>de</strong><br />

transition est connue <strong>et</strong> la distribution stationnaire inconnue. Il s’agit dans notre cas <strong>de</strong> définir<br />

une fonction <strong>de</strong> transition qui perm<strong>et</strong> d’échantillonner à chaque pas <strong>de</strong> la chaîne <strong>de</strong> Markov un<br />

jeu <strong>de</strong> paramètres selon la distribution a posteriori désirée.<br />

La taille <strong>de</strong> la chaîne simulée dépend ensuite du nombre d’itérations à partir duquel la<br />

chaîne converge, caractérisant la phase non stable préalable à la convergence, <strong>et</strong> <strong>de</strong> la taille <strong>de</strong><br />

l’échantillon que désire le modélisateur pour estimer les caractéristiques <strong>de</strong> la probabilité a<br />

posteriori. Une moyenne <strong>de</strong> 10 000 jeux est en général considérée comme suffisante dans les<br />

étu<strong>de</strong>s <strong>de</strong> modélisation.<br />

Il n’existe pas un choix unique pour la fonction <strong>de</strong> transition (appelée aussi noyau <strong>de</strong><br />

transition). Différentes fonctions peuvent être utilisées dès lors qu’elles garantissent les<br />

caractéristiques d’ergodicité <strong>et</strong> <strong>de</strong> réversibilité <strong>de</strong> la chaîne. En notant f trans la <strong>de</strong>nsité <strong>de</strong> la<br />

fonction <strong>de</strong> transition, c<strong>et</strong>te <strong>de</strong>rnière doit vérifier les conditions suivantes :<br />

f<br />

post<br />

ftrans fpost<br />

(ergodicité) Eq. 5.35<br />

, , <br />

<br />

f f f f (réversibilité) Eq. 5.36<br />

trans i1 i post i trans i i1 post i1<br />

La propriété d’ergodicité implique que si le jeu <strong>de</strong> paramètres à l’étape i <strong>de</strong> la séquence θ i suit<br />

la <strong>de</strong>nsité <strong>de</strong> probabilité f post (θ i ), <strong>et</strong> le jeu à l’étape suivante θ i+1 la <strong>de</strong>nsité f trans (θ i ,θ i+1 ), alors<br />

θ i+1 suit également la <strong>de</strong>nsité f post (θ i+1 ). Ainsi, la chaîne sera construite <strong>de</strong> manière symétrique<br />

quel que soit le sens <strong>de</strong> sa construction (réversibilité).<br />

Il faut <strong>de</strong> plus définir la valeur du jeu <strong>de</strong> paramètres initial, à partir duquel la chaîne est<br />

construite. Ce <strong>de</strong>rnier a une influence directe sur la rapidité avec laquelle la chaîne converge.<br />

De ce point <strong>de</strong> vue, il est possible <strong>de</strong> construire plusieurs chaines <strong>de</strong> Markov en parallèle,<br />

initialisées en différents points <strong>de</strong> l’espace <strong>de</strong>s paramètres, afin d’échantillonner correctement<br />

l’espace <strong>et</strong> <strong>de</strong> vérifier le moment à partir duquel les chaines convergent effectivement vers la<br />

même distribution.<br />

Les algorithmes MCMC<br />

Plusieurs algorithmes pour la mise en œuvre <strong>de</strong> la métho<strong>de</strong> MCMC sont actuellement<br />

disponibles dans la littérature, selon la manière dont est construit l’échantillon. Ces <strong>de</strong>rniers<br />

diffèrent notamment selon les choix <strong>de</strong>s éléments suivants : i) la fonction <strong>de</strong> transition, ii) le<br />

nombre <strong>de</strong> chaines <strong>de</strong> Markov construites, iii) le choix <strong>de</strong> la(<strong>de</strong>s) valeur(s) du(<strong>de</strong>s) jeu(x)<br />

initial(aux), iv) le critère <strong>de</strong> convergence adopté <strong>et</strong> v) la manière <strong>de</strong> sélectionner les jeux<br />

constituant l’échantillon final. Ces choix conditionnent la simplicité <strong>de</strong> l’algorithme mais aussi<br />

son efficacité, c’est-à-dire la rapidité avec laquelle la ou les chaîne(s) <strong>de</strong> Markov convergent <strong>et</strong><br />

avec laquelle l’échantillon est construit.<br />

Pour une chaîne <strong>de</strong> Markov donnée, le principe commun <strong>de</strong> ces algorithmes consiste, à<br />

chaque état <strong>de</strong> la chaîne, à d’abord générer un candidat dans l’espace possible <strong>de</strong>s paramètres.<br />

72

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!