Traitement et analyse de séries chronologiques continues de ...
Traitement et analyse de séries chronologiques continues de ... Traitement et analyse de séries chronologiques continues de ...
Partie 2 – Chapitre 5 : Les méthodes d’évaluation des incertitudes l’infini, la même densité de probabilité. Autrement dit, elles constituent un échantillon de variables suivant une distribution stationnaire. Echantillonnage de la distribution a posteriori Le principe d’un échantillonnage par la méthode de Monte Carlo par Chaîne de Markov (MCMC) consiste à construire une chaîne de Markov convergeant vers la distribution a posteriori des paramètres. Il s’agit donc de la démarche inverse de celle où la fonction de transition est connue et la distribution stationnaire inconnue. Il s’agit dans notre cas de définir une fonction de transition qui permet d’échantillonner à chaque pas de la chaîne de Markov un jeu de paramètres selon la distribution a posteriori désirée. La taille de la chaîne simulée dépend ensuite du nombre d’itérations à partir duquel la chaîne converge, caractérisant la phase non stable préalable à la convergence, et de la taille de l’échantillon que désire le modélisateur pour estimer les caractéristiques de la probabilité a posteriori. Une moyenne de 10 000 jeux est en général considérée comme suffisante dans les études de modélisation. Il n’existe pas un choix unique pour la fonction de transition (appelée aussi noyau de transition). Différentes fonctions peuvent être utilisées dès lors qu’elles garantissent les caractéristiques d’ergodicité et de réversibilité de la chaîne. En notant f trans la densité de la fonction de transition, cette dernière doit vérifier les conditions suivantes : f post ftrans fpost (ergodicité) Eq. 5.35 , , f f f f (réversibilité) Eq. 5.36 trans i1 i post i trans i i1 post i1 La propriété d’ergodicité implique que si le jeu de paramètres à l’étape i de la séquence θ i suit la densité de probabilité f post (θ i ), et le jeu à l’étape suivante θ i+1 la densité f trans (θ i ,θ i+1 ), alors θ i+1 suit également la densité f post (θ i+1 ). Ainsi, la chaîne sera construite de manière symétrique quel que soit le sens de sa construction (réversibilité). Il faut de plus définir la valeur du jeu de paramètres initial, à partir duquel la chaîne est construite. Ce dernier a une influence directe sur la rapidité avec laquelle la chaîne converge. De ce point de vue, il est possible de construire plusieurs chaines de Markov en parallèle, initialisées en différents points de l’espace des paramètres, afin d’échantillonner correctement l’espace et de vérifier le moment à partir duquel les chaines convergent effectivement vers la même distribution. Les algorithmes MCMC Plusieurs algorithmes pour la mise en œuvre de la méthode MCMC sont actuellement disponibles dans la littérature, selon la manière dont est construit l’échantillon. Ces derniers diffèrent notamment selon les choix des éléments suivants : i) la fonction de transition, ii) le nombre de chaines de Markov construites, iii) le choix de la(des) valeur(s) du(des) jeu(x) initial(aux), iv) le critère de convergence adopté et v) la manière de sélectionner les jeux constituant l’échantillon final. Ces choix conditionnent la simplicité de l’algorithme mais aussi son efficacité, c’est-à-dire la rapidité avec laquelle la ou les chaîne(s) de Markov convergent et avec laquelle l’échantillon est construit. Pour une chaîne de Markov donnée, le principe commun de ces algorithmes consiste, à chaque état de la chaîne, à d’abord générer un candidat dans l’espace possible des paramètres. 72
Partie 2 – Chapitre 5 : Les méthodes d’évaluation des incertitudes Ce dernier est ensuite accepté ou rejeté de manière à garantir un échantillonnage suivant la distribution a posteriori. S’il est accepté, le jeu candidat incrémente la chaîne de Markov, sinon la chaîne est incrémentée par la même valeur que celle de l’état précédent. Ainsi les états de la chaîne où le point candidat est majoritairement rejeté correspondent à des points de vraisemblance élevés. Quelles que soient les méthodes, elles incluent des paramètres dont la bonne évaluation conditionne la validité et l’efficacité de l’algorithme. La réalisation d’un diagnostic de convergence a posteriori (voir paragraphe 5.3.4.5) s’avère ainsi indispensable pour une application rigoureuse de la méthode. 5.3.4.3 L’algorithme de Metropolis Le premier algorithme MCMC de la littérature est celui proposé en 1953 par Metropolis (Metropolis et al. 1953). Initialement développé pour la simulation des niveaux d’énergie des atomes dans une structure cristalline, il s’agit de l’algorithme le plus simple. Principe de l’algorithme Les points candidats sont générés suivant une loi de tirage symétrique, puis évalués suivant une probabilité d’acceptation. En notant θ 0 le jeu candidat et q et α ces deux probabilités, la fonction de transition de la chaîne f trans s’écrit à chaque état de la chaîne : f , q , , Eq. 5.37 trans i1 0 i1 0 i1 0 La propriété d’ergodicité de la chaîne est vérifiée si la loi q choisie est irréductible et apériodique (l’algorithme n’échantillonne pas de façon cyclique et aucune région de l’espace possible des paramètres n’échappe à son exploration). Des exemples de telles distributions sont la loi uniforme, la loi multi-normale centrée sur la valeur du jeu à partir duquel le candidat suivant est échantillonné ou encore la loi de Student (Brooks 1998). Les étapes de l’algorithme sont les suivantes : 1. Tirage d’un jeu de paramètres candidat θ 0 à partir de tirages symétriques q(θ i+1 , θ i ) 2. Evaluation de f post (θ 0 \Y) suivant le théorème de Bayes : post \ \ f Y L Y f Eq. 5.38 0 0 pri 0 3. Evaluation de la probabilité d’acceptation α(θ 0 , θ i ) du jeu θ 0 : , 0 f post 0 min ,1 f 1 i post i 4. Comparaison de α(θ 0 , θ i ) avec une variable uniforme U sur [0,1] : - Si α(θ 0 , θ i ) > U, alors on garde θ 0 , θ i+1 = θ 0 - Sinon, θ 0 est rejeté, θ i+1 = θ i 5. i = i + 1 Si i < N, retour à l’étape 1, sinon arrêt de l’algorithme. f f post post 0 0 0 0 Eq. 5.39 73
- Page 49 and 50: Partie 1 - Chapitre 2 : Approches d
- Page 51 and 52: Partie 1 - Chapitre 2 : Approches d
- Page 53 and 54: Partie 1 - Chapitre 2 : Approches d
- Page 55 and 56: Partie 1 - Chapitre 2 : Approches d
- Page 57: Partie 1 - Chapitre 2 : Approches d
- Page 60 and 61: Partie 1 - Chapitre 3 : Choix des a
- Page 62 and 63: Partie 1 - Chapitre 3 : Choix des a
- Page 65: Partie 2 Test des modèles et incer
- Page 68 and 69: Partie 2 - Test des modèles et inc
- Page 70 and 71: Partie 2 - Chapitre 4 : Le concept
- Page 72 and 73: Partie 2 - Chapitre 4 : Le concept
- Page 74 and 75: Partie 2 - Chapitre 4 : Le concept
- Page 76 and 77: Partie 2 - Chapitre 4 : Le concept
- Page 78 and 79: Partie 2 - Chapitre 4 : Le concept
- Page 80 and 81: Partie 2 - Chapitre 4 : Le concept
- Page 83 and 84: Partie 2 - Chapitre 5 : Les méthod
- Page 85 and 86: Partie 2 - Chapitre 5 : Les méthod
- Page 87 and 88: Partie 2 - Chapitre 5 : Les méthod
- Page 89 and 90: Partie 2 - Chapitre 5 : Les méthod
- Page 91 and 92: Partie 2 - Chapitre 5 : Les méthod
- Page 93 and 94: Partie 2 - Chapitre 5 : Les méthod
- Page 95 and 96: Partie 2 - Chapitre 5 : Les méthod
- Page 97 and 98: Partie 2 - Chapitre 5 : Les méthod
- Page 99: Partie 2 - Chapitre 5 : Les méthod
- Page 103 and 104: Partie 2 - Chapitre 5 : Les méthod
- Page 105 and 106: Partie 2 - Chapitre 5 : Les méthod
- Page 107 and 108: Partie 2 - Chapitre 5 : Les méthod
- Page 109 and 110: Partie 2 - Chapitre 5 : Les méthod
- Page 111 and 112: Partie 2 - Chapitre 5 : Les méthod
- Page 113 and 114: Partie 2 - Chapitre 5 : Les méthod
- Page 115 and 116: Partie 2 - Chapitre 5 : Les méthod
- Page 117 and 118: Partie 2 - Chapitre 6 : Test des mo
- Page 119 and 120: Partie 2 - Chapitre 6 : Test des mo
- Page 121 and 122: Partie 2 - Chapitre 6 : Test des mo
- Page 123 and 124: Partie 2 - Chapitre 6 : Test des mo
- Page 125 and 126: Partie 2 - Chapitre 6 : Test des mo
- Page 127: Partie 2 - Chapitre 6 : Test des mo
- Page 131: Partie 3 Construction de la base de
- Page 135 and 136: Partie 3 - Chapitre 7 : Présentati
- Page 137 and 138: Partie 3 - Chapitre 7 : Présentati
- Page 139 and 140: Partie 3 - Chapitre 7 : Présentati
- Page 141 and 142: Partie 3 - Chapitre 7 : Présentati
- Page 143 and 144: Partie 3 - Chapitre 8 : Traitement
- Page 145 and 146: Partie 3 - Chapitre 8 : Traitement
- Page 147 and 148: Partie 3 - Chapitre 8 : Traitement
- Page 149 and 150: Partie 3 - Chapitre 8 : Traitement
Partie 2 – Chapitre 5 : Les métho<strong>de</strong>s d’évaluation <strong>de</strong>s incertitu<strong>de</strong>s<br />
l’infini, la même <strong>de</strong>nsité <strong>de</strong> probabilité. Autrement dit, elles constituent un échantillon <strong>de</strong><br />
variables suivant une distribution stationnaire.<br />
Echantillonnage <strong>de</strong> la distribution a posteriori<br />
Le principe d’un échantillonnage par la métho<strong>de</strong> <strong>de</strong> Monte Carlo par Chaîne <strong>de</strong> Markov<br />
(MCMC) consiste à construire une chaîne <strong>de</strong> Markov convergeant vers la distribution a<br />
posteriori <strong>de</strong>s paramètres. Il s’agit donc <strong>de</strong> la démarche inverse <strong>de</strong> celle où la fonction <strong>de</strong><br />
transition est connue <strong>et</strong> la distribution stationnaire inconnue. Il s’agit dans notre cas <strong>de</strong> définir<br />
une fonction <strong>de</strong> transition qui perm<strong>et</strong> d’échantillonner à chaque pas <strong>de</strong> la chaîne <strong>de</strong> Markov un<br />
jeu <strong>de</strong> paramètres selon la distribution a posteriori désirée.<br />
La taille <strong>de</strong> la chaîne simulée dépend ensuite du nombre d’itérations à partir duquel la<br />
chaîne converge, caractérisant la phase non stable préalable à la convergence, <strong>et</strong> <strong>de</strong> la taille <strong>de</strong><br />
l’échantillon que désire le modélisateur pour estimer les caractéristiques <strong>de</strong> la probabilité a<br />
posteriori. Une moyenne <strong>de</strong> 10 000 jeux est en général considérée comme suffisante dans les<br />
étu<strong>de</strong>s <strong>de</strong> modélisation.<br />
Il n’existe pas un choix unique pour la fonction <strong>de</strong> transition (appelée aussi noyau <strong>de</strong><br />
transition). Différentes fonctions peuvent être utilisées dès lors qu’elles garantissent les<br />
caractéristiques d’ergodicité <strong>et</strong> <strong>de</strong> réversibilité <strong>de</strong> la chaîne. En notant f trans la <strong>de</strong>nsité <strong>de</strong> la<br />
fonction <strong>de</strong> transition, c<strong>et</strong>te <strong>de</strong>rnière doit vérifier les conditions suivantes :<br />
f<br />
post<br />
ftrans fpost<br />
(ergodicité) Eq. 5.35<br />
, , <br />
<br />
f f f f (réversibilité) Eq. 5.36<br />
trans i1 i post i trans i i1 post i1<br />
La propriété d’ergodicité implique que si le jeu <strong>de</strong> paramètres à l’étape i <strong>de</strong> la séquence θ i suit<br />
la <strong>de</strong>nsité <strong>de</strong> probabilité f post (θ i ), <strong>et</strong> le jeu à l’étape suivante θ i+1 la <strong>de</strong>nsité f trans (θ i ,θ i+1 ), alors<br />
θ i+1 suit également la <strong>de</strong>nsité f post (θ i+1 ). Ainsi, la chaîne sera construite <strong>de</strong> manière symétrique<br />
quel que soit le sens <strong>de</strong> sa construction (réversibilité).<br />
Il faut <strong>de</strong> plus définir la valeur du jeu <strong>de</strong> paramètres initial, à partir duquel la chaîne est<br />
construite. Ce <strong>de</strong>rnier a une influence directe sur la rapidité avec laquelle la chaîne converge.<br />
De ce point <strong>de</strong> vue, il est possible <strong>de</strong> construire plusieurs chaines <strong>de</strong> Markov en parallèle,<br />
initialisées en différents points <strong>de</strong> l’espace <strong>de</strong>s paramètres, afin d’échantillonner correctement<br />
l’espace <strong>et</strong> <strong>de</strong> vérifier le moment à partir duquel les chaines convergent effectivement vers la<br />
même distribution.<br />
Les algorithmes MCMC<br />
Plusieurs algorithmes pour la mise en œuvre <strong>de</strong> la métho<strong>de</strong> MCMC sont actuellement<br />
disponibles dans la littérature, selon la manière dont est construit l’échantillon. Ces <strong>de</strong>rniers<br />
diffèrent notamment selon les choix <strong>de</strong>s éléments suivants : i) la fonction <strong>de</strong> transition, ii) le<br />
nombre <strong>de</strong> chaines <strong>de</strong> Markov construites, iii) le choix <strong>de</strong> la(<strong>de</strong>s) valeur(s) du(<strong>de</strong>s) jeu(x)<br />
initial(aux), iv) le critère <strong>de</strong> convergence adopté <strong>et</strong> v) la manière <strong>de</strong> sélectionner les jeux<br />
constituant l’échantillon final. Ces choix conditionnent la simplicité <strong>de</strong> l’algorithme mais aussi<br />
son efficacité, c’est-à-dire la rapidité avec laquelle la ou les chaîne(s) <strong>de</strong> Markov convergent <strong>et</strong><br />
avec laquelle l’échantillon est construit.<br />
Pour une chaîne <strong>de</strong> Markov donnée, le principe commun <strong>de</strong> ces algorithmes consiste, à<br />
chaque état <strong>de</strong> la chaîne, à d’abord générer un candidat dans l’espace possible <strong>de</strong>s paramètres.<br />
72