Traitement et analyse de séries chronologiques continues de ...

Traitement et analyse de séries chronologiques continues de ... Traitement et analyse de séries chronologiques continues de ...

theses.insa.lyon.fr
from theses.insa.lyon.fr More from this publisher
14.09.2014 Views

Partie 2 – Chapitre 5 : Les méthodes d’évaluation des incertitudes al. 1994), racine carrée ou puissance (Kuczera et Parent 1998) ou encore de type Box Cox permet ainsi de ramener des résidus hétéroscédastiques à une forme homoscédastique. Jusqu’à récemment, peu d’études ont proposé une vérification systématique des hypothèses sur les résidus. Cependant de plus en plus d’auteurs s’attardent à cette vérification en hydrologie urbaine pour la modélisation des débits e.g. (Xu 2001; Engeland et al. 2005; Laloy et al. 2010). En revanche la modélisation de la qualité des RUTP, aucune étude ne considère à notre connaissance cet aspect de manière rigoureuse. Cas des modèles linéaires Sous réserve que les hypothèses sur les résidus peuvent être vérifiées, l’application des méthodes statistiques au cas des modèles linéaire a l’avantage de la simplicité. Quelques réserves peuvent cependant être exprimées pour le cas de la régression de type Williamson. Si cette méthode permet de prendre en compte de manière exacte les incertitudes sur les données de calage, sa mise en œuvre nécessite l’implémentation de méthodes numériques et pour certains aspects théoriques, elle constitue encore un sujet de recherche (Journeaux 2009 ; Bertrand-Krajewski 2007b). La mise en œuvre des algorithmes MCMC La limite de la mise en œuvre des algorithmes MCMC est la validité de leur paramétrisation. L’utilisation récente d’algorithme MCMC (SCEM-UA, DREAM) nécessite une connaissance approfondie des statistiques et de la programmation. De plus les temps de calcul restent élevés, si les ordinateurs utilisés ne sont pas suffisamment performants et si l’implémentation de calculs en parallèle n’est pas mise en œuvre. Ces aspects représentent les limites actuelles principales à l’utilisation des algorithmes MCMC dans les études de recherche et encore davantage dans les études opérationnelles. Cependant certains logiciels de recherche intègrent déjà des algorithmes bayésiens. Par exemple, le logiciel MICA (Doherty 2003 cité par Deletic 2009) propose l’algorithme de Metropolis-Hastings. Par ailleurs, les algorithmes récemment développés par Vrugt et al. (2003 ; 2009) sont disponibles sur demande auprès des auteurs. La question des fonctions objectif multi-critères Une des critiques de l’approche bayésienne formelle souvent formulée par les utilisateurs convaincus de la méthode GLUE (voir paragraphe 5.4) porte sur l’impossibilité de prendre en compte une fonction multi-objectifs pour le calage du modèle. Il convient cependant d’éclaircir ce point. L’objectif d’une fonction multi-critères est de proposer un modèle capable de reproduire de manière pondérée plusieurs attentes du modélisateur : par exemple, une meilleure représentation des débits de pointe par rapport à celle des débits de base, ou encore une bonne reproduction à la fois des débits de pointe et des fortes concentrations. Cette méthode trouve son origine dans le constat qu’un modèle n’est pas capable de reproduire de manière adéquate l’ensemble des observations, aux différentes échelles de temps ou d’espace. A défaut d’obtenir un modèle parfait, le modélisateur cherche donc à orienter les performances du modèle suivant ses objectifs. Autrement dit, cela revient à accepter que certains types d’observations soient mieux reproduits que d’autres, ce que traduit la fonction multi-objectifs. 78

Partie 2 – Chapitre 5 : Les méthodes d’évaluation des incertitudes Or, par définition, l’approche statistique n’est pas basée sur la considération d’une fonction objectif mais sur la formulation d’une fonction de vraisemblance reflétant les caractéristiques attendues des résidus. La question qui se pose donc, d’un point de vue statistique, est la suivante : comment transcrire l’attente multi-objectifs du modélisateur sous la forme d’une fonction de vraisemblance des résidus, garantissant une estimation ultérieure valide des incertitudes sur les paramètres et les intervalles de prédiction ? Nous ne nous sommes pas intéressés à cette question de manière spécifique. Nous supposons que d’un point de vue statistique, cela suppose d’être capable, pour chaque ensemble de résidus considéré, d’estimer une forme adaptée de vraisemblance puis de combiner ces dernières dans une vraisemblance globale (e.g. Schaefli et al. 2007). Pour des ensembles de résidus indépendants, cette combinaison peut se faire par une simple multiplication. Dans le cas contraire il faut prendre en compte les corrélations existantes, et donc être capable de formuler des hypothèses sur leur nature. La question peut également être considérée de manière détournée, par exemple en n’utilisant que la partie des observations que l’on cherche à estimer le mieux possible pour effectuer le calage. Une autre possibilité consiste à effectuer des calages différents du modèle pour la reproduction de groupes d’observations différents, plutôt que de chercher à tout prix à caler un modèle unique. 5.4 L’approche GLUE Le paragraphe 5.4.1 présente le principe général de la méthode GLUE (Beven et Binley 1992). Le paragraphe 5.4.2 discute les choix adoptés dans la littérature pour les éléments subjectifs de la méthode, respectivement la likelihood informelle et le critère d’acceptabilité. Les avantages et limites de la méthode, notamment la question de la validité de son fondement théorique et de la manière dont elle est appliquée, sont ensuite discutés. Nous nous plaçons toujours dans le cas où la structure du modèle est fixée, et où les valeurs des paramètres sont les seules variables d’ajustement. 5.4.1 Principe de la méthode 5.4.1.1 Introduction générale Au contraire de l’approche statistique, l’approche proposée par Keith Beven (Beven et Binley 1992) rejette l’hypothèse de l’existence d’un jeu le plus probable. Elle est dérivée de la méthode d’analyse de sensibilité globale d’Hornberger et Spear (1981). Cette dernière appartient aux approches de calage de type « Monte Carlo set theoric approaches » ou « fuzzy set methods » (Spear et Hornberger 1980; Beck et Halfon 1991; Keesman et van Straten 1990; Spear et al. 1994) La méthode GLUE veut situer le problème de l’inférence des paramètres dans une perspective plus large. Il est ainsi fait l’hypothèse que des jeux équifinaux, c’est-à-dire donnant des résultats équivalents, peuvent exister à différents endroits de l’espace des paramètres, sans forcément converger vers un jeu « optimal » au sens statistique. L’ensemble des jeux possibles de l’espace des paramètres génère des simulations plus ou moins acceptables par rapport aux observations disponibles, avec certaines tellement mauvaises qu’elles sont rejetées. 79

Partie 2 – Chapitre 5 : Les métho<strong>de</strong>s d’évaluation <strong>de</strong>s incertitu<strong>de</strong>s<br />

Or, par définition, l’approche statistique n’est pas basée sur la considération d’une fonction<br />

objectif mais sur la formulation d’une fonction <strong>de</strong> vraisemblance reflétant les caractéristiques<br />

attendues <strong>de</strong>s résidus. La question qui se pose donc, d’un point <strong>de</strong> vue statistique, est la<br />

suivante : comment transcrire l’attente multi-objectifs du modélisateur sous la forme d’une<br />

fonction <strong>de</strong> vraisemblance <strong>de</strong>s résidus, garantissant une estimation ultérieure vali<strong>de</strong> <strong>de</strong>s<br />

incertitu<strong>de</strong>s sur les paramètres <strong>et</strong> les intervalles <strong>de</strong> prédiction ?<br />

Nous ne nous sommes pas intéressés à c<strong>et</strong>te question <strong>de</strong> manière spécifique. Nous<br />

supposons que d’un point <strong>de</strong> vue statistique, cela suppose d’être capable, pour chaque ensemble<br />

<strong>de</strong> résidus considéré, d’estimer une forme adaptée <strong>de</strong> vraisemblance puis <strong>de</strong> combiner ces<br />

<strong>de</strong>rnières dans une vraisemblance globale (e.g. Schaefli <strong>et</strong> al. 2007). Pour <strong>de</strong>s ensembles <strong>de</strong><br />

résidus indépendants, c<strong>et</strong>te combinaison peut se faire par une simple multiplication. Dans le cas<br />

contraire il faut prendre en compte les corrélations existantes, <strong>et</strong> donc être capable <strong>de</strong> formuler<br />

<strong>de</strong>s hypothèses sur leur nature.<br />

La question peut également être considérée <strong>de</strong> manière détournée, par exemple en n’utilisant<br />

que la partie <strong>de</strong>s observations que l’on cherche à estimer le mieux possible pour effectuer le<br />

calage. Une autre possibilité consiste à effectuer <strong>de</strong>s calages différents du modèle pour la<br />

reproduction <strong>de</strong> groupes d’observations différents, plutôt que <strong>de</strong> chercher à tout prix à caler un<br />

modèle unique.<br />

5.4 L’approche GLUE<br />

Le paragraphe 5.4.1 présente le principe général <strong>de</strong> la métho<strong>de</strong> GLUE (Beven <strong>et</strong> Binley<br />

1992). Le paragraphe 5.4.2 discute les choix adoptés dans la littérature pour les éléments<br />

subjectifs <strong>de</strong> la métho<strong>de</strong>, respectivement la likelihood informelle <strong>et</strong> le critère d’acceptabilité.<br />

Les avantages <strong>et</strong> limites <strong>de</strong> la métho<strong>de</strong>, notamment la question <strong>de</strong> la validité <strong>de</strong> son fon<strong>de</strong>ment<br />

théorique <strong>et</strong> <strong>de</strong> la manière dont elle est appliquée, sont ensuite discutés.<br />

Nous nous plaçons toujours dans le cas où la structure du modèle est fixée, <strong>et</strong> où les valeurs<br />

<strong>de</strong>s paramètres sont les seules variables d’ajustement.<br />

5.4.1 Principe <strong>de</strong> la métho<strong>de</strong><br />

5.4.1.1 Introduction générale<br />

Au contraire <strong>de</strong> l’approche statistique, l’approche proposée par Keith Beven (Beven <strong>et</strong><br />

Binley 1992) rej<strong>et</strong>te l’hypothèse <strong>de</strong> l’existence d’un jeu le plus probable. Elle est dérivée <strong>de</strong> la<br />

métho<strong>de</strong> d’<strong>analyse</strong> <strong>de</strong> sensibilité globale d’Hornberger <strong>et</strong> Spear (1981). C<strong>et</strong>te <strong>de</strong>rnière<br />

appartient aux approches <strong>de</strong> calage <strong>de</strong> type « Monte Carlo s<strong>et</strong> theoric approaches » ou « fuzzy<br />

s<strong>et</strong> m<strong>et</strong>hods » (Spear <strong>et</strong> Hornberger 1980; Beck <strong>et</strong> Halfon 1991; Keesman <strong>et</strong> van Straten 1990;<br />

Spear <strong>et</strong> al. 1994)<br />

La métho<strong>de</strong> GLUE veut situer le problème <strong>de</strong> l’inférence <strong>de</strong>s paramètres dans une<br />

perspective plus large. Il est ainsi fait l’hypothèse que <strong>de</strong>s jeux équifinaux, c’est-à-dire donnant<br />

<strong>de</strong>s résultats équivalents, peuvent exister à différents endroits <strong>de</strong> l’espace <strong>de</strong>s paramètres, sans<br />

forcément converger vers un jeu « optimal » au sens statistique. L’ensemble <strong>de</strong>s jeux possibles<br />

<strong>de</strong> l’espace <strong>de</strong>s paramètres génère <strong>de</strong>s simulations plus ou moins acceptables par rapport aux<br />

observations disponibles, avec certaines tellement mauvaises qu’elles sont rej<strong>et</strong>ées.<br />

79

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!