Table des matières - Gilles Daniel
Table des matières - Gilles Daniel Table des matières - Gilles Daniel
68 Modélisation et simulation multi-agents pour Sciences de l'Homme et de la Société. sensibilités relatives et normalisées sont identiques au facteur "taille de la population au dernier pas de temps" près. La taille maximale est en tête, suivie par le très inattendu seuil de fécondité. Le taux de croissance et la survie adulte viennent ensuite. Cela signifie que, autour de leur valeur de référence, ces paramètres ont une grande influence sur la sortie et doivent être déterminés avec soin. A l'opposé, la taille de la population est moins sensible à la fécondité et à la survie juvénile, ce qui était également surprenant pour les biologistes. Mais tout l'intérêt d'une analyse de sensibilité tient précisément dans ce genre de résultat : elle remet souvent en question les idées préconçues que l'on se fait sur le modèle ! 3.3.2. Signatures individuelles Nous avons vu que les coefficients de sensibilité ont une valeur locale et qu'il est important d'explorer leur évolution lorsqu'on s'éloigne du point de fonctionnement de référence du modèle. Une manière très simple est de s'intéresser à chaque paramètre à tour de rôle en construisant les graphes donnant la (les) sortie(s) du modèle en fonction de chaque paramètre, les autres paramètres étant fixés à leur valeur de référence. Et ceci pour une gamme assez large de valeurs pour chaque paramètre, bien souvent la gamme de valeurs biologiquement (ou sociologiquement) acceptables. Ce graphe représente ce que nous appellerons la signature individuelle du paramètre. Comme déjà dit, la sensibilité est alors donnée par la pente de la courbe (figure 3.2). Une courbe rectiligne indique que la sensibilité est indépendante de la valeur du paramètre. Le modèle étant stochastique, les répétitions donnent une mesure de la variabilité. L’étude des signatures individuelles sert également à préparer les analyses globales que nous étudierons plus loin. Ces analyses seront d'autant plus faciles à conduire et à interpréter que les signatures individuelles seront plus linéaires et de variance constante. Il peut donc être intéressant de transformer les données pour améliorer ces propriétés, soit en transformant la sortie, soit, et on n’y pense pas toujours, en transformant l'échelle d'un paramètre. Dans la pratique, la transformation logarithmique (ou plus rarement exponentielle) est la plus utilisée, dans la mesure où elle s'interprète comme le passage d'une échelle multiplicative à une échelle additive (ou inversement). Sur le modèle Gambusies, nous verrons que la transformation logarithmique de la sortie est effectivement bien adaptée. On peut ici aussi utiliser la variante de Monte Carlo qui consiste à faire varier tous les paramètres simultanément dans toute leur gamme de variation. La pente de la tendance donne alors la sensibilité moyenne, et la variabilité est due à l'effet des autres paramètres, en plus de la stochasticité éventuellement liée au modèle. Ceci permet de détecter d'éventuelles non-monotonies dans les interactions entre les paramètres. Remarquons qu'avec cette variante, on est déjà dans le domaine des analyses "globales" que nous étudierons plus spécifiquement plus loin.
Explorer les modèles par simulation : application aux analyses de sensibilité. 69 Figure 3.2. Sensibilités locales. Signatures individuelles des paramètres pour la sortie "population totale" au dernier pas de temps du modèle Gambusies. 3.3.3. Grand nombre de paramètres, grand nombre de variables Lorsqu'on est en présence d'un grand nombre de paramètres ou de variables, il peut être utile de faire appel aux techniques d'analyses multivariées qui permettent notamment de regrouper les paramètres qui ont des comportements voisins. Un exemple en est donné par [VAN 02] sur un modèle individus-centré d'écosystème lacustre. Leur modèle est stochastique et comprend une quinzaine de variables et près de 400 paramètres. Ils ont donc opté pour un calcul de type Monte Carlo avec un tirage aléatoire de 10 000 jeux de paramètres, tous les paramètres fluctuant de ± 10% autour de leur valeur de référence, puis ont calculé les sensibilités relatives selon [3.7] pour les 15 sorties à 12 pas de temps différents. Après avoir éliminé les paramètres qui n'ont que peu d'action sur leurs sorties, ils ont retenu 51 paramètres pour une classification hiérarchique (figure 3.3). Il faut ensuite choisir un niveau de découpe pour regrouper les paramètres. Les auteurs ont retenu un niveau assez grossier conduisant à 5 classes de paramètres. Ils ont ensuite retenu un paramètre représentatif pour chaque groupe, et édité les graphes donnant les sensibilités des différentes sorties à ces paramètres pour chaque pas de temps (non figuré). On a ainsi une idée de l'effet de chaque paramètre sur les sorties du modèle, via le groupe auquel il appartient. Une alternative à la classification, à laquelle on peut reprocher une certaine sensibilité au choix de la distance entre points et entre groupes, est l'analyse en composantes principales. Elle donne une représentation plus visuelle des proximités
- Page 13 and 14: Concepts et méthodologies multi-ag
- Page 15 and 16: Concepts et méthodologies multi-ag
- Page 17 and 18: Concepts et méthodologies multi-ag
- Page 19 and 20: Concepts et méthodologies multi-ag
- Page 21 and 22: Concepts et méthodologies multi-ag
- Page 23 and 24: Concepts et méthodologies multi-ag
- Page 25 and 26: Concepts et méthodologies multi-ag
- Page 27 and 28: Concepts et méthodologies multi-ag
- Page 29 and 30: Concepts et méthodologies multi-ag
- Page 31 and 32: Concepts et méthodologies multi-ag
- Page 33 and 34: Chapitre 2 Introduction à la modé
- Page 35 and 36: Introduction à la modélisation et
- Page 37 and 38: Introduction à la modélisation et
- Page 39 and 40: Introduction à la modélisation et
- Page 41 and 42: Introduction à la modélisation et
- Page 43 and 44: Introduction à la modélisation et
- Page 45 and 46: Introduction à la modélisation et
- Page 47 and 48: Introduction à la modélisation et
- Page 49 and 50: Introduction à la modélisation et
- Page 51 and 52: Introduction à la modélisation et
- Page 53 and 54: Introduction à la modélisation et
- Page 55 and 56: Introduction à la modélisation et
- Page 57 and 58: Chapitre 3 Explorer les modèles pa
- Page 59 and 60: Explorer les modèles par simulatio
- Page 61 and 62: Explorer les modèles par simulatio
- Page 63: Explorer les modèles par simulatio
- Page 67 and 68: Explorer les modèles par simulatio
- Page 69 and 70: Explorer les modèles par simulatio
- Page 71 and 72: Explorer les modèles par simulatio
- Page 73 and 74: Explorer les modèles par simulatio
- Page 75 and 76: Explorer les modèles par simulatio
- Page 77 and 78: Explorer les modèles par simulatio
- Page 79 and 80: Explorer les modèles par simulatio
- Page 81 and 82: Explorer les modèles par simulatio
- Page 83 and 84: Chapitre 4 Evaluation et validation
- Page 85 and 86: Evaluation et validation de modèle
- Page 87 and 88: Evaluation et validation de modèle
- Page 89 and 90: Evaluation et validation de modèle
- Page 91 and 92: Evaluation et validation de modèle
- Page 93 and 94: Evaluation et validation de modèle
- Page 95 and 96: Evaluation et validation de modèle
- Page 97 and 98: Evaluation et validation de modèle
- Page 99 and 100: Evaluation et validation de modèle
- Page 101 and 102: Annexe - épistémologie dans une c
- Page 103 and 104: Annexe - épistémologie dans une c
- Page 105 and 106: Annexe - épistémologie dans une c
- Page 107 and 108: Annexe - épistémologie dans une c
- Page 109 and 110: Annexe - épistémologie dans une c
- Page 111 and 112: Annexe - épistémologie dans une c
- Page 113 and 114: Annexe - épistémologie dans une c
Explorer les modèles par simulation : application aux analyses de sensibilité. 69<br />
Figure 3.2. Sensibilités locales. Signatures individuelles <strong>des</strong> paramètres pour la sortie<br />
"population totale" au dernier pas de temps du modèle Gambusies.<br />
3.3.3. Grand nombre de paramètres, grand nombre de variables<br />
Lorsqu'on est en présence d'un grand nombre de paramètres ou de variables, il<br />
peut être utile de faire appel aux techniques d'analyses multivariées qui permettent<br />
notamment de regrouper les paramètres qui ont <strong>des</strong> comportements voisins. Un<br />
exemple en est donné par [VAN 02] sur un modèle individus-centré d'écosystème<br />
lacustre. Leur modèle est stochastique et comprend une quinzaine de variables et<br />
près de 400 paramètres. Ils ont donc opté pour un calcul de type Monte Carlo avec<br />
un tirage aléatoire de 10 000 jeux de paramètres, tous les paramètres fluctuant de ±<br />
10% autour de leur valeur de référence, puis ont calculé les sensibilités relatives<br />
selon [3.7] pour les 15 sorties à 12 pas de temps différents. Après avoir éliminé les<br />
paramètres qui n'ont que peu d'action sur leurs sorties, ils ont retenu 51 paramètres<br />
pour une classification hiérarchique (figure 3.3).<br />
Il faut ensuite choisir un niveau de découpe pour regrouper les paramètres. Les<br />
auteurs ont retenu un niveau assez grossier conduisant à 5 classes de paramètres. Ils<br />
ont ensuite retenu un paramètre représentatif pour chaque groupe, et édité les<br />
graphes donnant les sensibilités <strong>des</strong> différentes sorties à ces paramètres pour chaque<br />
pas de temps (non figuré). On a ainsi une idée de l'effet de chaque paramètre sur les<br />
sorties du modèle, via le groupe auquel il appartient.<br />
Une alternative à la classification, à laquelle on peut reprocher une certaine<br />
sensibilité au choix de la distance entre points et entre groupes, est l'analyse en<br />
composantes principales. Elle donne une représentation plus visuelle <strong>des</strong> proximités