Table des matières - Gilles Daniel

Table des matières - Gilles Daniel Table des matières - Gilles Daniel

gillesdaniel.com
from gillesdaniel.com More from this publisher
01.01.2015 Views

68 Modélisation et simulation multi-agents pour Sciences de l'Homme et de la Société. sensibilités relatives et normalisées sont identiques au facteur "taille de la population au dernier pas de temps" près. La taille maximale est en tête, suivie par le très inattendu seuil de fécondité. Le taux de croissance et la survie adulte viennent ensuite. Cela signifie que, autour de leur valeur de référence, ces paramètres ont une grande influence sur la sortie et doivent être déterminés avec soin. A l'opposé, la taille de la population est moins sensible à la fécondité et à la survie juvénile, ce qui était également surprenant pour les biologistes. Mais tout l'intérêt d'une analyse de sensibilité tient précisément dans ce genre de résultat : elle remet souvent en question les idées préconçues que l'on se fait sur le modèle ! 3.3.2. Signatures individuelles Nous avons vu que les coefficients de sensibilité ont une valeur locale et qu'il est important d'explorer leur évolution lorsqu'on s'éloigne du point de fonctionnement de référence du modèle. Une manière très simple est de s'intéresser à chaque paramètre à tour de rôle en construisant les graphes donnant la (les) sortie(s) du modèle en fonction de chaque paramètre, les autres paramètres étant fixés à leur valeur de référence. Et ceci pour une gamme assez large de valeurs pour chaque paramètre, bien souvent la gamme de valeurs biologiquement (ou sociologiquement) acceptables. Ce graphe représente ce que nous appellerons la signature individuelle du paramètre. Comme déjà dit, la sensibilité est alors donnée par la pente de la courbe (figure 3.2). Une courbe rectiligne indique que la sensibilité est indépendante de la valeur du paramètre. Le modèle étant stochastique, les répétitions donnent une mesure de la variabilité. L’étude des signatures individuelles sert également à préparer les analyses globales que nous étudierons plus loin. Ces analyses seront d'autant plus faciles à conduire et à interpréter que les signatures individuelles seront plus linéaires et de variance constante. Il peut donc être intéressant de transformer les données pour améliorer ces propriétés, soit en transformant la sortie, soit, et on n’y pense pas toujours, en transformant l'échelle d'un paramètre. Dans la pratique, la transformation logarithmique (ou plus rarement exponentielle) est la plus utilisée, dans la mesure où elle s'interprète comme le passage d'une échelle multiplicative à une échelle additive (ou inversement). Sur le modèle Gambusies, nous verrons que la transformation logarithmique de la sortie est effectivement bien adaptée. On peut ici aussi utiliser la variante de Monte Carlo qui consiste à faire varier tous les paramètres simultanément dans toute leur gamme de variation. La pente de la tendance donne alors la sensibilité moyenne, et la variabilité est due à l'effet des autres paramètres, en plus de la stochasticité éventuellement liée au modèle. Ceci permet de détecter d'éventuelles non-monotonies dans les interactions entre les paramètres. Remarquons qu'avec cette variante, on est déjà dans le domaine des analyses "globales" que nous étudierons plus spécifiquement plus loin.

Explorer les modèles par simulation : application aux analyses de sensibilité. 69 Figure 3.2. Sensibilités locales. Signatures individuelles des paramètres pour la sortie "population totale" au dernier pas de temps du modèle Gambusies. 3.3.3. Grand nombre de paramètres, grand nombre de variables Lorsqu'on est en présence d'un grand nombre de paramètres ou de variables, il peut être utile de faire appel aux techniques d'analyses multivariées qui permettent notamment de regrouper les paramètres qui ont des comportements voisins. Un exemple en est donné par [VAN 02] sur un modèle individus-centré d'écosystème lacustre. Leur modèle est stochastique et comprend une quinzaine de variables et près de 400 paramètres. Ils ont donc opté pour un calcul de type Monte Carlo avec un tirage aléatoire de 10 000 jeux de paramètres, tous les paramètres fluctuant de ± 10% autour de leur valeur de référence, puis ont calculé les sensibilités relatives selon [3.7] pour les 15 sorties à 12 pas de temps différents. Après avoir éliminé les paramètres qui n'ont que peu d'action sur leurs sorties, ils ont retenu 51 paramètres pour une classification hiérarchique (figure 3.3). Il faut ensuite choisir un niveau de découpe pour regrouper les paramètres. Les auteurs ont retenu un niveau assez grossier conduisant à 5 classes de paramètres. Ils ont ensuite retenu un paramètre représentatif pour chaque groupe, et édité les graphes donnant les sensibilités des différentes sorties à ces paramètres pour chaque pas de temps (non figuré). On a ainsi une idée de l'effet de chaque paramètre sur les sorties du modèle, via le groupe auquel il appartient. Une alternative à la classification, à laquelle on peut reprocher une certaine sensibilité au choix de la distance entre points et entre groupes, est l'analyse en composantes principales. Elle donne une représentation plus visuelle des proximités

Explorer les modèles par simulation : application aux analyses de sensibilité. 69<br />

Figure 3.2. Sensibilités locales. Signatures individuelles <strong>des</strong> paramètres pour la sortie<br />

"population totale" au dernier pas de temps du modèle Gambusies.<br />

3.3.3. Grand nombre de paramètres, grand nombre de variables<br />

Lorsqu'on est en présence d'un grand nombre de paramètres ou de variables, il<br />

peut être utile de faire appel aux techniques d'analyses multivariées qui permettent<br />

notamment de regrouper les paramètres qui ont <strong>des</strong> comportements voisins. Un<br />

exemple en est donné par [VAN 02] sur un modèle individus-centré d'écosystème<br />

lacustre. Leur modèle est stochastique et comprend une quinzaine de variables et<br />

près de 400 paramètres. Ils ont donc opté pour un calcul de type Monte Carlo avec<br />

un tirage aléatoire de 10 000 jeux de paramètres, tous les paramètres fluctuant de ±<br />

10% autour de leur valeur de référence, puis ont calculé les sensibilités relatives<br />

selon [3.7] pour les 15 sorties à 12 pas de temps différents. Après avoir éliminé les<br />

paramètres qui n'ont que peu d'action sur leurs sorties, ils ont retenu 51 paramètres<br />

pour une classification hiérarchique (figure 3.3).<br />

Il faut ensuite choisir un niveau de découpe pour regrouper les paramètres. Les<br />

auteurs ont retenu un niveau assez grossier conduisant à 5 classes de paramètres. Ils<br />

ont ensuite retenu un paramètre représentatif pour chaque groupe, et édité les<br />

graphes donnant les sensibilités <strong>des</strong> différentes sorties à ces paramètres pour chaque<br />

pas de temps (non figuré). On a ainsi une idée de l'effet de chaque paramètre sur les<br />

sorties du modèle, via le groupe auquel il appartient.<br />

Une alternative à la classification, à laquelle on peut reprocher une certaine<br />

sensibilité au choix de la distance entre points et entre groupes, est l'analyse en<br />

composantes principales. Elle donne une représentation plus visuelle <strong>des</strong> proximités

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!