01.01.2015 Views

Table des matières - Gilles Daniel

Table des matières - Gilles Daniel

Table des matières - Gilles Daniel

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Explorer les modèles par simulation : application aux analyses de sensibilité. 63<br />

sigmoïde, ce qui permet de déplacer le point d'inflexion, et donc la forme de la<br />

courbe, avec un paramètre. On pourra ensuite tester la robustesse <strong>des</strong> sorties à ces<br />

paramètres "de structure" via une analyse de sensibilité classique.<br />

La "méta" modélisation. Nous entendons ici par ce terme l'action de faire le<br />

modèle du modèle, c'est à dire d'émuler <strong>des</strong> modèles complexes et trop coûteux en<br />

temps calcul par <strong>des</strong> modèles simplifiés aussi fidèles que possible. Ceci pour pouvoir<br />

effectuer <strong>des</strong> analyses de sensibilité ou d'incertitude dans <strong>des</strong> délais raisonnables. Mais<br />

aussi parce que l'on commence à observer l'apparition de modèles très complexes,<br />

généralement obtenus par agrégation de sous-modèles fonctionnels, qui tendent à<br />

devenir en quelque sorte le paradigme de modélisation d'une communauté scientifique<br />

(modèle de culture, modèle de physiologie animale, modèle de circulation<br />

atmosphérique…). Se pose alors la question de la simplification de ces modèles,<br />

lorsqu'on souhaite les utiliser dans un contexte particulier.<br />

Maintenant que nous sommes convaincus de l'importance de l'exploration,<br />

pourquoi le faire par simulation Car ce n'est certainement pas la meilleure manière<br />

de faire, et ceci pour deux raisons au moins :<br />

1- Le temps de calcul. Par définition, il va falloir faire tourner le modèle, et de très<br />

nombreuses fois. Nous verrons plus loin qu'un plan d'expérience implique souvent<br />

plusieurs milliers de simulations, et ceci même pour <strong>des</strong> situations assez simples. Si<br />

une simulation nécessite quelques secon<strong>des</strong>, la chose est aisée. Il n'en est plus de<br />

même si elle prend plusieurs heures. Une solution, malheureusement non encore<br />

accessible à la plupart <strong>des</strong> utilisateurs, consiste alors à paralléliser les calculs sur <strong>des</strong><br />

"fermes" de calculs de plusieurs dizaines voire plusieurs centaines de processeurs. Une<br />

autre solution est le recours à <strong>des</strong> plans d’expériences plus économes en nombres de<br />

simulations. Il en existe et nous en évoquerons. Mais ils impliquent de faire <strong>des</strong><br />

hypothèses plus fortes sur le comportement a priori du modèle.<br />

2- L'absence de preuve formelle. Comment s'assurer que tous les comportements<br />

du modèle ont bien été explorés Comment s'assurer, notamment dans le cas de<br />

modèles stochastiques, que certains événements rares, arrivant dans certaines<br />

configurations précises de paramétrage, ont bien été détectés En principe, il suffit de<br />

multiplier les simulations et de faire une hypothèse de linéarité entre deux paramétrisations<br />

proches : cette hypothèse sera d'autant plus réaliste que les points explorés seront<br />

proches. Mais elle est intenable dans la pratique. Pour s'en convaincre, il suffit de<br />

considérer le nombre de simulations nécessaires pour explorer systématiquement un<br />

espace multidimensionnel. Si vous discrétisez par exemple chacune <strong>des</strong> dimensions<br />

représentant un paramètre du modèle en trois classes (3 valeurs pour chaque<br />

paramètre), il vous faudra déjà 3 10 soit plus de 59 000 simulations pour 10 paramètres,<br />

et 3 20 soit près de 3,5 milliards de simulations pour 20 paramètres. Et si vous montez à<br />

cinq classes, ce qui reste une exploration grossière, vous passez respectivement à 10

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!