01.01.2015 Views

Table des matières - Gilles Daniel

Table des matières - Gilles Daniel

Table des matières - Gilles Daniel

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

102 Modélisation et simulation multi-agents pour Sciences de l'Homme et de la Société.<br />

to Model (M2M) [HAL 03], s'ils sont plus récents, proposent un cadre plus adapté à la<br />

situation <strong>des</strong> sciences sociales en listant un certain nombre d’approches pour<br />

l'évaluation <strong>des</strong> modèles par la comparaison, en particulier les modèles de la<br />

littérature. Parmi celles-ci, nous pouvons citer par exemple :<br />

- La réplication, dont il est fait mention plus haut, dans un nouveau langage de<br />

programmation de modèles publiés permet d'en comprendre toutes les subtilités et de<br />

reproduire les résultats publiés [AXE 97], [BIG 05]. Ce point permet essentiellement<br />

de vérifier la reproductibilité <strong>des</strong> modèles et <strong>des</strong> résultats et montre souvent que les<br />

informations fournies dans les articles publiés sont incomplètes [ROU 03] (ce qui est<br />

même vrai pour le modèle maintenant classique d'Epstein et Axtell [EPS 96] [BIG<br />

05]) ou concernent <strong>des</strong> résultats faux [EDM 03].<br />

- Le couplage <strong>des</strong> modèles où les différentes échelles (de temps ou d'espace) sont<br />

interconnectées- les résultats d'un modèle étant utilisés par un autre. L'interconnexion<br />

permet, outre l'extension d'un modèle, de traiter <strong>des</strong> données correspondant davantage<br />

à une réalité, là où par exemple <strong>des</strong> distributions théoriques ont été utilisées pour la<br />

validation interne.<br />

- La comparaison de différents modèles qui annoncent le même type de résultats en<br />

essayant d'identifier s'ils produisent effectivement <strong>des</strong> résultats similaires, voire<br />

identiques. Cette méthode est parfois désignée sous l'appellation « reconnue sous le<br />

terme alignement de modèles » [AXT 96] et permet parmi un ensemble de modèles<br />

soit de comparer les effets d'hypothèses différentes soit, si les résultats sont similaires,<br />

de sélectionner le modèle le plus simple ou le plus facilement interprétable en suivant<br />

le principe de parcimonie.<br />

- La comparaison de différents modèles relativement à leur adéquation à une série<br />

de données. Cette technique, plus connue sous le terme de docking, permet de juger<br />

essentiellement de la reproduction qualitative de données empiriques mais ne constitue<br />

pas un critère définitif de validation <strong>des</strong> modèles, comme nous l'avons déjà souligné.<br />

- L'utilisation d'un modèle plus simple comme un résumé a posteriori ou une<br />

abstraction <strong>des</strong> résultats d'un autre modèle. Cet exercice permet à la fois de construire<br />

le modèle du modèle en facilitant la compréhension du premier ou facilite son<br />

utilisation, le deuxième modèle étant typiquement un modèle <strong>des</strong>criptif <strong>des</strong> résultats<br />

produits par le premier.<br />

- L'utilisation <strong>des</strong> modèles en changeant les structures et les hypothèses pour tester<br />

la robustesse structurelle du modèle.<br />

4.4. Conclusion : comment rendre valide un système de simulation complexe <br />

Arrivé au terme de cet article, le lecteur pourrait au fond être déçu de ne pas<br />

avoir de critère définitif de validité qui lui permette de répondre catégoriquement à<br />

la question « mon modèle est-il valide ». Il pourrait d’autant plus ressentir cette<br />

frustration s’il avait au préalable une idée de la validation telle qu’elle se pratique

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!