Etude des marchés d'assurance non-vie à l'aide d'équilibres de ...
Etude des marchés d'assurance non-vie à l'aide d'équilibres de ...
Etude des marchés d'assurance non-vie à l'aide d'équilibres de ...
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
tel-00703797, version 2 - 7 Jun 2012<br />
Introduction<br />
von Heusinger et al. (2010), pour lesquels les équilibres normalisés sont calculés pour r = 1).<br />
Les équilibres normalisés ont une interprétation particulière via les inégalités variationnelles,<br />
voir Facchinei et al. (2007).<br />
Dans le chapitre 2, nous utiliserons <strong><strong>de</strong>s</strong> équilibres <strong>de</strong> Nash simples et généralisés. Nous<br />
verrons <strong>à</strong> quel point les équilibres <strong>de</strong> Nash généralisés sont plus difficiles <strong>à</strong> manier du fait<br />
qu’ils ne sont pas uniques.<br />
Jeux dynamiques<br />
Dans cette sous-section, nous portons une brève attention aux jeux dynamiques, bien que<br />
dans le chapitre 2 nous utilisions un jeu statique. Dans la sous-section précé<strong>de</strong>nte, nous avons<br />
présenté <strong><strong>de</strong>s</strong> jeux statiques, mais dans beaucoup <strong>de</strong> cas, cela ne reflète pas la réalité. Les agents<br />
prennent une suite d’action au cours du temps plutôt qu’une seule. Il existe quatre gran<strong><strong>de</strong>s</strong><br />
classes <strong>de</strong> jeux dynamiques : les jeux répétés, les jeux dynamiques <strong>à</strong> variable d’état (en temps<br />
discret ou en temps continu) et les jeux <strong>de</strong> la théorie <strong>de</strong> l’évolution.<br />
Nous nous concentrons sur les jeux répétés et les jeux <strong>à</strong> équation d’état en temps discret.<br />
Les premiers trouvent leurs applications dans les jeux <strong>à</strong> réputation, par exemple, Alesina<br />
(1987) ou dans la définition <strong>de</strong> politique publique, par exemple Sleet (2001). Les seconds<br />
ont été utilisés pour modéliser l’allocation <strong>de</strong> ressource en eau Ganji et al. (2007); Krawczyk<br />
et Tidball (2005), d’émission carbone Haurie et Viguier (2002), ou <strong>de</strong> ressource en énergie<br />
Bompard et al. (2008); Genc et Sen (2008).<br />
Jeux répétés<br />
Les jeux répétés s’intéressent aux interactions <strong>à</strong> long terme entre <strong><strong>de</strong>s</strong> joueurs au cours<br />
<strong>de</strong> la répétition d’un jeu ordinaire <strong>de</strong> pério<strong>de</strong> en pério<strong>de</strong>. Les conditions du jeu (nombre<br />
<strong>de</strong> joueurs, ensemble <strong>de</strong> stratégies, fonctions objectives) sont constantes au cours du temps.<br />
Notons I le nombre <strong>de</strong> joueurs, Xi, i ∈ E les ensembles <strong>de</strong> stratégies supposés finis et Oi les<br />
fonctions objectives <strong><strong>de</strong>s</strong> joueurs, c’est <strong>à</strong> dire Oi(x1, . . . , xI) représente le gain du joueur i pour<br />
x ∈ X. Contrairement au jeu statique, les objectifs <strong><strong>de</strong>s</strong> joueurs dans les jeux répétés sont<br />
majoritairement présentés en terme <strong>de</strong> gain plutôt qu’en terme <strong>de</strong> coût.<br />
Définition. Un jeu répété basé sur le jeu ordinaire caractérisé par (I, (Xi)i, (Oi)i) est une<br />
forme extensive d’un jeu avec information parfaite et actions simultanées, telle que les actions<br />
se définissent en profil <strong>de</strong> stratégies au cours du temps σi = (xi,1, . . . , xi,t, . . . ) ∈ X ∞ et que le<br />
joueur i peut comparer la suite <strong>de</strong> gains (Oi(x1,t, . . . , xI,t))t pour <strong>de</strong>ux profils différents σi, ˜σi.<br />
Une stratégie pour le joueur i est donc une règle <strong>de</strong> décision permettant <strong>de</strong> choisir une<br />
suite d’actions σi = (xi,1, . . . , xi,t, . . . ) dépendant <strong>de</strong> l’histoire passée du jeu au temps t. Nous<br />
pouvons en imaginer trois grands types : les stratégies <strong>à</strong> boucle ouverte (ou open-loop) dans<br />
lesquelles la suite d’actions ne tient pas compte <strong>de</strong> l’histoire du jeu, les stratégies feedback ou<br />
marko<strong>vie</strong>nnes où les actions en t ne dépen<strong>de</strong>nt que <strong><strong>de</strong>s</strong> actions passées en t − 1 et enfin les<br />
stratégies <strong>à</strong> boucle fermée (ou closed-loop) dans lesquelles les joueurs utilisent toute l’histoire<br />
passée <strong>à</strong> n’importe quelle pério<strong>de</strong>.<br />
Pour comparer <strong>de</strong>ux stratégies σi, ˜σi, nous utilisons la somme actualisée <strong><strong>de</strong>s</strong> gains<br />
22<br />
Gi(σ1, . . . , σI) =<br />
T<br />
t=0<br />
δ t Oi(x1,t, . . . , xI,t),