28.05.2013 Views

Etude des marchés d'assurance non-vie à l'aide d'équilibres de ...

Etude des marchés d'assurance non-vie à l'aide d'équilibres de ...

Etude des marchés d'assurance non-vie à l'aide d'équilibres de ...

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

tel-00703797, version 2 - 7 Jun 2012<br />

Introduction<br />

von Heusinger et al. (2010), pour lesquels les équilibres normalisés sont calculés pour r = 1).<br />

Les équilibres normalisés ont une interprétation particulière via les inégalités variationnelles,<br />

voir Facchinei et al. (2007).<br />

Dans le chapitre 2, nous utiliserons <strong><strong>de</strong>s</strong> équilibres <strong>de</strong> Nash simples et généralisés. Nous<br />

verrons <strong>à</strong> quel point les équilibres <strong>de</strong> Nash généralisés sont plus difficiles <strong>à</strong> manier du fait<br />

qu’ils ne sont pas uniques.<br />

Jeux dynamiques<br />

Dans cette sous-section, nous portons une brève attention aux jeux dynamiques, bien que<br />

dans le chapitre 2 nous utilisions un jeu statique. Dans la sous-section précé<strong>de</strong>nte, nous avons<br />

présenté <strong><strong>de</strong>s</strong> jeux statiques, mais dans beaucoup <strong>de</strong> cas, cela ne reflète pas la réalité. Les agents<br />

prennent une suite d’action au cours du temps plutôt qu’une seule. Il existe quatre gran<strong><strong>de</strong>s</strong><br />

classes <strong>de</strong> jeux dynamiques : les jeux répétés, les jeux dynamiques <strong>à</strong> variable d’état (en temps<br />

discret ou en temps continu) et les jeux <strong>de</strong> la théorie <strong>de</strong> l’évolution.<br />

Nous nous concentrons sur les jeux répétés et les jeux <strong>à</strong> équation d’état en temps discret.<br />

Les premiers trouvent leurs applications dans les jeux <strong>à</strong> réputation, par exemple, Alesina<br />

(1987) ou dans la définition <strong>de</strong> politique publique, par exemple Sleet (2001). Les seconds<br />

ont été utilisés pour modéliser l’allocation <strong>de</strong> ressource en eau Ganji et al. (2007); Krawczyk<br />

et Tidball (2005), d’émission carbone Haurie et Viguier (2002), ou <strong>de</strong> ressource en énergie<br />

Bompard et al. (2008); Genc et Sen (2008).<br />

Jeux répétés<br />

Les jeux répétés s’intéressent aux interactions <strong>à</strong> long terme entre <strong><strong>de</strong>s</strong> joueurs au cours<br />

<strong>de</strong> la répétition d’un jeu ordinaire <strong>de</strong> pério<strong>de</strong> en pério<strong>de</strong>. Les conditions du jeu (nombre<br />

<strong>de</strong> joueurs, ensemble <strong>de</strong> stratégies, fonctions objectives) sont constantes au cours du temps.<br />

Notons I le nombre <strong>de</strong> joueurs, Xi, i ∈ E les ensembles <strong>de</strong> stratégies supposés finis et Oi les<br />

fonctions objectives <strong><strong>de</strong>s</strong> joueurs, c’est <strong>à</strong> dire Oi(x1, . . . , xI) représente le gain du joueur i pour<br />

x ∈ X. Contrairement au jeu statique, les objectifs <strong><strong>de</strong>s</strong> joueurs dans les jeux répétés sont<br />

majoritairement présentés en terme <strong>de</strong> gain plutôt qu’en terme <strong>de</strong> coût.<br />

Définition. Un jeu répété basé sur le jeu ordinaire caractérisé par (I, (Xi)i, (Oi)i) est une<br />

forme extensive d’un jeu avec information parfaite et actions simultanées, telle que les actions<br />

se définissent en profil <strong>de</strong> stratégies au cours du temps σi = (xi,1, . . . , xi,t, . . . ) ∈ X ∞ et que le<br />

joueur i peut comparer la suite <strong>de</strong> gains (Oi(x1,t, . . . , xI,t))t pour <strong>de</strong>ux profils différents σi, ˜σi.<br />

Une stratégie pour le joueur i est donc une règle <strong>de</strong> décision permettant <strong>de</strong> choisir une<br />

suite d’actions σi = (xi,1, . . . , xi,t, . . . ) dépendant <strong>de</strong> l’histoire passée du jeu au temps t. Nous<br />

pouvons en imaginer trois grands types : les stratégies <strong>à</strong> boucle ouverte (ou open-loop) dans<br />

lesquelles la suite d’actions ne tient pas compte <strong>de</strong> l’histoire du jeu, les stratégies feedback ou<br />

marko<strong>vie</strong>nnes où les actions en t ne dépen<strong>de</strong>nt que <strong><strong>de</strong>s</strong> actions passées en t − 1 et enfin les<br />

stratégies <strong>à</strong> boucle fermée (ou closed-loop) dans lesquelles les joueurs utilisent toute l’histoire<br />

passée <strong>à</strong> n’importe quelle pério<strong>de</strong>.<br />

Pour comparer <strong>de</strong>ux stratégies σi, ˜σi, nous utilisons la somme actualisée <strong><strong>de</strong>s</strong> gains<br />

22<br />

Gi(σ1, . . . , σI) =<br />

T<br />

t=0<br />

δ t Oi(x1,t, . . . , xI,t),

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!