01.01.2015 Views

Table des matières - Gilles Daniel

Table des matières - Gilles Daniel

Table des matières - Gilles Daniel

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

244 Modélisation et simulation multi-agents pour Sciences de l'Homme et de la Société.<br />

binaire pour ses voisins. A chaque couple de stratégie (input, état interne) correspond<br />

un « gain » particulier donné par la matrice stratégique d’un jeu sous forme normale.<br />

Etat interne ω v / Input i: 0 Etat interne ω v / Input i : 1<br />

Etat interne ω i / Output i : 0 π i (0,0) π i (0,1)<br />

Etat interne ω i / Output i : 1 π i (1,0) π i (1,1)<br />

<strong>Table</strong>au 11.1. Automate stratégique : matrice d’un jeu sous forme normale.<br />

Où πi( ωi, ωv)<br />

représente le gain de l’agent i lorsqu’il joue la stratégie ω i (il est<br />

dans l’état ω i ) contre l’agent v qui joue la stratégie ω v . On définit le gain total<br />

Πi( ω i (t) ) d’un agent qui joue la même stratégie contre tous les agents v∈ϑide<br />

son voisinage, comme la somme <strong>des</strong> gains obtenus dans ces confrontations<br />

bilatérales, selon les valeurs données par la matrice du tableau 11.1.<br />

∑ [11.4]<br />

( (t)) ( (t), (t))<br />

Πi ω i = πi ωi ωv<br />

v∈ϑi<br />

Dans le cas où le gain d’un agent est observable par ses voisins, il y a une seconde<br />

sortie correspondant au gain total : o i 2 (t) =Πi( ω i(t)<br />

). Considérons la règle de<br />

changement d’état suivante : choisir la stratégie de l’agent de son voisinage qui a<br />

obtenu le meilleur gain (comparativement à soi) lors de l’itération précédente. Cette<br />

règle, que nous nommerons LNBP (Last Neighbourhood Best Payoff) détermine les<br />

comportements mimétiques <strong>des</strong> agents et peut être formalisée de la manière suivante :<br />

{ ( ) ( )}<br />

o 1 i (t) ≡ i (t) argSup v v (t −1) , i i (t −1)<br />

v∈ϑi<br />

ω = Π ω Π ω [11.5]<br />

A titre d’exemple, considérons un « dilemme du prisonnier » (tableau 11.2). La<br />

stratégie : ω i = 0 correspond à la coopération et la stratégie ω i = 1à la défection : [EBE 04],<br />

[YIL 03], [RUB 86]. Les valeurs <strong>des</strong> gains pour cet exemple sont arbitraires et respectent<br />

juste les inégalités qui caractérisent ce jeu : π i (1,0) > π i (0,0) > π i (1,1) > π i (0,1).<br />

Etat interne ω v / Input i: 0 Etat interne ω v / Input i : 1<br />

Etat interne ω i / Output i : 0 π i (0,0) = 100 π i (0,1) = 0<br />

Etat interne ω i / Output i : 1 π i (1,0) = 176 π i (1,1) = 6<br />

<strong>Table</strong>au 11.2. Automate stratégique : matrice d’un « dilemme du prisonnier ».<br />

Considérons un agent i qui fait défection en t ( ω i = 1) sur un réseau périodique de<br />

dimension 1 (cercle), composé uniquement de coopérateurs ( ω i = 0 ). Le gain cumulé<br />

de cet agent en t est : Π i(1) = π i(1, 0) +π i(1, 0) = 176 + 176 = 352 . Comme le reste <strong>des</strong><br />

agents sont coopérateurs, ses deux voisins (i − 1 et i + 1) ont un gain cumulé de :

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!