appunti 1 - DIMA
appunti 1 - DIMA
appunti 1 - DIMA
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Indice<br />
1 Giochi non cooperativi 5<br />
1.1 Teoria delle decisioni . . . . . . . . . . . . . . . . . . . . . . . 5<br />
1.2 Decisioni sotto stretta incertezza . . . . . . . . . . . . . . . . 8<br />
1.3 Decisioni intertemporali . . . . . . . . . . . . . . . . . . . . . 14<br />
1.4 Preferenze e funzioni di utilità . . . . . . . . . . . . . . . . . . 20<br />
1.5 Equilibri di Nash . . . . . . . . . . . . . . . . . . . . . . . . . 23<br />
1.6 Giochi in forma estesa I . . . . . . . . . . . . . . . . . . . . . 34<br />
1.7 Giochi in forma estesa II . . . . . . . . . . . . . . . . . . . . . 45<br />
1.8 Raffinamenti degli equilibri di Nash . . . . . . . . . . . . . . . 55<br />
1.9 Esempi di giochi con strategie dominate . . . . . . . . . . . . 61<br />
1.10 Evasione fiscale (Li-Calzi) . . . . . . . . . . . . . . . . . . . . 65<br />
1.11 Giochi con potenziale . . . . . . . . . . . . . . . . . . . . . . . 68<br />
1.12 Giochi di contrattazione . . . . . . . . . . . . . . . . . . . . . 71<br />
1.13 Corsa agli sportelli (gioco a due stadi) . . . . . . . . . . . . . 77<br />
1.14 Dilemma del prigioniero ripetuto n volte . . . . . . . . . . . . 81<br />
1.15 Giochi ripetuti e automi finiti . . . . . . . . . . . . . . . . . . 87<br />
2 Evolutionary Game Theory da Weibul 97<br />
2.1 Elementi della Teoria dei Giochi non cooperativi . . . . . . . . 97<br />
2.2 Criteri di stabilità evolutiva . . . . . . . . . . . . . . . . . . . 102<br />
2.3 Dinamica del replicatore . . . . . . . . . . . . . . . . . . . . . 115<br />
3
Capitolo 1<br />
Giochi non cooperativi<br />
1.1 Teoria delle decisioni<br />
Esempio 1.1 Roulette russa.<br />
Due persone della stessa età e della stessa salute hanno ciascuna una rivoltella.<br />
Il primo tizio ha 3 proiettili nel tamburo della pistola a 6 colpi.<br />
Il secondo tizio ha 1 proiettile nel tamburo della pistola a 6 colpi.<br />
Ciascuno sta per ruotare il tamburo, puntare la pistola alla propria testa e<br />
premere il grilletto.<br />
Questo è tutto ciò che sai.<br />
Puoi togliere 1 solo proiettile da una delle pistole prima che essi premano il<br />
grilletto.<br />
Da quale pistola toglieresti il proiettile?<br />
Cerchiamo di schematizzare il problema:<br />
ci sono 2 azioni:<br />
AZIONE 1: prendere 1 proiettile da quella che ne ha 3.<br />
AZIONE 2: prendere 1 proiettile da quella che ne ha 1.<br />
5
Vediamo di schematizzare con le probabilità dei possibili esiti:<br />
0 MORTI 1 MORTO 2 MORTI<br />
AZIONE 1 20/36 14/36 2/36<br />
AZIONE 2 1/2 1/2 0<br />
Consideriamo una funzione perdita o misura di utilità negativa<br />
v(0) = 0<br />
v(1) = −l 0 < l < 1<br />
v(2) = −1<br />
Se non amo il rischio: la perdita attesa dal’azione 1 (lotteria L1) sarà minore<br />
della perdita attesa dall’azione 2 (lotteria L2)<br />
L1 :<br />
L2 :<br />
0 1 2 MORTI<br />
20/36 14/36 2/36 PROBABILIT À<br />
0 1 2 MORTI<br />
1/2 1/2 0 PROBABILIT À<br />
6
Se non amo il rischio:<br />
εv(L2) < εv(L1)<br />
cioè<br />
v(0) · 1 1<br />
20 14 2<br />
+ v(1) · + v(2) · 0 < v(0) · + v(1) · + v(2) ·<br />
2 2 36 36 36<br />
v(1) · 1<br />
2<br />
−l · 1<br />
2<br />
14 2<br />
< v(1) · + v(2) ·<br />
36 36<br />
14 2<br />
< −l · −<br />
36 36<br />
2 · l > 1<br />
l > 1<br />
2<br />
quale interpretazione possiamo dare?<br />
Naturalmente preferiamo l’azione che limita il possibile numero di morti.<br />
Rischiare 2 morti è più di due volte “brutto” che rischiarne uno.<br />
2l > 1 , −2l < −1 , v(2) > 2v(1)<br />
e questo è in accordo con ciò che la gente pensa usualmente.<br />
In generale un singolo incidente che comporta più morti è considerato peggiore<br />
di più incidenti separati che conducono allo stesso numero di morti.<br />
Questo problema si può confrontare con un altro reale a cui si trovano di<br />
fronte i medici: le risorse mediche sono limitate e non è possibile trattare<br />
tutti i pazienti che hanno bisogno di cure.<br />
Consideriamo ad esempio un cardiologo che può curare solo 1 di 2 pazienti:<br />
7
senza trattamento il I ◦ ha 1<br />
2<br />
1<br />
2<br />
con il trattamento il I ◦ ha 1<br />
3<br />
per il II ◦ paziente:<br />
senza trattamento il II ◦ ha 1<br />
6<br />
con il trattamento il II ◦ guararà<br />
cosa sceglierà il medico?<br />
Il problema è esattamente quelo di prima.<br />
probabilità di morire subito<br />
probabilità di diventare vecchio<br />
probabilità di morire<br />
probabilità di morire<br />
1.2 Decisioni sotto stretta incertezza<br />
Possiamo dividere i problemi decisionali in 3 classi:<br />
1. DECISIONI CON CERTEZZA<br />
2. DECISIONI CON RISCHIO<br />
3. DECISIONI CON STRETTA INCERTEZZA<br />
Raccontiamo un esempio dovuto a Savage (1972):<br />
Tua moglie ha appena rotto 5 uova buone in un tegame quando tu arrivi per<br />
fare l’omelette. Esiste un sesto uovo non rotto davanti al tegame, può essere<br />
usato per l’omelette o per qualche cos’altro.<br />
Devi decidere cosa fare con questo, cioè hai 3 possibili azioni:<br />
8
1. ROMPERLO NEL TEGAME CHE CONTIENE GLI ALTRI 5<br />
2. ROMPERLO IN UN PIATTO PER ISPEZIONARLO<br />
3. BUTTARLO VIA SENZA ISPEZIONARLO<br />
Dipendendo dallo stato delle uova, queste 3 azioni avranno delle conseguenze<br />
BUONO: ϑ1<br />
STATI<br />
CATTIVO: ϑ2<br />
ROMPERE OMELETTE DI NESSUNA OMELETTE<br />
NEL TEGAME 6 UOVA E 6 UOVA BUONE<br />
α1 x11 DISTRUTTE<br />
ROMPERE OMELETTE DI OMELETTE DI<br />
NEL PIATTO 6 UOVA + 5 UOVA<br />
α2 1 PIATTO DA E 1 PIATTO DA<br />
LAVARE LAVARE<br />
x21<br />
BUTTARE OMELETTE DI OMELETTE DI<br />
VIA 5 UOVA E 1 5 UOVA<br />
x12<br />
x22<br />
α3 BUON UOVO x32<br />
DISTRUTTO<br />
x31<br />
Le conseguenze xij non sono numeri ma si può sempre associare un valore<br />
che “misura” xij cioè intendiamo per misura del valore<br />
“>” preferenza del decisore.<br />
v(xij) > v(xkl) ⇐⇒ xij > xkl<br />
I problemi decisionali sono stati classificati in accordo alle conoscenze del<br />
9
decisore sugli stati della natura.<br />
Le decisioni sotto stretta incertezza sono quelle per cui il decisore non può<br />
dire nulla circa il vero stato della natura.<br />
Non solo egli è ignorante del vero stato, ma non può quantificare la sua incertezza<br />
in alcun modo.<br />
Egli può solo dire che ciascun ϑj descrive un possibile stato del mondo e<br />
ϑ1, ϑ2, . . . , ϑn è una lista esaustiva delle possibilità.<br />
Come sceglie un decisore sotto stretta incertezza?<br />
Vediamo alcuni criteri:<br />
1. WALD’S MAX-MIN RETURN (1950) Con l’azione ai la peggior conseguenza<br />
possibile per il decisore è:<br />
si = min vij<br />
j = 1, . . . , n<br />
È chiamato livello di sicurezza di ai.<br />
Se interpretiamo vij come un valore finanziario, si può essere interpretato<br />
notando che ai garantisce al decisore un ritorno di almeno si.<br />
Il criterio del max-min ritorno suggerito suggerito da WALD è: scegliere<br />
l’azione ak:<br />
è un criterio molto pessimista.<br />
sk = max {min (vij)}<br />
i j<br />
2. HURCHIWICZ-INDICE DI OTTIMISMO/PESSIMISMO<br />
Definiamo il livello di ottimismo di ai come<br />
σi = max vij<br />
j = 1, . . . , n<br />
cioè il valore della miglior conseguenza che ai può dare.<br />
Il criterio del max-min ritorno è<br />
m m n<br />
σk = max {σi} = max {max (vij)}<br />
i = 1 i = 1 j = 1<br />
10
Questo è una critica al criterio pessimista di WALD: perché è più razionale<br />
essere pessimisti che ottimisti?<br />
Un vecchio proverbio dice:<br />
“IT IS BETTER TO BE SAFE THAN SORRY”.<br />
Il criterio di WALD è più prudente ma “NOTHING VENTURED, NO-<br />
THING GAINED”.<br />
HURCHIWICZ (1951) suggerì che poche persone sono così pessimiste<br />
o così ottimiste come questi estremi possono portare, suggerì così una<br />
strada di mezzo: sostenne che un decisore dovrebbe scegliere le azioni<br />
in accordo ad una media pesata dei livelli di sicurezza e di ottimismo<br />
αsi + (1 − α)σi con 0 ≤ α ≤ 1<br />
α è l’indice di ottimismo/pessimismo.<br />
HURCHIWICZ raccomanda per la regola di decisione di scegliere<br />
n<br />
ak : αsk + (1 − α)σk = max {αsi + (1 − α)σi}<br />
i = 1<br />
3. SAVAGE MIN-MAX REGRET<br />
Savage (1951) osservò che nell’usare i valori vij per guidare una scelta,<br />
il decisore confronta il valore della conseguenza di un’azione sotto uno<br />
stato di natura con i valori di tutte le altre conseguenze qualunque sia<br />
lo stato di natura.<br />
Savage definisce il RIMPIANTO di una conseguenza come:<br />
m<br />
rij = max {vij} − vij<br />
i = 1<br />
cioè è la differenza tra il valore che risulta dalla miglior azione dato ϑj<br />
e il valore che risulta da ai sempre in ϑj (stato del mondo).<br />
Ad ogni azione si deve assegnare l’indice<br />
n<br />
ρi = max {rij} = massimo rimpianto che deriva dall’azione ai<br />
j = 1<br />
11
Allora si deve scegliere un’azione che minimizza ρi cioè scegliere ak:<br />
m m n<br />
ρk = min {ρi} = min {max (rij)}<br />
i = 1 i = 1 j = 1<br />
4. LAPLACE (1825) osservò che “non sapere nulla circa gli stati della<br />
natura” è lo stesso che “tutti gli stati hanno uguale probabilità”.<br />
Se è scelta l’azione ai e tutti gli stati hanno uguale probabilità, allora<br />
il decisore ha valore atteso da queste conseguenze incerte:<br />
n<br />
<br />
1<br />
vij<br />
n<br />
j=1<br />
e dovrebbe cercare di massimizzare il suo valore atteso di questa scelta<br />
cioè scegliere ak:<br />
n m n<br />
1<br />
n vkj = max<br />
j = 1 i = 1 j = 1<br />
12<br />
1<br />
n vij
T ABLE 1 : ESEMP IO DI MILNOR<br />
ϑ1 ϑ2 ϑ3 ϑ4 si σi<br />
a1 2 2 0 1 0 2 5/4<br />
a2 1 1 1 1 1 1 1<br />
a3 0 4 0 0 0 4 1<br />
a4 1 3 0 0 0 3 1<br />
1<br />
j ( n )vij<br />
T ABLE 2 : RIMP IANT I P ER L ′ ESEMP IO DI MILNOR<br />
Esempio per il calcolo:<br />
ϑ1 ϑ2 ϑ3 ϑ4 ρi<br />
a1 0 2 1 0 2<br />
a2 1 3 0 0 3<br />
a3 2 0 1 1 2<br />
a4 1 1 1 1 1<br />
r22 = max{2, 1, 4, 3} − 1 = 4 − 1 = 3<br />
13
- CRITERIO DI LAPLACE: a1<br />
- CRITERIO DI WALD: a2<br />
- CRITERIO DI HURCHIWICZ: assegna gli indici<br />
rispettivamente ad<br />
2(1 − α), 1, 4(1 − α), 3(1 − α)<br />
a1, a2, a3, a4.<br />
In quanto αsk + (1 − α)σk = max{αsi + (1 − α)σi}<br />
0 ≤ α < 1 4(1 − α) > 2(1 − α)<br />
4(1 − α) > 3(1 − α)<br />
se α < 3/4 4(1 − α) > 1<br />
così il criterio di Hurchiwicz sceglie a3 per α < 3/4.<br />
- CRITERIO DI SAVAGE: a4<br />
Ogni criterio sceglie un’azione differente.<br />
SONO TUTTI BUONI CRITERI?<br />
1.3 Decisioni intertemporali<br />
Molti problemi decisionali hanno a che vedere con progetti in cui i costi e i<br />
benefici crescono con un certo numero di anni.<br />
Consideriamo solo casi in cui i costi e i benefici sono interamente monetari.<br />
Vediamo ad esempio il flusso di cassa (CASH-FLOW) dato nei 6 progetti<br />
della tavola seguente:<br />
14
ANNI A B C D E F<br />
0 -10 M -10 M -10 M -1 M -16 M -16 M<br />
1 +5 M +5 M +2 M +0.5 M +16 M +3.2 M<br />
2 +5 M +5 M +8 M +0.5 M +5 M +19.2 M<br />
3 0 +5 M +5 M +0.5 M 0 0<br />
4 0 +5 M +5 M +0.5 M 0 0<br />
Consideriamo solo 2 tipi di decisione:<br />
1) ACCETTARE O RIFIUTARE<br />
2) CLASSIFICARE<br />
Nel caso 1) ciascun progetto è considerato indipendente da tutti gli altri.<br />
Nel caso 2) tutti i progetti sono confrontati e classificati con l’intenzione di<br />
adottare un singolo progetto: il più favorevole.<br />
È importante includere un progetto nullo che rappresenta lo status quo.<br />
In questo contesto studieremo solo le decisioni di tipo 2) (“classificare”).<br />
Discutiamo qui 4 regole decisionali, regole che aiutano il decisore a classificare<br />
i progetti che coinvolgono costi e benefici temporali.<br />
La regola più semplice è confrontare progetti tenuto conto del tempo in cui<br />
chiudono in pareggio cioè tenendo conto del periodo di rimborso.<br />
Questo viene chiamato PAYBACK-METHOD (o METODO DI RIMBOR-<br />
SO).<br />
Lo indicheremo con PM.<br />
Il progetto A ha un periodo di rimborso di 2 anni, così anche B, C, D.<br />
15
Il progetto E ha un periodo di rimborso di 1 anno.<br />
Il progetto F ha un periodo di rimborso di 2 anni.<br />
Questo metodo considera il progetto E il più favorevole, ma non distingue<br />
tra i progetti A, B, C, D e F.<br />
Questo metodo contiene un certo numero di errori, vediamone alcuni:<br />
i) In nessun conto è tenuto il profitto totale dopo il rimborso (confronta<br />
A e B).<br />
ii) In nessun conto è tenuta la misura dell’investimento (confronta B e D).<br />
iii) In nessun conto è tenuta la distribuzione di entrata e uscita (reddito e<br />
spesa) confronta B e C.<br />
iv) Il periodo di rimborso non è chiaramente definito se il progetto coinvolge<br />
investimenti di più anni.<br />
ESEMPIO:<br />
INVESTIMENTI -10 M + 10 M +4 M -4 M +4 M<br />
ANNI 0 1 2 3 4<br />
Qual è il periodo di rimborso? 1 anno oppure 3 anni?<br />
Due parole in favore del metodo di rimborso (PM):<br />
1.<br />
È molto semplice da capire e usare.<br />
2. Minimizzando il periodo di rimborso si minimizza il rischio, infatti,<br />
essendo il futuro incerto, un decisore dovrebbe minimizzare il tempo in<br />
cui un investimento è in sospeso.<br />
Un altro metodo più opportuno di valutare lo “scorrere del tempo” è suggerito<br />
dal metodo ARR (=ACCOUNTING RATE OF RETURN = STIMA<br />
DELLA VELOCITÀ DEL GUADAGNO)<br />
ARR =<br />
PROFITTO MEDIO × ANNO DI 1 PROGETTO<br />
SPESA DEL CAPITALE<br />
16<br />
× 100%
Allora indicando ARR(A) per calcolare ARR del progetto A, si ottiene:<br />
ARR(A) =<br />
(5 + 5 − 10)/2<br />
10<br />
× 100% = 0%<br />
(5 + 5 + 5 + 5 − 10)/4<br />
ARR(B) = × 100% = 25%<br />
10<br />
(2 + 8 + 5 + 5 − 10)/4<br />
ARR(C) = × 100% = 25%<br />
10<br />
(0.5 + 0.5 + 0.5 + 0.5 − 1)/4<br />
ARR(D) = × 100% = 25%<br />
1<br />
(16 + 5 − 16)/2<br />
ARR(E) = × 100% = 15.6%<br />
16<br />
(3.2 + 19.2 − 16)/2<br />
ARR(F) = × 100% = 20%<br />
16<br />
Con questo metodo l’ordine di preferenza dei progetti è il seguente:<br />
B, C, D sono i migliori<br />
poi<br />
F, E, A.<br />
Diversamente dal metodo di rimborso PM il criterio ARR tiene conto del<br />
profitto necessario dopo che un progetto chiude in pareggio (esempio B è<br />
meglio di A).<br />
Inoltre è sempre ben definito.<br />
Tuttavia:<br />
i) non è presa in considerazione la misura dell’investimento (confronta B<br />
e D);<br />
ii) non è presa in considerazione la distribuzione dei beni in entrata e in<br />
uscita (confronta B e C).<br />
Né il metodo PM né il metodo ARR coinvolgono fattori di sconto. La<br />
maggior parte di noi preferirebbe avere 100 euro ora piuttosto che 100 euro<br />
tra un anno cioè in termini economici manifestiamo preferenze temporali sui<br />
consumi in periodi differenti.<br />
Supponiamo che 1 euro ora sia equivalente a (1+r) euro r>0 in un anno allora<br />
1 euro ricevuta in n anni è peggio di (1/(1 + r)) n euro ricevute ora.<br />
17
Usiamo questa idea per valutare la bontà di un progetto mediante il metodo:<br />
NPV=NET PRESENT VALUE=VALORE ATTUALE NETTO.<br />
Allora calcoliamo NPV(A), NPV(B), ecc.<br />
NPV(A) = −10M + 5 5<br />
M + M + 0 + 0<br />
1 + r (1 + r) 2<br />
NPV(B) = −10M + 5<br />
M +<br />
1 + r<br />
NPV(C) = −10M + 2<br />
M +<br />
1 + r<br />
5<br />
M +<br />
(1 + r) 2<br />
8<br />
M +<br />
(1 + r) 2<br />
5<br />
M +<br />
(1 + r) 3<br />
5<br />
M +<br />
(1 + r) 3<br />
5<br />
M<br />
(1 + r) 4<br />
5<br />
M<br />
(1 + r) 4<br />
NPV(D) = −1M + 0.5 0.5 0.5 0.5<br />
M + M + M + M<br />
1 + r (1 + r) 2 (1 + r) 3 (1 + r) 4<br />
NPV(E) = −16M + 16 5<br />
M + M + 0 + 0<br />
1 + r (1 + r) 2<br />
NPV(F) = −16M + 3.2 19.2<br />
M + M + 0 + 0<br />
1 + r (1 + r) 2<br />
In generale r è noto come TASSO DI SCONTO (=DISCOUNT RATE).<br />
Ci sono varie controvesie circa il valore numerico da assegnare ad r ma qui<br />
non ne parleremo, per il nostro problema assumeremo<br />
Quindi:<br />
r = 0.1<br />
NPV(A) = −1.322M<br />
NPV(B) = 5.850M<br />
NPV(C) = 5.601M<br />
NPV(D) = 0.585M<br />
NPV(E) = 2.678M<br />
NPV(F) = 2.777M<br />
Con questo metodo i progetti sono così ordinati come ordine di preferenze:<br />
18
1 ◦ B<br />
2 ◦ C<br />
3 ◦ F<br />
4 ◦ E<br />
5 ◦ D<br />
6 ◦ A<br />
Questo criterio non è soggetto a nessuna delle quattro critiche che erano state<br />
fatte per PM.<br />
Tuttavia ci chiediamo: il metodo NPV tiene conto del fattore r di sconto in<br />
maniera corretta?<br />
r è lo stesso ogni anno?<br />
Stabilire un valore appropriato al fattore di sconto per un particolare problema<br />
è sempre una questione controversa.<br />
Un metodo che supera, almeno in parte, questo problema è il criterio decisionale<br />
IRR=INTERNAL RATE OF RETURN = TASSO DI PROFITTO<br />
INTERNO.<br />
IRR è definito essere il valore di r tale che NPV di un progetto è zero.<br />
Per trovare IRR(A) dobbiamo risolvere<br />
−10M + 5M 5M<br />
+ = 0<br />
(1 + r) (1 + r) 2<br />
Pongo x = 1/(1 + r) e dividendo per 5M si ha:<br />
ed essendo x = 1/(1 + r) > 0 si ha<br />
−2 + x + x 2 = 0 ⇐⇒ x = 1 o x = −2<br />
1<br />
1 + r<br />
= 1 ⇐⇒ r = 0<br />
19
Allora<br />
IRR(A) = 0%<br />
In modo analogo si calcola IRR degli altri 5 progetti:<br />
IRR(A) = 0%<br />
IRR(B) = 35%<br />
IRR(C) = 32%<br />
IRR(D) = 35%<br />
IRR(E) = 25%<br />
IRR(F) = 20%<br />
Allora i progetti migliori sono B e D e i rimanenti nell’ordine: C, E, F, A.<br />
Osserviamo che IRR diversamente da NPV tiene conto della misura dell’investimento<br />
(confronta B e D).<br />
NPV classifica F sopra E.<br />
IRR classifica E sopra F.<br />
Si potrebbe discutere ancora a lungo su questa diversa classificazione (per<br />
approfondimenti cfr. S. French) ma fermiamoci qui: nessun metodo è completamente<br />
soddisfacente. . . .<br />
NPV sembra essere quello con meno inconvenienti ma potremmo discutere<br />
a lungo sulla sua applicabilità.<br />
1.4 Preferenze e funzioni di utilità<br />
Il modo più primitivo per descrivere delle preferenze è una relazione “≤”<br />
definita su un insieme Ω di esiti.<br />
Affinché la relazione sia un PREORDINE TOTALE è necessario che:<br />
∀ a, b, c ∈ Ω<br />
a ≤ b oppure b ≤ a (TOTALIT À)<br />
a ≤ b e b ≤ c =⇒ a ≤ c (TRANSITIVIT À)<br />
(segue la RIFLESSIVITÀ considerando b = a nella formula della totalità).<br />
20
La transitività è una richiesta razionale.<br />
La totalità ci assicura che un individuo può sempre esprimere una preferenza<br />
tra due esiti.<br />
Perché una persona razionale deve avere preferenze transitive? (ved. es.<br />
“money-pump”)<br />
La relazione di indifferenza è definita da:<br />
La relazione di stretta preferenza da:<br />
a ≤ b e b ≤ a ⇐⇒ a ∼ b<br />
a ≤ b e non a ∼ b ⇐⇒ a < b<br />
Il problema della decisione consiste nel trovare l’esito ω (ω ∈ S ⊂ Ω) che il<br />
decisore preferisce.<br />
(Notiamo che tale ω potrebbe non esistere, ad esempio se S è infinito. Esiste<br />
il numero più grande nell’intervallo (0,1)? Nel nostro contesto evitiamo simili<br />
casi).<br />
In molte situazioni può essere difficile esprimere le preferenze allora le funzioni<br />
di utilità sono l’espediente matematico per semplificare la situazione.<br />
Una funzione u : Ω −→ R è una funzione di utilità che rappresenta la<br />
relazione di preferenza “≤” se e solo se<br />
u(a) ≤ u(b) ⇐⇒ a ≤ b<br />
allora il problema di trovare il miglior ω ∈ S si riduce al più facile problema<br />
di trovare un valore di ω ∈ S per cui<br />
u(ω) = max u(S)<br />
s ∈ S<br />
21
PARADOSSO DI S. PIETROBURGO<br />
Consideriamo la lotteria illustrata in figura<br />
PREMIO $2 $4 $8 $16 . . . . . . . . . $2 k . . . . . . . . .<br />
SUCCESSIONE<br />
DI H TH TTH TTTH . . . . . . . . . T. . . TH . . . . . . . . .<br />
MONETE<br />
PROBABILIT À<br />
1<br />
2<br />
1<br />
4<br />
1<br />
8<br />
1<br />
16<br />
T = toss (croce)<br />
H = head (testa)<br />
. . . . . . . . .<br />
Si può realizzare lanciando una moneta ripetutamente finché non mostra<br />
testa (H).<br />
La tabella va interpretata così:<br />
leggendo la 1acolonna: vinco $2 se viene testa (H) al 1o lancio<br />
e ciò può avvenire con probabilità 1<br />
leggendo la 2<br />
2<br />
acolonna: vinco $4 se viene testa (H) al 2o lancio<br />
e ciò può avvenire con probabilità 1<br />
4<br />
ecc.<br />
Se la moneta mostra testa (H) al k-simo lancio vinco $2 k .<br />
Quanto sareste disposti a pagare per partecipare a questa lotteria?<br />
Supponiamo che ciascun lancio della moneta sia indipendente, le probabilità<br />
sono calcolate come indicato in tabella.<br />
Vediamo come esempio il caso k = 4 cioè la probabilità che esca testa al 4 ◦<br />
lancio:<br />
22<br />
<br />
1<br />
2<br />
k<br />
. . . . . . . . .
1<br />
prob(TTTH) = prob(T) · prob(T) · prob(T) · prob(T) =<br />
2<br />
Il valore atteso in dollari nella lotteria di S. Pietroburgo è allora:<br />
ε(L) = 2 prob(H) + 4 prob(TH) + 8 prob(TTH) + · · · =<br />
2 × 1 1 1<br />
+ 4 × + 8 × + · · · = 1 + 1 + 1 + · · · = +∞<br />
2 4 8<br />
4<br />
= 1<br />
16<br />
il che significa che il valore atteso in dollari della lotteria è infinito.<br />
Sareste quindi disposti a spendere il vostro intero patrimonio per comprare<br />
un biglietto per partecipare alla lotteria?<br />
Poca gente farebbe così soprattutto dopo aver notato che la probabilità di<br />
concludere con più di 8$ è solo 1<br />
8 .<br />
Non è sufficiente scegliere una lotteria che mi dà il più alto valore atteso in<br />
dollari per dire di aver fatto una scelta razionale, una teoria che dicesse ciò<br />
è insufficiente.<br />
Quindi: per valutare un investimento richiesto, il guadagno atteso non è il<br />
criterio che la gente adotta, il criterio è L’UTILITÀ ATTESA.<br />
1.5 Equilibri di Nash<br />
Definizione 1.2 GIOCO NON COOPERATIVO<br />
Un gioco non cooperativo a 2 giocatori è una quaterna Γ = (X, Y, f, g) dove<br />
X, Y sono gli insiemi delle strategie dei due giocatori, f, g sono le funzioni di<br />
utilità dei due giocatori<br />
f, g : X × Y −→ R<br />
Definizione 1.3 EQUILIBRIO DI NASH<br />
Diremo che una coppia di strategie (x, y) ∈ X × Y è un equilibrio di Nash se<br />
f(x, y) ≥ f(x, y) ∀ x ∈ X<br />
g(x, y) ≥ g(x, y) ∀ y ∈ Y<br />
Riprendiamo alcuni esempi già noti in lezioni precedenti:<br />
23
Esempio 1.4 MORRA CINESE<br />
II<br />
I<br />
non esistono equilibri di Nash.<br />
S C F<br />
S 0 0 -1 1 1 -1<br />
C 1 -1 0 0 -1 1<br />
F -1 1 1 -1 0 0<br />
S = sasso<br />
C = carta<br />
F = forbice<br />
Esempio 1.5 DILEMMA DEL PRIGIONIERO<br />
II<br />
I<br />
C NC<br />
C -8 -8 0 -10<br />
NC -10 0 -1 -1<br />
Due persone sono accusate di aver commesso un grave crimine<br />
24
• se ambedue confessano subiscono la pena di 8 anni di galera.<br />
• se non confessano non ci sono prove sufficienti a stabilire chi ha commesso<br />
il crimine, ma il giudice li condanna per un reato minore: 1 anno<br />
di galera.<br />
• se uno confessa la partecipazione di entrambi, per una legge speciale, è<br />
libero e l’altro è condannato a 10 anni di galera.<br />
La matrice associata è quella in figura.<br />
C’è un solo equilibrio di Nash (NE):(CC) (cioè entrambi confessano), ma il<br />
risultato è insoddisfacente per entrambi perché così faranno 8 anni di galera.<br />
Se entrambi si mettessero d’accordo di non confessare, farebbero meno anni<br />
di galera, ma l’accordo è instabile perché se uno sa che l’altro non confessa<br />
allora gli conviene confessare così sarà libero: è un dilemma.<br />
L’equilibrio di Nash è l’unica soluzione accettabile però è poco soddisfacente.<br />
Esempio 1.6 BATTAGLIA DEI SESSI<br />
❍<br />
❍❍❍❍❍ II<br />
I<br />
L R<br />
T 3 1 0 0<br />
B 0 0 1 3<br />
esistono due equilibri di Nash: (T,L) e (BR).<br />
Esempio 1.7 GIOCO A 3 GIOCATORI<br />
Questo gioco coinvolge 3 giocatori: ciascun giocatore può prendere 1 oppure<br />
2 monete nella sua mano.<br />
25
Se ogni giocatore ha un numero differente di monete dagli altri giocatori allora<br />
egli ottiene un payoff uguale al numero delle monete che ha in mano e<br />
gli altri non ottengono niente.<br />
Chiamiamo I, II III i tre giocatori.<br />
Spazio delle strategie del giocatore I: X = {1, 2}<br />
dove 1 indica una moneta e 2 indica due monete.<br />
Y = {1, 2} (spazio delle strategie del giocatore II).<br />
Z = {1, 2} (spazio delle strategie del giocatore III).<br />
❍<br />
❍❍❍❍❍ II<br />
I<br />
j=1 j=2<br />
i=1 0 0 0 0 2 0<br />
i=2 2 0 0 0 0 1<br />
❍<br />
❍❍❍❍❍ II<br />
I<br />
gli equilibri di Nash sono:<br />
k = 1<br />
j=1 j=2<br />
i=1 0 0 2 1 0 0<br />
i=2 0 1 0 0 0 0<br />
k = 2<br />
(2, 1, 1), (1, 2, 1), (2, 2, 1)<br />
(1, 1, 2), (1, 2, 2), (2, 1, 2)<br />
26
ESERCIZI PROPOSTI<br />
1) Stabilire se esistono equilibri di Nash in strategie pure nel seguente<br />
gioco a 2 giocatori<br />
❍<br />
❍❍❍❍❍ II<br />
I<br />
C D<br />
A 1 1 1 1<br />
B 2 2 0 3<br />
2) stessa domanda nel seguente gioco a 3 giocatori<br />
dove X = {U, D}, Y = {L, R}, Z = {A, B, C}<br />
A<br />
❍<br />
❍❍❍❍❍ II<br />
I<br />
L R<br />
U 0 1 3 0 0 0<br />
D 1 1 1 1 0 0<br />
❍<br />
❍❍❍❍❍ II<br />
I<br />
B<br />
L R<br />
U 2 2 2 0 0 0<br />
D 0 0 0 2 2 2<br />
27
❍<br />
❍❍❍❍❍ II<br />
I<br />
C<br />
L R<br />
U 0 1 0 0 0 0<br />
D 1 1 0 1 0 3<br />
ESTENSIONE MISTA DI UN GIOCO<br />
Sia dato un gioco (che per semplicità di notazione supporremo a 2 giocatori<br />
e per evitare difficoltà tecniche supporremo AI e AII, spazi delle strategie<br />
dei due giocatori, finiti)<br />
G = ({I, II}, AI, AII, uI, uII)<br />
dicesi ESTENSIONE MISTA DI G il gioco G ∆ così definito<br />
G ∆ = ({I, II}, ∆(AI), ∆(AII), u ∆ I , u ∆ II)<br />
dove ∆(Ai) è lo spazio delle distribuzioni di probabilità su Ai.<br />
Cioè se ad esempio AI = {x1, . . . , xm}<br />
AII = {y1, . . . , yn}<br />
allora ∆(AI) = {p ∈ R m , ph ≥ 0 ∀ h e m<br />
h=1 ph = 1}<br />
e ∆(AII) = {q ∈ R n , qk ≥ 0 ∀ k e n<br />
k=1 qk = 1}.<br />
Risulta u ∆ i l’estensione di ui da AI × AII a ∆(AI) × (∆AII) per bilinearità<br />
cioè:<br />
u ∆ i (p, q) =<br />
m<br />
h=1 k=1<br />
n<br />
phqkui(xh, yk)<br />
è importante il fatto che: L’ESTENSIONE MISTA DI UN GIOCO FINITO<br />
HA SEMPRE UN EQUILIBRIO DI NASH (TEOREMA DI NASH 1950)<br />
(a volte si dice: ogni gioco finito ha equilibrio in strategie miste)<br />
28
ESEMPIO<br />
Vediamo nell’esempio della BATTAGLIA DEI SESSI di calcolare gli equilibri<br />
in strategie miste:<br />
q 1-q<br />
p 3 1 0 0<br />
1-p 0 0 1 3<br />
p, q ∈ [0, 1]<br />
Calcoliamo l’utilità attesa del giocatore I<br />
u ∆ I (p, q) = 3pq + 0 · p(1 − q) + 0 · (1 − p)q + 1 · (1 − p)(1 − q) =<br />
fissata q, consideriamo<br />
∂uI(p,q)<br />
∂p<br />
3pq + 1 − q − p + pq = 4pq + 1 − p − q<br />
u ∆ I (p, q) = 4pq + 1 − p − q = p(4q − 1) + 1 − q<br />
= 4q − 1<br />
⎧<br />
⎪⎨<br />
⎪⎩<br />
si ottiene così il seguente “grafico”<br />
> 0 ⇔ q > 1<br />
4 argmax uI = 1<br />
p<br />
= 0 ⇔ q = 1<br />
4 argmax uI = [0, 1]<br />
p<br />
< 0 ⇔ q < 1<br />
4 argmax uI = 0<br />
p<br />
29
q<br />
1<br />
¯q= 1<br />
4<br />
.<br />
. .<br />
0<br />
.<br />
◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦◦◦ .<br />
◦◦◦◦◦◦◦◦◦◦◦◦◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
questo è il grafico della miglior risposta del giocatore I fissata la strategia<br />
del II; la indico con RI(q).<br />
Calcoliamo ora l’utilità attesa del giocatore II<br />
uII(p, q) = 1·pq+0·p(1−q)+0·(1−p)q+3(1−p)(1−q) = pq+3(1−p)(1−q) =<br />
= pq + 3(1 − q − p + pq) = pq + 3 − 3q − 3p + 3pq = 4pq − 3p − 3q + 3<br />
uII(p, q) = (4p − 3)q + 3(1 − p)<br />
cerco q che rende massima uII(p, ·)<br />
∂uII(p,q)<br />
∂q<br />
= 4p − 3<br />
⎧<br />
⎪⎨<br />
⎪⎩<br />
1<br />
.. .<br />
> 0 ⇔ p > 3<br />
4 ⇒ argmax uII(p, ·) = 1<br />
q<br />
= 0 ⇔ p = 3<br />
4 ⇒ argmax uII(p, ·) = [0, 1]<br />
q<br />
< 0 ⇔ p < 3<br />
4 ⇒ argmax uII(p, ·) = 0<br />
q<br />
si ottiene così il “grafico” di RII(p) (cioè la miglior risposta del giocatore II<br />
fissata la strategia del giocatore I)<br />
30<br />
p
q<br />
1<br />
.<br />
. .<br />
.<br />
0 ¯p= 1 3<br />
◦<br />
◦◦◦ ◦ ◦ ◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦<br />
◦<br />
4<br />
da cui sovrapponendo i due “grafici” ridotti otteniamo i due equilibri di Nash<br />
in strategie miste e cioè<br />
(p, q) = (0, 0)<br />
(1, 1)<br />
<br />
3 1<br />
,<br />
4 4<br />
(uI(0, 0), uII(0, 0)) = (1, 3) equilibrio in strategie pure<br />
(uI(1, 1), uII(1, 1)) = (3, 1) equilibrio in strategie pure<br />
<br />
uI<br />
3 1<br />
,<br />
4 4<br />
, uII<br />
3 1<br />
,<br />
4 4<br />
=<br />
3 3<br />
,<br />
4 4<br />
e questo è un nuovo equilibrio che trovo in strategie miste.<br />
ESERCIZIO PROPOSTO:<br />
Provate a calcolare gli equilibri in strategie miste per il dilemma del prigioniero.<br />
Definizione 1.8 Un gioco G a due giocatori dicesi a somma zero se<br />
.. .<br />
uI(x, y) + uII(x, y) = 0 ∀ x ∈ X, ∀ y ∈ Y<br />
31<br />
p
ESERCIZIO:<br />
Si determinino gli equilibri di Nash in strategie miste del gioco a somma zero<br />
rappresentato dalla matrice:<br />
SOLUZIONE ESERCIZIO:<br />
S D<br />
A 1 3<br />
B 4 2<br />
X = {S, D} spazio delle strategie del I giocatore<br />
Y = {A, B} spazio delle strategie del II giocatore<br />
Questo gioco non ha equilibri in strategie pure ma per il Teorema di Nash<br />
sappiamo che ha almeno un equilibrio in strategie miste.<br />
Calcoliamo l’utilità attesa da I:<br />
uI(p, q) = pq · 1 + p(1 − q)3 + (1 − p)q · 4 + (1 − p)(1 − q) · 2 =<br />
= p(1 − 4q) + 2(q + 1)<br />
uI(p, q) = p(1 − 4q) + 2(q + 1)<br />
∂uI(p,q)<br />
∂p<br />
= 1 − 4q<br />
⎧<br />
⎪⎨<br />
⎪⎩<br />
> 0 ⇔ q < 1<br />
4 ⇒ argmax uI = 1<br />
p<br />
= 0 ⇔ q = 1<br />
4 ⇒ argmax uI = [0, 1]<br />
p<br />
< 0 ⇔ q > 1<br />
4 ⇒ argmax uI = 0<br />
p<br />
32
q<br />
1<br />
¯q= 1<br />
4<br />
.<br />
. .<br />
0<br />
.<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦<br />
.<br />
◦<br />
◦<br />
◦<br />
◦<br />
uII(p, q) = pq(−1) + p(1 − q)(−3) + (1 − p)q(−4) + (1 − p)(1 − q)(−2) =<br />
= 4pq − p − 2q − 2<br />
uII(p, q) = 2q(2p − 1) − (p + 2)<br />
∂uII(p,q)<br />
∂q<br />
= 2(2p − 1)<br />
⎧<br />
⎪⎨<br />
⎪⎩<br />
1<br />
. . .<br />
p<br />
> 0 ⇔ p > 1<br />
2 ⇒ argmax uII = 1<br />
q<br />
= 0 ⇔ p = 1<br />
2 ⇒ argmax uII = [0, 1]<br />
q<br />
< 0 ⇔ p < 1<br />
2 ⇒ argmax uII = 0<br />
q<br />
33
q<br />
1<br />
.<br />
. .<br />
.<br />
0 ¯p= 1<br />
1<br />
◦<br />
◦ ◦ ◦ ◦<br />
◦◦◦ ◦ ◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦<br />
◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦<br />
◦<br />
2<br />
Si ottiene così un equilibrio in strategie miste dato da (p, q) = ( 1 1 , 2 4 )<br />
<br />
uI<br />
<br />
1 1<br />
,<br />
2 4<br />
, uII<br />
.. .<br />
<br />
1 1<br />
,<br />
2 4<br />
=<br />
5<br />
, −5<br />
2 2<br />
.<br />
1.6 Giochi in forma estesa I<br />
Un qualunque gioco può essere rappresentato sia in forma normale che in<br />
forma estesa?<br />
Le due forme sono equivalenti?<br />
Per rispondere a queste domande classifichiamo i giochi che abbiamo incontrato<br />
in 4 classi:<br />
GIOCO STATICO è un gioco in cui i giocatori scelgono contemporaneamente<br />
le azioni.<br />
GIOCO A INFORMAZIONE COMPLETA è un gioco in cui la funzione dei<br />
payoff di ogni giocatore è nota ad ogni giocatore (cioè è conoscenza comune)<br />
GIOCO DINAMICO è un gioco in cui i giocatori scelgono le azioni in modo<br />
sequenziale (il 2 ◦<br />
osserva cosa fa il 1 ◦<br />
e poi decide . . . )<br />
GIOCO A INFORMAZIONE PERFETTA è un gioco in cui in corrispondenza<br />
ad ogni mossa, il giocatore cui spetta muovere è a conoscenza dell’intera<br />
34<br />
p
storia fino a quel momento o anche se ogni insieme di informazione contiene<br />
un solo nodo.<br />
Osservazione 1.9 Un gioco statico può essere pensato come un gioco dinamico<br />
ad informazione imperfetta.<br />
La rappresentazione in forma estesa di un gioco specifica:<br />
1. i giocatori che prendono parte al gioco<br />
2. quando i giocatori hanno diritto alla mossa<br />
3. cosa possono fare i giocatori in ogni circostanza in cui hanno diritto a<br />
una mossa<br />
4. cosa conosce ogni giocatore quando gli spetta muovere<br />
5. i payoff ricevuti da ciascun giocatore in corrispondenza ad ogni combinazione<br />
di mosse che può essere scelta dai giocatori.<br />
Esempio 1.10 Gioco a informazione completa e perfetta:<br />
L ′<br />
L<br />
I<br />
•<br />
II II<br />
• •<br />
R ′<br />
.<br />
•<br />
.<br />
•<br />
.<br />
•<br />
.<br />
•<br />
(3,1) (1,2) (2,1) (0,0)<br />
F ig.1<br />
35<br />
R<br />
L ′<br />
R ′
1. il giocatore I sceglie un’azione a1 dall’insieme ammissibile A1 = {L, R}<br />
2. il giocatore II osserva a1 e poi sceglie un’azione a2 dall’insieme A2 =<br />
{L ′<br />
, R ′<br />
}<br />
3. i payoff sono u1(a1, a2), u2(a1, a2) e sono indicati nell’albero del gioco.<br />
Questo albero del gioco comincia da un NODO DECISIONALE in cui I decide<br />
tra L oppure R, se il giocatore I sceglie L, viene raggiunto un nodo<br />
decisionale dal giocatore II che può scegliere tra L ′<br />
e R ′<br />
. Analogamente se<br />
I sceglie R.<br />
In seguito ad ogni scelta del giocatore II si giunge ad un nodo terminale<br />
(cioè il gioco finisce) e i payoff indicati sono ricevuti dai giocatori.<br />
Vogliamo ora rappresentare il gioco in forma normale (o strategica).<br />
Nel gioco della Fig. 1, il giocatore II ha due azioni e 4 strategie perché ci<br />
sono 2 diverse circostanze (cioè aver osservato il giocatore I e scegliere L<br />
oppure aver osservato il giocatore I e scegliere R) in cui II può trovarsi:<br />
ricordo che la STRATEGIA per un giocatore è un piano completo di azione<br />
cioè specifica un’azione ammissibile del giocatore per ciascuna circostanza in<br />
cui il giocatore può essere chiamato ad agire.<br />
Ritornando alla Fig. 1, cerchiamo di stabilire le strategie del giocatore II:<br />
Strategia 1: se il giocatore I gioca L allora II gioca L ′<br />
,<br />
se il giocatore I gioca R allora II gioca L ′<br />
;<br />
questa strategia è indicata con (L ′<br />
L ′<br />
).<br />
Strategia 2: se il giocatore I gioca L allora II gioca L ′<br />
,<br />
se il giocatore I gioca R allora II gioca R ′<br />
Strategia 3: se il giocatore I gioca L allora II gioca R ′<br />
,<br />
se il giocatore I gioca R allora II gioca L ′<br />
(R ′<br />
Strategia 4: se il giocatore I gioca L allora II gioca R ′<br />
,<br />
se il giocatore I gioca R allora II gioca R ′<br />
(L ′<br />
(R ′<br />
R ′<br />
).<br />
L ′<br />
).<br />
R ′<br />
).<br />
Anche il giocatore I ha 2 azioni ma solo due strategie: giocare L oppure<br />
36
R (perché ha la prima mossa del gioco) quindi<br />
A1 = {L, R}<br />
Il gioco in forma estesa della Fig. 1 ha la seguente rappresentazione strategica:<br />
❍<br />
❍❍❍❍❍ II ′<br />
L L<br />
I<br />
′<br />
L ′<br />
R ′<br />
R ′<br />
L ′<br />
R ′<br />
R ′<br />
L 3 1 3 1 1 2 1 2<br />
R 2 1 0 0 2 1 0 0<br />
Fig.2<br />
Definizione 1.11 Un insieme d’informazione (o insieme informativo) di<br />
un giocatore è un insieme di nodi decisionali che soddisfano le seguenti condizioni:<br />
i) in corrispondenza di ogni nodo dell’insieme di informazione, il giocatore<br />
ha diritto alla mossa.<br />
ii) quando lo svolgimento del gioco raggiunge un nodo dell’insieme di informazione,<br />
il giocatore a cui spetta la mossa non sa quale nodo dell’insieme<br />
di informazione è stato (oppure non è stato) raggiunto.<br />
37
ESEMPIO 1<br />
S<br />
I<br />
•<br />
II II<br />
• •<br />
l r L R<br />
.<br />
•<br />
vince I<br />
.<br />
•<br />
pari<br />
.<br />
•<br />
vince I<br />
.<br />
•<br />
vince II<br />
Se tutti gli insiemi di informazione sono “singleton” abbiamo un gioco a<br />
INFORMAZIONE PERFETTA<br />
❍<br />
❍❍❍❍❍ II<br />
I<br />
D<br />
l L rL lR rR<br />
S 1 0 1 1 1 0 1 1<br />
D 1 0 1 0 0 1 0 1<br />
38
1<br />
2<br />
ESEMPIO 2<br />
I<br />
•<br />
II II<br />
• •<br />
.<br />
.<br />
•<br />
.<br />
.<br />
•<br />
.<br />
•<br />
.<br />
•<br />
1<br />
2<br />
• • • •<br />
1<br />
1<br />
2<br />
2<br />
5<br />
1<br />
1<br />
3<br />
S<br />
l r L R<br />
Le strategie di I sono: S, D,<br />
le strategie di II sono: lL,lR, rL, rR,<br />
dove<br />
lL indica che: II gioca l se I gioca S<br />
II gioca L se I gioca D<br />
lR indica che: II gioca l se I gioca S<br />
II gioca R se I gioca D<br />
2<br />
3<br />
39<br />
4<br />
1<br />
0<br />
2<br />
D<br />
4<br />
0
❍<br />
❍❍❍❍❍ II<br />
I<br />
S<br />
3<br />
2<br />
l L lR rL rR<br />
3<br />
2<br />
3<br />
2<br />
3<br />
2<br />
13 13 1 3 3<br />
D 0 2 4 0 0 2 4 0<br />
Infatti se I gioca S e II gioca lL l’utilità attesa dal giocatore I è:<br />
e l’utilità attesa di II è:<br />
Se I gioca S e II gioca rL<br />
eccetera.<br />
εuI = 1 · 1 1<br />
+ 2 ·<br />
2 2<br />
εuII = 1 · 1 1<br />
+ 2 ·<br />
2 2<br />
= 3<br />
2<br />
= 3<br />
2<br />
εuI = 1 2 13<br />
· 5 + · 4 =<br />
3 3 3<br />
εuII = 1 2<br />
· 1 + · 1 = 1<br />
3 3<br />
40<br />
1
ESERCIZIO.<br />
Come si rappresenta il “dilemma del prigioniero” con un gioco in forma<br />
estesa?<br />
Risoluzione:<br />
NC<br />
I<br />
•<br />
II II<br />
•− − − − − − − − − − •<br />
NC C NC C<br />
.<br />
•<br />
.<br />
•<br />
.<br />
•<br />
.<br />
•<br />
(−1,−1) (−10,0) (0,−10) (−8,−8)<br />
(confronta Esempio 1.5)<br />
Ricordo che un gioco statico può essere pensato come un gioco dinamico<br />
a informazione imperfetta.<br />
41<br />
C
QUIZ<br />
È una buona rappresentazione di un gioco in forma estesa?<br />
S<br />
I<br />
•<br />
A B<br />
•− − − − − •<br />
II − − − − −<br />
.<br />
•<br />
.<br />
•<br />
.<br />
• •<br />
.<br />
•<br />
(1,2) (2,1) (1,3) (0,1) (4,5)<br />
E la seguente?<br />
L<br />
II<br />
•<br />
•− − − − − •<br />
I<br />
− − − − −<br />
S D S D<br />
.<br />
•<br />
.<br />
•<br />
.<br />
•<br />
.<br />
•<br />
(1,−1) (−1,1) (1,−1) (−1,1)<br />
42<br />
R<br />
D<br />
....
TEST<br />
Che interpretazione puoi dare al seguente “albero”?<br />
II<br />
I<br />
•<br />
A<br />
• •.<br />
(1,2)<br />
B<br />
.<br />
.<br />
.<br />
• •<br />
(2,1)<br />
• •<br />
(1,0) (0,1)<br />
43<br />
D
QUIZ (QUIZ-MASTER)<br />
In un popolare quiz televisivo ai concorrenti è data l’opportunità di scegliere<br />
una fra tre porte. Una porta nasconde un premio, le altre non hanno<br />
niente.<br />
La concorrente non ha motivo di pensare che una particolare porta sia privilegiata<br />
rispetto ad un’altra.<br />
Il conduttore del gioco (=quiz-master) sa quale porta nasconde il premio.<br />
Dopo che la concorrente ha scelto provvisoriamente una porta, egli (il quizmaster)<br />
deve aprire una delle altre porte.<br />
La concorrente ha allora l’opportunità di cambiare idea circa la porta da<br />
scegliere.<br />
Supponiamo che la concorrente desideri rendere massima la probabilità di<br />
ottenere il premio e che il quiz-master desideri renderla minima.<br />
a) Descrivi una strategia ottimale del quiz-master e supponi che d’ora in<br />
poi egli giochi in accordo con questa strategia.<br />
b) Disegna l’albero del gioco.<br />
DOMANDE DI P ROBABILIT À<br />
c) Se la concorrente non cambia mai la sua scelta iniziale spiega perché la<br />
sua probabilità di vincere prima che il quiz-master apra la porta è 1<br />
3 .<br />
Perché la sua probabilità di vincere rimane 1 anche dopo che il quiz-<br />
3<br />
master ha aperto la porta?<br />
Perché una persona ingenua pensa che quest’ultima sia 1<br />
2 ?<br />
d) Se la concorrente cambia sempre la sua scelta dopo che il quiz-master<br />
ha aperto una porta spiega perché la sua probabilità di vincere è 2<br />
3 .<br />
Supponi che il quiz-master e la concorrente giocano al meglio.<br />
Perché una persona ingenua pensa che la probabilità sia 1<br />
2 ?<br />
44
1.7 Giochi in forma estesa II<br />
Data una certa situazione di gioco se ne può costruire una rappresentazione<br />
più o meno dettagliata a seconda degli scopi.<br />
Le regole del gioco devono specificare:<br />
1. chi sono i giocatori<br />
2. quando spetta muovere a ciascuno di loro<br />
3. quali sono le alternative tra le quali ciascun giocatore può scegliere<br />
4. di quali informazioni egli dispone a ciascuno dei turni che gli spettano<br />
5. quali sono gli esiti possibili del gioco<br />
6. l’utilità che ciascun giocatore consegue in ciascun esito<br />
Il gioco si può pensare definito quando sono specificate le sue regole.<br />
La struttura formale che consente una rappresentazione del gioco che comprende<br />
gli aspetti suddetti è<br />
L ′ ALBERO DEL GIOCO<br />
Un albero è un grafo orientato connesso, senza cicli.<br />
45
.<br />
.<br />
•<br />
•.<br />
ESEMPI:<br />
• •<br />
. .<br />
.<br />
...........................................................................................................................................................................<br />
.<br />
. .<br />
•<br />
• .<br />
•<br />
. ...........................................................................................................................................................................<br />
.<br />
. .<br />
• •<br />
•<br />
. .<br />
.<br />
• •<br />
a) b) c)<br />
grafo orientato grafo orientato grafo orientato<br />
sconnesso connesso connesso<br />
senza cicli con un ciclo<br />
Un grafo orientato è un insieme Y i cui elementi sono detti nodi e rappresentati<br />
come punti e una relazione R su Y , i cui elementi, coppie ordinate<br />
di nodi, sono detti archi e rappresentati come frecce (scriveremo x −→ y)<br />
invece di xRy.<br />
Le frecce hanno la coda nel primo nodo dell’arco (che viene detto predecessore)<br />
e la punta nel secondo nodo dell’arco (che viene detto successore del<br />
primo).<br />
Un grafo orientato dicesi albero se ha le seguenti proprietà:<br />
1) ogni nodo riceve una freccia da al massimo un altro nodo (ogni nodo<br />
ha al massimo un predecessore)<br />
2) dati due nodi distinti qualsiasi, esiste una successione finita di archi<br />
adiacenti (ossia, con un nodo comune, ma non necessariamente orientati<br />
nella stessa direzione) detta percorso che li collega (connessione del<br />
grafo)<br />
3) vi sono nodi, detti nodi iniziali o radici dell’albero, non raggiunti da<br />
alcuna freccia: che non hanno cioè predecessori immediati (esistenza<br />
delle radici)<br />
46<br />
..
•<br />
.<br />
.<br />
•<br />
. . .<br />
•<br />
.<br />
•<br />
Diciamo che nel grafo orientato Y vi è un ciclo se per qualche x ∈ Y vi è un<br />
percorso (x −→ y −→ . . . −→ x) che collega x a se stesso.<br />
•<br />
• •<br />
...........................................................................................................................................................................<br />
. .<br />
. .<br />
.<br />
•<br />
.<br />
.<br />
.<br />
.<br />
d) e) f)<br />
•<br />
•<br />
. .<br />
.<br />
• •<br />
No 1) No 2) No 3)<br />
Si 2) Si 1) Si 1)<br />
Si 3) Si 3) Si 2)<br />
•.<br />
• •<br />
.<br />
. .<br />
.<br />
.<br />
. .<br />
•<br />
• .<br />
•<br />
.<br />
.<br />
. .<br />
.<br />
• •<br />
.<br />
• •<br />
a) b) c)<br />
47<br />
..<br />
..<br />
•<br />
. .
a) b) c)<br />
No 1) No 1) Si 1)<br />
No 2) Si 2) Si 2)<br />
Si 3) Si 3) Si 3)<br />
Si dimostra facilmente che se un grafo orientato verifica le 3 condizioni dette,<br />
se cioè è un albero, allora:<br />
i) è privo di cicli<br />
ii) ha un’unica radice<br />
iii) ha nodi terminali (cioè privi di successori immediati)<br />
I nodi terminali rappresentano cioè gli esiti del gioco cioè le possibili conclusioni<br />
di una partita, sono rappresentati dai vettori payoff o vettori vincita.<br />
Sia X l’insieme dei nodi non terminali dell’albero.<br />
Ciascun nodo non terminale è indicato non solo col suo nome (indice del<br />
nodo) ma anche con il nome del giocatore al quale è assegnato (indice del<br />
giocatore).<br />
Ogni nodo spetta ad un solo giocatore.<br />
Ogni nodo rappresenta una ben definita fase del gioco cioè una situazione in<br />
cui, ad un dato giocatore, spetta scegliere tra le diverse alternative.<br />
Esiste una corrispondenza biunivoca tra le azioni possibili di un certo nodo<br />
(per il giocatore cui è assegnato questo nodo) e i successori immediati di quel<br />
nodo.<br />
48
Giochi ad informazione perfetta<br />
Un albero con l’assegnazione dei vettori vincita ai nodi terminali, con l’assegnazione<br />
dei nodi non terminali ai vari giocatori costituisce una risposta ai<br />
requisiti richiesti e perciò dicesi gioco in forma estesa.<br />
Cosideriamo i due giochi G1 e G2<br />
.<br />
U<br />
•. .<br />
•<br />
a<br />
(0,2)<br />
I<br />
x<br />
•<br />
G1<br />
.<br />
. .<br />
.<br />
• •<br />
b<br />
(1,1)<br />
E<br />
. .<br />
S R<br />
. .<br />
c<br />
(−1,−1)<br />
Il nodo iniziale x è assegnato al giocatore I.<br />
a, b, c sono gli esiti.<br />
In G1 il giocatore II, se chiamato a giocare, sa che I ha scelto E e non U,<br />
infatti se I sceglie U, la partita non raggiungerebbe mai il nodo y e quindi<br />
II non avrebbe mai la mossa.<br />
49
Quando un gioco è strutturato in modo che, a ciascun suo turno, ogni giocatore<br />
è al corrente delle azioni che hanno condotto ad esso, il gioco dicesi ad<br />
informazione perfetta.<br />
Consideriamo ora un gioco ad informazione imperfetta:<br />
.<br />
.<br />
U<br />
I<br />
x<br />
•<br />
•− − − − − − •<br />
z y<br />
II .<br />
− − − −<br />
S R S R<br />
. .<br />
•<br />
.<br />
•<br />
. .<br />
•<br />
.<br />
•<br />
(0,2) (0,2) (1,1) (−1,−1)<br />
. .<br />
G2<br />
L’insieme di informazione è un insieme di nodi con lo stesso indice di giocatori<br />
tra i quali per ipotesi (in G2 il giocatore II) non è in grado di distinguere.<br />
II non è in grado di distinguere tra y e z e per indicare questo fatto, i due<br />
nodi sono congiunti da un segmento tratteggiato.<br />
50<br />
.<br />
E<br />
. .<br />
. .................
Abbiamo già visto che una rappresentazione più sintetica dei giochi è la<br />
forma strategica (o forma normale del gioco).<br />
Dato in gioco in forma normale esiste sempre almeno un gioco in forma<br />
estesa che abbia quella come forma normale: si tratta di un gioco a mosse<br />
simultanee (quindi ad informazione imperfetta) in cui ciascuno sceglie un’azione<br />
(un elemento dell’insieme delle strategie) assegnato ad ogni giocatore<br />
in forma normale contemporaneamente agli altri e perciò a loro insaputa.<br />
Abbiamo così un gioco in forma estesa ad informazione imperfetta.<br />
51
....<br />
ESEMPI<br />
.<br />
U<br />
I<br />
•<br />
•− − − − − − •<br />
II .<br />
− − − −<br />
. .<br />
•<br />
.<br />
•<br />
. .<br />
•<br />
.<br />
•<br />
(0,2) (0,2) (1,1) (−1,−1)<br />
. .<br />
G2<br />
Corrisponde al gioco in forma normale:<br />
❍<br />
❍❍❍❍❍ II<br />
I<br />
......<br />
E<br />
S R<br />
U 0 2 0 2<br />
E 1 1 -1 -1<br />
G2n<br />
52<br />
. .<br />
. ...............
.<br />
Ma anche invertendo l’ordine in cui i giocatori eseguono le loro scelte come in<br />
S<br />
II<br />
•<br />
•−. − − − − − − − − − •<br />
.................<br />
U E U E<br />
. .<br />
•<br />
.<br />
•<br />
. .<br />
•<br />
.<br />
•<br />
(0,2) (1,1) (0,2) (−1,−1)<br />
. .<br />
.<br />
G ′<br />
2<br />
è un gioco in forma estesa, la cui forma normale è G2n.<br />
Questo non deve stupire: ciò che è importante sono le informazioni in possesso<br />
di ciascun giocatore, all’atto di decidere un’azione non la cronologia delle<br />
mosse.<br />
53<br />
R<br />
. .<br />
. .................
Tuttavia anche G1:<br />
.<br />
I<br />
•<br />
•. .<br />
•<br />
(0,2)<br />
U<br />
.<br />
E<br />
. .<br />
S R<br />
. .<br />
.<br />
• •<br />
(1,1) (−1,−1)<br />
ha forma normale G2n e questo è sconcertante!<br />
Perché G1 a differenza di G2 e G ′<br />
2 è ad informazione perfetta.<br />
Vi è una perdita di informazione nel passaggio dalla forma estesa alla forma<br />
normale del gioco?<br />
Vedremo in seguito che per l’analisi della soluzione di certi giochi in forma<br />
estesa, che richiede possibili deviazioni dalla soluzione di equilibrio è necessaria<br />
l’intera forma del gioco.<br />
54<br />
. .................
1.8 Raffinamenti degli equilibri di Nash<br />
Il problema di raffinare o perfezionare gli equilibri di Nash si pone per giungere<br />
ad una più soddisfacente nozione di soluzione di un gioco non cooperativo.<br />
L’argomento è affascinante e complesso perché all’inizio si cercava il raffinamento<br />
“giusto” successivamente si è visto che di criteri di raffinamento ve ne<br />
sono svariati e che i raffinamenti giusti non ci sono, ma la scelta dei raffinamenti<br />
dipende da numerosi elementi del contesto.<br />
Perfezione nei sottogiochi<br />
Il più noto dei raffinamenti è l’equilibrio perfetto nei sottogiochi.<br />
Consideriamo il gioco<br />
.<br />
U<br />
I<br />
x<br />
•<br />
•. .<br />
•<br />
y<br />
(0,2)<br />
G1<br />
55<br />
.<br />
E<br />
. .................<br />
II<br />
S R<br />
. .<br />
.<br />
• •<br />
(1,1) (−1,−1)<br />
. .................
❍<br />
❍❍❍❍❍ II<br />
I<br />
R S<br />
U 0 2 0 2<br />
E -1 -1 1 1<br />
G1n<br />
Come è evidente dalla forma normale il gioco ha due equilibri di Nash:<br />
(U, R) ed (E, S) (efficienti nel senso di Pareto).<br />
Vediamo perché il profilo di strategia (U, R) è un equilibrio di Nash.<br />
Se II adotta R a I conviene scegliere U.<br />
D’altra parte se I sceglie U, II non sarà chiamato a muovere e la sua vincita<br />
non dipenderà dalla strategia che adotta.<br />
Infatti le strategie di II si traducono in azioni solo se I sceglie E.<br />
Notiamo che la scelta di R mentre è indifferente per II se I sceglie U è determinante<br />
per indurre I a scegliere U.<br />
Tuttavia questo profilo di strategie (un equilibrio “buono”) è alquanto sospetto.<br />
Supponiamo che costituisca un accordo non vincolante tra I e II.<br />
A I non conviene osservarlo.<br />
Se I scegliesse E invece di U, in modo che II fosse chiamato a muovere, II<br />
sceglierebbe ovviamente l’alternativa per lui più vantaggiosa quindi sceglierebbe<br />
S, questo sarebbe nell’interesse di I che quindi violerebbe l’accordo.<br />
Quindi (U, R) può essere interpretato come equilibrio di minaccia in cui II<br />
ottiene 2 (invece di 1) minacciando I di portarlo alla rovina se I non decide<br />
U.<br />
Ma la minaccia non è credibile perché adottando la strategia R, II danneggia<br />
anche se stesso.<br />
Questo è chiaro anche a I che perciò procederà a scegliere E.<br />
Perciò l’equilibrio (U, R) non è ad attuazione spontanea (self-enforcing).<br />
56
Se II potesse impegnarsi a scegliere R, allora gli converrebbe farlo, ma non<br />
ci sono accordi vincolanti.<br />
L’equilibrio (E, S) ha invece qualcosa di più convincente di (U, R).<br />
Osserviamo che la parte dell’albero che inizia dal nodo y è esso stesso un<br />
gioco, quello in cui un solo giocatore è chiamato a muovere.<br />
Tale gioco dicesi sottogioco di G1.<br />
Precisiamo la definizione di sottogioco:<br />
dato un gioco in forma estesa G ed un nodo di G y, un sottoinsieme di nodi<br />
di G, chiamiamolo G ′<br />
, dicesi sottogioco proprio di G con radice in y se:<br />
1) y e tutti i successori in G stanno in G ′<br />
.<br />
2) y è l’unico elemento dell’insieme di informazioni a cui, in G, y appartiene.<br />
3) per ogni successore di y, z; se h(z) è l’insieme di informazioni a cui z<br />
appartiene in G e se w sta in h(z) allora anche w è un successore di y<br />
cioè anche w sta in G ′<br />
.<br />
Nel nostro esempio (E, S) è un equilibrio perfetto nei sottogiochi, (U, R) no;<br />
quindi può essere scartato come soluzione del gioco.<br />
In generale, un equilibrio di Nash s = (x ∗ , y ∗ ) di G dicesi perfetto nei sot-<br />
togiochi se per pgni sottogioco proprio G ′<br />
di G il NE s prescrive ad ogni<br />
giocatore delle azioni che sono un NE in G ′<br />
.<br />
Si può dimostrare che ogni gioco in forma estesa e finito ammette un equilibrio<br />
perfetto nei sottogiochi.<br />
57
S<br />
I<br />
•<br />
II<br />
• •.<br />
(2,3)<br />
L<br />
D<br />
I<br />
•− − − − − − − − − − •<br />
A B A B<br />
.<br />
•<br />
.<br />
•<br />
.<br />
•<br />
.<br />
•<br />
(3,2) (1,0) (0,0) (1,1)<br />
G2<br />
58<br />
R
❍<br />
❍❍❍❍❍ II<br />
I<br />
L R<br />
SA 2 3 2 3<br />
SB 2 3 2 3<br />
DA 3 2 0 0<br />
DB 1 0 1 1<br />
G2n<br />
NE: (SA, R) (SB, R) (DA, L)<br />
non perfetto perfetto perfetto<br />
nei sottogiochi nei sottogiochi nei sottogiochi<br />
(efficienti nel senso di Pareto)<br />
non è quindi garantita l’unicità dell’equilibrio perfetto nei sottogiochi<br />
59
Equilibri perfetti nei sottogiochi<br />
Esempio: dato il gioco in forma estesa<br />
I<br />
•<br />
.<br />
II .<br />
•. .<br />
. •<br />
(1,2)<br />
T<br />
G0<br />
si scriva la forma strategica o normale del gioco<br />
60<br />
.<br />
B<br />
L R<br />
. .<br />
.<br />
• •<br />
(0,0) (2,1)<br />
. .
❍<br />
❍❍❍❍❍ II<br />
I<br />
L R<br />
T 1 2 1 2<br />
B 0 0 2 1<br />
NE: (T, L) (B, R)<br />
guardando la forma estesa possiamo dire che (T, L) non è credibile nel senso<br />
che è basato su una minaccia vuota di II nei confronti di I (B, R) è un equilibrio<br />
perfetto nei sottogiochi ed è anche quello che si ottiene per induzione<br />
a ritroso.<br />
Infatti ogni soluzione per induzione a ritroso di un gioco in forma estesa G,<br />
è un equilibrio perfetto nei sottogiochi di G.<br />
1.9 Esempi di giochi con strategie dominate<br />
Esempio 1.12<br />
L MII R<br />
U 4 3 5 1 6 2<br />
MI 2 1 8 4 3 6<br />
D 3 0 9 6 2 8<br />
C’è un modo ovvio di predire come il gioco descritto può essere giocato?<br />
61
Fissiamo la nostra attenzione su II.<br />
La strategia R dà al giocatore II un payoff strettamente migliore del payoff<br />
dato da MII.<br />
MII è strettamente dominata da R.<br />
Se il giocatore I sa che II non gioca MII allora per I la miglior scelta è U.<br />
Infine se il giocatore II sa che I sa che II non giocherà MII allora II sa che<br />
I giocherà U e così II giocherà L.<br />
Otteniamo (U, L) che è l’unico equilibrio di Nash.<br />
Questo processo dicesi dominanza stretta ... (non dipende dall’ordine in cui<br />
le strategie sono considerate).<br />
Esempio 1.13<br />
❍<br />
❍❍❍❍❍ II<br />
I<br />
M non è dominata da U.<br />
M non è dominata da D.<br />
Tuttavia:<br />
se I gioca U con probabilità 1/2<br />
se I gioca D con probabilità 1/2<br />
L R<br />
U 2 0 -1 0<br />
M 0 0 0 0<br />
D -1 0 2 0<br />
allora I si garantisce un’utilità attesa fI = 1<br />
2<br />
> 0 quindi supera il payoff o<br />
che avrebbe giocando M (indifferentemente da come gioca II).<br />
Allora una strategia pura può essere strettamente dominata da una strategia<br />
mista anche se non è strettamente dominata da ogni strategia pura.<br />
62
Esempio 1.14<br />
❍<br />
❍❍❍❍❍ II<br />
I<br />
L R<br />
U 1 3 -2 0<br />
M -2 0 1 3<br />
D 0 1 0 1<br />
U ed M non sono strettamente dominate.<br />
Eppure:<br />
se I gioca U con probabilità 1/2<br />
se I gioca D con probabilità 1/2<br />
ottiene un’utilità attesa − 1<br />
2<br />
< 0 comunque giochi II e così ottiene un payoff<br />
peggiore di quello che otterrebbe giocando D eppure né U né M sono dominate.<br />
Allora una strategia mista che assegna probabilità positiva ad una strategia<br />
dominata è dominata tuttavia una strategia mista può essere strettamente<br />
dominata anche se assegna probabilità solo alle strategie pure che non sono<br />
debolmente dominate.<br />
Esempio 1.15 Common knowledge<br />
L R<br />
U 8 10 -100 9<br />
D 7 6 6 5<br />
63
Quando un gioco si può giocare mediante eliminazione di strategie dominate,<br />
nel senso che a ciascun giocatore rimane solo una strategia, allora questo<br />
profilo di strategia è il candidato ovvio per predire come sarà giocato il gioco.<br />
Non è però sempre così, specialmente quando i payoff possono assumere valori<br />
molto alti o molto piccoli.<br />
La maggior parte degli studenti a cui è stato chiesto come avrebbero giocato<br />
questo gioco, ha risposto D come strategia per I sebbene la dominanza iterata<br />
dia (U, L) come unica soluzione.<br />
Infatti sebbene U è meglio di D quando II non usa la strategia dominata R,<br />
D è meglio di U quando c’è una possibilità che II giochi R.<br />
Se la perdita (U, R) è meno grave, ad esempio sostituendo -100 con -1 allora<br />
quasi tutti i giocatori I preferiscono U.<br />
Questo esempio illustra il fatto fondamentale che i payoff e gli spazi delle<br />
strategie siano conoscenza comune e la razionalità nel senso di<br />
non giocare una strategia strettamente dominata<br />
è conoscenza comune<br />
(come apparentemente non sembrava vero in quest’esempio).<br />
Esempio 1.16<br />
L R<br />
U 1 3 4 1<br />
D 0 2 3 4<br />
Per I: U domina D U ≻ D.<br />
64
L’iterazione delle strategie predice (U, L) come soluzione.<br />
Può essere di aiuto per il giocatore I cambiare i payoff aggiungendo -2 ad U?<br />
D ≻ U<br />
Ora l’iterazione predice (D, R).<br />
L R<br />
U -1 3 2 1<br />
D 0 2 3 4<br />
1.10 Evasione fiscale (Li-Calzi)<br />
Il governo italiano desidera ridurre l’evasione fiscale che è un fenomeno molto<br />
diffuso perché purtroppo, se la possibilità di essere scoperti è sufficientemente<br />
bassa, molti contribuenti sono disposti a correre il rischio di una multa nella<br />
speranza di non dover pagare le tasse.<br />
Supponiamo che il Parlamento abbia approvato una legge che consente alla<br />
guardia di finanza di punire solo un evasore per ogni anno fiscale.<br />
La guardia di finanza annuncia che esaminerà le dichiarazioni dei redditi dell’anno<br />
successivo in ordine alfabetico incominciando da A.<br />
Se questo ha evaso dovrà pagare 10 volte la tassa dovuta altrimenti la guardia<br />
di finanza passerà ad esaminare il successivo e così via.<br />
a) Si disegni l’albero del gioco per questa situazione supponendo che il<br />
gioco abbia informazione perfetta e vi siano solo 3 contribuenti: Primo,<br />
Secondo e Terzo (già in ordine alfabetico).<br />
65
Indichiamo con: E la strategia di evadere.<br />
T la strategia di pagare subito le tasse.<br />
Supponiamo per semplicità che le tasse da pagare siano le stesse per<br />
ciascun giocatore.<br />
I payoff sono: P (quando si pagano le tasse).<br />
P + M (quando l’evasione è scoperta e bisogna pagare<br />
anche la multa).<br />
S (se l’evasione ha successo).<br />
b) Utilizzando l’induzione a ritroso, si dimostri che nel gioco dell’evasione<br />
fiscale, la strategia di non evadere le tasse è ottimale per ciascun giocatore.<br />
c) Si forniscano alcune ragioni per le quali questa soluzione al problema<br />
dell’evasione fiscale non è realistica.<br />
Indichiamo con X, Y, Z lo spazio delle strategie rispettivamente dei giocatori<br />
I, II, III:<br />
X = {E, T }<br />
Y = {EE, ET, T E, T T } cioè D r 2,2 = 2 2<br />
dova la prima lettera indica cosa fa il giocatore II se I sceglie E e la seconda<br />
lettera indica cosa fa il giocatore II se I sceglie T . Ad esempio:<br />
ET significa: II sceglie E se I sceglie E.<br />
sceglie T se I sceglie T .<br />
T T significa: II sceglie T se I sceglie E.<br />
sceglie T se I sceglie T .<br />
Z = {EEEE, T EEE, T T EE, . . . } sono D r 2,4 = 2 4 .<br />
Ad esempio<br />
T T EE significa: III sceglie T se è in c<br />
sceglie T se è in d<br />
66
sceglie E se è in e<br />
sceglie E se è in f<br />
(c, d, e, f sono i nodi in cui può trovarsi III).<br />
a) ALBERO DEL GIOCO<br />
E<br />
I<br />
•<br />
a<br />
b<br />
• II<br />
II •<br />
E T E T<br />
.<br />
. c • III d .<br />
.<br />
• III .<br />
. e • III f<br />
.<br />
.<br />
• III<br />
E T E T E T E T<br />
• • • • • • • •<br />
(P +M,S,S) (P +M,S,P )(P +M,P,S) (P +M,P,P ) (P,P +M,P ) (P,P,P )<br />
(completate i payoff)<br />
67<br />
T
) Supponiamo che per ciascun giocatore<br />
S ≻ P ≻ P + M<br />
III preferisce T se I e II hanno usato T<br />
E altrimenti.<br />
II preferisce T se I ha usato T<br />
cm E altrimenti.<br />
I preferisce T sempre.<br />
Ne segue che I paga (T ) inducendo anche II e III a pagare le tasse.<br />
c) Dite voi. . .<br />
1.11 Giochi con potenziale<br />
Esempio 1.17 Duopolio di quasi-Cournot-gioco con potenziale esatto<br />
Consideriamo la funzione inversa di domanda lineare<br />
F (Q) = a − bQ a, b > 0<br />
c1 = c1(x), c2 = c2(y) funzioni arbitrarie.<br />
Allora i profitti delle due imprese sono:<br />
π1(x, y) = xF (x + y) − c1(x)<br />
π2(x, y) = yF (x + y) − c2(y)<br />
Allora una funzione potenziale esatto è:<br />
infatti<br />
P ∗ (x, y) = a(x + y) − b(x + y) 2 − bxy − c1(x) − c2(y)<br />
f(x, y) − f(t, y) = P ∗ (x, y) − P ∗ (t, y) ∀ t, ∀ x, y<br />
g(x, y) − g(x, z) = P ∗ (x, y) − P ∗ (x, z) ∀ z, ∀ x, y<br />
68
o equivalentemente se f, g sono differenziabili<br />
∂f<br />
∂x<br />
∂g<br />
∂y<br />
∗ ∂P<br />
=<br />
∂x<br />
∗ ∂P<br />
=<br />
∂y<br />
Esempio 1.18 Gioco di duopolio di Cournot-gioco con potenziale ordinale<br />
I profitti delle due imprese sono:<br />
c1(x) = cx, c ∈ R<br />
c2(y) = cy<br />
Q = x + y<br />
π1(x, y) = xF (x + y) − cx<br />
π2(x, y) = yF (x + y) − cy<br />
F (Q) > 0 funzione inversa di domanda<br />
(non sono necessarie ipotesi di monotonia, continuità, differenziabilità).<br />
La funzione<br />
P (x, y) = xy(F (x, y) − c)<br />
P : R+ × R+ −→ R<br />
è una funzione potenziale ordinale per il gioco, infatti<br />
69
π1(x, y) − π1(t, y) > 0 ⇐⇒ P (x, y) − P (t, y) > 0<br />
π2(x, y) − π2(x, z) > 0 ⇐⇒ P (x, y) − P (x, z) > 0<br />
Definizione 1.19 (ε, k) equilibri<br />
∀ x, y, z, t ∈ R+<br />
Sia ε > 0, k ∈ R.<br />
Una strategia x del giocatore I è una ε-miglior risposta a y se<br />
(1)<br />
e analogamente per II.<br />
f(x, y) ≥ sup f(t, y) − ε<br />
t<br />
x è una risposta che garantisce k se<br />
(2) f(x, y) ≥ k<br />
e analogamente per II g(x, y) ≥ k.<br />
(3) x è una (ε, k) miglior risposta se è vera (1) oppure (2) fissata y.<br />
Analogamente (x, y) è un (ε, k) equilibrio se x è una (ε, k) miglior risposta a<br />
y e viceversa.<br />
Vale il seguente teorema:<br />
Teorema 1.20 (Lucchetti-Patrone-Tijs ’86) Se G è un gioco con potenziale<br />
(esatto, ordinale, generalizzato) e tutti gli spazi delle strategie sono<br />
finiti tranne uno allora G ha almeno un (ε, k) equilibrio ∀ ε > 0 e ∀ k ∈ R.<br />
Osservazione 1.21 Se ci sono due spazi di strategie infinite allora il teorema<br />
non vale.<br />
Esempio 1.22 G = (N, N, f, g)<br />
f(i, j) = i − j<br />
70
g(i, j) = j − i<br />
f + g = 0<br />
Dimostriamo che ∃ (ε, k) equilibri.<br />
Un potenziale esatto è P (i, j) = i + j ∀ i, j ∈ N.<br />
∃ NE<br />
∃ ε-equilibri perché sup f = +∞<br />
∃ (ε, k)-equilibri perché k > 0 (i − j ≥ k, j − i ≥ k).<br />
1.12 Giochi di contrattazione<br />
Possiamo supporre che due o più individui agiscano insieme con un proposito<br />
comune: ogni individuo ha (separatamente) la sua funzione di utilità e<br />
insieme devono creare qualcosa di completamente nuovo cioè una collezione<br />
di funzioni di utilità per determinare il comportamento comune.<br />
Nash nel 1951 suggerì che la cooperazione tra giocatori può essere studiata<br />
usando alcuni concetti basilari degli equilibri di Nash.<br />
Egli diede una lista di assiomi che i payoff dovrebbero soddisfare per un<br />
problema astratto di bargaining e dimostrò che solo una coppia di payoff<br />
verifica tali assiomi ed è detta soluzione di contrattazione di Nash.<br />
Matematicamente un problema di contrattazione è semplicemente una coppia<br />
(F, v) dove F rappresenta l’insieme delle coppie di payoff ammissibili e v<br />
rappresenta il punto di disaccordo.<br />
71
CONTRATTAZIONE A DUE PERSONE<br />
Definiamo un problema di contrattazione a due giocatori come una coppia<br />
(F, v) dove F è un sottoinsieme chiuso e convesso di R 2 ,<br />
v = (v1, v2) è un vettore di R 2 e l’insieme<br />
F ∩ {(x1, x2) : x1 ≥ v1, x2 ≥ v2} è non vuoto e limitato.<br />
F rappresenta l’insieme dei payoff di allocazione ammissibili o insieme ammissibile<br />
e v rappresenta il payoff di allocazione di distacco.<br />
F convesso perché i giocatori possono mettersi d’accordo per giocare strategie<br />
a random così se le allocazioni di utilità x = (x1, x2) e y = (y1, y2) sono<br />
amissibili e θ ∈ [0, 1] allora l’allocazione utilità attesa θx + (1 − θ)y può essere<br />
raggiunta programmando di realizzare x con probabilità θ e y altrimenti.<br />
La chiusura di F è una naturale richiesta topologica.<br />
La condizione di non vuotezza e non limitatezza asseriscono che alcune allocazioni<br />
realizzabili sono buone almeno come il disaccordo ma i guadagni non<br />
limitati sopra il punto di disaccordo non sono possibili.<br />
Diciamo che un problema di contrattazione (F, v) è essenziale se e solo se<br />
esiste almeno una allocazione y in F che è strettamente migliore (per entrambi<br />
i giocatori) dell’allocazione di disaccordo v (cioè y1 > v1, y2 > v2).<br />
Interpretiamo queste strutture nel contesto di un gioco in forma strategica a<br />
due giocatori:<br />
G = { {1, 2}, C1, C2, u1, u2}<br />
per determinare il punto di disaccordo v ci sono varie possibilità.<br />
Noi preferiamo in max-min cioè:<br />
v1 = max min u1(σ1, σ2)<br />
σ1 ∈ ∆(c1) σ2 ∈ ∆(c2)<br />
72
v2 = max min u2(σ1, σ2)<br />
σ2 ∈ ∆(c2) σ1 ∈ ∆(c1)<br />
Per ogni problema di contrattazione a due persone (F, v) possiamo associare<br />
un vettore di allocazione φ(F, v) che rappresenta un risultato di negoziazione<br />
in una situazione in cui F è l’insieme di tutte le allocazioni realizzabili e v è<br />
l’allocazione di disaccordo.<br />
Nash si avvicinò a questo problema in modo assiomatico: poniamo<br />
φ(F, v) = (φ1(F, v), φ2(F, v))<br />
così per ogni vettore x, y ∈ R 2 possiamo scrivere:<br />
x ≥ y ⇐⇒ x1 ≥ y1 e x2 ≥ y2<br />
e<br />
x > y ⇐⇒ x1 > y1 e x2 > y2<br />
Assiomi richiesti per un problema di contrattazione:<br />
ASSIOMA 1 (EFFICIENZA FORTE)<br />
φ(F, v) ∈ F e ∀ x ∈ F se x ≥ φ(F, v) =⇒ x = φ(F, v)<br />
cioè la soluzione per ogni gioco di contrattazione a due persone è pareto efficiente<br />
cioè non esiste nessun’altra allocazione raggiungibile migliore di questa soluzione<br />
per un giocatore e non peggiore di questa per l’altro.<br />
In generale: dato un insieme ammissibile F ,<br />
• diciamo che un punto x è fortemente pareto efficiente se e solo se<br />
∃ y ∈ F : y ≥ x e yi > xi per almeno un giocatore i<br />
• diciamo che un punto x è debolmente pareto efficiente se e solo se<br />
∃ y ∈ F : y > x<br />
73
cioè<br />
ASSIOMA 2 (RAZIONALITÀ INDIVIDUALE)<br />
φ(F, v) ≥ v<br />
φ1(F, v) ≥ v1 φ2(F, v) ≥ v2<br />
cioè nessun giocatore con la soluzione bargaining può guadagnare di meno di<br />
quanto otterrebbe nel disaccordo.<br />
ASSIOMA 3 (SCALA COVARIANTE)<br />
∀ λ1, λ2, γ1, γ2 ∈ R, λ1 > 0, λ2 > 0<br />
se G = {(λ1x1 + γ1, λ2x2 + γ2) : (x1, x2) ∈ F }<br />
e w = {(λ1u1 + γ1, λ2u2 + γ2)}<br />
allora φ(G, w) = {(λ1φ1(F, v) + γ1, λ2φ2(F, v) + γ2)}<br />
cioè se un gioco bargaining a due giocatori (G, w) può essere ottenuto da<br />
un altro gioco bargaining (F, v) incrementando le funzioni di utilità che non<br />
influenzano nessuna decisione allora la soluzione di (G, w) è ottenibile dalla<br />
soluzione di (F, v) con le stesse trasformazioni.<br />
ASSIOMA 4 (INDIPENDENZA DELLE ALTERNATIVE IRRILEVANTI)<br />
∀ G insieme chiuso e convesso<br />
se G ⊆ F e φ(F, v) ∈ G<br />
allora φ(G, v) = φ(F, v)<br />
74
cioè eliminando le alternative ammissibili (a parte il disaccordo) che non sarebbero<br />
state scelte non cambia la soluzione.<br />
Ad esempio:<br />
due persone scelgono un piatto in un ristorante. Il menù offre:<br />
• pesce al cartoccio<br />
• pollo e patatine<br />
• uova con prosciutto<br />
Dopo lunga discussione scelgono “pollo e patatine”. Il cameriere dice che<br />
uova con prosciutto non è disponibile. E allora?<br />
Allora se questo porta i due tizi a cambiare la loro scelta, essi violano<br />
l’assioma delle alternative irrilevanti.<br />
L’idea è che la scelta tra “pollo e patatine” e “pesce al cartoccio” dovrebbe<br />
essere indipendente dalla disponibilità o meno del piatto “uova con prosciutto”.<br />
ASSIOMA 5 (SIMMETRIA)<br />
Se v1 ≡ v2 e {(x1, x2) : (x1, x2) ∈ F } = F<br />
allora φ1(F, v) = φ2(F, v)<br />
cioè se le posizioni dei giocatori 1 e 2 sono completamente simmetriche nel<br />
problema di contrattazione, allora anche la soluzione li tratta simmetricamente.<br />
Il risultato importante dovuto a Nash è che esiste una ed una sola soluzione<br />
del problema di contrattazione (Nash bargaining solution) che verifica gli<br />
assiomi detti:<br />
75
Teorema 1.23 ∃! soluzione φ(·, ·) che verifica gli assiomi 1 . . . 5.<br />
Questa soluzione per ogni problema di contrattazione a due giocatori verifica:<br />
φ(F, v) = argmax (x1 − v1)(x2 − v2)<br />
x ∈ F<br />
x ≥ v<br />
Esempio 1.24 NEL DILEMMA DEL PRIGIONIERO<br />
C D<br />
A 1 1 5 0<br />
B 0 5 3 3<br />
Nash equilibrium: (A, C) non efficiente.<br />
Se il gioco diventa di contrattazione i due giocatori ottengono l’equilibrio<br />
efficiente:<br />
76
.<br />
.<br />
.<br />
.<br />
.<br />
q<br />
(0,5)<br />
. .<br />
.....<br />
1<br />
.<br />
.<br />
0 1<br />
Punto di disaccordo: (1, 1).<br />
.<br />
Soluzione di Nash del bargaining: (3, 3).<br />
◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦<br />
.<br />
FRONTIERA PARETO EFFICIENTE<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
. . . . . . .<br />
.<br />
◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦ (3,3)<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
1.13 Corsa agli sportelli (gioco a due stadi)<br />
.<br />
Due persone vogliono investire i loro depositi D in una banca.<br />
La banca investe tali depositi in un progetto a lungo termine.<br />
Se la banca è obbligata a liquidare l’investimento prima che il progetto maturi<br />
.<br />
77<br />
(5,0)<br />
p<br />
.. .
potrà recuperare una quantità 2r, dove<br />
D > r > D<br />
2<br />
2D > 2r > D<br />
Se la banca lascia che l’investimento raggiunga la maturità allora il progetto<br />
pagherà un totale di 2R con R > D.<br />
Ci sono due date in cui gli investitori possono fare prelievi dalle banche:<br />
data 1 è prima che gli investimenti maturino<br />
data 2 dopo.<br />
Supponiamo per semplicità che non ci siano fattori di sconto.<br />
Se entrambi gli investitori fanno dei prelievi alla data 1 allora ciascuno riceve<br />
r e il gioco finisce.<br />
Se solo un investitore fa un prelievo alla data 1 allora quell’investitore riceve<br />
D e l’altro riceve 2r − D (2r − D < D) e il gioco finisce.<br />
Se nessun investitore fa il prelievo alla data 1 allora il progetto matura e<br />
gli investitori fanno i prelievi alla data 2 allora entrambi ricevono R e il gioco<br />
finisce.<br />
Se solo un investitore fa un prelievo alla data 2 allora quell’investitore riceve<br />
2R − D e l’altro riceve D e il gioco finisce.<br />
Infine se nessun investitore fa il prelievo alla data 2 allora la banca restituisce<br />
R a ciascun investitore e il gioco finisce.<br />
Supponiamo che i payoffs dei due investitori alle date 1 e 2 (come funzione<br />
dei loro prelievi) siano rappresentati dalle seguenti coppie di giochi in<br />
forma normale:<br />
78
prelevo non prelevo<br />
prelevo r , r D , 2r − D<br />
non prelevo 2r − D , D prossimo stadio<br />
data 1<br />
prelevo non prelevo<br />
prelevo R , R 2R − D , D<br />
non prelevo D , 2R − D R , R<br />
data 2<br />
prelevare ≻ non prelevare<br />
2D > 2r > D 2R > 2D<br />
R > D =⇒ 2R − D > R<br />
Per analizzare questo gioco procediamo con l’induzione a ritroso.<br />
Consideriamo il gioco alla data 2: poiché R > D (e così 2R − D > R)<br />
“prelevare” domina strettamente “non prelevare”.<br />
Esiste allora un unico NE in questo gioco: entrambi gli investitori prelevano<br />
e questo conduce a un payoff: (R, R).<br />
79
Poiché non c’è sconto, noi possiamo sostituire questo payoff nel gioco in<br />
forma normale alla data 1 come in figura:<br />
prelevare non prelevare<br />
prelevare r , r D , 2r − D<br />
non prelevare 2r − D , D R , R<br />
poiché r < D (e così 2r − D < r).<br />
R > D > r<br />
Questa versione a 1 periodo del gioco, a 2 periodi ha 2 NE in strategie<br />
pure:<br />
entrambi gli investitori prelevano =⇒ payoff (r, r).<br />
entrambi gli investitori non prelevano =⇒ payoff (R, R).<br />
Allora il gioco originale della corsa agli sportelli ha 2 esiti perfetti nei sottogiochi<br />
1) entrambi gli investitori prelevano alla data 1<br />
2) entrambi gli investitori non prelevano alla data 1 ma prelevano alla<br />
data 2.<br />
Il primo di questi esiti può essere interpretato come la corsa agli sportelli.<br />
Se I crede che II preleverà alla data 1 allora la miglior risposta di I è PRE-<br />
LEVARE anche se i due tizi starebbero meglio se entrambi aspettassero a<br />
prelevare alla data 2.<br />
80
Questo gioco differisce dal Dilemma del prigioniero per un aspetto importante:<br />
entrambi i giochi portano a un equilibrio di Nash che è socialmente<br />
non efficiente.<br />
Nel DP questo equilibrio è unico (ed è in strategie dominanti), in questo<br />
gioco esiste anche un secondo equilibrio che è efficiente.<br />
Allora questo gioco non predice quando si farà la corsa agli sportelli ma dimostra<br />
che i tizi possono trovarsi in condizione di equilibrio (vedere Diamond-<br />
Dybvig 1983).<br />
1.14 Dilemma del prigioniero ripetuto n volte<br />
❍<br />
❍❍❍❍❍ II<br />
I<br />
D H<br />
D 3 3 0 6<br />
H 6 0 1 1<br />
81<br />
a)
3+x(h) 3+y(h) 0+x(h) 6+y(h)<br />
6+x(h) 0+y(h) 1+x(h) 1+y(h)<br />
In figura a) è riprodotto il DILEMMA DEL PRIGIONIERO (DP).<br />
Studiamo il gioco ripetuto n volte.<br />
Se n = 10 ciascun giocatore avrebbe 2 349525 strategie pure!!!<br />
Quindi il DP ha una forma strategica molto grande anche se n è relativamente<br />
piccolo.<br />
Esiste un unico equilibrio perfetto nei sottogiochi in cui ciascun giocatore<br />
sceglie sempre H.<br />
La ragione è banale.<br />
Prima dell’ultimo stadio è possibile che un giocatore possa essere scoraggiato<br />
dallo scegliere H per paura di una punizione da parte dell’oppositore più<br />
tardi nel gioco.<br />
Ma allo stadio finale nessuna punizione è possibile.<br />
Poiché H domina D nel dilemma del prigioniero, entrambi i giocatori sceglieranno<br />
H all’n-simo stadio qualunque sia stata la precedente storia del gioco.<br />
Consideriamo ora il penultimo stadio.<br />
Entrambi i giocatori sanno che, qualunque sia la loro scelta attuale, (H, H)<br />
sarà giocata nello stadio finale.<br />
Nessuno può quindi essere punito se usa H nel penultimo stadio perché la<br />
punizione peggiore potrà essere inflitta dall’oppositore usando H.<br />
Per l’oppositore è naturale usare H allo stadio finale qualunque cosa accada<br />
prima.<br />
82<br />
b)
Entrambi i giocatori useranno H al penultimo stadio, lo stesso argomento<br />
può essere usato al second’ultimo e così via...<br />
Una versione più formale dell’argomento può essere fornita dal seguente mini<br />
teorema:<br />
Teorema 1.25 Il DILEMMA DEL PRIGIONIERO (DP) n ripetuto un numero<br />
finito di volte, ha un unico equilibrio perfetto nei sottogiochi in cui<br />
entrambi i giocatori usano sempre H.<br />
Dimostrazione. Sia P (n) la proposizione che il teorema è vero per (DP)<br />
ripetuto n volte.<br />
Allora P (1) è vera.<br />
Dimostriamo il teorema con il principio di induzione cioè<br />
P (n) =⇒ P (n + 1) ∀ n,<br />
cioè supponiamo che la proposizione sia vera per (DP) n e dimostriamo che è<br />
vera per (DP) n+1 .<br />
Supponiamo che l’ultimo stadio sia raggiunto dopo una storia h del gioco.<br />
Se nel gioco al k-simo stadio il giocatore I ottiene un payoff uguale a xk,<br />
allora avrà accumulato un payoff totale<br />
x(h) = x1 + x2 + · · · + xn + xn+1<br />
al tempo (n + 1)-simo e si arriva allo stadio finale.<br />
Analogamente il giocatore II avrà accumulato un payoff pari a y(h).<br />
Il gioco allo stadio (n + 1)-simo è rappresentato in figura b).<br />
Poiché H domina fortemente D (H ≻ D) allora ci sarà un unico equilibrio<br />
di Nash (H, H).<br />
Infatti il gioco della figura b) è strategicamente identico a quello della figura<br />
a).<br />
La nuova funzione di utilità di VNM ottenuta aggiungendo x(h) a ciascun<br />
payoff del giocatore I descrive esattamente le sue preferenze come la vecchia<br />
funzione di utilità di VNM.<br />
Gli equilibri perfetti nei sottogiochi sono quindi trovati usando l’algoritmo di<br />
Zermelo.<br />
Il gioco in figura b) è il più piccolo sottogioco del (DP) n+1 .<br />
83
L’algoritmo di Zermelo richiede per il più piccolo di questi sottogiochi di essere<br />
rimpiazzato da un nodo terminale etichettato con la coppia di payoff che<br />
risulta dal giocare un NE nel sottogioco.<br />
Poiché (H, H) è il solo NE in figura b), il payoff sarà (1 + x(h), 1 + y(h)).<br />
Il nuovo gioco ottenuto con questa riduzione è precisamente lo stesso come<br />
nel (DP) n eccetto che 1 è aggiunto a ciascun payoff.<br />
È quindi strategicamente equivalente al (DP) n .<br />
Poiché si suppone vera P (n), H sarà quindi sempre usata da entrambi i giocatori<br />
nel nuovo gioco.<br />
Noi già sappiamo che useranno H allo stadio finale del (DP) n+1 .<br />
Allora essi giocano sempre H nelle n + 1 volte del (DP) ripetuto.<br />
Allora è vera P (n + 1).<br />
Per il principio di induzione P (n) è vera ∀ n. ✷<br />
ATTENZIONE: Una strategia pura in un gioco ripetuto non nomina semplicemente<br />
un’azione per ciascuno stadio del gioco.<br />
Nomina un’azione per il primo stadio del gioco e poi per ogni ulteriore stadio<br />
nomina una funzione che fa la scelta di un’azione in quello stadio tenuto<br />
conto della storia del gioco.<br />
Un gioco ripetuto a più stadi ha quindi un insieme di strategie pure molto<br />
complicato.<br />
Esempio 1.26 Un esempio con orizzonte infinito.<br />
La cooperazione non è irrazionale se il (DP) è ripetuto un numero infinito di<br />
volte.<br />
In questo esempio noi studiamo il caso in cui la probabilità che il gioco<br />
continui da qualunque stadio a quello successivo è 2<br />
3 .<br />
All’inizio del gioco la probabilità che l’n-simo stadio sia raggiunto è ( 2<br />
3 )n−1 .<br />
Consideriamo la strategia S che richiede di giocare D fino a quando l’altro<br />
giocherà D.<br />
Se l’altro devia, allora si giocherà H per sempre (GRIM-STRATEGY).<br />
Ogni deviazione è punita per sempre.<br />
Se ogni giocatore usa la strategia S, allora non sorgerà nessuna occasione di<br />
punizione e i giocatori coopereranno sempre.<br />
84
Il payoff atteso per ciascun giocatore sarà<br />
<br />
c = 3 + 3<br />
2<br />
3<br />
+ · · · + 3<br />
2<br />
3<br />
n−1<br />
<br />
2<br />
+ 3<br />
3<br />
n<br />
+ . . .<br />
Un giocatore ci guadagna a deviare? Se un giocatore devia giocando H per<br />
la prima volta all’(n + 1)-simo stadio, allora il deviante otterrà al più<br />
<br />
d = 3 + 3<br />
2<br />
3<br />
+ · · · + 3<br />
2<br />
3<br />
Studiamo il segno c − d:<br />
<br />
2<br />
c − d = (3 − 6)<br />
3<br />
n<br />
n−1<br />
<br />
2<br />
+ 6<br />
3<br />
<br />
2<br />
+ (3 − 1)<br />
3<br />
n<br />
n+1<br />
<br />
2<br />
+ 1<br />
3<br />
n+1<br />
<br />
2<br />
+ (3 − 1)<br />
3<br />
n <br />
2<br />
2<br />
= − 3 + 2<br />
3<br />
3 +<br />
2 <br />
2<br />
+ . . . =<br />
3<br />
n <br />
2<br />
2<br />
3<br />
= − 3 + 2<br />
3<br />
1 − 2<br />
<br />
=<br />
3<br />
n n 2<br />
2<br />
= (−3 + 4) = ≥ 0<br />
3<br />
3<br />
Allora c ≥ d anzi c > d (strettamente).<br />
<br />
2<br />
+ 1<br />
3<br />
n+2<br />
n+2<br />
+ . . .<br />
+ . . .<br />
Allora non è vantaggioso deviare, quindi anche l’oppositore sceglierà S.<br />
Allora (S, S) è un NE che richiede che i giocatori cooperino nel gioco con<br />
orizzonte infinito.<br />
DUOPOLIO DI COURNOT RIPETUTO<br />
Nel mondo reale gli oligopolisti devono prendere decisioni per produzioni ripetute<br />
su lunghi periodi o di durata indefinita.<br />
Una simile situazione è molto più favorevole per sostenere un comportamento<br />
di cooperazione di quanto lo sia il gioco a uno stadio.<br />
85
Nel comportamento cooperativo le due imprese si accordano in modo che la<br />
loro produzione totale debba essere ˜q che è il risultato ottenuto da un monopolista<br />
con profitto massimo.<br />
Consideriamo la versione ripetuta:<br />
I produrrà q1 in ogni periodo,<br />
II produrrà q2 in ogni periodo<br />
e q1 + q2 = ˜q.<br />
Supponiamo che l’implementazione di questo comportamento porti il giocatore<br />
I a guadagnare un profitto a in ogni periodo e II un profitto b.<br />
Contrariamente al caso di uno stadio le imprese possono fare delle previsioni<br />
sul loro comportamento e sulle azioni che devono essere fatte se qualcuno<br />
devia.<br />
La previsione più semplice è che se qualcuno devia allora il partner è libero<br />
ed entrambi giocano le loro strategie (che portano al NE nel gioco a uno<br />
stadio) in tutti i periodi successivi.<br />
Ogni giocatore è incentivato a deviare?<br />
Vediamo cosa ottiene I se non devia: se il suo fattore di sconto è δ (0 < δ < 1),<br />
egli valuterà il flusso di entrata.<br />
Se nessuno devia dal comportamento valido<br />
c = a + aδ + aδ 2 + · · · + aδ n + . . .<br />
Se il giocatore II mantiene l’accordo ma I devia, quanto ottiene I?<br />
Supponiamo che I devia la prima volta all’(n + 1)-simo stadio.<br />
Allora ottiene:<br />
d = a + aδ + aδ 2 + · · · + aδ n−1 + Bδ n + eδ n+1 + eδ n+2 + . . .<br />
dove B è la ricchezza che I ottiene deviando dall’accordo allo stadio n + 1,<br />
mentre e è il profitto per periodo che ciascuna impresa riceve quando ciascuno<br />
gioca la strategia del NE del gioco a uno stadio.<br />
Non sono importanti i valori a, B, e.<br />
È importante solo che e < a < B.<br />
Affinché deviare non sia vantaggioso per I, dovrà risultare c ≥ d.<br />
Quindi:<br />
c − d = δ n {(a − B) + (a − e)δ + (a − e) 2 δ 2 + . . . } =<br />
86
Allora l’accordo sarà rispettato se:<br />
δ n<br />
<br />
<br />
δ<br />
(a − B) + (a − e)<br />
1 − δ<br />
.<br />
δ<br />
(a − B) + (a − e) ≥ 0<br />
1 − δ<br />
δ ≥<br />
⇕<br />
B − a<br />
B − e<br />
e questa condizione è verificata se δ è sufficientemente grande ( B−a<br />
B−e<br />
La condizione vale anche per II.<br />
Allora l’accordo è possibile se il fattore di sconto δ non è troppo alto.<br />
1.15 Giochi ripetuti e automi finiti<br />
< 1).<br />
Un automa finito è una macchina computer idealizzata (o il programma che<br />
la fa funzionare).<br />
Quando le strategie possono essere rappresentate da automi finiti, si può<br />
pensare alla scelta della strategia di un giocatore come alla scelta di delegare<br />
il gioco a un opportuno programma di computer.<br />
Gli automi per giocare giochi ripetuti sono chiamati macchine di MOORE.<br />
La macchina di MOORE scelta da I avrà le azioni di II del gioco componente<br />
G come suoi possibili INPUT.<br />
I suoi OUTPUT saranno le azioni del giocatore I nel gioco componente G.<br />
Consideriamo il gioco componente G e il gioco ripetuto infinite volte: G ∞ .<br />
L’insieme delle strategie pure del giocatore I (S) per un gioco a uno stadio<br />
G sarà l’insieme delle azioni possibili in ogni stadio di G ∞ .<br />
L’insieme delle strategie pure del giocatore II (T ) per un gioco a uno stadio<br />
G sarà l’insieme delle azioni possibili per II in ciascuno stadio di G ∞ .<br />
87
Abbiamo già detto che l’insieme delle strategie pure in G ∞ è molto complicato.<br />
Restringeremo la nostra attenzione sull’insieme delle strategie pure in G ∞<br />
che può essere rappresentato da automi finiti.<br />
Denoteremo con A l’insieme delle macchine di Moore con input T e output<br />
S.<br />
Denoteremo con B l’insieme delle macchine di Moore con input S e output<br />
T .<br />
Gli insiemi A e B saranno gli insiemi di strategie pure del gioco G ♯ che è<br />
l’oggetto finale del nostro studio.<br />
Possiamo pensare la scelta di I di un automa a ∈ A come la decisione di<br />
delegare la responsabilità di giocare G ∞ alla macchina a.<br />
Similmente la scelta b ∈ B del giocatore II si può vedere come la decisione<br />
di delegare la responsabilità di giocare a b ∈ B.<br />
Dobbiamo introdurre le funzioni di payoff:<br />
vi : A × B −→ R<br />
La definizione fa uso di πi, funzioni payoff nel gioco G<br />
(nel gioco a uno stadio G).<br />
Se a ha m stadi<br />
b ha n stadi<br />
allora esistono m · n stadi.<br />
πi : S × T −→ R i = 1, 2 (giocatori)<br />
I sceglie a ∈ A<br />
II sceglie b ∈ B<br />
Dopo questi le due macchine devono tornare ad una situazione identica a<br />
quella che hanno sperimentato prima.<br />
Sono quindi obbligate a reiterare il loro passato da quel punto in poi.<br />
Se il ciclo è lungo N stadi e le coppie sono:<br />
(s1, t1), (s2, t2), . . . , (sN, tN)<br />
88
allora il giocatore N-simo ha payoff<br />
vi(a, b) = 1<br />
N<br />
N<br />
πi(sn, tn);<br />
allora il payoff di un giocatore in G ♯ è ciò che il giocatore ottiene sulla media<br />
durante il ciclo in cui gioca.<br />
Si può dimostrare (cfr BINMORE):<br />
Lemma 1.27 Ogni esito di G ♯ è necessariamente un punto nella regione<br />
cooperativa del gioco G a uno stadio.<br />
Per arrivare all’enunciato del FOLK THEOREM abbiamo bisogno del punto<br />
di MIN-MAX.<br />
n=1<br />
mi è il valore di max-min di G (gioco a uno stadio) in termini della sua<br />
matrice payoff Mi.<br />
Questo è anche detto livello di sicurezza se i giocatori devono usare le loro<br />
strategie pure.<br />
Qui non abbiamo a che fare con il max-min ma con il min-max: mi.<br />
In generale:<br />
ma<br />
mi = min max πi(s, t) mi = max min πi(s, t)<br />
T S S T<br />
mi ≤ mi<br />
mi = mi se e solo se la matrice dei payoff Mi ha un punto di sella.<br />
Nel (DP) (1, 1) è il punto di min-max e anche di max-min.<br />
Consideriamo il seguente esempio:<br />
89
t1 t2 t3<br />
s1 1 0 6 4 0 9 0 9<br />
s2 2 1 0 2 3 0 0 2 ←<br />
s3 3 7 2 3 4 0 0 7<br />
1 0 0<br />
3 6 4 min-max 3<br />
↑<br />
table 1<br />
m = (m1, m2) = (3, 2)<br />
mi = min max πi(s, t)<br />
T S<br />
m = (m1, m2) = (2, 2)<br />
mi = max min πi(s, t)<br />
S T<br />
90
q<br />
. .<br />
(0,9)<br />
.<br />
(0,2) •<br />
...<br />
.<br />
.<br />
X<br />
.<br />
.<br />
.<br />
•<br />
(1,0)<br />
.<br />
.<br />
•<br />
m<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
•<br />
.<br />
m<br />
.<br />
...<br />
.<br />
.<br />
.<br />
.<br />
.<br />
Y<br />
.<br />
.<br />
2 3 (4,0) 6<br />
.<br />
.<br />
.<br />
.<br />
.<br />
Fig. 1<br />
.<br />
(6,4) •<br />
Per ogni t ∈ T (insieme delle strategie pure per II), sia rI(t) la miglior<br />
risposta di I, rI(t) ∈ S<br />
Segue che:<br />
π1(rI(t), t) = max π1(s, t)<br />
S<br />
m1 = min max π1(s, t) = min π1(rI(t), t)<br />
t ∈ T s ∈ S t ∈ T<br />
Allora una banale conseguenza è che ogni NE (σ, τ) in strategie pure del gioco<br />
a uno stadio G assegna a ciascun giocatore almeno il suo valore di min-max,<br />
infatti:<br />
91<br />
p<br />
.. .
Analogamente<br />
π1(σ, τ) = π1(rI(τ), τ) ≥ min π1(rI(t), t) = m1<br />
t ∈ T<br />
π2(σ, τ) ≥ m2<br />
Ricordiamo che G ♯ è differente da G.<br />
Le strategie pure in G ♯ sono gli automi che giocano il gioco ripetuto G ∞ .<br />
Lemma 1.28 Ogni equilibrio di Nash di G ♯ assegna a ciascun giocatore<br />
almeno il suo valore di min-max nel gioco G a uno stadio.<br />
Nella figura 1 è illustrato che tutti gli esiti dei NE di G ♯ in strategie pure<br />
sono in<br />
Y = {x ∈ X : x ≥ m}<br />
X è la regione cooperativa di G.<br />
Teorema 1.29 (FOLK-THEOREM) Sia X la regione cooperativa del<br />
gioco G, m sia il punto di min-max; allora gli esiti che corrispondono ai<br />
NE in strategie pure del gioco G ♯ sono densi in Y , dove<br />
Y = {x ∈ X : x ≥ m}.<br />
SIGNIFICATO DEL FOLK-THEOREM<br />
Il messaggio che i teorici di Teoria dei Giochi vogliono dare è questo:<br />
in un contesto di interazioni ripetute, il perseguimento dell’interesse individuale<br />
e l’efficienza sociale non sono incompatibili, cioè con il folk-theorem il<br />
problema del contratto sociale è risolto. I vettori di vincita conseguibili con<br />
accordi la cui attuazione, se G fosse giocato una volta sola, richiederebbe la<br />
presenza di un’autorità esterna per renderli vincolanti, sono ottenibili, in un<br />
contesto infinitamente ripetuto, come equilibri cooperativi perfetti.<br />
Qual è il cemento che tiene insieme la società?<br />
Gli antichi filosofi hanno parlato di “contratto sociale”, espressione non bella<br />
perché suggerisce l’idea di un obbligo o di uno sforzo per aderire all’accordo.<br />
92
Davide Hume, duecento anni prima che fossero “inventati” i giochi ripetuti,<br />
aveva enfatizzato il fatto che la società non è un gioco a uno stadio. Infatti in<br />
un famoso passo del suo “TREATISE ON HUMAN NATURE” aveva esortato<br />
a compiere un servizio ad un altro perché prima o poi renderà tale servizio:<br />
quando vedrà il vantaggio della nostra azione sarà egli stesso indotto a farlo<br />
verso altri...<br />
Il segreto è la RECIPROCIT À.<br />
C’è un proverbio inglese che riassume bene questo concetto:<br />
“I’ll scratch your back if you’ll scratch mine”.<br />
Vediamo un esempio che illustra l’idea del contratto sociale e l’idea che sta<br />
dietro il FOLK-THEOREM.<br />
Esempio 1.30 Immagina un mondo in cui ad ogni stadio ci sono solo due<br />
esseri vivi: madre e figlia (si può immaginare una riproduzione PARTENO-<br />
GENESI).<br />
Ciascun individuo vive solo due periodi:<br />
1. GIOVINEZZA<br />
2. VECCHIAIA<br />
Fissiamo alcuni dettagli nella storia della vita dei due giocatori.<br />
Nella GIOVINEZZA ognuno guadagna due unità di un bene deperibile, ma<br />
questo è salutare se e solo se è consumato nello stesso periodo in cui è guadagnato.<br />
Alla fine dello stadio GIOVINEZZA ciascun giocatore genera una figlia.<br />
La madre entra così nello stadio VECCHIAIA durante il quale è troppo debole<br />
per lavorare e così non guadagna più niente.<br />
Chiunque preferirebbe non consumare tutti i guadagni nella giovinezza.<br />
Tutti preferirebbero consumare:<br />
1 unità nella giovinezza<br />
1 unità nella vecchiaia.<br />
Sfortunatamente il bene guadagnato non può essere accumulato e così la<br />
seconda possibilità non può essere raggiunta, a meno che non vi siano trasferimenti<br />
di bene da un giocatore ad un altro.<br />
Per ogni giocatore un equilibrio è consumare qualunque cosa guadagnata nella<br />
giovinezza. Così ognuno condurrà una vecchiaia miserevole...<br />
93
Sarebbe auspicabile che la figlia desse una unità di bene alla madre, così<br />
ognuno potrebbe godere di una unità di bene in ogni periodo della sua vita.<br />
Tale comportamento è un equilibrio?<br />
Supponiamo che la figlia dia un’unità di bene alla madre se questa ha adottato<br />
un comportamento analogo nel periodo precedente. Questo è un NE,<br />
infatti nessuna deviazione farebbe guadagnare qualcosa se ci si allontanasse<br />
dalla strategia di equilibrio.<br />
Il meglio per chi devia sarebbe consumare tutto il bene al primo stadio, ma<br />
allora la strategia di equilibrio della figlia richiederebbe una punizione per<br />
tale comportamento.<br />
Chi devia sarà allora lasciato senza niente nella vecchiaia.<br />
Notiamo che una figlia non vorrebbe punire una madre che devia: se facesse<br />
così farebbe così anche sua figlia con lei.<br />
Il NE trovato non è perfetto nei sottogiochi, perché il comportamento di<br />
equilibrio non è credibile per un giocatore razionale.<br />
Un equilibrio perfetto nei sottogiochi che sostiene esiti cooperativi è facile da<br />
trovare.<br />
Ciascuna figlia dà una metà del bene a sua madre se e solo se nessuno ha<br />
mai fatto in modo differente nel passato.<br />
Sembra quasi una punizione biblica: la punizione si estende non alla terza o<br />
quarta generazione, ma a tutti i discendenti...<br />
Possiamo trovare un equilibrio perfetto nei sottogiochi in cui solo i colpevoli<br />
sono puniti?<br />
A tale scopo chiamiamo CONFORMISTA un giocatore che dà a sua madre<br />
una unità del bene se sua madre si è comportata da conformista.<br />
Altrimenti una figlia conformista non dà niente a sua madre.<br />
In questo modo i conformisti ricompensano i conformisti e puniscono i non<br />
conformisti.<br />
Allora è un equilibrio perfetto nei sottogiochi essere un conformista.<br />
Alcune persone si sentono offese da tali storie che insegnano come la società<br />
dovrebbe essere tenuta insieme. Dicono che tali storie “denigrano lo<br />
spirito umano” o “sviliscono la capacità umana di amore”.<br />
“Penso”, dice Binmore, “che avere queste reazioni sia perdere di vista lo scopo<br />
di tali storie: i teorici di Teoria dei Giochi amano le torte di mele e le loro<br />
madri... le figlie aiutano le loro madri semplicemente perché le amano”.<br />
Il modello raccontato vuole mettere in luce il fatto che, se anche tutte le<br />
94
figlie avessero un cuore di pietra, non necessariamente dimenticherebbero le<br />
madri.<br />
In una società coordinata su un contratto sociale opportuno le madri sarebbero<br />
curate perché così è meglio per tutti.<br />
95
Capitolo 2<br />
Evolutionary Game Theory da<br />
Weibul<br />
2.1 Elementi della Teoria dei Giochi non cooperativi<br />
Proposizione 2.1 Per un gioco finito in strategie miste l’insieme degli equilibri<br />
di Nash è non vuoto e ha un numero finito di componenti connesse<br />
chiuse.<br />
Se è un Nash stretto, allora è un punto isolato.<br />
Con una trasformazione di scala crescente oppure con l’aggiunta di un gioco<br />
dummy non cambiano i NE.<br />
RAFFINAMENTO<br />
Denotiamo con θ NE l’insieme degli equilibri di Nash in strategie miste anche<br />
non simmetrici.<br />
Definizione 2.2 (PERFEZIONE DELLA MANO TREMOLANTE)<br />
x ∈ θ NE è perfetto se esiste una successione di giochi perturbati {G(µ t )}µ t →0<br />
e per ognuno di essi esiste un equilibrio di Nash x t ∈ θ NE (µ t ) tale che x t → x,<br />
dove µ t è una funzione errore che ad ogni giocatore i e ad ogni strategia pura<br />
97
h associa la probabilità µ t ih ∈ (0, 1) cioè la probabilità che quella strategia sia<br />
giocata per sbaglio. <br />
< 1<br />
h<br />
µih<br />
Ogni equilibrio di Nash interno è perfetto e inoltre l’insieme degli equilibri<br />
perfetti è non vuoto.<br />
Ogni equilibrio perfetto (x ∈ θ P E ) è non dominato.<br />
Nei giochi a due giocatori vale anche il viceversa.<br />
Definizione 2.3 x ∈ θ NE è proprio se esiste una successione ε t → 0 e dei<br />
profili di strategie ε t -propri y(ε t ) tali che y(ε t ) → x<br />
dove :<br />
dato ε > 0, un profilo di strategie y ∈ int(θ) è ε-proprio se<br />
ui(e h i , y−i) < ui(e k i , y−i) =⇒ yih<br />
≤ εyik<br />
(cioè la strategia che mi dà un payoff minore, viene giocata con probabilità<br />
più piccola di ε rispetto all’altra).<br />
Ogni equilibrio di Nash interno è proprio.<br />
Ogni equilibrio proprio è perfetto.<br />
Esistono sempre equilibri propri.<br />
Definizione 2.4 x ∈ θ NE è strettamente perfetto se per ogni successione<br />
di giochi perturbati {G(µ t )}µ t →0 esiste per ciascuno di essi un equilibrio di<br />
Nash x t ∈ θ NE (µ t ) tale che x t → x.<br />
Valgono i seguenti risultati:<br />
• Ogni equilibrio di Nash interno è strettamente perfetto.<br />
98
• Ogni equilibrio di Nash stretto è strettamente perfetto.<br />
• Ogni equilibrio strettamente perfetto è proprio.<br />
Osservazione 2.5 Gli equilibri di Nash stretti sono strettamente perfetti,<br />
quindi propri, quindi perfetti.<br />
Non sempre esistono equilibri strettamente perfetti:<br />
Esempio 2.6 Siano α, β > 0.<br />
❍<br />
❍❍❍❍❍ II<br />
I<br />
L M R<br />
T 0 β α 0 0 0<br />
B 0 β 0 0 α 0<br />
NE: (T, L) (B, R)<br />
sono perfetti ma non strettamente perfetti.<br />
ESSENZIALI<br />
Definizione 2.7 Definiamo payoff distanza tra due giochi G e G ′<br />
guente:<br />
d(G, G ′<br />
) = max |πi(s) − π ′<br />
i(s)|<br />
i ∈ I, s ∈ S<br />
99<br />
la se
Definizione 2.8 x ∈ θ NE è essenziale se ∀ ε > 0 ∃ δ > 0 tale che:<br />
d(G, G ′<br />
) < δ =⇒ G ′<br />
ha un equilibrio di Nash x ′<br />
tale che d(x, x ′<br />
) < ε<br />
(salita nel simplesso).<br />
Non è detto che i NE interni siano essenziali:<br />
CONTROESEMPIO: gioco con tutti i payoff uguali.<br />
x essenziale =⇒ x strettamente perfetto.<br />
NE stretto è essenziale?<br />
GIOCHI SIMMETRICI A DUE GIOCATORI<br />
Definizione 2.9 G = (I, S, π) I = {1, 2}<br />
S = S1 × S2 = S2 × S1<br />
π1(s1, s2) = π2(s2, s1) ∀ (s1, s2) ∈ S<br />
Equivale a B = A T (dove A, B sono le matrici payoff dei due giocatori.)<br />
Definizione 2.10 G è un gioco doppiamente simmetrico se:<br />
A T = A = B<br />
(gioco di puro coordinamento con matrice simmetrica).<br />
Definizione 2.11 ∆ NE = {x ∈ ∆ : (x, x) ∈ θ NE }.<br />
100
Proposizione 2.12 Per ogni gioco finito e simmetrico a due giocatori si ha<br />
ESEMPI:<br />
1. FALCHI-COLOMBE<br />
Se c < v<br />
2<br />
∆ NE = ∅.<br />
F C<br />
F v − c v<br />
2<br />
C 0 v<br />
2<br />
(cioè costa poco), NE:(F,F).<br />
Se c > v,<br />
NE:(C,F), (F,C).<br />
2<br />
Non simmetrici ma in strategie miste sì.<br />
2. ROCK-SCISSORS-PAPER<br />
❍<br />
❍❍❍❍❍ II<br />
I<br />
R S P<br />
R 1 2 0<br />
S 0 1 2<br />
P 2 0 1<br />
101
( 1<br />
3<br />
∃ NE in strategie pure, ma<br />
, 1<br />
3<br />
1<br />
, ) è NE in strategie miste.<br />
3<br />
2.2 Criteri di stabilità evolutiva<br />
Definizione 2.13 x ∈ ∆ (simplesso) è una ESS (strategia evolutivamente<br />
stabile) se per ogni strategia y = x esiste εy ∈ (0, 1) tale che:<br />
εu(x, y) + (1 − ε)u(x, x) > εu(y, y) + (1 − ε)u(y, x) (2.1)<br />
payoff del non mutante > payoff mutante<br />
∀ ε ∈ (0, εy)<br />
Osservazione 2.14 ∆ ESS ⊂ ∆ NE<br />
Proposizione 2.15 x ∈ ∆ ESS se e solo se<br />
u(y, x) ≤ u(x, x) ∀ y<br />
u(y, x) = u(x, x) =⇒ u(y, y) < u(x, y) ∀ y = x<br />
Se (x, x) è un NE stretto, allora è un ESS.<br />
Esempi 2.16 1. DILEMMA DEL PRIGIONIERO<br />
Il NE≡ESS anche se non efficiente.<br />
102
2.<br />
L R<br />
T 2 2 0 0<br />
B 0 0 1 1<br />
NE: (T, L), (B, R).<br />
Sono ESS perché simmetrici e stretti.<br />
3. FALCHI-COLOMBE (chicken per Binmore)<br />
F v<br />
v − c 2<br />
F C<br />
− c v 0<br />
2<br />
C 0 v v<br />
2<br />
Con c > v,<br />
∃ 1 ESS in strategie miste.<br />
2<br />
4. SASSO-CARTA-FORBICE<br />
L’equilibrio di Nash in strategie miste non è ESS.<br />
Osservazione 2.17 Gioco dummy simmetrico<br />
103<br />
v<br />
2
a a d a<br />
a d d d<br />
gioco simmetrico + gioco dummy simmetrico =<br />
a a b c<br />
c b d d<br />
+<br />
Infatti:<br />
0 0 −b −c<br />
−c −b 0 0<br />
=<br />
a 0<br />
0 d<br />
<br />
a a 0 0<br />
0 0 d d<br />
ESS non cambiano aggiungendo un gioco dummy.<br />
Proposizione 2.18 Se x ∈ ∆ ESS e C(y) ⊂ C(x) (cioè y sta nella stessa<br />
faccia del simplesso di x) per qualche y = x, allora y ∈ ∆ NE .<br />
C(x)=supporto di x è la faccia del simplesso che ha come vertici le strategie<br />
pure a cui x assegna probabilità positiva.<br />
104
.<br />
•<br />
Se c’è una ESS interna, questa è unica perché il supporto è tutto il lato.<br />
A •<br />
.<br />
×<br />
C<br />
× B<br />
Se i è una ESS (A) su un lato del triangolo, i due vertici non possono essere<br />
ESS, però può essere B o C.<br />
• .<br />
• •<br />
CASI POSSIBILI<br />
caso 3 strategie<br />
(perché il supporto di un vertice è il vertice stesso.)<br />
105<br />
•<br />
• .
. .<br />
•<br />
caso 3 strategie pure: il simplesso è un triangolo.<br />
. .<br />
• • •<br />
•<br />
. .<br />
• • •<br />
106<br />
•<br />
nessuna
.<br />
•<br />
n = 2<br />
caso 2 strategie pure: il simplesso è un segmento<br />
.<br />
• •<br />
•<br />
•<br />
FORSE IN GENERALE È n2 ?<br />
Corollario 2.19 L’insieme ∆ ESS ⊂ ∆ è finito.<br />
Se x ∈ ∆ è debolmente dominata, allora x ∈ ∆ ESS .<br />
x ∈ ∆ ESS =⇒ (x, x) ∈ θ P E .<br />
x ∈ ∆ ESS =⇒ (x, x) ∈ θ NE è proprio.<br />
107<br />
.<br />
.<br />
.
ESS =⇒ PROPRIO =⇒ PERFETTO<br />
⇐=<br />
basta considerare<br />
“carta, sasso, forbice”<br />
Nella Definizione 2.13 ε è indipendente da y; dice che x ha una barriera<br />
di invasione uniforme.<br />
x ∈ ∆ ESS ⇐⇒ x ha una barriera di invasione uniforme<br />
Definizione 2.20 x ∈ ∆ è localmente superiore se ha un intorno U tale<br />
che<br />
u(x, y) > u(y, y) ∀ y = x in U<br />
Allora:<br />
x ∈ ∆ ESS ⇐⇒ x è localmente superiore<br />
Definizione 2.21 x ∈ ∆ è neutralmente stabile (NSS) se ∀ y ∈ ∆ esiste<br />
εy ∈ (0, 1) tale che la disuguaglianza (2.1) vale debolmente<br />
u[x, εy + (1 − ε)x] ≥ u[y, εy + (1 − ε)x] ∀ ε ∈ (0, εy)<br />
Un’altra possibilità di caratterizzazione è la seguente:<br />
u(y, x) = u(x, x) =⇒ u(y, y) ≤ u(x, y) ∀ y<br />
∆ ESS ⊂ ∆ NSS ⊂ ∆ NE<br />
Esempio 2.22 Nel gioco “carta-sasso-forbice”, ( 1<br />
3<br />
108<br />
, 1<br />
3<br />
1 , ) non è ESS ma NSS.<br />
3
x ∈ ∆ NSS ⇐⇒ x ha una barriera di invasione uniforme debole<br />
⇐⇒ x è localmente debolmente superiore<br />
Esempio 2.23 Ci sono giochi che non hanno NSS<br />
⎛<br />
1 1<br />
⎞<br />
0<br />
A = ⎝ 0 1 1 ⎠<br />
1 0 1<br />
Definizione 2.24 x ∈ ∆ è robusto (REE) contro i mutanti di equilibrio<br />
se qualunque y = x non è mai la miglior risposta a una popolazione mista<br />
y ∈ β ∗ [εy + (1 − ε)x]<br />
∆ ESS ⊂ ∆ REE ⊂ ∆ NE<br />
se x ∈ ∆ REE , allora x è proprio<br />
Esempio 2.25 “carta-sasso-forbice” ha equilibrio robusto:<br />
<br />
1 1 1<br />
, , ∈ REE<br />
3 3 3<br />
∈ NSS<br />
INSIEMI EVOLUTIVAMENTE STABILI<br />
Definizione 2.26 X ∈ ∆ NE è un insieme evolutivamente stabile (ES) se<br />
è un insieme chiuso e non vuoto e ∀ x ∈ X ∃ Ux (intorno di x) tale che<br />
u(x, y) ≥ u(y, y) ∀ y ∈ Ux ∩ β ∗ (x), con disuguaglianza stretta se y ∈ X.<br />
Nella Proposizione ?? dimostreremo che y ∈ β ∗ (x) è superfluo.<br />
X ES =⇒ X ⊂ ∆ NSS<br />
109
Esempio 2.27<br />
3<br />
.<br />
...........................................................................................................................................................................<br />
2 1<br />
. .<br />
∆NE<br />
è anche un ES set.<br />
∃ ESS<br />
Proposizione 2.28 X ⊂ ∆ ESS =⇒ X è ES set<br />
⎛<br />
⎜<br />
A= ⎜<br />
⎝<br />
0 2 0<br />
2 0 0<br />
1 1 0<br />
Ogni insieme ES è unione finita di insiemi disgiunti chiusi e connessi e ognuno<br />
di questi è ES.<br />
Non è detto che esistano insiemi ES, ma nei giochi doppiamente simmetrici<br />
sì.<br />
Insiemi robusti contro i mutanti di equilibrio cioè sono insiemi tali che i mutanti<br />
di equilibrio non possono condurre la popolazione fuori di essi.<br />
Definizione 2.29 X ⊂ ∆ è EES set se è minimale rispetto alla seguente<br />
proprietà:<br />
X è un sottoinsieme non vuoto e chiuso di ∆ NE ed ∃ ε ∈ (0, 1) tale che<br />
se x ∈ X, y ∈ ∆, ε ∈ (0, ε) e y ∈ β ∗ ((1 − ε)x + εy)<br />
(cioè y è un mutante miglior risposta alla popolazione mutata),<br />
allora (1 − εx) + εy ∈ X<br />
Esempio 2.30 In carta-sasso-forbice:<br />
<br />
1 1 1<br />
, ,<br />
3 3 3<br />
è NE<br />
non è ESS<br />
110<br />
è EES<br />
⎞<br />
⎟<br />
⎠
Ogni insieme EES è una componente connessa di ∆ NE .<br />
Ogni insieme ES contiene qualche EES e ogni insieme connesso ES è un<br />
EES.<br />
Definizione 2.31 x ∈ ∆ è:<br />
EFFICIENZA SOCIALE<br />
a) localmente strettamente efficiente se ∃ U : u(x, x) > u(y, y)<br />
∀ y = x in U.<br />
b) localmente debolmente efficiente se ∃ U : u(x, x) ≥ u(y, y)<br />
∀ y = x in U.<br />
c) globalmente efficiente se u(x, x) ≥ u(y, y)<br />
∀ y ∈ ∆.<br />
Esistono sempre strategie globalmente efficienti perché argmax in compatti.<br />
Nai giochi doppiamente simmetrici si ha:<br />
x ∈ ∆ NSS ⇐⇒ x è localmente debolmente efficiente<br />
x ∈ ∆ ESS ⇐⇒ x è localmente strettamente efficiente<br />
Definizione 2.32 Un insieme X ⊂ ∆ è localmente efficiente se è contenuto<br />
in qualche insieme U tale che:<br />
U = argmax u(x, x) = {x ∈ ∆ : u(x, x) ≥ u(y, y) ∀ y ∈ ∆ ∩ U}<br />
x ∈ ∆ ∩ U<br />
111
Ogni insieme localmente efficiente è un ES set ed ogni insieme ES X ⊂ ∆ è<br />
localmente efficiente.<br />
PREPLAY COMMUNICATION<br />
I payoff inefficienti possono essere evolutivamente instabili alla presenza di<br />
mutanti che comunicano.<br />
Per ogni gioco G possiamo definire il gioco GM (gioco cheap-talk associato a<br />
G)<br />
M = insieme finito di messaggi (µ, ν) ∈ M 2<br />
F = {f : M × M −→ K}<br />
cioè ad ogni coppia di messaggi (µ, ν) è associata una strategia pura di K<br />
h = f(µ, ν) ∈ K = insieme delle strategie pure di G.<br />
KM insieme delle strategie pure di GM.<br />
Il payoff di un giocatore che usa la strategia pura (µ, f) contro un oppositore<br />
che usa la strategia pura (ν, g) è:<br />
π payoff di G.<br />
estensione mista:<br />
πM[(µ, f), (ν, g)] = π[f(µ, ν), g(µ, ν)]<br />
uM(p, q) = <br />
(µ,f)∈KM<br />
<br />
<br />
i messaggi possono essere caratterisctiche fisiche.<br />
∀ x ∈ ∆ NE nel gioco G ∃ ˆx ∈ ∆ NE<br />
M nel gioco GM (caratterizzato dal fatto<br />
che le azioni sono le stesse dell’equilibrio in G ma tutti i messaggi sono dati<br />
con la stessa probabilità).<br />
Esercizio: L’equilibrio ESS di G non è più ESS in GM mentre l’equilibrio<br />
efficiente diventa ESS in GM.<br />
112
Esercizio: un risultato inefficiente che non è neppure un NE nel gioco G<br />
può diventare un ESS stabile in GM.<br />
Proposizione 2.33 Se la strategia p ∈ ∆M non usa tutti i messaggi, allora<br />
p sta in un insieme P ⊂ ES se e solo se è globalmente efficiente.<br />
Esempio 2.34 Se ci sono più di due NE stretti, allora un risultato inefficiente<br />
non è detto che diventi una ESS anche se non usa tutti i messaggi;<br />
può diventare semplicemente una NSS.<br />
COMPORTAMENTI CONDIZIONATI AL RUOLO<br />
Esempio 2.35 PROPRIETARIO-INTRUSO<br />
Ogni giocatore ha due ruoli: ruolo 1 e ruolo 2.<br />
Strategia: x = (x 1 , x 2 )<br />
(x 1 nella posizione 1, x 2 nella posizione 2).<br />
(esempio: (f, c) significa falco se proprietario, colomba se intruso).<br />
Dato un gioco base anche non simmetrico G (I, S, π) costruisce un gioco<br />
associato Γ simmetrico che tiene conto del ruolo.<br />
u ∗ (x, y) = 1<br />
<br />
u1(x<br />
2<br />
1 , y 2 ) + u2(y 1 , x 2 <br />
)<br />
Proposizione 2.36 Una strategia di comportamento x di Γ è ESS se e<br />
solo se x è un NE stretto di G.<br />
Esempio 2.37 FALCHI-COLOMBE con v = 2, c = 4.<br />
113
❍<br />
❍❍❍❍❍ II<br />
I<br />
F C<br />
F -1 -1 2 0<br />
C 0 2 1 1<br />
(C, F ), (F, C) NE stretti<br />
L’unico ESS in Γ corrisponde a (C, F ) e (F, C) in G.<br />
L’unica ESS di G (quella delle strategie miste) non è più ESS in Γ.<br />
Esempio 2.38 GIOCO DELLA DETERRENZA<br />
❍<br />
❍❍❍❍❍ II<br />
I<br />
L R<br />
T 2 2 0 0<br />
B 1 4 1 4<br />
NE stretto (T, L)<br />
intruso entra-proprietario cede<br />
Nel gioco Γ simmetrico questa è l’unica ESS.<br />
114
2.3 Dinamica del replicatore<br />
˙xi = [u(e i , x) − u(x, x)]xi<br />
xi(t)=percentuale di popolazione che al tempo t usa la strategia pura i.<br />
u(e i , x)=payoff medio di individui che usano la strategia i.<br />
u(x, x)=payoff medio di tutta la popolazione.<br />
(2.2)<br />
La dinamica del replicatore è invariante per cambiamenti di scala e giochi<br />
dummy.<br />
La (2.2) è un sistema di equazioni differenziali il cui secondo membro sono<br />
polinomi, quindi esiste una ed una sola soluzione per ogni punto iniziale.<br />
La solution mapping ξ : R × ∆ −→ ∆ è definita da:<br />
ξ(t, x0) = quel valora x(t) che corrisponde a x0 al variare di t<br />
(t ↦−→ ξ(t, x0) è l’orbita di x0).<br />
È interessante sapere che se x0 è interno, tutta l’orbita è interna (anche<br />
se si avvicina al bordo non arrva al bordo).<br />
Se x0 sta su una faccia, tutta l’orbita sta su quella faccia.<br />
Definizione 2.39 Un punto y ∈ ∆ è stazionario se ξ(t, y) = y ∀ t (cioè se<br />
l’orbita rimane lì.)<br />
Definizione 2.40 y ∈ ∆=simplesso è Liapunov stabile se ogni intorno B<br />
di y contiene un intorno B0 di y tale che x0 ∈ B0 =⇒ ξ(t, x0) ∈ B ∀ t.<br />
Intuitivamente: per ogni intorno esiste un intorno più piccolo tale che se<br />
parto dal più piccolo non esco comunque dal più grande.<br />
115
Definizione 2.41 Il bacino di attrazione di un insieme A è l’insieme dei<br />
punti x 0 tale che<br />
ξ(t, x 0 ) −→ A<br />
<br />
cioè<br />
dist(ξ(t, x<br />
t → ∞<br />
0 ), A) −→<br />
t → +∞<br />
<br />
0<br />
Definizione 2.42 A dicesi un attrattore se il bacino di attrazione non è<br />
vuoto ed è un intorno di A.<br />
Proposizione 2.43 Se x, y ∈ C e<br />
nario<br />
lim ξ(t, x) = y<br />
t → ∞<br />
, allora y è stazio-<br />
ATTRATTORE =⇒ LIAPUNOV STABILE =⇒ STAZIONARIO<br />
Esempio 2.44 dilemma del prigioniero ÷ hawk-dove<br />
Esempio 2.45 sasso-carta-forbice generalizzato<br />
N.B.: Nei giochi 2 × 2 il simplesso ∆ ha dimensione 1 (basta x1(t)...).<br />
Nei giochi 3 × 3 il simplesso ∆ ha dimensione 2.<br />
Teorema 2.46 Se una strategia pura i è iterativamente strettamente dominata,<br />
allora<br />
ξi(t, x 0 ) −→ 0 se t → +∞<br />
per ogni x 0 ∈ int(∆)<br />
cioè se sono presenti tutte le strategie pure quelle iterativamente strettamente<br />
dominate sono spazzate via.<br />
Esempio 2.47<br />
⎛<br />
⎜<br />
A= ⎜<br />
⎝<br />
3 1 6<br />
0 0 4<br />
1 2 5<br />
⎞<br />
⎟<br />
⎠<br />
116<br />
⎛<br />
⎜<br />
B= ⎜<br />
⎝<br />
3 0 1<br />
1 0 2<br />
6 4 5<br />
⎞<br />
⎟<br />
⎠
WEAK DOMINANCE<br />
Proposizione 2.48 Supponiamo che i sia una strategia debolmente dominata<br />
da una strategia y ∈ ∆.<br />
per ogni x 0 ∈ int(∆).<br />
Esempio 2.49 A =<br />
Se u(y, e j ) > u(e i , e j ), allora<br />
ξi(t, x 0 ) −→ 0 e/o ξj(t, x 0 ) −→ 0<br />
t → +∞ t → +∞<br />
Esempio 2.50 A = ⎝<br />
∆ NE =<br />
<br />
0 1<br />
0 0<br />
⎛<br />
<br />
.<br />
1 1 1<br />
1 1 0<br />
0 0 0<br />
⎞<br />
⎠.<br />
x ∈ ∆ : u(e i , x) = max u(z, x) ∀ i ∈ C(x)<br />
z ∈ ∆<br />
cioè se il NE è ( 1 1 F, C), allora u(F, x) = u(C, x) (quindi non è NE stretto).<br />
2 2<br />
x•<br />
. C<br />
F R<br />
(Attenzione, R guadagna di meno)<br />
117
∆ 0 =<br />
<br />
x ∈ ∆ : u(e i , x) = u(x, x) ∀ i ∈ C(x)<br />
insieme dei punti stazionari nella dinamica del replicatore (derivata =0).<br />
∆ NE ⊂ ∆ 0<br />
<br />
inoltre per i punti interni ∆ NE = ∆ 0<br />
per definizione ∆ 00 = ∆ 0 ∩ int(∆)<br />
Proposizione 2.51 {e 1 , . . . , e k } ∪ ∆ NE ⊂ ∆ 0<br />
∆ 00 = ∆ NE ∩ int(∆)<br />
∆ 00 convesso<br />
LYAPUNOV STABILI<br />
Proposizione 2.52 Se x ∈ ∆ è Lyapunov stabile nella dinamica del replicatore,<br />
allora x ∈ ∆ NE .<br />
Il viceversa non è vero: si veda esempio SASSO-CARTA-FORBICE generalizzato.<br />
Proposizione 2.53<br />
Se x 0 ∈ int(A) e ξ(t, x 0 ) −→ x allora x ∈ ∆ NE<br />
t → +∞<br />
⎛<br />
Esempio 2.54 A = ⎝<br />
0 1 0<br />
0 0 2<br />
0 0 1<br />
⎞<br />
⎠.<br />
La strategia pura x = e 1 è punto limite di tutte le traiettorie interne, è NE<br />
ma non Lyapunov stabile (perché comunque prenda un intorno “piccolo” vi<br />
sono traiettorie che da quell’intorno vanno comunque lontano).<br />
118
MEDIE TEMPORALI E ∆ NE<br />
Definiamo la media temporale ξ(T, x 0 ) ∈ ∆ come<br />
ξ i(T, x 0 ) = 1<br />
T<br />
K=insieme delle strategie pure.<br />
T<br />
t=0<br />
ξi(t, x 0 ) dt ∀ i ∈ K<br />
Proposizione 2.55 Sia ∆ NE ∩ int(∆) = {x}, x 0 ∈ int(∆).<br />
γ + (x 0 ) ⊂ int(∆)<br />
(orbita in avanti, cioè per i tempi positivi).<br />
Allora<br />
lim ξ(T, x 0 ) = x<br />
T → ∞<br />
Esempio 2.56 SASSO-CARTA-FORBICE<br />
Proposizione 2.57 Supponiamo che ∆ NE ∩ int(∆) = ∅. Allora<br />
dove bd(∆) = ∂(∆).<br />
Concludendo:<br />
ξ(t, x 0 ) −→ bd(∆) ∀ x 0 ∈ ∆<br />
t → +∞<br />
Proposizione 2.58 Se esiste z ∈ int(∆) tale che u(z, y) > u(y, y) ∀ y ∈<br />
∆ 0 ∩ ∂(∆), allora la dinamica del replicatore è permanente (cioè nessuna<br />
strategia pura sparisce).<br />
Se la dinamica è permanente, c’è allora un unico NE e vale la Proposizione<br />
2.55 (cioè la media temporale ξ(T, x 0 ) converge).<br />
119
Proposizione 2.59 Se x ∈ ∆ è asintoticamente stabile in (2.2), allora<br />
(x, x) ∈ θ NE è perfetto e isolato.<br />
(θ NE = eq. di NE simmetrico in strategie miste)<br />
Non vale il viceversa (esempio: SASSO-CARTA-FORBICE).<br />
INSIEMI E STRATEGIE EVOLUTIVAMENTE E NEUTRALMENTE STABILI<br />
Proposizione 2.60 Ogni x ∈ ∆ ESS è asintoticamente stabile nella dinamica<br />
del replicatore.<br />
Per la dimostrazione si veda la funzione ENTROPIA relativa, a pagina 96.<br />
Proposizione 2.61 Se x ∈ int(∆) ∩ ∆ ESS , allora<br />
ξ(t, x 0 ) −→ x ∀ x 0 ∈ int(∆)<br />
t → +∞<br />
Esempio 2.62 SASSO-CARTA-FORBICE<br />
⎛<br />
CONTROESEMPIO: A = ⎝<br />
1 5 0<br />
0 1 5<br />
5 0 4<br />
x = ( 3 8 7<br />
, , ) è asintoticamente stabile (cioè attrattore della dinamica)<br />
18 18 18<br />
x ∈ ∆ ESS<br />
⎞<br />
⎠.<br />
x ∈ ∆ NSS<br />
Proposizione 2.63 Ogni x ∈ ∆ NSS è Lyapunov stabile nella dinamica del<br />
replicatore.<br />
120
GIOCHI DOPPIAMENTE SIMMETRICI<br />
Nei giochi simmetrici non sempre il payoff medio della popolazione aumenta<br />
lungo le traiettorie (si veda falco-colomba), però aumenta se il gioco è doppiamente<br />
simmetrico.<br />
Teorema 2.64 (teorema fondamentale della selezione naturale) Per<br />
ogni gioco doppiamente simmetrico si ha:<br />
<br />
a1 0<br />
Esempio 2.65 A =<br />
0 a2<br />
˙u(x, x) ≥ 0<br />
e ˙u(x, x) = 0 ⇐⇒ x ∈ ∆ 0<br />
<br />
.<br />
gioco doppiamente simmetrico<br />
equivalente al gioco falco-colomba + gioco dummy.<br />
(si confronti l’Osservazione 2.17)<br />
Qui il payoff aumenta (mentre in falco-colomba no); quindi il gioco dummy<br />
non è poi così dummy.<br />
Proposizione 2.66 Per ogni gioco doppiamente simmetrico sono fatti equivalenti:<br />
a) x ∈ ∆ ESS .<br />
b) x ∈ ∆ è localmente strettamente efficiente.<br />
c) x ∈ ∆ è asintoticamente stabile nella dinamica del replicatore.<br />
121
CONVERGENZA DELLE TRAIETTORIE<br />
Definizione 2.67 A matrice dei payoff è simmetrizzabile se può essere trasformata<br />
in una matrice simmetrica da un numero finito di trasformazioni<br />
affini dei payoff e di aggiunte di giochi DUMMY.<br />
Osservazione 2.68 Tutte le matrici 2 × 2 sono simmetrizzabili.<br />
Proposizione 2.69 Ogni traiettoria della DR di un gioco a 2 giocatori con<br />
matrice payoff simmetrizzabile converge a qualche punto x ∈ ∆ 0 .<br />
APPENDICE (pag. 119):<br />
Nella DR le traiettorie sono uniche (dato il punto iniziale).<br />
Inoltre se partono dall’interno rimangono all’interno e se partono da una<br />
faccia rimangono nella faccia.<br />
122