13.06.2013 Views

appunti 1 - DIMA

appunti 1 - DIMA

appunti 1 - DIMA

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Indice<br />

1 Giochi non cooperativi 5<br />

1.1 Teoria delle decisioni . . . . . . . . . . . . . . . . . . . . . . . 5<br />

1.2 Decisioni sotto stretta incertezza . . . . . . . . . . . . . . . . 8<br />

1.3 Decisioni intertemporali . . . . . . . . . . . . . . . . . . . . . 14<br />

1.4 Preferenze e funzioni di utilità . . . . . . . . . . . . . . . . . . 20<br />

1.5 Equilibri di Nash . . . . . . . . . . . . . . . . . . . . . . . . . 23<br />

1.6 Giochi in forma estesa I . . . . . . . . . . . . . . . . . . . . . 34<br />

1.7 Giochi in forma estesa II . . . . . . . . . . . . . . . . . . . . . 45<br />

1.8 Raffinamenti degli equilibri di Nash . . . . . . . . . . . . . . . 55<br />

1.9 Esempi di giochi con strategie dominate . . . . . . . . . . . . 61<br />

1.10 Evasione fiscale (Li-Calzi) . . . . . . . . . . . . . . . . . . . . 65<br />

1.11 Giochi con potenziale . . . . . . . . . . . . . . . . . . . . . . . 68<br />

1.12 Giochi di contrattazione . . . . . . . . . . . . . . . . . . . . . 71<br />

1.13 Corsa agli sportelli (gioco a due stadi) . . . . . . . . . . . . . 77<br />

1.14 Dilemma del prigioniero ripetuto n volte . . . . . . . . . . . . 81<br />

1.15 Giochi ripetuti e automi finiti . . . . . . . . . . . . . . . . . . 87<br />

2 Evolutionary Game Theory da Weibul 97<br />

2.1 Elementi della Teoria dei Giochi non cooperativi . . . . . . . . 97<br />

2.2 Criteri di stabilità evolutiva . . . . . . . . . . . . . . . . . . . 102<br />

2.3 Dinamica del replicatore . . . . . . . . . . . . . . . . . . . . . 115<br />

3


Capitolo 1<br />

Giochi non cooperativi<br />

1.1 Teoria delle decisioni<br />

Esempio 1.1 Roulette russa.<br />

Due persone della stessa età e della stessa salute hanno ciascuna una rivoltella.<br />

Il primo tizio ha 3 proiettili nel tamburo della pistola a 6 colpi.<br />

Il secondo tizio ha 1 proiettile nel tamburo della pistola a 6 colpi.<br />

Ciascuno sta per ruotare il tamburo, puntare la pistola alla propria testa e<br />

premere il grilletto.<br />

Questo è tutto ciò che sai.<br />

Puoi togliere 1 solo proiettile da una delle pistole prima che essi premano il<br />

grilletto.<br />

Da quale pistola toglieresti il proiettile?<br />

Cerchiamo di schematizzare il problema:<br />

ci sono 2 azioni:<br />

AZIONE 1: prendere 1 proiettile da quella che ne ha 3.<br />

AZIONE 2: prendere 1 proiettile da quella che ne ha 1.<br />

5


Vediamo di schematizzare con le probabilità dei possibili esiti:<br />

0 MORTI 1 MORTO 2 MORTI<br />

AZIONE 1 20/36 14/36 2/36<br />

AZIONE 2 1/2 1/2 0<br />

Consideriamo una funzione perdita o misura di utilità negativa<br />

v(0) = 0<br />

v(1) = −l 0 < l < 1<br />

v(2) = −1<br />

Se non amo il rischio: la perdita attesa dal’azione 1 (lotteria L1) sarà minore<br />

della perdita attesa dall’azione 2 (lotteria L2)<br />

L1 :<br />

L2 :<br />

0 1 2 MORTI<br />

20/36 14/36 2/36 PROBABILIT À<br />

0 1 2 MORTI<br />

1/2 1/2 0 PROBABILIT À<br />

6


Se non amo il rischio:<br />

εv(L2) < εv(L1)<br />

cioè<br />

v(0) · 1 1<br />

20 14 2<br />

+ v(1) · + v(2) · 0 < v(0) · + v(1) · + v(2) ·<br />

2 2 36 36 36<br />

v(1) · 1<br />

2<br />

−l · 1<br />

2<br />

14 2<br />

< v(1) · + v(2) ·<br />

36 36<br />

14 2<br />

< −l · −<br />

36 36<br />

2 · l > 1<br />

l > 1<br />

2<br />

quale interpretazione possiamo dare?<br />

Naturalmente preferiamo l’azione che limita il possibile numero di morti.<br />

Rischiare 2 morti è più di due volte “brutto” che rischiarne uno.<br />

2l > 1 , −2l < −1 , v(2) > 2v(1)<br />

e questo è in accordo con ciò che la gente pensa usualmente.<br />

In generale un singolo incidente che comporta più morti è considerato peggiore<br />

di più incidenti separati che conducono allo stesso numero di morti.<br />

Questo problema si può confrontare con un altro reale a cui si trovano di<br />

fronte i medici: le risorse mediche sono limitate e non è possibile trattare<br />

tutti i pazienti che hanno bisogno di cure.<br />

Consideriamo ad esempio un cardiologo che può curare solo 1 di 2 pazienti:<br />

7


senza trattamento il I ◦ ha 1<br />

2<br />

1<br />

2<br />

con il trattamento il I ◦ ha 1<br />

3<br />

per il II ◦ paziente:<br />

senza trattamento il II ◦ ha 1<br />

6<br />

con il trattamento il II ◦ guararà<br />

cosa sceglierà il medico?<br />

Il problema è esattamente quelo di prima.<br />

probabilità di morire subito<br />

probabilità di diventare vecchio<br />

probabilità di morire<br />

probabilità di morire<br />

1.2 Decisioni sotto stretta incertezza<br />

Possiamo dividere i problemi decisionali in 3 classi:<br />

1. DECISIONI CON CERTEZZA<br />

2. DECISIONI CON RISCHIO<br />

3. DECISIONI CON STRETTA INCERTEZZA<br />

Raccontiamo un esempio dovuto a Savage (1972):<br />

Tua moglie ha appena rotto 5 uova buone in un tegame quando tu arrivi per<br />

fare l’omelette. Esiste un sesto uovo non rotto davanti al tegame, può essere<br />

usato per l’omelette o per qualche cos’altro.<br />

Devi decidere cosa fare con questo, cioè hai 3 possibili azioni:<br />

8


1. ROMPERLO NEL TEGAME CHE CONTIENE GLI ALTRI 5<br />

2. ROMPERLO IN UN PIATTO PER ISPEZIONARLO<br />

3. BUTTARLO VIA SENZA ISPEZIONARLO<br />

Dipendendo dallo stato delle uova, queste 3 azioni avranno delle conseguenze<br />

BUONO: ϑ1<br />

STATI<br />

CATTIVO: ϑ2<br />

ROMPERE OMELETTE DI NESSUNA OMELETTE<br />

NEL TEGAME 6 UOVA E 6 UOVA BUONE<br />

α1 x11 DISTRUTTE<br />

ROMPERE OMELETTE DI OMELETTE DI<br />

NEL PIATTO 6 UOVA + 5 UOVA<br />

α2 1 PIATTO DA E 1 PIATTO DA<br />

LAVARE LAVARE<br />

x21<br />

BUTTARE OMELETTE DI OMELETTE DI<br />

VIA 5 UOVA E 1 5 UOVA<br />

x12<br />

x22<br />

α3 BUON UOVO x32<br />

DISTRUTTO<br />

x31<br />

Le conseguenze xij non sono numeri ma si può sempre associare un valore<br />

che “misura” xij cioè intendiamo per misura del valore<br />

“>” preferenza del decisore.<br />

v(xij) > v(xkl) ⇐⇒ xij > xkl<br />

I problemi decisionali sono stati classificati in accordo alle conoscenze del<br />

9


decisore sugli stati della natura.<br />

Le decisioni sotto stretta incertezza sono quelle per cui il decisore non può<br />

dire nulla circa il vero stato della natura.<br />

Non solo egli è ignorante del vero stato, ma non può quantificare la sua incertezza<br />

in alcun modo.<br />

Egli può solo dire che ciascun ϑj descrive un possibile stato del mondo e<br />

ϑ1, ϑ2, . . . , ϑn è una lista esaustiva delle possibilità.<br />

Come sceglie un decisore sotto stretta incertezza?<br />

Vediamo alcuni criteri:<br />

1. WALD’S MAX-MIN RETURN (1950) Con l’azione ai la peggior conseguenza<br />

possibile per il decisore è:<br />

si = min vij<br />

j = 1, . . . , n<br />

È chiamato livello di sicurezza di ai.<br />

Se interpretiamo vij come un valore finanziario, si può essere interpretato<br />

notando che ai garantisce al decisore un ritorno di almeno si.<br />

Il criterio del max-min ritorno suggerito suggerito da WALD è: scegliere<br />

l’azione ak:<br />

è un criterio molto pessimista.<br />

sk = max {min (vij)}<br />

i j<br />

2. HURCHIWICZ-INDICE DI OTTIMISMO/PESSIMISMO<br />

Definiamo il livello di ottimismo di ai come<br />

σi = max vij<br />

j = 1, . . . , n<br />

cioè il valore della miglior conseguenza che ai può dare.<br />

Il criterio del max-min ritorno è<br />

m m n<br />

σk = max {σi} = max {max (vij)}<br />

i = 1 i = 1 j = 1<br />

10


Questo è una critica al criterio pessimista di WALD: perché è più razionale<br />

essere pessimisti che ottimisti?<br />

Un vecchio proverbio dice:<br />

“IT IS BETTER TO BE SAFE THAN SORRY”.<br />

Il criterio di WALD è più prudente ma “NOTHING VENTURED, NO-<br />

THING GAINED”.<br />

HURCHIWICZ (1951) suggerì che poche persone sono così pessimiste<br />

o così ottimiste come questi estremi possono portare, suggerì così una<br />

strada di mezzo: sostenne che un decisore dovrebbe scegliere le azioni<br />

in accordo ad una media pesata dei livelli di sicurezza e di ottimismo<br />

αsi + (1 − α)σi con 0 ≤ α ≤ 1<br />

α è l’indice di ottimismo/pessimismo.<br />

HURCHIWICZ raccomanda per la regola di decisione di scegliere<br />

n<br />

ak : αsk + (1 − α)σk = max {αsi + (1 − α)σi}<br />

i = 1<br />

3. SAVAGE MIN-MAX REGRET<br />

Savage (1951) osservò che nell’usare i valori vij per guidare una scelta,<br />

il decisore confronta il valore della conseguenza di un’azione sotto uno<br />

stato di natura con i valori di tutte le altre conseguenze qualunque sia<br />

lo stato di natura.<br />

Savage definisce il RIMPIANTO di una conseguenza come:<br />

m<br />

rij = max {vij} − vij<br />

i = 1<br />

cioè è la differenza tra il valore che risulta dalla miglior azione dato ϑj<br />

e il valore che risulta da ai sempre in ϑj (stato del mondo).<br />

Ad ogni azione si deve assegnare l’indice<br />

n<br />

ρi = max {rij} = massimo rimpianto che deriva dall’azione ai<br />

j = 1<br />

11


Allora si deve scegliere un’azione che minimizza ρi cioè scegliere ak:<br />

m m n<br />

ρk = min {ρi} = min {max (rij)}<br />

i = 1 i = 1 j = 1<br />

4. LAPLACE (1825) osservò che “non sapere nulla circa gli stati della<br />

natura” è lo stesso che “tutti gli stati hanno uguale probabilità”.<br />

Se è scelta l’azione ai e tutti gli stati hanno uguale probabilità, allora<br />

il decisore ha valore atteso da queste conseguenze incerte:<br />

n<br />

<br />

1<br />

vij<br />

n<br />

j=1<br />

e dovrebbe cercare di massimizzare il suo valore atteso di questa scelta<br />

cioè scegliere ak:<br />

n m n<br />

1<br />

n vkj = max<br />

j = 1 i = 1 j = 1<br />

12<br />

1<br />

n vij


T ABLE 1 : ESEMP IO DI MILNOR<br />

ϑ1 ϑ2 ϑ3 ϑ4 si σi<br />

a1 2 2 0 1 0 2 5/4<br />

a2 1 1 1 1 1 1 1<br />

a3 0 4 0 0 0 4 1<br />

a4 1 3 0 0 0 3 1<br />

1<br />

j ( n )vij<br />

T ABLE 2 : RIMP IANT I P ER L ′ ESEMP IO DI MILNOR<br />

Esempio per il calcolo:<br />

ϑ1 ϑ2 ϑ3 ϑ4 ρi<br />

a1 0 2 1 0 2<br />

a2 1 3 0 0 3<br />

a3 2 0 1 1 2<br />

a4 1 1 1 1 1<br />

r22 = max{2, 1, 4, 3} − 1 = 4 − 1 = 3<br />

13


- CRITERIO DI LAPLACE: a1<br />

- CRITERIO DI WALD: a2<br />

- CRITERIO DI HURCHIWICZ: assegna gli indici<br />

rispettivamente ad<br />

2(1 − α), 1, 4(1 − α), 3(1 − α)<br />

a1, a2, a3, a4.<br />

In quanto αsk + (1 − α)σk = max{αsi + (1 − α)σi}<br />

0 ≤ α < 1 4(1 − α) > 2(1 − α)<br />

4(1 − α) > 3(1 − α)<br />

se α < 3/4 4(1 − α) > 1<br />

così il criterio di Hurchiwicz sceglie a3 per α < 3/4.<br />

- CRITERIO DI SAVAGE: a4<br />

Ogni criterio sceglie un’azione differente.<br />

SONO TUTTI BUONI CRITERI?<br />

1.3 Decisioni intertemporali<br />

Molti problemi decisionali hanno a che vedere con progetti in cui i costi e i<br />

benefici crescono con un certo numero di anni.<br />

Consideriamo solo casi in cui i costi e i benefici sono interamente monetari.<br />

Vediamo ad esempio il flusso di cassa (CASH-FLOW) dato nei 6 progetti<br />

della tavola seguente:<br />

14


ANNI A B C D E F<br />

0 -10 M -10 M -10 M -1 M -16 M -16 M<br />

1 +5 M +5 M +2 M +0.5 M +16 M +3.2 M<br />

2 +5 M +5 M +8 M +0.5 M +5 M +19.2 M<br />

3 0 +5 M +5 M +0.5 M 0 0<br />

4 0 +5 M +5 M +0.5 M 0 0<br />

Consideriamo solo 2 tipi di decisione:<br />

1) ACCETTARE O RIFIUTARE<br />

2) CLASSIFICARE<br />

Nel caso 1) ciascun progetto è considerato indipendente da tutti gli altri.<br />

Nel caso 2) tutti i progetti sono confrontati e classificati con l’intenzione di<br />

adottare un singolo progetto: il più favorevole.<br />

È importante includere un progetto nullo che rappresenta lo status quo.<br />

In questo contesto studieremo solo le decisioni di tipo 2) (“classificare”).<br />

Discutiamo qui 4 regole decisionali, regole che aiutano il decisore a classificare<br />

i progetti che coinvolgono costi e benefici temporali.<br />

La regola più semplice è confrontare progetti tenuto conto del tempo in cui<br />

chiudono in pareggio cioè tenendo conto del periodo di rimborso.<br />

Questo viene chiamato PAYBACK-METHOD (o METODO DI RIMBOR-<br />

SO).<br />

Lo indicheremo con PM.<br />

Il progetto A ha un periodo di rimborso di 2 anni, così anche B, C, D.<br />

15


Il progetto E ha un periodo di rimborso di 1 anno.<br />

Il progetto F ha un periodo di rimborso di 2 anni.<br />

Questo metodo considera il progetto E il più favorevole, ma non distingue<br />

tra i progetti A, B, C, D e F.<br />

Questo metodo contiene un certo numero di errori, vediamone alcuni:<br />

i) In nessun conto è tenuto il profitto totale dopo il rimborso (confronta<br />

A e B).<br />

ii) In nessun conto è tenuta la misura dell’investimento (confronta B e D).<br />

iii) In nessun conto è tenuta la distribuzione di entrata e uscita (reddito e<br />

spesa) confronta B e C.<br />

iv) Il periodo di rimborso non è chiaramente definito se il progetto coinvolge<br />

investimenti di più anni.<br />

ESEMPIO:<br />

INVESTIMENTI -10 M + 10 M +4 M -4 M +4 M<br />

ANNI 0 1 2 3 4<br />

Qual è il periodo di rimborso? 1 anno oppure 3 anni?<br />

Due parole in favore del metodo di rimborso (PM):<br />

1.<br />

È molto semplice da capire e usare.<br />

2. Minimizzando il periodo di rimborso si minimizza il rischio, infatti,<br />

essendo il futuro incerto, un decisore dovrebbe minimizzare il tempo in<br />

cui un investimento è in sospeso.<br />

Un altro metodo più opportuno di valutare lo “scorrere del tempo” è suggerito<br />

dal metodo ARR (=ACCOUNTING RATE OF RETURN = STIMA<br />

DELLA VELOCITÀ DEL GUADAGNO)<br />

ARR =<br />

PROFITTO MEDIO × ANNO DI 1 PROGETTO<br />

SPESA DEL CAPITALE<br />

16<br />

× 100%


Allora indicando ARR(A) per calcolare ARR del progetto A, si ottiene:<br />

ARR(A) =<br />

(5 + 5 − 10)/2<br />

10<br />

× 100% = 0%<br />

(5 + 5 + 5 + 5 − 10)/4<br />

ARR(B) = × 100% = 25%<br />

10<br />

(2 + 8 + 5 + 5 − 10)/4<br />

ARR(C) = × 100% = 25%<br />

10<br />

(0.5 + 0.5 + 0.5 + 0.5 − 1)/4<br />

ARR(D) = × 100% = 25%<br />

1<br />

(16 + 5 − 16)/2<br />

ARR(E) = × 100% = 15.6%<br />

16<br />

(3.2 + 19.2 − 16)/2<br />

ARR(F) = × 100% = 20%<br />

16<br />

Con questo metodo l’ordine di preferenza dei progetti è il seguente:<br />

B, C, D sono i migliori<br />

poi<br />

F, E, A.<br />

Diversamente dal metodo di rimborso PM il criterio ARR tiene conto del<br />

profitto necessario dopo che un progetto chiude in pareggio (esempio B è<br />

meglio di A).<br />

Inoltre è sempre ben definito.<br />

Tuttavia:<br />

i) non è presa in considerazione la misura dell’investimento (confronta B<br />

e D);<br />

ii) non è presa in considerazione la distribuzione dei beni in entrata e in<br />

uscita (confronta B e C).<br />

Né il metodo PM né il metodo ARR coinvolgono fattori di sconto. La<br />

maggior parte di noi preferirebbe avere 100 euro ora piuttosto che 100 euro<br />

tra un anno cioè in termini economici manifestiamo preferenze temporali sui<br />

consumi in periodi differenti.<br />

Supponiamo che 1 euro ora sia equivalente a (1+r) euro r>0 in un anno allora<br />

1 euro ricevuta in n anni è peggio di (1/(1 + r)) n euro ricevute ora.<br />

17


Usiamo questa idea per valutare la bontà di un progetto mediante il metodo:<br />

NPV=NET PRESENT VALUE=VALORE ATTUALE NETTO.<br />

Allora calcoliamo NPV(A), NPV(B), ecc.<br />

NPV(A) = −10M + 5 5<br />

M + M + 0 + 0<br />

1 + r (1 + r) 2<br />

NPV(B) = −10M + 5<br />

M +<br />

1 + r<br />

NPV(C) = −10M + 2<br />

M +<br />

1 + r<br />

5<br />

M +<br />

(1 + r) 2<br />

8<br />

M +<br />

(1 + r) 2<br />

5<br />

M +<br />

(1 + r) 3<br />

5<br />

M +<br />

(1 + r) 3<br />

5<br />

M<br />

(1 + r) 4<br />

5<br />

M<br />

(1 + r) 4<br />

NPV(D) = −1M + 0.5 0.5 0.5 0.5<br />

M + M + M + M<br />

1 + r (1 + r) 2 (1 + r) 3 (1 + r) 4<br />

NPV(E) = −16M + 16 5<br />

M + M + 0 + 0<br />

1 + r (1 + r) 2<br />

NPV(F) = −16M + 3.2 19.2<br />

M + M + 0 + 0<br />

1 + r (1 + r) 2<br />

In generale r è noto come TASSO DI SCONTO (=DISCOUNT RATE).<br />

Ci sono varie controvesie circa il valore numerico da assegnare ad r ma qui<br />

non ne parleremo, per il nostro problema assumeremo<br />

Quindi:<br />

r = 0.1<br />

NPV(A) = −1.322M<br />

NPV(B) = 5.850M<br />

NPV(C) = 5.601M<br />

NPV(D) = 0.585M<br />

NPV(E) = 2.678M<br />

NPV(F) = 2.777M<br />

Con questo metodo i progetti sono così ordinati come ordine di preferenze:<br />

18


1 ◦ B<br />

2 ◦ C<br />

3 ◦ F<br />

4 ◦ E<br />

5 ◦ D<br />

6 ◦ A<br />

Questo criterio non è soggetto a nessuna delle quattro critiche che erano state<br />

fatte per PM.<br />

Tuttavia ci chiediamo: il metodo NPV tiene conto del fattore r di sconto in<br />

maniera corretta?<br />

r è lo stesso ogni anno?<br />

Stabilire un valore appropriato al fattore di sconto per un particolare problema<br />

è sempre una questione controversa.<br />

Un metodo che supera, almeno in parte, questo problema è il criterio decisionale<br />

IRR=INTERNAL RATE OF RETURN = TASSO DI PROFITTO<br />

INTERNO.<br />

IRR è definito essere il valore di r tale che NPV di un progetto è zero.<br />

Per trovare IRR(A) dobbiamo risolvere<br />

−10M + 5M 5M<br />

+ = 0<br />

(1 + r) (1 + r) 2<br />

Pongo x = 1/(1 + r) e dividendo per 5M si ha:<br />

ed essendo x = 1/(1 + r) > 0 si ha<br />

−2 + x + x 2 = 0 ⇐⇒ x = 1 o x = −2<br />

1<br />

1 + r<br />

= 1 ⇐⇒ r = 0<br />

19


Allora<br />

IRR(A) = 0%<br />

In modo analogo si calcola IRR degli altri 5 progetti:<br />

IRR(A) = 0%<br />

IRR(B) = 35%<br />

IRR(C) = 32%<br />

IRR(D) = 35%<br />

IRR(E) = 25%<br />

IRR(F) = 20%<br />

Allora i progetti migliori sono B e D e i rimanenti nell’ordine: C, E, F, A.<br />

Osserviamo che IRR diversamente da NPV tiene conto della misura dell’investimento<br />

(confronta B e D).<br />

NPV classifica F sopra E.<br />

IRR classifica E sopra F.<br />

Si potrebbe discutere ancora a lungo su questa diversa classificazione (per<br />

approfondimenti cfr. S. French) ma fermiamoci qui: nessun metodo è completamente<br />

soddisfacente. . . .<br />

NPV sembra essere quello con meno inconvenienti ma potremmo discutere<br />

a lungo sulla sua applicabilità.<br />

1.4 Preferenze e funzioni di utilità<br />

Il modo più primitivo per descrivere delle preferenze è una relazione “≤”<br />

definita su un insieme Ω di esiti.<br />

Affinché la relazione sia un PREORDINE TOTALE è necessario che:<br />

∀ a, b, c ∈ Ω<br />

a ≤ b oppure b ≤ a (TOTALIT À)<br />

a ≤ b e b ≤ c =⇒ a ≤ c (TRANSITIVIT À)<br />

(segue la RIFLESSIVITÀ considerando b = a nella formula della totalità).<br />

20


La transitività è una richiesta razionale.<br />

La totalità ci assicura che un individuo può sempre esprimere una preferenza<br />

tra due esiti.<br />

Perché una persona razionale deve avere preferenze transitive? (ved. es.<br />

“money-pump”)<br />

La relazione di indifferenza è definita da:<br />

La relazione di stretta preferenza da:<br />

a ≤ b e b ≤ a ⇐⇒ a ∼ b<br />

a ≤ b e non a ∼ b ⇐⇒ a < b<br />

Il problema della decisione consiste nel trovare l’esito ω (ω ∈ S ⊂ Ω) che il<br />

decisore preferisce.<br />

(Notiamo che tale ω potrebbe non esistere, ad esempio se S è infinito. Esiste<br />

il numero più grande nell’intervallo (0,1)? Nel nostro contesto evitiamo simili<br />

casi).<br />

In molte situazioni può essere difficile esprimere le preferenze allora le funzioni<br />

di utilità sono l’espediente matematico per semplificare la situazione.<br />

Una funzione u : Ω −→ R è una funzione di utilità che rappresenta la<br />

relazione di preferenza “≤” se e solo se<br />

u(a) ≤ u(b) ⇐⇒ a ≤ b<br />

allora il problema di trovare il miglior ω ∈ S si riduce al più facile problema<br />

di trovare un valore di ω ∈ S per cui<br />

u(ω) = max u(S)<br />

s ∈ S<br />

21


PARADOSSO DI S. PIETROBURGO<br />

Consideriamo la lotteria illustrata in figura<br />

PREMIO $2 $4 $8 $16 . . . . . . . . . $2 k . . . . . . . . .<br />

SUCCESSIONE<br />

DI H TH TTH TTTH . . . . . . . . . T. . . TH . . . . . . . . .<br />

MONETE<br />

PROBABILIT À<br />

1<br />

2<br />

1<br />

4<br />

1<br />

8<br />

1<br />

16<br />

T = toss (croce)<br />

H = head (testa)<br />

. . . . . . . . .<br />

Si può realizzare lanciando una moneta ripetutamente finché non mostra<br />

testa (H).<br />

La tabella va interpretata così:<br />

leggendo la 1acolonna: vinco $2 se viene testa (H) al 1o lancio<br />

e ciò può avvenire con probabilità 1<br />

leggendo la 2<br />

2<br />

acolonna: vinco $4 se viene testa (H) al 2o lancio<br />

e ciò può avvenire con probabilità 1<br />

4<br />

ecc.<br />

Se la moneta mostra testa (H) al k-simo lancio vinco $2 k .<br />

Quanto sareste disposti a pagare per partecipare a questa lotteria?<br />

Supponiamo che ciascun lancio della moneta sia indipendente, le probabilità<br />

sono calcolate come indicato in tabella.<br />

Vediamo come esempio il caso k = 4 cioè la probabilità che esca testa al 4 ◦<br />

lancio:<br />

22<br />

<br />

1<br />

2<br />

k<br />

. . . . . . . . .


1<br />

prob(TTTH) = prob(T) · prob(T) · prob(T) · prob(T) =<br />

2<br />

Il valore atteso in dollari nella lotteria di S. Pietroburgo è allora:<br />

ε(L) = 2 prob(H) + 4 prob(TH) + 8 prob(TTH) + · · · =<br />

2 × 1 1 1<br />

+ 4 × + 8 × + · · · = 1 + 1 + 1 + · · · = +∞<br />

2 4 8<br />

4<br />

= 1<br />

16<br />

il che significa che il valore atteso in dollari della lotteria è infinito.<br />

Sareste quindi disposti a spendere il vostro intero patrimonio per comprare<br />

un biglietto per partecipare alla lotteria?<br />

Poca gente farebbe così soprattutto dopo aver notato che la probabilità di<br />

concludere con più di 8$ è solo 1<br />

8 .<br />

Non è sufficiente scegliere una lotteria che mi dà il più alto valore atteso in<br />

dollari per dire di aver fatto una scelta razionale, una teoria che dicesse ciò<br />

è insufficiente.<br />

Quindi: per valutare un investimento richiesto, il guadagno atteso non è il<br />

criterio che la gente adotta, il criterio è L’UTILITÀ ATTESA.<br />

1.5 Equilibri di Nash<br />

Definizione 1.2 GIOCO NON COOPERATIVO<br />

Un gioco non cooperativo a 2 giocatori è una quaterna Γ = (X, Y, f, g) dove<br />

X, Y sono gli insiemi delle strategie dei due giocatori, f, g sono le funzioni di<br />

utilità dei due giocatori<br />

f, g : X × Y −→ R<br />

Definizione 1.3 EQUILIBRIO DI NASH<br />

Diremo che una coppia di strategie (x, y) ∈ X × Y è un equilibrio di Nash se<br />

f(x, y) ≥ f(x, y) ∀ x ∈ X<br />

g(x, y) ≥ g(x, y) ∀ y ∈ Y<br />

Riprendiamo alcuni esempi già noti in lezioni precedenti:<br />

23


Esempio 1.4 MORRA CINESE<br />

II<br />

I<br />

non esistono equilibri di Nash.<br />

S C F<br />

S 0 0 -1 1 1 -1<br />

C 1 -1 0 0 -1 1<br />

F -1 1 1 -1 0 0<br />

S = sasso<br />

C = carta<br />

F = forbice<br />

Esempio 1.5 DILEMMA DEL PRIGIONIERO<br />

II<br />

I<br />

C NC<br />

C -8 -8 0 -10<br />

NC -10 0 -1 -1<br />

Due persone sono accusate di aver commesso un grave crimine<br />

24


• se ambedue confessano subiscono la pena di 8 anni di galera.<br />

• se non confessano non ci sono prove sufficienti a stabilire chi ha commesso<br />

il crimine, ma il giudice li condanna per un reato minore: 1 anno<br />

di galera.<br />

• se uno confessa la partecipazione di entrambi, per una legge speciale, è<br />

libero e l’altro è condannato a 10 anni di galera.<br />

La matrice associata è quella in figura.<br />

C’è un solo equilibrio di Nash (NE):(CC) (cioè entrambi confessano), ma il<br />

risultato è insoddisfacente per entrambi perché così faranno 8 anni di galera.<br />

Se entrambi si mettessero d’accordo di non confessare, farebbero meno anni<br />

di galera, ma l’accordo è instabile perché se uno sa che l’altro non confessa<br />

allora gli conviene confessare così sarà libero: è un dilemma.<br />

L’equilibrio di Nash è l’unica soluzione accettabile però è poco soddisfacente.<br />

Esempio 1.6 BATTAGLIA DEI SESSI<br />

❍<br />

❍❍❍❍❍ II<br />

I<br />

L R<br />

T 3 1 0 0<br />

B 0 0 1 3<br />

esistono due equilibri di Nash: (T,L) e (BR).<br />

Esempio 1.7 GIOCO A 3 GIOCATORI<br />

Questo gioco coinvolge 3 giocatori: ciascun giocatore può prendere 1 oppure<br />

2 monete nella sua mano.<br />

25


Se ogni giocatore ha un numero differente di monete dagli altri giocatori allora<br />

egli ottiene un payoff uguale al numero delle monete che ha in mano e<br />

gli altri non ottengono niente.<br />

Chiamiamo I, II III i tre giocatori.<br />

Spazio delle strategie del giocatore I: X = {1, 2}<br />

dove 1 indica una moneta e 2 indica due monete.<br />

Y = {1, 2} (spazio delle strategie del giocatore II).<br />

Z = {1, 2} (spazio delle strategie del giocatore III).<br />

❍<br />

❍❍❍❍❍ II<br />

I<br />

j=1 j=2<br />

i=1 0 0 0 0 2 0<br />

i=2 2 0 0 0 0 1<br />

❍<br />

❍❍❍❍❍ II<br />

I<br />

gli equilibri di Nash sono:<br />

k = 1<br />

j=1 j=2<br />

i=1 0 0 2 1 0 0<br />

i=2 0 1 0 0 0 0<br />

k = 2<br />

(2, 1, 1), (1, 2, 1), (2, 2, 1)<br />

(1, 1, 2), (1, 2, 2), (2, 1, 2)<br />

26


ESERCIZI PROPOSTI<br />

1) Stabilire se esistono equilibri di Nash in strategie pure nel seguente<br />

gioco a 2 giocatori<br />

❍<br />

❍❍❍❍❍ II<br />

I<br />

C D<br />

A 1 1 1 1<br />

B 2 2 0 3<br />

2) stessa domanda nel seguente gioco a 3 giocatori<br />

dove X = {U, D}, Y = {L, R}, Z = {A, B, C}<br />

A<br />

❍<br />

❍❍❍❍❍ II<br />

I<br />

L R<br />

U 0 1 3 0 0 0<br />

D 1 1 1 1 0 0<br />

❍<br />

❍❍❍❍❍ II<br />

I<br />

B<br />

L R<br />

U 2 2 2 0 0 0<br />

D 0 0 0 2 2 2<br />

27


❍<br />

❍❍❍❍❍ II<br />

I<br />

C<br />

L R<br />

U 0 1 0 0 0 0<br />

D 1 1 0 1 0 3<br />

ESTENSIONE MISTA DI UN GIOCO<br />

Sia dato un gioco (che per semplicità di notazione supporremo a 2 giocatori<br />

e per evitare difficoltà tecniche supporremo AI e AII, spazi delle strategie<br />

dei due giocatori, finiti)<br />

G = ({I, II}, AI, AII, uI, uII)<br />

dicesi ESTENSIONE MISTA DI G il gioco G ∆ così definito<br />

G ∆ = ({I, II}, ∆(AI), ∆(AII), u ∆ I , u ∆ II)<br />

dove ∆(Ai) è lo spazio delle distribuzioni di probabilità su Ai.<br />

Cioè se ad esempio AI = {x1, . . . , xm}<br />

AII = {y1, . . . , yn}<br />

allora ∆(AI) = {p ∈ R m , ph ≥ 0 ∀ h e m<br />

h=1 ph = 1}<br />

e ∆(AII) = {q ∈ R n , qk ≥ 0 ∀ k e n<br />

k=1 qk = 1}.<br />

Risulta u ∆ i l’estensione di ui da AI × AII a ∆(AI) × (∆AII) per bilinearità<br />

cioè:<br />

u ∆ i (p, q) =<br />

m<br />

h=1 k=1<br />

n<br />

phqkui(xh, yk)<br />

è importante il fatto che: L’ESTENSIONE MISTA DI UN GIOCO FINITO<br />

HA SEMPRE UN EQUILIBRIO DI NASH (TEOREMA DI NASH 1950)<br />

(a volte si dice: ogni gioco finito ha equilibrio in strategie miste)<br />

28


ESEMPIO<br />

Vediamo nell’esempio della BATTAGLIA DEI SESSI di calcolare gli equilibri<br />

in strategie miste:<br />

q 1-q<br />

p 3 1 0 0<br />

1-p 0 0 1 3<br />

p, q ∈ [0, 1]<br />

Calcoliamo l’utilità attesa del giocatore I<br />

u ∆ I (p, q) = 3pq + 0 · p(1 − q) + 0 · (1 − p)q + 1 · (1 − p)(1 − q) =<br />

fissata q, consideriamo<br />

∂uI(p,q)<br />

∂p<br />

3pq + 1 − q − p + pq = 4pq + 1 − p − q<br />

u ∆ I (p, q) = 4pq + 1 − p − q = p(4q − 1) + 1 − q<br />

= 4q − 1<br />

⎧<br />

⎪⎨<br />

⎪⎩<br />

si ottiene così il seguente “grafico”<br />

> 0 ⇔ q > 1<br />

4 argmax uI = 1<br />

p<br />

= 0 ⇔ q = 1<br />

4 argmax uI = [0, 1]<br />

p<br />

< 0 ⇔ q < 1<br />

4 argmax uI = 0<br />

p<br />

29


q<br />

1<br />

¯q= 1<br />

4<br />

.<br />

. .<br />

0<br />

.<br />

◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦◦◦ .<br />

◦◦◦◦◦◦◦◦◦◦◦◦◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

questo è il grafico della miglior risposta del giocatore I fissata la strategia<br />

del II; la indico con RI(q).<br />

Calcoliamo ora l’utilità attesa del giocatore II<br />

uII(p, q) = 1·pq+0·p(1−q)+0·(1−p)q+3(1−p)(1−q) = pq+3(1−p)(1−q) =<br />

= pq + 3(1 − q − p + pq) = pq + 3 − 3q − 3p + 3pq = 4pq − 3p − 3q + 3<br />

uII(p, q) = (4p − 3)q + 3(1 − p)<br />

cerco q che rende massima uII(p, ·)<br />

∂uII(p,q)<br />

∂q<br />

= 4p − 3<br />

⎧<br />

⎪⎨<br />

⎪⎩<br />

1<br />

.. .<br />

> 0 ⇔ p > 3<br />

4 ⇒ argmax uII(p, ·) = 1<br />

q<br />

= 0 ⇔ p = 3<br />

4 ⇒ argmax uII(p, ·) = [0, 1]<br />

q<br />

< 0 ⇔ p < 3<br />

4 ⇒ argmax uII(p, ·) = 0<br />

q<br />

si ottiene così il “grafico” di RII(p) (cioè la miglior risposta del giocatore II<br />

fissata la strategia del giocatore I)<br />

30<br />

p


q<br />

1<br />

.<br />

. .<br />

.<br />

0 ¯p= 1 3<br />

◦<br />

◦◦◦ ◦ ◦ ◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦<br />

◦<br />

4<br />

da cui sovrapponendo i due “grafici” ridotti otteniamo i due equilibri di Nash<br />

in strategie miste e cioè<br />

(p, q) = (0, 0)<br />

(1, 1)<br />

<br />

3 1<br />

,<br />

4 4<br />

(uI(0, 0), uII(0, 0)) = (1, 3) equilibrio in strategie pure<br />

(uI(1, 1), uII(1, 1)) = (3, 1) equilibrio in strategie pure<br />

<br />

uI<br />

3 1<br />

,<br />

4 4<br />

, uII<br />

3 1<br />

,<br />

4 4<br />

=<br />

3 3<br />

,<br />

4 4<br />

e questo è un nuovo equilibrio che trovo in strategie miste.<br />

ESERCIZIO PROPOSTO:<br />

Provate a calcolare gli equilibri in strategie miste per il dilemma del prigioniero.<br />

Definizione 1.8 Un gioco G a due giocatori dicesi a somma zero se<br />

.. .<br />

uI(x, y) + uII(x, y) = 0 ∀ x ∈ X, ∀ y ∈ Y<br />

31<br />

p


ESERCIZIO:<br />

Si determinino gli equilibri di Nash in strategie miste del gioco a somma zero<br />

rappresentato dalla matrice:<br />

SOLUZIONE ESERCIZIO:<br />

S D<br />

A 1 3<br />

B 4 2<br />

X = {S, D} spazio delle strategie del I giocatore<br />

Y = {A, B} spazio delle strategie del II giocatore<br />

Questo gioco non ha equilibri in strategie pure ma per il Teorema di Nash<br />

sappiamo che ha almeno un equilibrio in strategie miste.<br />

Calcoliamo l’utilità attesa da I:<br />

uI(p, q) = pq · 1 + p(1 − q)3 + (1 − p)q · 4 + (1 − p)(1 − q) · 2 =<br />

= p(1 − 4q) + 2(q + 1)<br />

uI(p, q) = p(1 − 4q) + 2(q + 1)<br />

∂uI(p,q)<br />

∂p<br />

= 1 − 4q<br />

⎧<br />

⎪⎨<br />

⎪⎩<br />

> 0 ⇔ q < 1<br />

4 ⇒ argmax uI = 1<br />

p<br />

= 0 ⇔ q = 1<br />

4 ⇒ argmax uI = [0, 1]<br />

p<br />

< 0 ⇔ q > 1<br />

4 ⇒ argmax uI = 0<br />

p<br />

32


q<br />

1<br />

¯q= 1<br />

4<br />

.<br />

. .<br />

0<br />

.<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦<br />

.<br />

◦<br />

◦<br />

◦<br />

◦<br />

uII(p, q) = pq(−1) + p(1 − q)(−3) + (1 − p)q(−4) + (1 − p)(1 − q)(−2) =<br />

= 4pq − p − 2q − 2<br />

uII(p, q) = 2q(2p − 1) − (p + 2)<br />

∂uII(p,q)<br />

∂q<br />

= 2(2p − 1)<br />

⎧<br />

⎪⎨<br />

⎪⎩<br />

1<br />

. . .<br />

p<br />

> 0 ⇔ p > 1<br />

2 ⇒ argmax uII = 1<br />

q<br />

= 0 ⇔ p = 1<br />

2 ⇒ argmax uII = [0, 1]<br />

q<br />

< 0 ⇔ p < 1<br />

2 ⇒ argmax uII = 0<br />

q<br />

33


q<br />

1<br />

.<br />

. .<br />

.<br />

0 ¯p= 1<br />

1<br />

◦<br />

◦ ◦ ◦ ◦<br />

◦◦◦ ◦ ◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦<br />

◦ ◦ ◦ ◦ ◦ ◦ ◦ ◦<br />

◦<br />

2<br />

Si ottiene così un equilibrio in strategie miste dato da (p, q) = ( 1 1 , 2 4 )<br />

<br />

uI<br />

<br />

1 1<br />

,<br />

2 4<br />

, uII<br />

.. .<br />

<br />

1 1<br />

,<br />

2 4<br />

=<br />

5<br />

, −5<br />

2 2<br />

.<br />

1.6 Giochi in forma estesa I<br />

Un qualunque gioco può essere rappresentato sia in forma normale che in<br />

forma estesa?<br />

Le due forme sono equivalenti?<br />

Per rispondere a queste domande classifichiamo i giochi che abbiamo incontrato<br />

in 4 classi:<br />

GIOCO STATICO è un gioco in cui i giocatori scelgono contemporaneamente<br />

le azioni.<br />

GIOCO A INFORMAZIONE COMPLETA è un gioco in cui la funzione dei<br />

payoff di ogni giocatore è nota ad ogni giocatore (cioè è conoscenza comune)<br />

GIOCO DINAMICO è un gioco in cui i giocatori scelgono le azioni in modo<br />

sequenziale (il 2 ◦<br />

osserva cosa fa il 1 ◦<br />

e poi decide . . . )<br />

GIOCO A INFORMAZIONE PERFETTA è un gioco in cui in corrispondenza<br />

ad ogni mossa, il giocatore cui spetta muovere è a conoscenza dell’intera<br />

34<br />

p


storia fino a quel momento o anche se ogni insieme di informazione contiene<br />

un solo nodo.<br />

Osservazione 1.9 Un gioco statico può essere pensato come un gioco dinamico<br />

ad informazione imperfetta.<br />

La rappresentazione in forma estesa di un gioco specifica:<br />

1. i giocatori che prendono parte al gioco<br />

2. quando i giocatori hanno diritto alla mossa<br />

3. cosa possono fare i giocatori in ogni circostanza in cui hanno diritto a<br />

una mossa<br />

4. cosa conosce ogni giocatore quando gli spetta muovere<br />

5. i payoff ricevuti da ciascun giocatore in corrispondenza ad ogni combinazione<br />

di mosse che può essere scelta dai giocatori.<br />

Esempio 1.10 Gioco a informazione completa e perfetta:<br />

L ′<br />

L<br />

I<br />

•<br />

II II<br />

• •<br />

R ′<br />

.<br />

•<br />

.<br />

•<br />

.<br />

•<br />

.<br />

•<br />

(3,1) (1,2) (2,1) (0,0)<br />

F ig.1<br />

35<br />

R<br />

L ′<br />

R ′


1. il giocatore I sceglie un’azione a1 dall’insieme ammissibile A1 = {L, R}<br />

2. il giocatore II osserva a1 e poi sceglie un’azione a2 dall’insieme A2 =<br />

{L ′<br />

, R ′<br />

}<br />

3. i payoff sono u1(a1, a2), u2(a1, a2) e sono indicati nell’albero del gioco.<br />

Questo albero del gioco comincia da un NODO DECISIONALE in cui I decide<br />

tra L oppure R, se il giocatore I sceglie L, viene raggiunto un nodo<br />

decisionale dal giocatore II che può scegliere tra L ′<br />

e R ′<br />

. Analogamente se<br />

I sceglie R.<br />

In seguito ad ogni scelta del giocatore II si giunge ad un nodo terminale<br />

(cioè il gioco finisce) e i payoff indicati sono ricevuti dai giocatori.<br />

Vogliamo ora rappresentare il gioco in forma normale (o strategica).<br />

Nel gioco della Fig. 1, il giocatore II ha due azioni e 4 strategie perché ci<br />

sono 2 diverse circostanze (cioè aver osservato il giocatore I e scegliere L<br />

oppure aver osservato il giocatore I e scegliere R) in cui II può trovarsi:<br />

ricordo che la STRATEGIA per un giocatore è un piano completo di azione<br />

cioè specifica un’azione ammissibile del giocatore per ciascuna circostanza in<br />

cui il giocatore può essere chiamato ad agire.<br />

Ritornando alla Fig. 1, cerchiamo di stabilire le strategie del giocatore II:<br />

Strategia 1: se il giocatore I gioca L allora II gioca L ′<br />

,<br />

se il giocatore I gioca R allora II gioca L ′<br />

;<br />

questa strategia è indicata con (L ′<br />

L ′<br />

).<br />

Strategia 2: se il giocatore I gioca L allora II gioca L ′<br />

,<br />

se il giocatore I gioca R allora II gioca R ′<br />

Strategia 3: se il giocatore I gioca L allora II gioca R ′<br />

,<br />

se il giocatore I gioca R allora II gioca L ′<br />

(R ′<br />

Strategia 4: se il giocatore I gioca L allora II gioca R ′<br />

,<br />

se il giocatore I gioca R allora II gioca R ′<br />

(L ′<br />

(R ′<br />

R ′<br />

).<br />

L ′<br />

).<br />

R ′<br />

).<br />

Anche il giocatore I ha 2 azioni ma solo due strategie: giocare L oppure<br />

36


R (perché ha la prima mossa del gioco) quindi<br />

A1 = {L, R}<br />

Il gioco in forma estesa della Fig. 1 ha la seguente rappresentazione strategica:<br />

❍<br />

❍❍❍❍❍ II ′<br />

L L<br />

I<br />

′<br />

L ′<br />

R ′<br />

R ′<br />

L ′<br />

R ′<br />

R ′<br />

L 3 1 3 1 1 2 1 2<br />

R 2 1 0 0 2 1 0 0<br />

Fig.2<br />

Definizione 1.11 Un insieme d’informazione (o insieme informativo) di<br />

un giocatore è un insieme di nodi decisionali che soddisfano le seguenti condizioni:<br />

i) in corrispondenza di ogni nodo dell’insieme di informazione, il giocatore<br />

ha diritto alla mossa.<br />

ii) quando lo svolgimento del gioco raggiunge un nodo dell’insieme di informazione,<br />

il giocatore a cui spetta la mossa non sa quale nodo dell’insieme<br />

di informazione è stato (oppure non è stato) raggiunto.<br />

37


ESEMPIO 1<br />

S<br />

I<br />

•<br />

II II<br />

• •<br />

l r L R<br />

.<br />

•<br />

vince I<br />

.<br />

•<br />

pari<br />

.<br />

•<br />

vince I<br />

.<br />

•<br />

vince II<br />

Se tutti gli insiemi di informazione sono “singleton” abbiamo un gioco a<br />

INFORMAZIONE PERFETTA<br />

❍<br />

❍❍❍❍❍ II<br />

I<br />

D<br />

l L rL lR rR<br />

S 1 0 1 1 1 0 1 1<br />

D 1 0 1 0 0 1 0 1<br />

38


1<br />

2<br />

ESEMPIO 2<br />

I<br />

•<br />

II II<br />

• •<br />

.<br />

.<br />

•<br />

.<br />

.<br />

•<br />

.<br />

•<br />

.<br />

•<br />

1<br />

2<br />

• • • •<br />

1<br />

1<br />

2<br />

2<br />

5<br />

1<br />

1<br />

3<br />

S<br />

l r L R<br />

Le strategie di I sono: S, D,<br />

le strategie di II sono: lL,lR, rL, rR,<br />

dove<br />

lL indica che: II gioca l se I gioca S<br />

II gioca L se I gioca D<br />

lR indica che: II gioca l se I gioca S<br />

II gioca R se I gioca D<br />

2<br />

3<br />

39<br />

4<br />

1<br />

0<br />

2<br />

D<br />

4<br />

0


❍<br />

❍❍❍❍❍ II<br />

I<br />

S<br />

3<br />

2<br />

l L lR rL rR<br />

3<br />

2<br />

3<br />

2<br />

3<br />

2<br />

13 13 1 3 3<br />

D 0 2 4 0 0 2 4 0<br />

Infatti se I gioca S e II gioca lL l’utilità attesa dal giocatore I è:<br />

e l’utilità attesa di II è:<br />

Se I gioca S e II gioca rL<br />

eccetera.<br />

εuI = 1 · 1 1<br />

+ 2 ·<br />

2 2<br />

εuII = 1 · 1 1<br />

+ 2 ·<br />

2 2<br />

= 3<br />

2<br />

= 3<br />

2<br />

εuI = 1 2 13<br />

· 5 + · 4 =<br />

3 3 3<br />

εuII = 1 2<br />

· 1 + · 1 = 1<br />

3 3<br />

40<br />

1


ESERCIZIO.<br />

Come si rappresenta il “dilemma del prigioniero” con un gioco in forma<br />

estesa?<br />

Risoluzione:<br />

NC<br />

I<br />

•<br />

II II<br />

•− − − − − − − − − − •<br />

NC C NC C<br />

.<br />

•<br />

.<br />

•<br />

.<br />

•<br />

.<br />

•<br />

(−1,−1) (−10,0) (0,−10) (−8,−8)<br />

(confronta Esempio 1.5)<br />

Ricordo che un gioco statico può essere pensato come un gioco dinamico<br />

a informazione imperfetta.<br />

41<br />

C


QUIZ<br />

È una buona rappresentazione di un gioco in forma estesa?<br />

S<br />

I<br />

•<br />

A B<br />

•− − − − − •<br />

II − − − − −<br />

.<br />

•<br />

.<br />

•<br />

.<br />

• •<br />

.<br />

•<br />

(1,2) (2,1) (1,3) (0,1) (4,5)<br />

E la seguente?<br />

L<br />

II<br />

•<br />

•− − − − − •<br />

I<br />

− − − − −<br />

S D S D<br />

.<br />

•<br />

.<br />

•<br />

.<br />

•<br />

.<br />

•<br />

(1,−1) (−1,1) (1,−1) (−1,1)<br />

42<br />

R<br />

D<br />

....


TEST<br />

Che interpretazione puoi dare al seguente “albero”?<br />

II<br />

I<br />

•<br />

A<br />

• •.<br />

(1,2)<br />

B<br />

.<br />

.<br />

.<br />

• •<br />

(2,1)<br />

• •<br />

(1,0) (0,1)<br />

43<br />

D


QUIZ (QUIZ-MASTER)<br />

In un popolare quiz televisivo ai concorrenti è data l’opportunità di scegliere<br />

una fra tre porte. Una porta nasconde un premio, le altre non hanno<br />

niente.<br />

La concorrente non ha motivo di pensare che una particolare porta sia privilegiata<br />

rispetto ad un’altra.<br />

Il conduttore del gioco (=quiz-master) sa quale porta nasconde il premio.<br />

Dopo che la concorrente ha scelto provvisoriamente una porta, egli (il quizmaster)<br />

deve aprire una delle altre porte.<br />

La concorrente ha allora l’opportunità di cambiare idea circa la porta da<br />

scegliere.<br />

Supponiamo che la concorrente desideri rendere massima la probabilità di<br />

ottenere il premio e che il quiz-master desideri renderla minima.<br />

a) Descrivi una strategia ottimale del quiz-master e supponi che d’ora in<br />

poi egli giochi in accordo con questa strategia.<br />

b) Disegna l’albero del gioco.<br />

DOMANDE DI P ROBABILIT À<br />

c) Se la concorrente non cambia mai la sua scelta iniziale spiega perché la<br />

sua probabilità di vincere prima che il quiz-master apra la porta è 1<br />

3 .<br />

Perché la sua probabilità di vincere rimane 1 anche dopo che il quiz-<br />

3<br />

master ha aperto la porta?<br />

Perché una persona ingenua pensa che quest’ultima sia 1<br />

2 ?<br />

d) Se la concorrente cambia sempre la sua scelta dopo che il quiz-master<br />

ha aperto una porta spiega perché la sua probabilità di vincere è 2<br />

3 .<br />

Supponi che il quiz-master e la concorrente giocano al meglio.<br />

Perché una persona ingenua pensa che la probabilità sia 1<br />

2 ?<br />

44


1.7 Giochi in forma estesa II<br />

Data una certa situazione di gioco se ne può costruire una rappresentazione<br />

più o meno dettagliata a seconda degli scopi.<br />

Le regole del gioco devono specificare:<br />

1. chi sono i giocatori<br />

2. quando spetta muovere a ciascuno di loro<br />

3. quali sono le alternative tra le quali ciascun giocatore può scegliere<br />

4. di quali informazioni egli dispone a ciascuno dei turni che gli spettano<br />

5. quali sono gli esiti possibili del gioco<br />

6. l’utilità che ciascun giocatore consegue in ciascun esito<br />

Il gioco si può pensare definito quando sono specificate le sue regole.<br />

La struttura formale che consente una rappresentazione del gioco che comprende<br />

gli aspetti suddetti è<br />

L ′ ALBERO DEL GIOCO<br />

Un albero è un grafo orientato connesso, senza cicli.<br />

45


.<br />

.<br />

•<br />

•.<br />

ESEMPI:<br />

• •<br />

. .<br />

.<br />

...........................................................................................................................................................................<br />

.<br />

. .<br />

•<br />

• .<br />

•<br />

. ...........................................................................................................................................................................<br />

.<br />

. .<br />

• •<br />

•<br />

. .<br />

.<br />

• •<br />

a) b) c)<br />

grafo orientato grafo orientato grafo orientato<br />

sconnesso connesso connesso<br />

senza cicli con un ciclo<br />

Un grafo orientato è un insieme Y i cui elementi sono detti nodi e rappresentati<br />

come punti e una relazione R su Y , i cui elementi, coppie ordinate<br />

di nodi, sono detti archi e rappresentati come frecce (scriveremo x −→ y)<br />

invece di xRy.<br />

Le frecce hanno la coda nel primo nodo dell’arco (che viene detto predecessore)<br />

e la punta nel secondo nodo dell’arco (che viene detto successore del<br />

primo).<br />

Un grafo orientato dicesi albero se ha le seguenti proprietà:<br />

1) ogni nodo riceve una freccia da al massimo un altro nodo (ogni nodo<br />

ha al massimo un predecessore)<br />

2) dati due nodi distinti qualsiasi, esiste una successione finita di archi<br />

adiacenti (ossia, con un nodo comune, ma non necessariamente orientati<br />

nella stessa direzione) detta percorso che li collega (connessione del<br />

grafo)<br />

3) vi sono nodi, detti nodi iniziali o radici dell’albero, non raggiunti da<br />

alcuna freccia: che non hanno cioè predecessori immediati (esistenza<br />

delle radici)<br />

46<br />

..


•<br />

.<br />

.<br />

•<br />

. . .<br />

•<br />

.<br />

•<br />

Diciamo che nel grafo orientato Y vi è un ciclo se per qualche x ∈ Y vi è un<br />

percorso (x −→ y −→ . . . −→ x) che collega x a se stesso.<br />

•<br />

• •<br />

...........................................................................................................................................................................<br />

. .<br />

. .<br />

.<br />

•<br />

.<br />

.<br />

.<br />

.<br />

d) e) f)<br />

•<br />

•<br />

. .<br />

.<br />

• •<br />

No 1) No 2) No 3)<br />

Si 2) Si 1) Si 1)<br />

Si 3) Si 3) Si 2)<br />

•.<br />

• •<br />

.<br />

. .<br />

.<br />

.<br />

. .<br />

•<br />

• .<br />

•<br />

.<br />

.<br />

. .<br />

.<br />

• •<br />

.<br />

• •<br />

a) b) c)<br />

47<br />

..<br />

..<br />

•<br />

. .


a) b) c)<br />

No 1) No 1) Si 1)<br />

No 2) Si 2) Si 2)<br />

Si 3) Si 3) Si 3)<br />

Si dimostra facilmente che se un grafo orientato verifica le 3 condizioni dette,<br />

se cioè è un albero, allora:<br />

i) è privo di cicli<br />

ii) ha un’unica radice<br />

iii) ha nodi terminali (cioè privi di successori immediati)<br />

I nodi terminali rappresentano cioè gli esiti del gioco cioè le possibili conclusioni<br />

di una partita, sono rappresentati dai vettori payoff o vettori vincita.<br />

Sia X l’insieme dei nodi non terminali dell’albero.<br />

Ciascun nodo non terminale è indicato non solo col suo nome (indice del<br />

nodo) ma anche con il nome del giocatore al quale è assegnato (indice del<br />

giocatore).<br />

Ogni nodo spetta ad un solo giocatore.<br />

Ogni nodo rappresenta una ben definita fase del gioco cioè una situazione in<br />

cui, ad un dato giocatore, spetta scegliere tra le diverse alternative.<br />

Esiste una corrispondenza biunivoca tra le azioni possibili di un certo nodo<br />

(per il giocatore cui è assegnato questo nodo) e i successori immediati di quel<br />

nodo.<br />

48


Giochi ad informazione perfetta<br />

Un albero con l’assegnazione dei vettori vincita ai nodi terminali, con l’assegnazione<br />

dei nodi non terminali ai vari giocatori costituisce una risposta ai<br />

requisiti richiesti e perciò dicesi gioco in forma estesa.<br />

Cosideriamo i due giochi G1 e G2<br />

.<br />

U<br />

•. .<br />

•<br />

a<br />

(0,2)<br />

I<br />

x<br />

•<br />

G1<br />

.<br />

. .<br />

.<br />

• •<br />

b<br />

(1,1)<br />

E<br />

. .<br />

S R<br />

. .<br />

c<br />

(−1,−1)<br />

Il nodo iniziale x è assegnato al giocatore I.<br />

a, b, c sono gli esiti.<br />

In G1 il giocatore II, se chiamato a giocare, sa che I ha scelto E e non U,<br />

infatti se I sceglie U, la partita non raggiungerebbe mai il nodo y e quindi<br />

II non avrebbe mai la mossa.<br />

49


Quando un gioco è strutturato in modo che, a ciascun suo turno, ogni giocatore<br />

è al corrente delle azioni che hanno condotto ad esso, il gioco dicesi ad<br />

informazione perfetta.<br />

Consideriamo ora un gioco ad informazione imperfetta:<br />

.<br />

.<br />

U<br />

I<br />

x<br />

•<br />

•− − − − − − •<br />

z y<br />

II .<br />

− − − −<br />

S R S R<br />

. .<br />

•<br />

.<br />

•<br />

. .<br />

•<br />

.<br />

•<br />

(0,2) (0,2) (1,1) (−1,−1)<br />

. .<br />

G2<br />

L’insieme di informazione è un insieme di nodi con lo stesso indice di giocatori<br />

tra i quali per ipotesi (in G2 il giocatore II) non è in grado di distinguere.<br />

II non è in grado di distinguere tra y e z e per indicare questo fatto, i due<br />

nodi sono congiunti da un segmento tratteggiato.<br />

50<br />

.<br />

E<br />

. .<br />

. .................


Abbiamo già visto che una rappresentazione più sintetica dei giochi è la<br />

forma strategica (o forma normale del gioco).<br />

Dato in gioco in forma normale esiste sempre almeno un gioco in forma<br />

estesa che abbia quella come forma normale: si tratta di un gioco a mosse<br />

simultanee (quindi ad informazione imperfetta) in cui ciascuno sceglie un’azione<br />

(un elemento dell’insieme delle strategie) assegnato ad ogni giocatore<br />

in forma normale contemporaneamente agli altri e perciò a loro insaputa.<br />

Abbiamo così un gioco in forma estesa ad informazione imperfetta.<br />

51


....<br />

ESEMPI<br />

.<br />

U<br />

I<br />

•<br />

•− − − − − − •<br />

II .<br />

− − − −<br />

. .<br />

•<br />

.<br />

•<br />

. .<br />

•<br />

.<br />

•<br />

(0,2) (0,2) (1,1) (−1,−1)<br />

. .<br />

G2<br />

Corrisponde al gioco in forma normale:<br />

❍<br />

❍❍❍❍❍ II<br />

I<br />

......<br />

E<br />

S R<br />

U 0 2 0 2<br />

E 1 1 -1 -1<br />

G2n<br />

52<br />

. .<br />

. ...............


.<br />

Ma anche invertendo l’ordine in cui i giocatori eseguono le loro scelte come in<br />

S<br />

II<br />

•<br />

•−. − − − − − − − − − •<br />

.................<br />

U E U E<br />

. .<br />

•<br />

.<br />

•<br />

. .<br />

•<br />

.<br />

•<br />

(0,2) (1,1) (0,2) (−1,−1)<br />

. .<br />

.<br />

G ′<br />

2<br />

è un gioco in forma estesa, la cui forma normale è G2n.<br />

Questo non deve stupire: ciò che è importante sono le informazioni in possesso<br />

di ciascun giocatore, all’atto di decidere un’azione non la cronologia delle<br />

mosse.<br />

53<br />

R<br />

. .<br />

. .................


Tuttavia anche G1:<br />

.<br />

I<br />

•<br />

•. .<br />

•<br />

(0,2)<br />

U<br />

.<br />

E<br />

. .<br />

S R<br />

. .<br />

.<br />

• •<br />

(1,1) (−1,−1)<br />

ha forma normale G2n e questo è sconcertante!<br />

Perché G1 a differenza di G2 e G ′<br />

2 è ad informazione perfetta.<br />

Vi è una perdita di informazione nel passaggio dalla forma estesa alla forma<br />

normale del gioco?<br />

Vedremo in seguito che per l’analisi della soluzione di certi giochi in forma<br />

estesa, che richiede possibili deviazioni dalla soluzione di equilibrio è necessaria<br />

l’intera forma del gioco.<br />

54<br />

. .................


1.8 Raffinamenti degli equilibri di Nash<br />

Il problema di raffinare o perfezionare gli equilibri di Nash si pone per giungere<br />

ad una più soddisfacente nozione di soluzione di un gioco non cooperativo.<br />

L’argomento è affascinante e complesso perché all’inizio si cercava il raffinamento<br />

“giusto” successivamente si è visto che di criteri di raffinamento ve ne<br />

sono svariati e che i raffinamenti giusti non ci sono, ma la scelta dei raffinamenti<br />

dipende da numerosi elementi del contesto.<br />

Perfezione nei sottogiochi<br />

Il più noto dei raffinamenti è l’equilibrio perfetto nei sottogiochi.<br />

Consideriamo il gioco<br />

.<br />

U<br />

I<br />

x<br />

•<br />

•. .<br />

•<br />

y<br />

(0,2)<br />

G1<br />

55<br />

.<br />

E<br />

. .................<br />

II<br />

S R<br />

. .<br />

.<br />

• •<br />

(1,1) (−1,−1)<br />

. .................


❍<br />

❍❍❍❍❍ II<br />

I<br />

R S<br />

U 0 2 0 2<br />

E -1 -1 1 1<br />

G1n<br />

Come è evidente dalla forma normale il gioco ha due equilibri di Nash:<br />

(U, R) ed (E, S) (efficienti nel senso di Pareto).<br />

Vediamo perché il profilo di strategia (U, R) è un equilibrio di Nash.<br />

Se II adotta R a I conviene scegliere U.<br />

D’altra parte se I sceglie U, II non sarà chiamato a muovere e la sua vincita<br />

non dipenderà dalla strategia che adotta.<br />

Infatti le strategie di II si traducono in azioni solo se I sceglie E.<br />

Notiamo che la scelta di R mentre è indifferente per II se I sceglie U è determinante<br />

per indurre I a scegliere U.<br />

Tuttavia questo profilo di strategie (un equilibrio “buono”) è alquanto sospetto.<br />

Supponiamo che costituisca un accordo non vincolante tra I e II.<br />

A I non conviene osservarlo.<br />

Se I scegliesse E invece di U, in modo che II fosse chiamato a muovere, II<br />

sceglierebbe ovviamente l’alternativa per lui più vantaggiosa quindi sceglierebbe<br />

S, questo sarebbe nell’interesse di I che quindi violerebbe l’accordo.<br />

Quindi (U, R) può essere interpretato come equilibrio di minaccia in cui II<br />

ottiene 2 (invece di 1) minacciando I di portarlo alla rovina se I non decide<br />

U.<br />

Ma la minaccia non è credibile perché adottando la strategia R, II danneggia<br />

anche se stesso.<br />

Questo è chiaro anche a I che perciò procederà a scegliere E.<br />

Perciò l’equilibrio (U, R) non è ad attuazione spontanea (self-enforcing).<br />

56


Se II potesse impegnarsi a scegliere R, allora gli converrebbe farlo, ma non<br />

ci sono accordi vincolanti.<br />

L’equilibrio (E, S) ha invece qualcosa di più convincente di (U, R).<br />

Osserviamo che la parte dell’albero che inizia dal nodo y è esso stesso un<br />

gioco, quello in cui un solo giocatore è chiamato a muovere.<br />

Tale gioco dicesi sottogioco di G1.<br />

Precisiamo la definizione di sottogioco:<br />

dato un gioco in forma estesa G ed un nodo di G y, un sottoinsieme di nodi<br />

di G, chiamiamolo G ′<br />

, dicesi sottogioco proprio di G con radice in y se:<br />

1) y e tutti i successori in G stanno in G ′<br />

.<br />

2) y è l’unico elemento dell’insieme di informazioni a cui, in G, y appartiene.<br />

3) per ogni successore di y, z; se h(z) è l’insieme di informazioni a cui z<br />

appartiene in G e se w sta in h(z) allora anche w è un successore di y<br />

cioè anche w sta in G ′<br />

.<br />

Nel nostro esempio (E, S) è un equilibrio perfetto nei sottogiochi, (U, R) no;<br />

quindi può essere scartato come soluzione del gioco.<br />

In generale, un equilibrio di Nash s = (x ∗ , y ∗ ) di G dicesi perfetto nei sot-<br />

togiochi se per pgni sottogioco proprio G ′<br />

di G il NE s prescrive ad ogni<br />

giocatore delle azioni che sono un NE in G ′<br />

.<br />

Si può dimostrare che ogni gioco in forma estesa e finito ammette un equilibrio<br />

perfetto nei sottogiochi.<br />

57


S<br />

I<br />

•<br />

II<br />

• •.<br />

(2,3)<br />

L<br />

D<br />

I<br />

•− − − − − − − − − − •<br />

A B A B<br />

.<br />

•<br />

.<br />

•<br />

.<br />

•<br />

.<br />

•<br />

(3,2) (1,0) (0,0) (1,1)<br />

G2<br />

58<br />

R


❍<br />

❍❍❍❍❍ II<br />

I<br />

L R<br />

SA 2 3 2 3<br />

SB 2 3 2 3<br />

DA 3 2 0 0<br />

DB 1 0 1 1<br />

G2n<br />

NE: (SA, R) (SB, R) (DA, L)<br />

non perfetto perfetto perfetto<br />

nei sottogiochi nei sottogiochi nei sottogiochi<br />

(efficienti nel senso di Pareto)<br />

non è quindi garantita l’unicità dell’equilibrio perfetto nei sottogiochi<br />

59


Equilibri perfetti nei sottogiochi<br />

Esempio: dato il gioco in forma estesa<br />

I<br />

•<br />

.<br />

II .<br />

•. .<br />

. •<br />

(1,2)<br />

T<br />

G0<br />

si scriva la forma strategica o normale del gioco<br />

60<br />

.<br />

B<br />

L R<br />

. .<br />

.<br />

• •<br />

(0,0) (2,1)<br />

. .


❍<br />

❍❍❍❍❍ II<br />

I<br />

L R<br />

T 1 2 1 2<br />

B 0 0 2 1<br />

NE: (T, L) (B, R)<br />

guardando la forma estesa possiamo dire che (T, L) non è credibile nel senso<br />

che è basato su una minaccia vuota di II nei confronti di I (B, R) è un equilibrio<br />

perfetto nei sottogiochi ed è anche quello che si ottiene per induzione<br />

a ritroso.<br />

Infatti ogni soluzione per induzione a ritroso di un gioco in forma estesa G,<br />

è un equilibrio perfetto nei sottogiochi di G.<br />

1.9 Esempi di giochi con strategie dominate<br />

Esempio 1.12<br />

L MII R<br />

U 4 3 5 1 6 2<br />

MI 2 1 8 4 3 6<br />

D 3 0 9 6 2 8<br />

C’è un modo ovvio di predire come il gioco descritto può essere giocato?<br />

61


Fissiamo la nostra attenzione su II.<br />

La strategia R dà al giocatore II un payoff strettamente migliore del payoff<br />

dato da MII.<br />

MII è strettamente dominata da R.<br />

Se il giocatore I sa che II non gioca MII allora per I la miglior scelta è U.<br />

Infine se il giocatore II sa che I sa che II non giocherà MII allora II sa che<br />

I giocherà U e così II giocherà L.<br />

Otteniamo (U, L) che è l’unico equilibrio di Nash.<br />

Questo processo dicesi dominanza stretta ... (non dipende dall’ordine in cui<br />

le strategie sono considerate).<br />

Esempio 1.13<br />

❍<br />

❍❍❍❍❍ II<br />

I<br />

M non è dominata da U.<br />

M non è dominata da D.<br />

Tuttavia:<br />

se I gioca U con probabilità 1/2<br />

se I gioca D con probabilità 1/2<br />

L R<br />

U 2 0 -1 0<br />

M 0 0 0 0<br />

D -1 0 2 0<br />

allora I si garantisce un’utilità attesa fI = 1<br />

2<br />

> 0 quindi supera il payoff o<br />

che avrebbe giocando M (indifferentemente da come gioca II).<br />

Allora una strategia pura può essere strettamente dominata da una strategia<br />

mista anche se non è strettamente dominata da ogni strategia pura.<br />

62


Esempio 1.14<br />

❍<br />

❍❍❍❍❍ II<br />

I<br />

L R<br />

U 1 3 -2 0<br />

M -2 0 1 3<br />

D 0 1 0 1<br />

U ed M non sono strettamente dominate.<br />

Eppure:<br />

se I gioca U con probabilità 1/2<br />

se I gioca D con probabilità 1/2<br />

ottiene un’utilità attesa − 1<br />

2<br />

< 0 comunque giochi II e così ottiene un payoff<br />

peggiore di quello che otterrebbe giocando D eppure né U né M sono dominate.<br />

Allora una strategia mista che assegna probabilità positiva ad una strategia<br />

dominata è dominata tuttavia una strategia mista può essere strettamente<br />

dominata anche se assegna probabilità solo alle strategie pure che non sono<br />

debolmente dominate.<br />

Esempio 1.15 Common knowledge<br />

L R<br />

U 8 10 -100 9<br />

D 7 6 6 5<br />

63


Quando un gioco si può giocare mediante eliminazione di strategie dominate,<br />

nel senso che a ciascun giocatore rimane solo una strategia, allora questo<br />

profilo di strategia è il candidato ovvio per predire come sarà giocato il gioco.<br />

Non è però sempre così, specialmente quando i payoff possono assumere valori<br />

molto alti o molto piccoli.<br />

La maggior parte degli studenti a cui è stato chiesto come avrebbero giocato<br />

questo gioco, ha risposto D come strategia per I sebbene la dominanza iterata<br />

dia (U, L) come unica soluzione.<br />

Infatti sebbene U è meglio di D quando II non usa la strategia dominata R,<br />

D è meglio di U quando c’è una possibilità che II giochi R.<br />

Se la perdita (U, R) è meno grave, ad esempio sostituendo -100 con -1 allora<br />

quasi tutti i giocatori I preferiscono U.<br />

Questo esempio illustra il fatto fondamentale che i payoff e gli spazi delle<br />

strategie siano conoscenza comune e la razionalità nel senso di<br />

non giocare una strategia strettamente dominata<br />

è conoscenza comune<br />

(come apparentemente non sembrava vero in quest’esempio).<br />

Esempio 1.16<br />

L R<br />

U 1 3 4 1<br />

D 0 2 3 4<br />

Per I: U domina D U ≻ D.<br />

64


L’iterazione delle strategie predice (U, L) come soluzione.<br />

Può essere di aiuto per il giocatore I cambiare i payoff aggiungendo -2 ad U?<br />

D ≻ U<br />

Ora l’iterazione predice (D, R).<br />

L R<br />

U -1 3 2 1<br />

D 0 2 3 4<br />

1.10 Evasione fiscale (Li-Calzi)<br />

Il governo italiano desidera ridurre l’evasione fiscale che è un fenomeno molto<br />

diffuso perché purtroppo, se la possibilità di essere scoperti è sufficientemente<br />

bassa, molti contribuenti sono disposti a correre il rischio di una multa nella<br />

speranza di non dover pagare le tasse.<br />

Supponiamo che il Parlamento abbia approvato una legge che consente alla<br />

guardia di finanza di punire solo un evasore per ogni anno fiscale.<br />

La guardia di finanza annuncia che esaminerà le dichiarazioni dei redditi dell’anno<br />

successivo in ordine alfabetico incominciando da A.<br />

Se questo ha evaso dovrà pagare 10 volte la tassa dovuta altrimenti la guardia<br />

di finanza passerà ad esaminare il successivo e così via.<br />

a) Si disegni l’albero del gioco per questa situazione supponendo che il<br />

gioco abbia informazione perfetta e vi siano solo 3 contribuenti: Primo,<br />

Secondo e Terzo (già in ordine alfabetico).<br />

65


Indichiamo con: E la strategia di evadere.<br />

T la strategia di pagare subito le tasse.<br />

Supponiamo per semplicità che le tasse da pagare siano le stesse per<br />

ciascun giocatore.<br />

I payoff sono: P (quando si pagano le tasse).<br />

P + M (quando l’evasione è scoperta e bisogna pagare<br />

anche la multa).<br />

S (se l’evasione ha successo).<br />

b) Utilizzando l’induzione a ritroso, si dimostri che nel gioco dell’evasione<br />

fiscale, la strategia di non evadere le tasse è ottimale per ciascun giocatore.<br />

c) Si forniscano alcune ragioni per le quali questa soluzione al problema<br />

dell’evasione fiscale non è realistica.<br />

Indichiamo con X, Y, Z lo spazio delle strategie rispettivamente dei giocatori<br />

I, II, III:<br />

X = {E, T }<br />

Y = {EE, ET, T E, T T } cioè D r 2,2 = 2 2<br />

dova la prima lettera indica cosa fa il giocatore II se I sceglie E e la seconda<br />

lettera indica cosa fa il giocatore II se I sceglie T . Ad esempio:<br />

ET significa: II sceglie E se I sceglie E.<br />

sceglie T se I sceglie T .<br />

T T significa: II sceglie T se I sceglie E.<br />

sceglie T se I sceglie T .<br />

Z = {EEEE, T EEE, T T EE, . . . } sono D r 2,4 = 2 4 .<br />

Ad esempio<br />

T T EE significa: III sceglie T se è in c<br />

sceglie T se è in d<br />

66


sceglie E se è in e<br />

sceglie E se è in f<br />

(c, d, e, f sono i nodi in cui può trovarsi III).<br />

a) ALBERO DEL GIOCO<br />

E<br />

I<br />

•<br />

a<br />

b<br />

• II<br />

II •<br />

E T E T<br />

.<br />

. c • III d .<br />

.<br />

• III .<br />

. e • III f<br />

.<br />

.<br />

• III<br />

E T E T E T E T<br />

• • • • • • • •<br />

(P +M,S,S) (P +M,S,P )(P +M,P,S) (P +M,P,P ) (P,P +M,P ) (P,P,P )<br />

(completate i payoff)<br />

67<br />

T


) Supponiamo che per ciascun giocatore<br />

S ≻ P ≻ P + M<br />

III preferisce T se I e II hanno usato T<br />

E altrimenti.<br />

II preferisce T se I ha usato T<br />

cm E altrimenti.<br />

I preferisce T sempre.<br />

Ne segue che I paga (T ) inducendo anche II e III a pagare le tasse.<br />

c) Dite voi. . .<br />

1.11 Giochi con potenziale<br />

Esempio 1.17 Duopolio di quasi-Cournot-gioco con potenziale esatto<br />

Consideriamo la funzione inversa di domanda lineare<br />

F (Q) = a − bQ a, b > 0<br />

c1 = c1(x), c2 = c2(y) funzioni arbitrarie.<br />

Allora i profitti delle due imprese sono:<br />

π1(x, y) = xF (x + y) − c1(x)<br />

π2(x, y) = yF (x + y) − c2(y)<br />

Allora una funzione potenziale esatto è:<br />

infatti<br />

P ∗ (x, y) = a(x + y) − b(x + y) 2 − bxy − c1(x) − c2(y)<br />

f(x, y) − f(t, y) = P ∗ (x, y) − P ∗ (t, y) ∀ t, ∀ x, y<br />

g(x, y) − g(x, z) = P ∗ (x, y) − P ∗ (x, z) ∀ z, ∀ x, y<br />

68


o equivalentemente se f, g sono differenziabili<br />

∂f<br />

∂x<br />

∂g<br />

∂y<br />

∗ ∂P<br />

=<br />

∂x<br />

∗ ∂P<br />

=<br />

∂y<br />

Esempio 1.18 Gioco di duopolio di Cournot-gioco con potenziale ordinale<br />

I profitti delle due imprese sono:<br />

c1(x) = cx, c ∈ R<br />

c2(y) = cy<br />

Q = x + y<br />

π1(x, y) = xF (x + y) − cx<br />

π2(x, y) = yF (x + y) − cy<br />

F (Q) > 0 funzione inversa di domanda<br />

(non sono necessarie ipotesi di monotonia, continuità, differenziabilità).<br />

La funzione<br />

P (x, y) = xy(F (x, y) − c)<br />

P : R+ × R+ −→ R<br />

è una funzione potenziale ordinale per il gioco, infatti<br />

69


π1(x, y) − π1(t, y) > 0 ⇐⇒ P (x, y) − P (t, y) > 0<br />

π2(x, y) − π2(x, z) > 0 ⇐⇒ P (x, y) − P (x, z) > 0<br />

Definizione 1.19 (ε, k) equilibri<br />

∀ x, y, z, t ∈ R+<br />

Sia ε > 0, k ∈ R.<br />

Una strategia x del giocatore I è una ε-miglior risposta a y se<br />

(1)<br />

e analogamente per II.<br />

f(x, y) ≥ sup f(t, y) − ε<br />

t<br />

x è una risposta che garantisce k se<br />

(2) f(x, y) ≥ k<br />

e analogamente per II g(x, y) ≥ k.<br />

(3) x è una (ε, k) miglior risposta se è vera (1) oppure (2) fissata y.<br />

Analogamente (x, y) è un (ε, k) equilibrio se x è una (ε, k) miglior risposta a<br />

y e viceversa.<br />

Vale il seguente teorema:<br />

Teorema 1.20 (Lucchetti-Patrone-Tijs ’86) Se G è un gioco con potenziale<br />

(esatto, ordinale, generalizzato) e tutti gli spazi delle strategie sono<br />

finiti tranne uno allora G ha almeno un (ε, k) equilibrio ∀ ε > 0 e ∀ k ∈ R.<br />

Osservazione 1.21 Se ci sono due spazi di strategie infinite allora il teorema<br />

non vale.<br />

Esempio 1.22 G = (N, N, f, g)<br />

f(i, j) = i − j<br />

70


g(i, j) = j − i<br />

f + g = 0<br />

Dimostriamo che ∃ (ε, k) equilibri.<br />

Un potenziale esatto è P (i, j) = i + j ∀ i, j ∈ N.<br />

∃ NE<br />

∃ ε-equilibri perché sup f = +∞<br />

∃ (ε, k)-equilibri perché k > 0 (i − j ≥ k, j − i ≥ k).<br />

1.12 Giochi di contrattazione<br />

Possiamo supporre che due o più individui agiscano insieme con un proposito<br />

comune: ogni individuo ha (separatamente) la sua funzione di utilità e<br />

insieme devono creare qualcosa di completamente nuovo cioè una collezione<br />

di funzioni di utilità per determinare il comportamento comune.<br />

Nash nel 1951 suggerì che la cooperazione tra giocatori può essere studiata<br />

usando alcuni concetti basilari degli equilibri di Nash.<br />

Egli diede una lista di assiomi che i payoff dovrebbero soddisfare per un<br />

problema astratto di bargaining e dimostrò che solo una coppia di payoff<br />

verifica tali assiomi ed è detta soluzione di contrattazione di Nash.<br />

Matematicamente un problema di contrattazione è semplicemente una coppia<br />

(F, v) dove F rappresenta l’insieme delle coppie di payoff ammissibili e v<br />

rappresenta il punto di disaccordo.<br />

71


CONTRATTAZIONE A DUE PERSONE<br />

Definiamo un problema di contrattazione a due giocatori come una coppia<br />

(F, v) dove F è un sottoinsieme chiuso e convesso di R 2 ,<br />

v = (v1, v2) è un vettore di R 2 e l’insieme<br />

F ∩ {(x1, x2) : x1 ≥ v1, x2 ≥ v2} è non vuoto e limitato.<br />

F rappresenta l’insieme dei payoff di allocazione ammissibili o insieme ammissibile<br />

e v rappresenta il payoff di allocazione di distacco.<br />

F convesso perché i giocatori possono mettersi d’accordo per giocare strategie<br />

a random così se le allocazioni di utilità x = (x1, x2) e y = (y1, y2) sono<br />

amissibili e θ ∈ [0, 1] allora l’allocazione utilità attesa θx + (1 − θ)y può essere<br />

raggiunta programmando di realizzare x con probabilità θ e y altrimenti.<br />

La chiusura di F è una naturale richiesta topologica.<br />

La condizione di non vuotezza e non limitatezza asseriscono che alcune allocazioni<br />

realizzabili sono buone almeno come il disaccordo ma i guadagni non<br />

limitati sopra il punto di disaccordo non sono possibili.<br />

Diciamo che un problema di contrattazione (F, v) è essenziale se e solo se<br />

esiste almeno una allocazione y in F che è strettamente migliore (per entrambi<br />

i giocatori) dell’allocazione di disaccordo v (cioè y1 > v1, y2 > v2).<br />

Interpretiamo queste strutture nel contesto di un gioco in forma strategica a<br />

due giocatori:<br />

G = { {1, 2}, C1, C2, u1, u2}<br />

per determinare il punto di disaccordo v ci sono varie possibilità.<br />

Noi preferiamo in max-min cioè:<br />

v1 = max min u1(σ1, σ2)<br />

σ1 ∈ ∆(c1) σ2 ∈ ∆(c2)<br />

72


v2 = max min u2(σ1, σ2)<br />

σ2 ∈ ∆(c2) σ1 ∈ ∆(c1)<br />

Per ogni problema di contrattazione a due persone (F, v) possiamo associare<br />

un vettore di allocazione φ(F, v) che rappresenta un risultato di negoziazione<br />

in una situazione in cui F è l’insieme di tutte le allocazioni realizzabili e v è<br />

l’allocazione di disaccordo.<br />

Nash si avvicinò a questo problema in modo assiomatico: poniamo<br />

φ(F, v) = (φ1(F, v), φ2(F, v))<br />

così per ogni vettore x, y ∈ R 2 possiamo scrivere:<br />

x ≥ y ⇐⇒ x1 ≥ y1 e x2 ≥ y2<br />

e<br />

x > y ⇐⇒ x1 > y1 e x2 > y2<br />

Assiomi richiesti per un problema di contrattazione:<br />

ASSIOMA 1 (EFFICIENZA FORTE)<br />

φ(F, v) ∈ F e ∀ x ∈ F se x ≥ φ(F, v) =⇒ x = φ(F, v)<br />

cioè la soluzione per ogni gioco di contrattazione a due persone è pareto efficiente<br />

cioè non esiste nessun’altra allocazione raggiungibile migliore di questa soluzione<br />

per un giocatore e non peggiore di questa per l’altro.<br />

In generale: dato un insieme ammissibile F ,<br />

• diciamo che un punto x è fortemente pareto efficiente se e solo se<br />

∃ y ∈ F : y ≥ x e yi > xi per almeno un giocatore i<br />

• diciamo che un punto x è debolmente pareto efficiente se e solo se<br />

∃ y ∈ F : y > x<br />

73


cioè<br />

ASSIOMA 2 (RAZIONALITÀ INDIVIDUALE)<br />

φ(F, v) ≥ v<br />

φ1(F, v) ≥ v1 φ2(F, v) ≥ v2<br />

cioè nessun giocatore con la soluzione bargaining può guadagnare di meno di<br />

quanto otterrebbe nel disaccordo.<br />

ASSIOMA 3 (SCALA COVARIANTE)<br />

∀ λ1, λ2, γ1, γ2 ∈ R, λ1 > 0, λ2 > 0<br />

se G = {(λ1x1 + γ1, λ2x2 + γ2) : (x1, x2) ∈ F }<br />

e w = {(λ1u1 + γ1, λ2u2 + γ2)}<br />

allora φ(G, w) = {(λ1φ1(F, v) + γ1, λ2φ2(F, v) + γ2)}<br />

cioè se un gioco bargaining a due giocatori (G, w) può essere ottenuto da<br />

un altro gioco bargaining (F, v) incrementando le funzioni di utilità che non<br />

influenzano nessuna decisione allora la soluzione di (G, w) è ottenibile dalla<br />

soluzione di (F, v) con le stesse trasformazioni.<br />

ASSIOMA 4 (INDIPENDENZA DELLE ALTERNATIVE IRRILEVANTI)<br />

∀ G insieme chiuso e convesso<br />

se G ⊆ F e φ(F, v) ∈ G<br />

allora φ(G, v) = φ(F, v)<br />

74


cioè eliminando le alternative ammissibili (a parte il disaccordo) che non sarebbero<br />

state scelte non cambia la soluzione.<br />

Ad esempio:<br />

due persone scelgono un piatto in un ristorante. Il menù offre:<br />

• pesce al cartoccio<br />

• pollo e patatine<br />

• uova con prosciutto<br />

Dopo lunga discussione scelgono “pollo e patatine”. Il cameriere dice che<br />

uova con prosciutto non è disponibile. E allora?<br />

Allora se questo porta i due tizi a cambiare la loro scelta, essi violano<br />

l’assioma delle alternative irrilevanti.<br />

L’idea è che la scelta tra “pollo e patatine” e “pesce al cartoccio” dovrebbe<br />

essere indipendente dalla disponibilità o meno del piatto “uova con prosciutto”.<br />

ASSIOMA 5 (SIMMETRIA)<br />

Se v1 ≡ v2 e {(x1, x2) : (x1, x2) ∈ F } = F<br />

allora φ1(F, v) = φ2(F, v)<br />

cioè se le posizioni dei giocatori 1 e 2 sono completamente simmetriche nel<br />

problema di contrattazione, allora anche la soluzione li tratta simmetricamente.<br />

Il risultato importante dovuto a Nash è che esiste una ed una sola soluzione<br />

del problema di contrattazione (Nash bargaining solution) che verifica gli<br />

assiomi detti:<br />

75


Teorema 1.23 ∃! soluzione φ(·, ·) che verifica gli assiomi 1 . . . 5.<br />

Questa soluzione per ogni problema di contrattazione a due giocatori verifica:<br />

φ(F, v) = argmax (x1 − v1)(x2 − v2)<br />

x ∈ F<br />

x ≥ v<br />

Esempio 1.24 NEL DILEMMA DEL PRIGIONIERO<br />

C D<br />

A 1 1 5 0<br />

B 0 5 3 3<br />

Nash equilibrium: (A, C) non efficiente.<br />

Se il gioco diventa di contrattazione i due giocatori ottengono l’equilibrio<br />

efficiente:<br />

76


.<br />

.<br />

.<br />

.<br />

.<br />

q<br />

(0,5)<br />

. .<br />

.....<br />

1<br />

.<br />

.<br />

0 1<br />

Punto di disaccordo: (1, 1).<br />

.<br />

Soluzione di Nash del bargaining: (3, 3).<br />

◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦<br />

.<br />

FRONTIERA PARETO EFFICIENTE<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

. . . . . . .<br />

.<br />

◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦◦ (3,3)<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

1.13 Corsa agli sportelli (gioco a due stadi)<br />

.<br />

Due persone vogliono investire i loro depositi D in una banca.<br />

La banca investe tali depositi in un progetto a lungo termine.<br />

Se la banca è obbligata a liquidare l’investimento prima che il progetto maturi<br />

.<br />

77<br />

(5,0)<br />

p<br />

.. .


potrà recuperare una quantità 2r, dove<br />

D > r > D<br />

2<br />

2D > 2r > D<br />

Se la banca lascia che l’investimento raggiunga la maturità allora il progetto<br />

pagherà un totale di 2R con R > D.<br />

Ci sono due date in cui gli investitori possono fare prelievi dalle banche:<br />

data 1 è prima che gli investimenti maturino<br />

data 2 dopo.<br />

Supponiamo per semplicità che non ci siano fattori di sconto.<br />

Se entrambi gli investitori fanno dei prelievi alla data 1 allora ciascuno riceve<br />

r e il gioco finisce.<br />

Se solo un investitore fa un prelievo alla data 1 allora quell’investitore riceve<br />

D e l’altro riceve 2r − D (2r − D < D) e il gioco finisce.<br />

Se nessun investitore fa il prelievo alla data 1 allora il progetto matura e<br />

gli investitori fanno i prelievi alla data 2 allora entrambi ricevono R e il gioco<br />

finisce.<br />

Se solo un investitore fa un prelievo alla data 2 allora quell’investitore riceve<br />

2R − D e l’altro riceve D e il gioco finisce.<br />

Infine se nessun investitore fa il prelievo alla data 2 allora la banca restituisce<br />

R a ciascun investitore e il gioco finisce.<br />

Supponiamo che i payoffs dei due investitori alle date 1 e 2 (come funzione<br />

dei loro prelievi) siano rappresentati dalle seguenti coppie di giochi in<br />

forma normale:<br />

78


prelevo non prelevo<br />

prelevo r , r D , 2r − D<br />

non prelevo 2r − D , D prossimo stadio<br />

data 1<br />

prelevo non prelevo<br />

prelevo R , R 2R − D , D<br />

non prelevo D , 2R − D R , R<br />

data 2<br />

prelevare ≻ non prelevare<br />

2D > 2r > D 2R > 2D<br />

R > D =⇒ 2R − D > R<br />

Per analizzare questo gioco procediamo con l’induzione a ritroso.<br />

Consideriamo il gioco alla data 2: poiché R > D (e così 2R − D > R)<br />

“prelevare” domina strettamente “non prelevare”.<br />

Esiste allora un unico NE in questo gioco: entrambi gli investitori prelevano<br />

e questo conduce a un payoff: (R, R).<br />

79


Poiché non c’è sconto, noi possiamo sostituire questo payoff nel gioco in<br />

forma normale alla data 1 come in figura:<br />

prelevare non prelevare<br />

prelevare r , r D , 2r − D<br />

non prelevare 2r − D , D R , R<br />

poiché r < D (e così 2r − D < r).<br />

R > D > r<br />

Questa versione a 1 periodo del gioco, a 2 periodi ha 2 NE in strategie<br />

pure:<br />

entrambi gli investitori prelevano =⇒ payoff (r, r).<br />

entrambi gli investitori non prelevano =⇒ payoff (R, R).<br />

Allora il gioco originale della corsa agli sportelli ha 2 esiti perfetti nei sottogiochi<br />

1) entrambi gli investitori prelevano alla data 1<br />

2) entrambi gli investitori non prelevano alla data 1 ma prelevano alla<br />

data 2.<br />

Il primo di questi esiti può essere interpretato come la corsa agli sportelli.<br />

Se I crede che II preleverà alla data 1 allora la miglior risposta di I è PRE-<br />

LEVARE anche se i due tizi starebbero meglio se entrambi aspettassero a<br />

prelevare alla data 2.<br />

80


Questo gioco differisce dal Dilemma del prigioniero per un aspetto importante:<br />

entrambi i giochi portano a un equilibrio di Nash che è socialmente<br />

non efficiente.<br />

Nel DP questo equilibrio è unico (ed è in strategie dominanti), in questo<br />

gioco esiste anche un secondo equilibrio che è efficiente.<br />

Allora questo gioco non predice quando si farà la corsa agli sportelli ma dimostra<br />

che i tizi possono trovarsi in condizione di equilibrio (vedere Diamond-<br />

Dybvig 1983).<br />

1.14 Dilemma del prigioniero ripetuto n volte<br />

❍<br />

❍❍❍❍❍ II<br />

I<br />

D H<br />

D 3 3 0 6<br />

H 6 0 1 1<br />

81<br />

a)


3+x(h) 3+y(h) 0+x(h) 6+y(h)<br />

6+x(h) 0+y(h) 1+x(h) 1+y(h)<br />

In figura a) è riprodotto il DILEMMA DEL PRIGIONIERO (DP).<br />

Studiamo il gioco ripetuto n volte.<br />

Se n = 10 ciascun giocatore avrebbe 2 349525 strategie pure!!!<br />

Quindi il DP ha una forma strategica molto grande anche se n è relativamente<br />

piccolo.<br />

Esiste un unico equilibrio perfetto nei sottogiochi in cui ciascun giocatore<br />

sceglie sempre H.<br />

La ragione è banale.<br />

Prima dell’ultimo stadio è possibile che un giocatore possa essere scoraggiato<br />

dallo scegliere H per paura di una punizione da parte dell’oppositore più<br />

tardi nel gioco.<br />

Ma allo stadio finale nessuna punizione è possibile.<br />

Poiché H domina D nel dilemma del prigioniero, entrambi i giocatori sceglieranno<br />

H all’n-simo stadio qualunque sia stata la precedente storia del gioco.<br />

Consideriamo ora il penultimo stadio.<br />

Entrambi i giocatori sanno che, qualunque sia la loro scelta attuale, (H, H)<br />

sarà giocata nello stadio finale.<br />

Nessuno può quindi essere punito se usa H nel penultimo stadio perché la<br />

punizione peggiore potrà essere inflitta dall’oppositore usando H.<br />

Per l’oppositore è naturale usare H allo stadio finale qualunque cosa accada<br />

prima.<br />

82<br />

b)


Entrambi i giocatori useranno H al penultimo stadio, lo stesso argomento<br />

può essere usato al second’ultimo e così via...<br />

Una versione più formale dell’argomento può essere fornita dal seguente mini<br />

teorema:<br />

Teorema 1.25 Il DILEMMA DEL PRIGIONIERO (DP) n ripetuto un numero<br />

finito di volte, ha un unico equilibrio perfetto nei sottogiochi in cui<br />

entrambi i giocatori usano sempre H.<br />

Dimostrazione. Sia P (n) la proposizione che il teorema è vero per (DP)<br />

ripetuto n volte.<br />

Allora P (1) è vera.<br />

Dimostriamo il teorema con il principio di induzione cioè<br />

P (n) =⇒ P (n + 1) ∀ n,<br />

cioè supponiamo che la proposizione sia vera per (DP) n e dimostriamo che è<br />

vera per (DP) n+1 .<br />

Supponiamo che l’ultimo stadio sia raggiunto dopo una storia h del gioco.<br />

Se nel gioco al k-simo stadio il giocatore I ottiene un payoff uguale a xk,<br />

allora avrà accumulato un payoff totale<br />

x(h) = x1 + x2 + · · · + xn + xn+1<br />

al tempo (n + 1)-simo e si arriva allo stadio finale.<br />

Analogamente il giocatore II avrà accumulato un payoff pari a y(h).<br />

Il gioco allo stadio (n + 1)-simo è rappresentato in figura b).<br />

Poiché H domina fortemente D (H ≻ D) allora ci sarà un unico equilibrio<br />

di Nash (H, H).<br />

Infatti il gioco della figura b) è strategicamente identico a quello della figura<br />

a).<br />

La nuova funzione di utilità di VNM ottenuta aggiungendo x(h) a ciascun<br />

payoff del giocatore I descrive esattamente le sue preferenze come la vecchia<br />

funzione di utilità di VNM.<br />

Gli equilibri perfetti nei sottogiochi sono quindi trovati usando l’algoritmo di<br />

Zermelo.<br />

Il gioco in figura b) è il più piccolo sottogioco del (DP) n+1 .<br />

83


L’algoritmo di Zermelo richiede per il più piccolo di questi sottogiochi di essere<br />

rimpiazzato da un nodo terminale etichettato con la coppia di payoff che<br />

risulta dal giocare un NE nel sottogioco.<br />

Poiché (H, H) è il solo NE in figura b), il payoff sarà (1 + x(h), 1 + y(h)).<br />

Il nuovo gioco ottenuto con questa riduzione è precisamente lo stesso come<br />

nel (DP) n eccetto che 1 è aggiunto a ciascun payoff.<br />

È quindi strategicamente equivalente al (DP) n .<br />

Poiché si suppone vera P (n), H sarà quindi sempre usata da entrambi i giocatori<br />

nel nuovo gioco.<br />

Noi già sappiamo che useranno H allo stadio finale del (DP) n+1 .<br />

Allora essi giocano sempre H nelle n + 1 volte del (DP) ripetuto.<br />

Allora è vera P (n + 1).<br />

Per il principio di induzione P (n) è vera ∀ n. ✷<br />

ATTENZIONE: Una strategia pura in un gioco ripetuto non nomina semplicemente<br />

un’azione per ciascuno stadio del gioco.<br />

Nomina un’azione per il primo stadio del gioco e poi per ogni ulteriore stadio<br />

nomina una funzione che fa la scelta di un’azione in quello stadio tenuto<br />

conto della storia del gioco.<br />

Un gioco ripetuto a più stadi ha quindi un insieme di strategie pure molto<br />

complicato.<br />

Esempio 1.26 Un esempio con orizzonte infinito.<br />

La cooperazione non è irrazionale se il (DP) è ripetuto un numero infinito di<br />

volte.<br />

In questo esempio noi studiamo il caso in cui la probabilità che il gioco<br />

continui da qualunque stadio a quello successivo è 2<br />

3 .<br />

All’inizio del gioco la probabilità che l’n-simo stadio sia raggiunto è ( 2<br />

3 )n−1 .<br />

Consideriamo la strategia S che richiede di giocare D fino a quando l’altro<br />

giocherà D.<br />

Se l’altro devia, allora si giocherà H per sempre (GRIM-STRATEGY).<br />

Ogni deviazione è punita per sempre.<br />

Se ogni giocatore usa la strategia S, allora non sorgerà nessuna occasione di<br />

punizione e i giocatori coopereranno sempre.<br />

84


Il payoff atteso per ciascun giocatore sarà<br />

<br />

c = 3 + 3<br />

2<br />

3<br />

+ · · · + 3<br />

2<br />

3<br />

n−1<br />

<br />

2<br />

+ 3<br />

3<br />

n<br />

+ . . .<br />

Un giocatore ci guadagna a deviare? Se un giocatore devia giocando H per<br />

la prima volta all’(n + 1)-simo stadio, allora il deviante otterrà al più<br />

<br />

d = 3 + 3<br />

2<br />

3<br />

+ · · · + 3<br />

2<br />

3<br />

Studiamo il segno c − d:<br />

<br />

2<br />

c − d = (3 − 6)<br />

3<br />

n<br />

n−1<br />

<br />

2<br />

+ 6<br />

3<br />

<br />

2<br />

+ (3 − 1)<br />

3<br />

n<br />

n+1<br />

<br />

2<br />

+ 1<br />

3<br />

n+1<br />

<br />

2<br />

+ (3 − 1)<br />

3<br />

n <br />

2<br />

2<br />

= − 3 + 2<br />

3<br />

3 +<br />

2 <br />

2<br />

+ . . . =<br />

3<br />

n <br />

2<br />

2<br />

3<br />

= − 3 + 2<br />

3<br />

1 − 2<br />

<br />

=<br />

3<br />

n n 2<br />

2<br />

= (−3 + 4) = ≥ 0<br />

3<br />

3<br />

Allora c ≥ d anzi c > d (strettamente).<br />

<br />

2<br />

+ 1<br />

3<br />

n+2<br />

n+2<br />

+ . . .<br />

+ . . .<br />

Allora non è vantaggioso deviare, quindi anche l’oppositore sceglierà S.<br />

Allora (S, S) è un NE che richiede che i giocatori cooperino nel gioco con<br />

orizzonte infinito.<br />

DUOPOLIO DI COURNOT RIPETUTO<br />

Nel mondo reale gli oligopolisti devono prendere decisioni per produzioni ripetute<br />

su lunghi periodi o di durata indefinita.<br />

Una simile situazione è molto più favorevole per sostenere un comportamento<br />

di cooperazione di quanto lo sia il gioco a uno stadio.<br />

85


Nel comportamento cooperativo le due imprese si accordano in modo che la<br />

loro produzione totale debba essere ˜q che è il risultato ottenuto da un monopolista<br />

con profitto massimo.<br />

Consideriamo la versione ripetuta:<br />

I produrrà q1 in ogni periodo,<br />

II produrrà q2 in ogni periodo<br />

e q1 + q2 = ˜q.<br />

Supponiamo che l’implementazione di questo comportamento porti il giocatore<br />

I a guadagnare un profitto a in ogni periodo e II un profitto b.<br />

Contrariamente al caso di uno stadio le imprese possono fare delle previsioni<br />

sul loro comportamento e sulle azioni che devono essere fatte se qualcuno<br />

devia.<br />

La previsione più semplice è che se qualcuno devia allora il partner è libero<br />

ed entrambi giocano le loro strategie (che portano al NE nel gioco a uno<br />

stadio) in tutti i periodi successivi.<br />

Ogni giocatore è incentivato a deviare?<br />

Vediamo cosa ottiene I se non devia: se il suo fattore di sconto è δ (0 < δ < 1),<br />

egli valuterà il flusso di entrata.<br />

Se nessuno devia dal comportamento valido<br />

c = a + aδ + aδ 2 + · · · + aδ n + . . .<br />

Se il giocatore II mantiene l’accordo ma I devia, quanto ottiene I?<br />

Supponiamo che I devia la prima volta all’(n + 1)-simo stadio.<br />

Allora ottiene:<br />

d = a + aδ + aδ 2 + · · · + aδ n−1 + Bδ n + eδ n+1 + eδ n+2 + . . .<br />

dove B è la ricchezza che I ottiene deviando dall’accordo allo stadio n + 1,<br />

mentre e è il profitto per periodo che ciascuna impresa riceve quando ciascuno<br />

gioca la strategia del NE del gioco a uno stadio.<br />

Non sono importanti i valori a, B, e.<br />

È importante solo che e < a < B.<br />

Affinché deviare non sia vantaggioso per I, dovrà risultare c ≥ d.<br />

Quindi:<br />

c − d = δ n {(a − B) + (a − e)δ + (a − e) 2 δ 2 + . . . } =<br />

86


Allora l’accordo sarà rispettato se:<br />

δ n<br />

<br />

<br />

δ<br />

(a − B) + (a − e)<br />

1 − δ<br />

.<br />

δ<br />

(a − B) + (a − e) ≥ 0<br />

1 − δ<br />

δ ≥<br />

⇕<br />

B − a<br />

B − e<br />

e questa condizione è verificata se δ è sufficientemente grande ( B−a<br />

B−e<br />

La condizione vale anche per II.<br />

Allora l’accordo è possibile se il fattore di sconto δ non è troppo alto.<br />

1.15 Giochi ripetuti e automi finiti<br />

< 1).<br />

Un automa finito è una macchina computer idealizzata (o il programma che<br />

la fa funzionare).<br />

Quando le strategie possono essere rappresentate da automi finiti, si può<br />

pensare alla scelta della strategia di un giocatore come alla scelta di delegare<br />

il gioco a un opportuno programma di computer.<br />

Gli automi per giocare giochi ripetuti sono chiamati macchine di MOORE.<br />

La macchina di MOORE scelta da I avrà le azioni di II del gioco componente<br />

G come suoi possibili INPUT.<br />

I suoi OUTPUT saranno le azioni del giocatore I nel gioco componente G.<br />

Consideriamo il gioco componente G e il gioco ripetuto infinite volte: G ∞ .<br />

L’insieme delle strategie pure del giocatore I (S) per un gioco a uno stadio<br />

G sarà l’insieme delle azioni possibili in ogni stadio di G ∞ .<br />

L’insieme delle strategie pure del giocatore II (T ) per un gioco a uno stadio<br />

G sarà l’insieme delle azioni possibili per II in ciascuno stadio di G ∞ .<br />

87


Abbiamo già detto che l’insieme delle strategie pure in G ∞ è molto complicato.<br />

Restringeremo la nostra attenzione sull’insieme delle strategie pure in G ∞<br />

che può essere rappresentato da automi finiti.<br />

Denoteremo con A l’insieme delle macchine di Moore con input T e output<br />

S.<br />

Denoteremo con B l’insieme delle macchine di Moore con input S e output<br />

T .<br />

Gli insiemi A e B saranno gli insiemi di strategie pure del gioco G ♯ che è<br />

l’oggetto finale del nostro studio.<br />

Possiamo pensare la scelta di I di un automa a ∈ A come la decisione di<br />

delegare la responsabilità di giocare G ∞ alla macchina a.<br />

Similmente la scelta b ∈ B del giocatore II si può vedere come la decisione<br />

di delegare la responsabilità di giocare a b ∈ B.<br />

Dobbiamo introdurre le funzioni di payoff:<br />

vi : A × B −→ R<br />

La definizione fa uso di πi, funzioni payoff nel gioco G<br />

(nel gioco a uno stadio G).<br />

Se a ha m stadi<br />

b ha n stadi<br />

allora esistono m · n stadi.<br />

πi : S × T −→ R i = 1, 2 (giocatori)<br />

I sceglie a ∈ A<br />

II sceglie b ∈ B<br />

Dopo questi le due macchine devono tornare ad una situazione identica a<br />

quella che hanno sperimentato prima.<br />

Sono quindi obbligate a reiterare il loro passato da quel punto in poi.<br />

Se il ciclo è lungo N stadi e le coppie sono:<br />

(s1, t1), (s2, t2), . . . , (sN, tN)<br />

88


allora il giocatore N-simo ha payoff<br />

vi(a, b) = 1<br />

N<br />

N<br />

πi(sn, tn);<br />

allora il payoff di un giocatore in G ♯ è ciò che il giocatore ottiene sulla media<br />

durante il ciclo in cui gioca.<br />

Si può dimostrare (cfr BINMORE):<br />

Lemma 1.27 Ogni esito di G ♯ è necessariamente un punto nella regione<br />

cooperativa del gioco G a uno stadio.<br />

Per arrivare all’enunciato del FOLK THEOREM abbiamo bisogno del punto<br />

di MIN-MAX.<br />

n=1<br />

mi è il valore di max-min di G (gioco a uno stadio) in termini della sua<br />

matrice payoff Mi.<br />

Questo è anche detto livello di sicurezza se i giocatori devono usare le loro<br />

strategie pure.<br />

Qui non abbiamo a che fare con il max-min ma con il min-max: mi.<br />

In generale:<br />

ma<br />

mi = min max πi(s, t) mi = max min πi(s, t)<br />

T S S T<br />

mi ≤ mi<br />

mi = mi se e solo se la matrice dei payoff Mi ha un punto di sella.<br />

Nel (DP) (1, 1) è il punto di min-max e anche di max-min.<br />

Consideriamo il seguente esempio:<br />

89


t1 t2 t3<br />

s1 1 0 6 4 0 9 0 9<br />

s2 2 1 0 2 3 0 0 2 ←<br />

s3 3 7 2 3 4 0 0 7<br />

1 0 0<br />

3 6 4 min-max 3<br />

↑<br />

table 1<br />

m = (m1, m2) = (3, 2)<br />

mi = min max πi(s, t)<br />

T S<br />

m = (m1, m2) = (2, 2)<br />

mi = max min πi(s, t)<br />

S T<br />

90


q<br />

. .<br />

(0,9)<br />

.<br />

(0,2) •<br />

...<br />

.<br />

.<br />

X<br />

.<br />

.<br />

.<br />

•<br />

(1,0)<br />

.<br />

.<br />

•<br />

m<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

•<br />

.<br />

m<br />

.<br />

...<br />

.<br />

.<br />

.<br />

.<br />

.<br />

Y<br />

.<br />

.<br />

2 3 (4,0) 6<br />

.<br />

.<br />

.<br />

.<br />

.<br />

Fig. 1<br />

.<br />

(6,4) •<br />

Per ogni t ∈ T (insieme delle strategie pure per II), sia rI(t) la miglior<br />

risposta di I, rI(t) ∈ S<br />

Segue che:<br />

π1(rI(t), t) = max π1(s, t)<br />

S<br />

m1 = min max π1(s, t) = min π1(rI(t), t)<br />

t ∈ T s ∈ S t ∈ T<br />

Allora una banale conseguenza è che ogni NE (σ, τ) in strategie pure del gioco<br />

a uno stadio G assegna a ciascun giocatore almeno il suo valore di min-max,<br />

infatti:<br />

91<br />

p<br />

.. .


Analogamente<br />

π1(σ, τ) = π1(rI(τ), τ) ≥ min π1(rI(t), t) = m1<br />

t ∈ T<br />

π2(σ, τ) ≥ m2<br />

Ricordiamo che G ♯ è differente da G.<br />

Le strategie pure in G ♯ sono gli automi che giocano il gioco ripetuto G ∞ .<br />

Lemma 1.28 Ogni equilibrio di Nash di G ♯ assegna a ciascun giocatore<br />

almeno il suo valore di min-max nel gioco G a uno stadio.<br />

Nella figura 1 è illustrato che tutti gli esiti dei NE di G ♯ in strategie pure<br />

sono in<br />

Y = {x ∈ X : x ≥ m}<br />

X è la regione cooperativa di G.<br />

Teorema 1.29 (FOLK-THEOREM) Sia X la regione cooperativa del<br />

gioco G, m sia il punto di min-max; allora gli esiti che corrispondono ai<br />

NE in strategie pure del gioco G ♯ sono densi in Y , dove<br />

Y = {x ∈ X : x ≥ m}.<br />

SIGNIFICATO DEL FOLK-THEOREM<br />

Il messaggio che i teorici di Teoria dei Giochi vogliono dare è questo:<br />

in un contesto di interazioni ripetute, il perseguimento dell’interesse individuale<br />

e l’efficienza sociale non sono incompatibili, cioè con il folk-theorem il<br />

problema del contratto sociale è risolto. I vettori di vincita conseguibili con<br />

accordi la cui attuazione, se G fosse giocato una volta sola, richiederebbe la<br />

presenza di un’autorità esterna per renderli vincolanti, sono ottenibili, in un<br />

contesto infinitamente ripetuto, come equilibri cooperativi perfetti.<br />

Qual è il cemento che tiene insieme la società?<br />

Gli antichi filosofi hanno parlato di “contratto sociale”, espressione non bella<br />

perché suggerisce l’idea di un obbligo o di uno sforzo per aderire all’accordo.<br />

92


Davide Hume, duecento anni prima che fossero “inventati” i giochi ripetuti,<br />

aveva enfatizzato il fatto che la società non è un gioco a uno stadio. Infatti in<br />

un famoso passo del suo “TREATISE ON HUMAN NATURE” aveva esortato<br />

a compiere un servizio ad un altro perché prima o poi renderà tale servizio:<br />

quando vedrà il vantaggio della nostra azione sarà egli stesso indotto a farlo<br />

verso altri...<br />

Il segreto è la RECIPROCIT À.<br />

C’è un proverbio inglese che riassume bene questo concetto:<br />

“I’ll scratch your back if you’ll scratch mine”.<br />

Vediamo un esempio che illustra l’idea del contratto sociale e l’idea che sta<br />

dietro il FOLK-THEOREM.<br />

Esempio 1.30 Immagina un mondo in cui ad ogni stadio ci sono solo due<br />

esseri vivi: madre e figlia (si può immaginare una riproduzione PARTENO-<br />

GENESI).<br />

Ciascun individuo vive solo due periodi:<br />

1. GIOVINEZZA<br />

2. VECCHIAIA<br />

Fissiamo alcuni dettagli nella storia della vita dei due giocatori.<br />

Nella GIOVINEZZA ognuno guadagna due unità di un bene deperibile, ma<br />

questo è salutare se e solo se è consumato nello stesso periodo in cui è guadagnato.<br />

Alla fine dello stadio GIOVINEZZA ciascun giocatore genera una figlia.<br />

La madre entra così nello stadio VECCHIAIA durante il quale è troppo debole<br />

per lavorare e così non guadagna più niente.<br />

Chiunque preferirebbe non consumare tutti i guadagni nella giovinezza.<br />

Tutti preferirebbero consumare:<br />

1 unità nella giovinezza<br />

1 unità nella vecchiaia.<br />

Sfortunatamente il bene guadagnato non può essere accumulato e così la<br />

seconda possibilità non può essere raggiunta, a meno che non vi siano trasferimenti<br />

di bene da un giocatore ad un altro.<br />

Per ogni giocatore un equilibrio è consumare qualunque cosa guadagnata nella<br />

giovinezza. Così ognuno condurrà una vecchiaia miserevole...<br />

93


Sarebbe auspicabile che la figlia desse una unità di bene alla madre, così<br />

ognuno potrebbe godere di una unità di bene in ogni periodo della sua vita.<br />

Tale comportamento è un equilibrio?<br />

Supponiamo che la figlia dia un’unità di bene alla madre se questa ha adottato<br />

un comportamento analogo nel periodo precedente. Questo è un NE,<br />

infatti nessuna deviazione farebbe guadagnare qualcosa se ci si allontanasse<br />

dalla strategia di equilibrio.<br />

Il meglio per chi devia sarebbe consumare tutto il bene al primo stadio, ma<br />

allora la strategia di equilibrio della figlia richiederebbe una punizione per<br />

tale comportamento.<br />

Chi devia sarà allora lasciato senza niente nella vecchiaia.<br />

Notiamo che una figlia non vorrebbe punire una madre che devia: se facesse<br />

così farebbe così anche sua figlia con lei.<br />

Il NE trovato non è perfetto nei sottogiochi, perché il comportamento di<br />

equilibrio non è credibile per un giocatore razionale.<br />

Un equilibrio perfetto nei sottogiochi che sostiene esiti cooperativi è facile da<br />

trovare.<br />

Ciascuna figlia dà una metà del bene a sua madre se e solo se nessuno ha<br />

mai fatto in modo differente nel passato.<br />

Sembra quasi una punizione biblica: la punizione si estende non alla terza o<br />

quarta generazione, ma a tutti i discendenti...<br />

Possiamo trovare un equilibrio perfetto nei sottogiochi in cui solo i colpevoli<br />

sono puniti?<br />

A tale scopo chiamiamo CONFORMISTA un giocatore che dà a sua madre<br />

una unità del bene se sua madre si è comportata da conformista.<br />

Altrimenti una figlia conformista non dà niente a sua madre.<br />

In questo modo i conformisti ricompensano i conformisti e puniscono i non<br />

conformisti.<br />

Allora è un equilibrio perfetto nei sottogiochi essere un conformista.<br />

Alcune persone si sentono offese da tali storie che insegnano come la società<br />

dovrebbe essere tenuta insieme. Dicono che tali storie “denigrano lo<br />

spirito umano” o “sviliscono la capacità umana di amore”.<br />

“Penso”, dice Binmore, “che avere queste reazioni sia perdere di vista lo scopo<br />

di tali storie: i teorici di Teoria dei Giochi amano le torte di mele e le loro<br />

madri... le figlie aiutano le loro madri semplicemente perché le amano”.<br />

Il modello raccontato vuole mettere in luce il fatto che, se anche tutte le<br />

94


figlie avessero un cuore di pietra, non necessariamente dimenticherebbero le<br />

madri.<br />

In una società coordinata su un contratto sociale opportuno le madri sarebbero<br />

curate perché così è meglio per tutti.<br />

95


Capitolo 2<br />

Evolutionary Game Theory da<br />

Weibul<br />

2.1 Elementi della Teoria dei Giochi non cooperativi<br />

Proposizione 2.1 Per un gioco finito in strategie miste l’insieme degli equilibri<br />

di Nash è non vuoto e ha un numero finito di componenti connesse<br />

chiuse.<br />

Se è un Nash stretto, allora è un punto isolato.<br />

Con una trasformazione di scala crescente oppure con l’aggiunta di un gioco<br />

dummy non cambiano i NE.<br />

RAFFINAMENTO<br />

Denotiamo con θ NE l’insieme degli equilibri di Nash in strategie miste anche<br />

non simmetrici.<br />

Definizione 2.2 (PERFEZIONE DELLA MANO TREMOLANTE)<br />

x ∈ θ NE è perfetto se esiste una successione di giochi perturbati {G(µ t )}µ t →0<br />

e per ognuno di essi esiste un equilibrio di Nash x t ∈ θ NE (µ t ) tale che x t → x,<br />

dove µ t è una funzione errore che ad ogni giocatore i e ad ogni strategia pura<br />

97


h associa la probabilità µ t ih ∈ (0, 1) cioè la probabilità che quella strategia sia<br />

giocata per sbaglio. <br />

< 1<br />

h<br />

µih<br />

Ogni equilibrio di Nash interno è perfetto e inoltre l’insieme degli equilibri<br />

perfetti è non vuoto.<br />

Ogni equilibrio perfetto (x ∈ θ P E ) è non dominato.<br />

Nei giochi a due giocatori vale anche il viceversa.<br />

Definizione 2.3 x ∈ θ NE è proprio se esiste una successione ε t → 0 e dei<br />

profili di strategie ε t -propri y(ε t ) tali che y(ε t ) → x<br />

dove :<br />

dato ε > 0, un profilo di strategie y ∈ int(θ) è ε-proprio se<br />

ui(e h i , y−i) < ui(e k i , y−i) =⇒ yih<br />

≤ εyik<br />

(cioè la strategia che mi dà un payoff minore, viene giocata con probabilità<br />

più piccola di ε rispetto all’altra).<br />

Ogni equilibrio di Nash interno è proprio.<br />

Ogni equilibrio proprio è perfetto.<br />

Esistono sempre equilibri propri.<br />

Definizione 2.4 x ∈ θ NE è strettamente perfetto se per ogni successione<br />

di giochi perturbati {G(µ t )}µ t →0 esiste per ciascuno di essi un equilibrio di<br />

Nash x t ∈ θ NE (µ t ) tale che x t → x.<br />

Valgono i seguenti risultati:<br />

• Ogni equilibrio di Nash interno è strettamente perfetto.<br />

98


• Ogni equilibrio di Nash stretto è strettamente perfetto.<br />

• Ogni equilibrio strettamente perfetto è proprio.<br />

Osservazione 2.5 Gli equilibri di Nash stretti sono strettamente perfetti,<br />

quindi propri, quindi perfetti.<br />

Non sempre esistono equilibri strettamente perfetti:<br />

Esempio 2.6 Siano α, β > 0.<br />

❍<br />

❍❍❍❍❍ II<br />

I<br />

L M R<br />

T 0 β α 0 0 0<br />

B 0 β 0 0 α 0<br />

NE: (T, L) (B, R)<br />

sono perfetti ma non strettamente perfetti.<br />

ESSENZIALI<br />

Definizione 2.7 Definiamo payoff distanza tra due giochi G e G ′<br />

guente:<br />

d(G, G ′<br />

) = max |πi(s) − π ′<br />

i(s)|<br />

i ∈ I, s ∈ S<br />

99<br />

la se


Definizione 2.8 x ∈ θ NE è essenziale se ∀ ε > 0 ∃ δ > 0 tale che:<br />

d(G, G ′<br />

) < δ =⇒ G ′<br />

ha un equilibrio di Nash x ′<br />

tale che d(x, x ′<br />

) < ε<br />

(salita nel simplesso).<br />

Non è detto che i NE interni siano essenziali:<br />

CONTROESEMPIO: gioco con tutti i payoff uguali.<br />

x essenziale =⇒ x strettamente perfetto.<br />

NE stretto è essenziale?<br />

GIOCHI SIMMETRICI A DUE GIOCATORI<br />

Definizione 2.9 G = (I, S, π) I = {1, 2}<br />

S = S1 × S2 = S2 × S1<br />

π1(s1, s2) = π2(s2, s1) ∀ (s1, s2) ∈ S<br />

Equivale a B = A T (dove A, B sono le matrici payoff dei due giocatori.)<br />

Definizione 2.10 G è un gioco doppiamente simmetrico se:<br />

A T = A = B<br />

(gioco di puro coordinamento con matrice simmetrica).<br />

Definizione 2.11 ∆ NE = {x ∈ ∆ : (x, x) ∈ θ NE }.<br />

100


Proposizione 2.12 Per ogni gioco finito e simmetrico a due giocatori si ha<br />

ESEMPI:<br />

1. FALCHI-COLOMBE<br />

Se c < v<br />

2<br />

∆ NE = ∅.<br />

F C<br />

F v − c v<br />

2<br />

C 0 v<br />

2<br />

(cioè costa poco), NE:(F,F).<br />

Se c > v,<br />

NE:(C,F), (F,C).<br />

2<br />

Non simmetrici ma in strategie miste sì.<br />

2. ROCK-SCISSORS-PAPER<br />

❍<br />

❍❍❍❍❍ II<br />

I<br />

R S P<br />

R 1 2 0<br />

S 0 1 2<br />

P 2 0 1<br />

101


( 1<br />

3<br />

∃ NE in strategie pure, ma<br />

, 1<br />

3<br />

1<br />

, ) è NE in strategie miste.<br />

3<br />

2.2 Criteri di stabilità evolutiva<br />

Definizione 2.13 x ∈ ∆ (simplesso) è una ESS (strategia evolutivamente<br />

stabile) se per ogni strategia y = x esiste εy ∈ (0, 1) tale che:<br />

εu(x, y) + (1 − ε)u(x, x) > εu(y, y) + (1 − ε)u(y, x) (2.1)<br />

payoff del non mutante > payoff mutante<br />

∀ ε ∈ (0, εy)<br />

Osservazione 2.14 ∆ ESS ⊂ ∆ NE<br />

Proposizione 2.15 x ∈ ∆ ESS se e solo se<br />

u(y, x) ≤ u(x, x) ∀ y<br />

u(y, x) = u(x, x) =⇒ u(y, y) < u(x, y) ∀ y = x<br />

Se (x, x) è un NE stretto, allora è un ESS.<br />

Esempi 2.16 1. DILEMMA DEL PRIGIONIERO<br />

Il NE≡ESS anche se non efficiente.<br />

102


2.<br />

L R<br />

T 2 2 0 0<br />

B 0 0 1 1<br />

NE: (T, L), (B, R).<br />

Sono ESS perché simmetrici e stretti.<br />

3. FALCHI-COLOMBE (chicken per Binmore)<br />

F v<br />

v − c 2<br />

F C<br />

− c v 0<br />

2<br />

C 0 v v<br />

2<br />

Con c > v,<br />

∃ 1 ESS in strategie miste.<br />

2<br />

4. SASSO-CARTA-FORBICE<br />

L’equilibrio di Nash in strategie miste non è ESS.<br />

Osservazione 2.17 Gioco dummy simmetrico<br />

103<br />

v<br />

2


a a d a<br />

a d d d<br />

gioco simmetrico + gioco dummy simmetrico =<br />

a a b c<br />

c b d d<br />

+<br />

Infatti:<br />

0 0 −b −c<br />

−c −b 0 0<br />

=<br />

a 0<br />

0 d<br />

<br />

a a 0 0<br />

0 0 d d<br />

ESS non cambiano aggiungendo un gioco dummy.<br />

Proposizione 2.18 Se x ∈ ∆ ESS e C(y) ⊂ C(x) (cioè y sta nella stessa<br />

faccia del simplesso di x) per qualche y = x, allora y ∈ ∆ NE .<br />

C(x)=supporto di x è la faccia del simplesso che ha come vertici le strategie<br />

pure a cui x assegna probabilità positiva.<br />

104


.<br />

•<br />

Se c’è una ESS interna, questa è unica perché il supporto è tutto il lato.<br />

A •<br />

.<br />

×<br />

C<br />

× B<br />

Se i è una ESS (A) su un lato del triangolo, i due vertici non possono essere<br />

ESS, però può essere B o C.<br />

• .<br />

• •<br />

CASI POSSIBILI<br />

caso 3 strategie<br />

(perché il supporto di un vertice è il vertice stesso.)<br />

105<br />

•<br />

• .


. .<br />

•<br />

caso 3 strategie pure: il simplesso è un triangolo.<br />

. .<br />

• • •<br />

•<br />

. .<br />

• • •<br />

106<br />

•<br />

nessuna


.<br />

•<br />

n = 2<br />

caso 2 strategie pure: il simplesso è un segmento<br />

.<br />

• •<br />

•<br />

•<br />

FORSE IN GENERALE È n2 ?<br />

Corollario 2.19 L’insieme ∆ ESS ⊂ ∆ è finito.<br />

Se x ∈ ∆ è debolmente dominata, allora x ∈ ∆ ESS .<br />

x ∈ ∆ ESS =⇒ (x, x) ∈ θ P E .<br />

x ∈ ∆ ESS =⇒ (x, x) ∈ θ NE è proprio.<br />

107<br />

.<br />

.<br />

.


ESS =⇒ PROPRIO =⇒ PERFETTO<br />

⇐=<br />

basta considerare<br />

“carta, sasso, forbice”<br />

Nella Definizione 2.13 ε è indipendente da y; dice che x ha una barriera<br />

di invasione uniforme.<br />

x ∈ ∆ ESS ⇐⇒ x ha una barriera di invasione uniforme<br />

Definizione 2.20 x ∈ ∆ è localmente superiore se ha un intorno U tale<br />

che<br />

u(x, y) > u(y, y) ∀ y = x in U<br />

Allora:<br />

x ∈ ∆ ESS ⇐⇒ x è localmente superiore<br />

Definizione 2.21 x ∈ ∆ è neutralmente stabile (NSS) se ∀ y ∈ ∆ esiste<br />

εy ∈ (0, 1) tale che la disuguaglianza (2.1) vale debolmente<br />

u[x, εy + (1 − ε)x] ≥ u[y, εy + (1 − ε)x] ∀ ε ∈ (0, εy)<br />

Un’altra possibilità di caratterizzazione è la seguente:<br />

u(y, x) = u(x, x) =⇒ u(y, y) ≤ u(x, y) ∀ y<br />

∆ ESS ⊂ ∆ NSS ⊂ ∆ NE<br />

Esempio 2.22 Nel gioco “carta-sasso-forbice”, ( 1<br />

3<br />

108<br />

, 1<br />

3<br />

1 , ) non è ESS ma NSS.<br />

3


x ∈ ∆ NSS ⇐⇒ x ha una barriera di invasione uniforme debole<br />

⇐⇒ x è localmente debolmente superiore<br />

Esempio 2.23 Ci sono giochi che non hanno NSS<br />

⎛<br />

1 1<br />

⎞<br />

0<br />

A = ⎝ 0 1 1 ⎠<br />

1 0 1<br />

Definizione 2.24 x ∈ ∆ è robusto (REE) contro i mutanti di equilibrio<br />

se qualunque y = x non è mai la miglior risposta a una popolazione mista<br />

y ∈ β ∗ [εy + (1 − ε)x]<br />

∆ ESS ⊂ ∆ REE ⊂ ∆ NE<br />

se x ∈ ∆ REE , allora x è proprio<br />

Esempio 2.25 “carta-sasso-forbice” ha equilibrio robusto:<br />

<br />

1 1 1<br />

, , ∈ REE<br />

3 3 3<br />

∈ NSS<br />

INSIEMI EVOLUTIVAMENTE STABILI<br />

Definizione 2.26 X ∈ ∆ NE è un insieme evolutivamente stabile (ES) se<br />

è un insieme chiuso e non vuoto e ∀ x ∈ X ∃ Ux (intorno di x) tale che<br />

u(x, y) ≥ u(y, y) ∀ y ∈ Ux ∩ β ∗ (x), con disuguaglianza stretta se y ∈ X.<br />

Nella Proposizione ?? dimostreremo che y ∈ β ∗ (x) è superfluo.<br />

X ES =⇒ X ⊂ ∆ NSS<br />

109


Esempio 2.27<br />

3<br />

.<br />

...........................................................................................................................................................................<br />

2 1<br />

. .<br />

∆NE<br />

è anche un ES set.<br />

∃ ESS<br />

Proposizione 2.28 X ⊂ ∆ ESS =⇒ X è ES set<br />

⎛<br />

⎜<br />

A= ⎜<br />

⎝<br />

0 2 0<br />

2 0 0<br />

1 1 0<br />

Ogni insieme ES è unione finita di insiemi disgiunti chiusi e connessi e ognuno<br />

di questi è ES.<br />

Non è detto che esistano insiemi ES, ma nei giochi doppiamente simmetrici<br />

sì.<br />

Insiemi robusti contro i mutanti di equilibrio cioè sono insiemi tali che i mutanti<br />

di equilibrio non possono condurre la popolazione fuori di essi.<br />

Definizione 2.29 X ⊂ ∆ è EES set se è minimale rispetto alla seguente<br />

proprietà:<br />

X è un sottoinsieme non vuoto e chiuso di ∆ NE ed ∃ ε ∈ (0, 1) tale che<br />

se x ∈ X, y ∈ ∆, ε ∈ (0, ε) e y ∈ β ∗ ((1 − ε)x + εy)<br />

(cioè y è un mutante miglior risposta alla popolazione mutata),<br />

allora (1 − εx) + εy ∈ X<br />

Esempio 2.30 In carta-sasso-forbice:<br />

<br />

1 1 1<br />

, ,<br />

3 3 3<br />

è NE<br />

non è ESS<br />

110<br />

è EES<br />

⎞<br />

⎟<br />


Ogni insieme EES è una componente connessa di ∆ NE .<br />

Ogni insieme ES contiene qualche EES e ogni insieme connesso ES è un<br />

EES.<br />

Definizione 2.31 x ∈ ∆ è:<br />

EFFICIENZA SOCIALE<br />

a) localmente strettamente efficiente se ∃ U : u(x, x) > u(y, y)<br />

∀ y = x in U.<br />

b) localmente debolmente efficiente se ∃ U : u(x, x) ≥ u(y, y)<br />

∀ y = x in U.<br />

c) globalmente efficiente se u(x, x) ≥ u(y, y)<br />

∀ y ∈ ∆.<br />

Esistono sempre strategie globalmente efficienti perché argmax in compatti.<br />

Nai giochi doppiamente simmetrici si ha:<br />

x ∈ ∆ NSS ⇐⇒ x è localmente debolmente efficiente<br />

x ∈ ∆ ESS ⇐⇒ x è localmente strettamente efficiente<br />

Definizione 2.32 Un insieme X ⊂ ∆ è localmente efficiente se è contenuto<br />

in qualche insieme U tale che:<br />

U = argmax u(x, x) = {x ∈ ∆ : u(x, x) ≥ u(y, y) ∀ y ∈ ∆ ∩ U}<br />

x ∈ ∆ ∩ U<br />

111


Ogni insieme localmente efficiente è un ES set ed ogni insieme ES X ⊂ ∆ è<br />

localmente efficiente.<br />

PREPLAY COMMUNICATION<br />

I payoff inefficienti possono essere evolutivamente instabili alla presenza di<br />

mutanti che comunicano.<br />

Per ogni gioco G possiamo definire il gioco GM (gioco cheap-talk associato a<br />

G)<br />

M = insieme finito di messaggi (µ, ν) ∈ M 2<br />

F = {f : M × M −→ K}<br />

cioè ad ogni coppia di messaggi (µ, ν) è associata una strategia pura di K<br />

h = f(µ, ν) ∈ K = insieme delle strategie pure di G.<br />

KM insieme delle strategie pure di GM.<br />

Il payoff di un giocatore che usa la strategia pura (µ, f) contro un oppositore<br />

che usa la strategia pura (ν, g) è:<br />

π payoff di G.<br />

estensione mista:<br />

πM[(µ, f), (ν, g)] = π[f(µ, ν), g(µ, ν)]<br />

uM(p, q) = <br />

(µ,f)∈KM<br />

<br />

<br />

i messaggi possono essere caratterisctiche fisiche.<br />

∀ x ∈ ∆ NE nel gioco G ∃ ˆx ∈ ∆ NE<br />

M nel gioco GM (caratterizzato dal fatto<br />

che le azioni sono le stesse dell’equilibrio in G ma tutti i messaggi sono dati<br />

con la stessa probabilità).<br />

Esercizio: L’equilibrio ESS di G non è più ESS in GM mentre l’equilibrio<br />

efficiente diventa ESS in GM.<br />

112


Esercizio: un risultato inefficiente che non è neppure un NE nel gioco G<br />

può diventare un ESS stabile in GM.<br />

Proposizione 2.33 Se la strategia p ∈ ∆M non usa tutti i messaggi, allora<br />

p sta in un insieme P ⊂ ES se e solo se è globalmente efficiente.<br />

Esempio 2.34 Se ci sono più di due NE stretti, allora un risultato inefficiente<br />

non è detto che diventi una ESS anche se non usa tutti i messaggi;<br />

può diventare semplicemente una NSS.<br />

COMPORTAMENTI CONDIZIONATI AL RUOLO<br />

Esempio 2.35 PROPRIETARIO-INTRUSO<br />

Ogni giocatore ha due ruoli: ruolo 1 e ruolo 2.<br />

Strategia: x = (x 1 , x 2 )<br />

(x 1 nella posizione 1, x 2 nella posizione 2).<br />

(esempio: (f, c) significa falco se proprietario, colomba se intruso).<br />

Dato un gioco base anche non simmetrico G (I, S, π) costruisce un gioco<br />

associato Γ simmetrico che tiene conto del ruolo.<br />

u ∗ (x, y) = 1<br />

<br />

u1(x<br />

2<br />

1 , y 2 ) + u2(y 1 , x 2 <br />

)<br />

Proposizione 2.36 Una strategia di comportamento x di Γ è ESS se e<br />

solo se x è un NE stretto di G.<br />

Esempio 2.37 FALCHI-COLOMBE con v = 2, c = 4.<br />

113


❍<br />

❍❍❍❍❍ II<br />

I<br />

F C<br />

F -1 -1 2 0<br />

C 0 2 1 1<br />

(C, F ), (F, C) NE stretti<br />

L’unico ESS in Γ corrisponde a (C, F ) e (F, C) in G.<br />

L’unica ESS di G (quella delle strategie miste) non è più ESS in Γ.<br />

Esempio 2.38 GIOCO DELLA DETERRENZA<br />

❍<br />

❍❍❍❍❍ II<br />

I<br />

L R<br />

T 2 2 0 0<br />

B 1 4 1 4<br />

NE stretto (T, L)<br />

intruso entra-proprietario cede<br />

Nel gioco Γ simmetrico questa è l’unica ESS.<br />

114


2.3 Dinamica del replicatore<br />

˙xi = [u(e i , x) − u(x, x)]xi<br />

xi(t)=percentuale di popolazione che al tempo t usa la strategia pura i.<br />

u(e i , x)=payoff medio di individui che usano la strategia i.<br />

u(x, x)=payoff medio di tutta la popolazione.<br />

(2.2)<br />

La dinamica del replicatore è invariante per cambiamenti di scala e giochi<br />

dummy.<br />

La (2.2) è un sistema di equazioni differenziali il cui secondo membro sono<br />

polinomi, quindi esiste una ed una sola soluzione per ogni punto iniziale.<br />

La solution mapping ξ : R × ∆ −→ ∆ è definita da:<br />

ξ(t, x0) = quel valora x(t) che corrisponde a x0 al variare di t<br />

(t ↦−→ ξ(t, x0) è l’orbita di x0).<br />

È interessante sapere che se x0 è interno, tutta l’orbita è interna (anche<br />

se si avvicina al bordo non arrva al bordo).<br />

Se x0 sta su una faccia, tutta l’orbita sta su quella faccia.<br />

Definizione 2.39 Un punto y ∈ ∆ è stazionario se ξ(t, y) = y ∀ t (cioè se<br />

l’orbita rimane lì.)<br />

Definizione 2.40 y ∈ ∆=simplesso è Liapunov stabile se ogni intorno B<br />

di y contiene un intorno B0 di y tale che x0 ∈ B0 =⇒ ξ(t, x0) ∈ B ∀ t.<br />

Intuitivamente: per ogni intorno esiste un intorno più piccolo tale che se<br />

parto dal più piccolo non esco comunque dal più grande.<br />

115


Definizione 2.41 Il bacino di attrazione di un insieme A è l’insieme dei<br />

punti x 0 tale che<br />

ξ(t, x 0 ) −→ A<br />

<br />

cioè<br />

dist(ξ(t, x<br />

t → ∞<br />

0 ), A) −→<br />

t → +∞<br />

<br />

0<br />

Definizione 2.42 A dicesi un attrattore se il bacino di attrazione non è<br />

vuoto ed è un intorno di A.<br />

Proposizione 2.43 Se x, y ∈ C e<br />

nario<br />

lim ξ(t, x) = y<br />

t → ∞<br />

, allora y è stazio-<br />

ATTRATTORE =⇒ LIAPUNOV STABILE =⇒ STAZIONARIO<br />

Esempio 2.44 dilemma del prigioniero ÷ hawk-dove<br />

Esempio 2.45 sasso-carta-forbice generalizzato<br />

N.B.: Nei giochi 2 × 2 il simplesso ∆ ha dimensione 1 (basta x1(t)...).<br />

Nei giochi 3 × 3 il simplesso ∆ ha dimensione 2.<br />

Teorema 2.46 Se una strategia pura i è iterativamente strettamente dominata,<br />

allora<br />

ξi(t, x 0 ) −→ 0 se t → +∞<br />

per ogni x 0 ∈ int(∆)<br />

cioè se sono presenti tutte le strategie pure quelle iterativamente strettamente<br />

dominate sono spazzate via.<br />

Esempio 2.47<br />

⎛<br />

⎜<br />

A= ⎜<br />

⎝<br />

3 1 6<br />

0 0 4<br />

1 2 5<br />

⎞<br />

⎟<br />

⎠<br />

116<br />

⎛<br />

⎜<br />

B= ⎜<br />

⎝<br />

3 0 1<br />

1 0 2<br />

6 4 5<br />

⎞<br />

⎟<br />


WEAK DOMINANCE<br />

Proposizione 2.48 Supponiamo che i sia una strategia debolmente dominata<br />

da una strategia y ∈ ∆.<br />

per ogni x 0 ∈ int(∆).<br />

Esempio 2.49 A =<br />

Se u(y, e j ) > u(e i , e j ), allora<br />

ξi(t, x 0 ) −→ 0 e/o ξj(t, x 0 ) −→ 0<br />

t → +∞ t → +∞<br />

Esempio 2.50 A = ⎝<br />

∆ NE =<br />

<br />

0 1<br />

0 0<br />

⎛<br />

<br />

.<br />

1 1 1<br />

1 1 0<br />

0 0 0<br />

⎞<br />

⎠.<br />

x ∈ ∆ : u(e i , x) = max u(z, x) ∀ i ∈ C(x)<br />

z ∈ ∆<br />

cioè se il NE è ( 1 1 F, C), allora u(F, x) = u(C, x) (quindi non è NE stretto).<br />

2 2<br />

x•<br />

. C<br />

F R<br />

(Attenzione, R guadagna di meno)<br />

117


∆ 0 =<br />

<br />

x ∈ ∆ : u(e i , x) = u(x, x) ∀ i ∈ C(x)<br />

insieme dei punti stazionari nella dinamica del replicatore (derivata =0).<br />

∆ NE ⊂ ∆ 0<br />

<br />

inoltre per i punti interni ∆ NE = ∆ 0<br />

per definizione ∆ 00 = ∆ 0 ∩ int(∆)<br />

Proposizione 2.51 {e 1 , . . . , e k } ∪ ∆ NE ⊂ ∆ 0<br />

∆ 00 = ∆ NE ∩ int(∆)<br />

∆ 00 convesso<br />

LYAPUNOV STABILI<br />

Proposizione 2.52 Se x ∈ ∆ è Lyapunov stabile nella dinamica del replicatore,<br />

allora x ∈ ∆ NE .<br />

Il viceversa non è vero: si veda esempio SASSO-CARTA-FORBICE generalizzato.<br />

Proposizione 2.53<br />

Se x 0 ∈ int(A) e ξ(t, x 0 ) −→ x allora x ∈ ∆ NE<br />

t → +∞<br />

⎛<br />

Esempio 2.54 A = ⎝<br />

0 1 0<br />

0 0 2<br />

0 0 1<br />

⎞<br />

⎠.<br />

La strategia pura x = e 1 è punto limite di tutte le traiettorie interne, è NE<br />

ma non Lyapunov stabile (perché comunque prenda un intorno “piccolo” vi<br />

sono traiettorie che da quell’intorno vanno comunque lontano).<br />

118


MEDIE TEMPORALI E ∆ NE<br />

Definiamo la media temporale ξ(T, x 0 ) ∈ ∆ come<br />

ξ i(T, x 0 ) = 1<br />

T<br />

K=insieme delle strategie pure.<br />

T<br />

t=0<br />

ξi(t, x 0 ) dt ∀ i ∈ K<br />

Proposizione 2.55 Sia ∆ NE ∩ int(∆) = {x}, x 0 ∈ int(∆).<br />

γ + (x 0 ) ⊂ int(∆)<br />

(orbita in avanti, cioè per i tempi positivi).<br />

Allora<br />

lim ξ(T, x 0 ) = x<br />

T → ∞<br />

Esempio 2.56 SASSO-CARTA-FORBICE<br />

Proposizione 2.57 Supponiamo che ∆ NE ∩ int(∆) = ∅. Allora<br />

dove bd(∆) = ∂(∆).<br />

Concludendo:<br />

ξ(t, x 0 ) −→ bd(∆) ∀ x 0 ∈ ∆<br />

t → +∞<br />

Proposizione 2.58 Se esiste z ∈ int(∆) tale che u(z, y) > u(y, y) ∀ y ∈<br />

∆ 0 ∩ ∂(∆), allora la dinamica del replicatore è permanente (cioè nessuna<br />

strategia pura sparisce).<br />

Se la dinamica è permanente, c’è allora un unico NE e vale la Proposizione<br />

2.55 (cioè la media temporale ξ(T, x 0 ) converge).<br />

119


Proposizione 2.59 Se x ∈ ∆ è asintoticamente stabile in (2.2), allora<br />

(x, x) ∈ θ NE è perfetto e isolato.<br />

(θ NE = eq. di NE simmetrico in strategie miste)<br />

Non vale il viceversa (esempio: SASSO-CARTA-FORBICE).<br />

INSIEMI E STRATEGIE EVOLUTIVAMENTE E NEUTRALMENTE STABILI<br />

Proposizione 2.60 Ogni x ∈ ∆ ESS è asintoticamente stabile nella dinamica<br />

del replicatore.<br />

Per la dimostrazione si veda la funzione ENTROPIA relativa, a pagina 96.<br />

Proposizione 2.61 Se x ∈ int(∆) ∩ ∆ ESS , allora<br />

ξ(t, x 0 ) −→ x ∀ x 0 ∈ int(∆)<br />

t → +∞<br />

Esempio 2.62 SASSO-CARTA-FORBICE<br />

⎛<br />

CONTROESEMPIO: A = ⎝<br />

1 5 0<br />

0 1 5<br />

5 0 4<br />

x = ( 3 8 7<br />

, , ) è asintoticamente stabile (cioè attrattore della dinamica)<br />

18 18 18<br />

x ∈ ∆ ESS<br />

⎞<br />

⎠.<br />

x ∈ ∆ NSS<br />

Proposizione 2.63 Ogni x ∈ ∆ NSS è Lyapunov stabile nella dinamica del<br />

replicatore.<br />

120


GIOCHI DOPPIAMENTE SIMMETRICI<br />

Nei giochi simmetrici non sempre il payoff medio della popolazione aumenta<br />

lungo le traiettorie (si veda falco-colomba), però aumenta se il gioco è doppiamente<br />

simmetrico.<br />

Teorema 2.64 (teorema fondamentale della selezione naturale) Per<br />

ogni gioco doppiamente simmetrico si ha:<br />

<br />

a1 0<br />

Esempio 2.65 A =<br />

0 a2<br />

˙u(x, x) ≥ 0<br />

e ˙u(x, x) = 0 ⇐⇒ x ∈ ∆ 0<br />

<br />

.<br />

gioco doppiamente simmetrico<br />

equivalente al gioco falco-colomba + gioco dummy.<br />

(si confronti l’Osservazione 2.17)<br />

Qui il payoff aumenta (mentre in falco-colomba no); quindi il gioco dummy<br />

non è poi così dummy.<br />

Proposizione 2.66 Per ogni gioco doppiamente simmetrico sono fatti equivalenti:<br />

a) x ∈ ∆ ESS .<br />

b) x ∈ ∆ è localmente strettamente efficiente.<br />

c) x ∈ ∆ è asintoticamente stabile nella dinamica del replicatore.<br />

121


CONVERGENZA DELLE TRAIETTORIE<br />

Definizione 2.67 A matrice dei payoff è simmetrizzabile se può essere trasformata<br />

in una matrice simmetrica da un numero finito di trasformazioni<br />

affini dei payoff e di aggiunte di giochi DUMMY.<br />

Osservazione 2.68 Tutte le matrici 2 × 2 sono simmetrizzabili.<br />

Proposizione 2.69 Ogni traiettoria della DR di un gioco a 2 giocatori con<br />

matrice payoff simmetrizzabile converge a qualche punto x ∈ ∆ 0 .<br />

APPENDICE (pag. 119):<br />

Nella DR le traiettorie sono uniche (dato il punto iniziale).<br />

Inoltre se partono dall’interno rimangono all’interno e se partono da una<br />

faccia rimangono nella faccia.<br />

122

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!