29.05.2013 Views

Regola di Hebb

Regola di Hebb

Regola di Hebb

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Tesina per il corso <strong>di</strong> Neuroscienze. - Ph.D. Scienze Cognitive. 6<br />

mo<strong>di</strong>ficazione<br />

efficacia<br />

sinaptica<br />

ampiezza<br />

intervallo tra<br />

stimolo presinaptico<br />

e stimolo postsinaptico<br />

Fig. 3: Relazione tra ampiezza dell’intervallo tra gli stimoli pre e postsinaptici e<br />

l’aggiornamento dell’efficacia sinaptica prodotto dal LTP.<br />

Bi e Poo [8] hanno osservato che la variazione dell’efficacia sinaptica è<br />

influenzata anche dalla <strong>di</strong>stanza temporale tra gli spike. I due autori hanno<br />

prodotto dei test in cui dei neuroni dell’ippocampo messi in coltura venivano<br />

forzati ad avere degli spike in tempi determinati. Da questi esperimenti è<br />

emersa una funzione che lega ∆wij/wij e t f<br />

j − tf<br />

i<br />

, del tipo rappresentato<br />

nel grafico in figura 3. Si può osservare agevolmente che quando la cellula<br />

presinaptica (j) si attiva prima della cellula postsinaptica (i) l’efficacia<br />

sinaptica cresce (e lo fa in maniera esponenziale col decrescere dell’intervallo<br />

tra gli stimoli). Se, al contrario, la cellula j viene attivata successivamente a<br />

i il legame sinaptico perde forza, in quanto lo spike su j non è stato indotto<br />

da i.<br />

5 Algoritmi biologicamente plausibili<br />

Un primo esempio <strong>di</strong> algoritmo <strong>di</strong> learning che coniuga plausibilità biologica<br />

ed efficacia in contesti <strong>di</strong> separabilità non lineare è quello fornito da Mazzoni,<br />

Andersen e Jordan [9]. Nel loro modello teorico questi autori hanno<br />

introdotto un valore <strong>di</strong> rinforzo sul comportamento del sistema (rinforzo<br />

che è ben lungi dall’essere un in<strong>di</strong>catore dell’errore in output, come avviene<br />

nell’appren<strong>di</strong>mento supervisionato) che va a colpire tutti i neuroni presenti<br />

nell’architettura.<br />

L’aggiornamento del peso sinaptico viene eseguito massimizzando il rinforzo<br />

sul set <strong>di</strong> addestramento seguendo lo schema seguente:<br />

∆wij = r(xi − pi)xj + xj + λ(1 − r)(1 − xi − pi)xi<br />

dove pi è la probabilità (questa identifica quin<strong>di</strong> la presenza <strong>di</strong> un elemento<br />

<strong>di</strong> randomizzazione nel learning) che il neurone xi presenti uno spike e r è<br />

lo scalare <strong>di</strong> rinforzo compreso tra 0 (errore nell’output) e 1 (performance<br />

perfetta).<br />

I risultati sperimentali hanno messo in luce che questo algoritmo, privo<br />

<strong>di</strong> retropropagazione dell’errore (e del concetto <strong>di</strong> errore stesso!) e privo <strong>di</strong>

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!