Regola di Hebb
Regola di Hebb
Regola di Hebb
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Tesina per il corso <strong>di</strong> Neuroscienze. - Ph.D. Scienze Cognitive. 2<br />
simulazione informatica.<br />
Questa enorme ricchezza delle componenti elettrochimiche è stata negata<br />
nel modello simulativo artificiale ed il risultato è stato una scarsa capacità<br />
adattiva e plastica del neurone preso come unità in<strong>di</strong>pendente [1]. Ne<br />
è emersa la necessità <strong>di</strong> escogitare efficienti algoritmi adattivi per reti <strong>di</strong><br />
neuroni. La soluzione più brillante adottata dagli informatici a questo fine<br />
è stata l’idea della retropropagazione dell’errore [2]. Questa tecnica ha<br />
permesso la regolazione dei pesi sinaptici in modo molto semplice, prendendo<br />
<strong>di</strong>rettamente spunto dall’architettura della rete neuronale.<br />
L’algoritmo <strong>di</strong> BackPropagation, oltre a fornire un sensibile incremento<br />
delle capacità <strong>di</strong> appren<strong>di</strong>mento delle ANN, ha però anche accentuato le<br />
<strong>di</strong>stanze tra i modelli neurali biologici e artificiali, decretando una netta separazione<br />
delle due <strong>di</strong>scipline: l’appren<strong>di</strong>mento in BackPropagation su reti<br />
multistrato alimentate in avanti rappresenta uno straor<strong>di</strong>nario strumento<br />
matematico-statistico <strong>di</strong> approssimazione e ottimazione in sistemi non lineari,<br />
ma un abissale salto in <strong>di</strong>etro nel tentativo <strong>di</strong> riprodurre l’attività<br />
intelligente del cervello umano.<br />
Vi sono stati tentativi <strong>di</strong> produrre algoritmi <strong>di</strong> learning biologicamente<br />
plausibili. Il problema con cui si sono regolarmente imbattuti è stato quello<br />
<strong>di</strong> permettere l’addestramento anche in presenza <strong>di</strong> funzioni non linearmente<br />
separabili.<br />
Ultimamente sono emersi alcuni esempi in cui questo problema sembrerebbe<br />
superato. Quasi tutte queste ipotesi fanno capo ad un’unica regola <strong>di</strong><br />
modulazione adattiva della risposta sinaptica: la “regola <strong>di</strong> <strong>Hebb</strong>”. Vale la<br />
pena soffermarsi su questa, prima <strong>di</strong> accennare alle sue evoluzioni più recenti,<br />
e <strong>di</strong> osservare le evidenze sperimentali che ne <strong>di</strong>mostrano la plausibilità<br />
biologica.<br />
2 Descrizione della “<strong>Regola</strong> <strong>di</strong> <strong>Hebb</strong>”<br />
Questa regola rappresenta un modello ”ponte” tra appren<strong>di</strong>mento biologico e<br />
artificiale. Essa riesce a descrivere la capacità adattiva delle unità neuronali<br />
in contesti <strong>di</strong> appren<strong>di</strong>mento associativo.<br />
La sua formulazione originale, del 1949, è fornita dalla seguente postulazione<br />
(meramente teorica) <strong>di</strong> Donald <strong>Hebb</strong> [3]: quando un assone della<br />
cellula A (la cellula presinaptica) prende parte ripetitivamente nel processo<br />
modo da ridurre l’errore del sistema rispetto ai valori target, nel secondo caso invece non<br />
vi è nessuna label associata agli esempi e il sistema cerca autonomamente <strong>di</strong> scovare delle<br />
similitu<strong>di</strong>ni tra i pattern in modo da poterli organizzare in classi. Vi è un terzo modello,<br />
interme<strong>di</strong>o, in cui gli esempi sono privi <strong>di</strong> valori attribuiti a priori (in modo analogo<br />
all’appren<strong>di</strong>mento non-supervisionato) e in cui il concetto <strong>di</strong> errore è stato sostituito da<br />
un valore <strong>di</strong> rinforzo che segnala il comportamento positivo o negativo rispetto al pattern<br />
osservato. Il learning per rinforzo è sicuramente quello che più ricorda gli schemi <strong>di</strong><br />
appren<strong>di</strong>mento umani.