Universidad Politécnica de Cartagena TESIS DOCTORAL “UNA ...

Universidad Politécnica de Cartagena TESIS DOCTORAL “UNA ... Universidad Politécnica de Cartagena TESIS DOCTORAL “UNA ...

repositorio.bib.upct.es
from repositorio.bib.upct.es More from this publisher
24.01.2013 Views

Capitulo 5. Modelo Neuronal para el aprendizaje progresivo de tareas de Agarre regularización es equivalente a una solución en términos de una cierta clase de funciones, denominadas funciones de Green o funciones de base, N ( ) ( ; ) f x = ∑ c G x ξ (5.7) i= 1 223 i i donde G(x) es una de esas funciones de base y los coeficientes ci satisfacen un sistema de ecuaciones lineales que dependen de los N ejemplos, es decir, de los datos que deben aproximarse. Bajo condiciones bastante generales se puede asumir que las funciones de base son radiales por lo que (5.7) puede reescribirse como, N 2 ( ) = i ( − i ) f x ∑ c G x ξ (5.8) i= 1 que es una combinación lineal de funciones de base radiales (neuronas en la capa oculta con función de activación equivalente a una función de base radial con centro en ξi ), cada una de ellas con su centro ξi coincidiendo con un punto de ejemplo. El número de funciones de base radial y de centros es igual al número de ejemplos. La red neuronal asociada a la ecuación (5.8) puede hacerse más general en los términos de la siguiente ecuación, n 2 ( ) = α ( − α W ) ∑ (5.9) * f x c G x t α = 1 donde los parámetros tα (a los que llamaremos ‘centros’) y los coeficientes cα son desconocidos y en general el número n de neuronas de la capa oculta (funciones de base radial) es en general mucho menor que el número total de ejemplos ( n ≤ N ). La norma en este caso es una norma ponderada, ( ) ( ) 2 T T α W α α x − t = x − t W W x − t (5.10) donde W es una matriz cuadrada desconocida y el superíndice T indica transposición. El caso más simple es en el que W es una matriz diagonal, en cuyo caso, los elementos de la diagonal wi asignan un peso específico a cada coordenada del vector de entrada x, especificando la importancia y unidades de medida de cada elemento asociado al vector de entrada (la matriz W es muy importante cuando el vector de entrada está compuesto por elementos de distinta naturaleza y su importancia relativa sobre la salida es desconocida). La ecuación (5.9) puede implementarse mediante la red neuronal de la Figura 5.5.

Capitulo 5. Modelo Neuronal para el aprendizaje progresivo de tareas de Agarre Aprendizaje . . . x . . . Figura 5.5. Red Neuronal HYPBF genérica. Detalles en texto. Se pueden emplear métodos iterativos a la hora de encontrar los valores óptimos de los parámetros cα, tα y wi que minimizan un funcional del error cometido sobre la estimación de los valores de salida de los ejemplos. El método de descenso por el gradiente es una aproximación estándar que requiere el cálculo de derivadas. Definimos el error como el funcional, N * H ⎡ ⎣ f ⎤ ⎦ = Hc , t, W = ∑ ∆i i= 1 224 ( ) 2 c W n 2 ( ) ∑ α ( α ) ∆ ≡ y − f x = y − c G x − t * i i i α = 1 W t (5.11) Con estas definiciones, la evolución de los parámetros de la red durante el aprendizaje viene descrita por el sistema de ecuaciones.

Capitulo 5. Mo<strong>de</strong>lo Neuronal para el aprendizaje progresivo <strong>de</strong> tareas <strong>de</strong> Agarre<br />

regularización es equivalente a una solución en términos <strong>de</strong> una cierta clase <strong>de</strong><br />

funciones, <strong>de</strong>nominadas funciones <strong>de</strong> Green o funciones <strong>de</strong> base,<br />

N<br />

( ) ( ; )<br />

f x = ∑ c G x ξ<br />

(5.7)<br />

i=<br />

1<br />

223<br />

i i<br />

don<strong>de</strong> G(x) es una <strong>de</strong> esas funciones <strong>de</strong> base y los coeficientes ci satisfacen un sistema <strong>de</strong><br />

ecuaciones lineales que <strong>de</strong>pen<strong>de</strong>n <strong>de</strong> los N ejemplos, es <strong>de</strong>cir, <strong>de</strong> los datos que <strong>de</strong>ben<br />

aproximarse. Bajo condiciones bastante generales se pue<strong>de</strong> asumir que las funciones <strong>de</strong><br />

base son radiales por lo que (5.7) pue<strong>de</strong> reescribirse como,<br />

N<br />

2<br />

( ) = i ( − i )<br />

f x ∑ c G x ξ<br />

(5.8)<br />

i=<br />

1<br />

que es una combinación lineal <strong>de</strong> funciones <strong>de</strong> base radiales (neuronas en la capa oculta<br />

con función <strong>de</strong> activación equivalente a una función <strong>de</strong> base radial con centro en ξi ),<br />

cada una <strong>de</strong> ellas con su centro ξi coincidiendo con un punto <strong>de</strong> ejemplo. El número <strong>de</strong><br />

funciones <strong>de</strong> base radial y <strong>de</strong> centros es igual al número <strong>de</strong> ejemplos.<br />

La red neuronal asociada a la ecuación (5.8) pue<strong>de</strong> hacerse más general en los términos<br />

<strong>de</strong> la siguiente ecuación,<br />

n<br />

2<br />

( ) = α ( − α W )<br />

∑ (5.9)<br />

*<br />

f x c G x t<br />

α = 1<br />

don<strong>de</strong> los parámetros tα (a los que llamaremos ‘centros’) y los coeficientes cα son<br />

<strong>de</strong>sconocidos y en general el número n <strong>de</strong> neuronas <strong>de</strong> la capa oculta (funciones <strong>de</strong> base<br />

radial) es en general mucho menor que el número total <strong>de</strong> ejemplos ( n ≤ N ). La norma<br />

en este caso es una norma pon<strong>de</strong>rada,<br />

( ) ( )<br />

2 T T<br />

α W<br />

α α<br />

x − t = x − t W W x − t<br />

(5.10)<br />

don<strong>de</strong> W es una matriz cuadrada <strong>de</strong>sconocida y el superíndice T indica transposición.<br />

El caso más simple es en el que W es una matriz diagonal, en cuyo caso, los elementos<br />

<strong>de</strong> la diagonal wi asignan un peso específico a cada coor<strong>de</strong>nada <strong>de</strong>l vector <strong>de</strong> entrada x,<br />

especificando la importancia y unida<strong>de</strong>s <strong>de</strong> medida <strong>de</strong> cada elemento asociado al<br />

vector <strong>de</strong> entrada (la matriz W es muy importante cuando el vector <strong>de</strong> entrada está<br />

compuesto por elementos <strong>de</strong> distinta naturaleza y su importancia relativa sobre la<br />

salida es <strong>de</strong>sconocida). La ecuación (5.9) pue<strong>de</strong> implementarse mediante la red<br />

neuronal <strong>de</strong> la Figura 5.5.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!