Universidad Politécnica de Cartagena TESIS DOCTORAL “UNA ...
Universidad Politécnica de Cartagena TESIS DOCTORAL “UNA ... Universidad Politécnica de Cartagena TESIS DOCTORAL “UNA ...
Capitulo 5. Modelo Neuronal para el aprendizaje progresivo de tareas de Agarre regularización es equivalente a una solución en términos de una cierta clase de funciones, denominadas funciones de Green o funciones de base, N ( ) ( ; ) f x = ∑ c G x ξ (5.7) i= 1 223 i i donde G(x) es una de esas funciones de base y los coeficientes ci satisfacen un sistema de ecuaciones lineales que dependen de los N ejemplos, es decir, de los datos que deben aproximarse. Bajo condiciones bastante generales se puede asumir que las funciones de base son radiales por lo que (5.7) puede reescribirse como, N 2 ( ) = i ( − i ) f x ∑ c G x ξ (5.8) i= 1 que es una combinación lineal de funciones de base radiales (neuronas en la capa oculta con función de activación equivalente a una función de base radial con centro en ξi ), cada una de ellas con su centro ξi coincidiendo con un punto de ejemplo. El número de funciones de base radial y de centros es igual al número de ejemplos. La red neuronal asociada a la ecuación (5.8) puede hacerse más general en los términos de la siguiente ecuación, n 2 ( ) = α ( − α W ) ∑ (5.9) * f x c G x t α = 1 donde los parámetros tα (a los que llamaremos ‘centros’) y los coeficientes cα son desconocidos y en general el número n de neuronas de la capa oculta (funciones de base radial) es en general mucho menor que el número total de ejemplos ( n ≤ N ). La norma en este caso es una norma ponderada, ( ) ( ) 2 T T α W α α x − t = x − t W W x − t (5.10) donde W es una matriz cuadrada desconocida y el superíndice T indica transposición. El caso más simple es en el que W es una matriz diagonal, en cuyo caso, los elementos de la diagonal wi asignan un peso específico a cada coordenada del vector de entrada x, especificando la importancia y unidades de medida de cada elemento asociado al vector de entrada (la matriz W es muy importante cuando el vector de entrada está compuesto por elementos de distinta naturaleza y su importancia relativa sobre la salida es desconocida). La ecuación (5.9) puede implementarse mediante la red neuronal de la Figura 5.5.
Capitulo 5. Modelo Neuronal para el aprendizaje progresivo de tareas de Agarre Aprendizaje . . . x . . . Figura 5.5. Red Neuronal HYPBF genérica. Detalles en texto. Se pueden emplear métodos iterativos a la hora de encontrar los valores óptimos de los parámetros cα, tα y wi que minimizan un funcional del error cometido sobre la estimación de los valores de salida de los ejemplos. El método de descenso por el gradiente es una aproximación estándar que requiere el cálculo de derivadas. Definimos el error como el funcional, N * H ⎡ ⎣ f ⎤ ⎦ = Hc , t, W = ∑ ∆i i= 1 224 ( ) 2 c W n 2 ( ) ∑ α ( α ) ∆ ≡ y − f x = y − c G x − t * i i i α = 1 W t (5.11) Con estas definiciones, la evolución de los parámetros de la red durante el aprendizaje viene descrita por el sistema de ecuaciones.
- Page 175 and 176: Capitulo 4. Modelo Neuronal para la
- Page 177 and 178: Capitulo 4. Modelo Neuronal para la
- Page 179 and 180: Capitulo 4. Modelo Neuronal para la
- Page 181 and 182: Capitulo 4. Modelo Neuronal para la
- Page 183 and 184: Capitulo 4. Modelo Neuronal para la
- Page 185 and 186: Capitulo 4. Modelo Neuronal para la
- Page 187 and 188: Capitulo 4. Modelo Neuronal para la
- Page 189 and 190: Capitulo 4. Modelo Neuronal para la
- Page 191 and 192: Capitulo 4. Modelo Neuronal para la
- Page 193 and 194: Capitulo 4. Modelo Neuronal para la
- Page 195 and 196: Capitulo 4. Modelo Neuronal para la
- Page 197 and 198: Capitulo 4. Modelo Neuronal para la
- Page 199 and 200: Capitulo 4. Modelo Neuronal para la
- Page 201 and 202: Capitulo 4. Modelo Neuronal para la
- Page 203 and 204: Capitulo 4. Modelo Neuronal para la
- Page 205 and 206: Capitulo 4. Modelo Neuronal para la
- Page 207 and 208: Capitulo 4. Modelo Neuronal para la
- Page 209 and 210: Capitulo 4. Modelo Neuronal para la
- Page 211 and 212: Capitulo 5. Modelo Neuronal para el
- Page 213 and 214: Capitulo 5. Modelo Neuronal para el
- Page 215 and 216: Capitulo 5. Modelo Neuronal para el
- Page 217 and 218: Capitulo 5. Modelo Neuronal para el
- Page 219 and 220: Capitulo 5. Modelo Neuronal para el
- Page 221 and 222: Capitulo 5. Modelo Neuronal para el
- Page 223 and 224: Capitulo 5. Modelo Neuronal para el
- Page 225: Capitulo 5. Modelo Neuronal para el
- Page 229 and 230: Capitulo 5. Modelo Neuronal para el
- Page 231 and 232: Capitulo 5. Modelo Neuronal para el
- Page 233 and 234: Capitulo 5. Modelo Neuronal para el
- Page 235 and 236: Capitulo 5. Modelo Neuronal para el
- Page 237 and 238: Capitulo 5. Modelo Neuronal para el
- Page 239 and 240: Capitulo 5. Modelo Neuronal para el
- Page 241 and 242: Capitulo 5. Modelo Neuronal para el
- Page 243 and 244: Capitulo 5. Modelo Neuronal para el
- Page 245 and 246: Capitulo 5. Modelo Neuronal para el
- Page 247 and 248: Capitulo 5. Modelo Neuronal para el
- Page 249 and 250: 2.5 cm 3.0 cm 3.5 cm 2 cm Capitulo
- Page 251 and 252: Capitulo 5. Modelo Neuronal para el
- Page 253 and 254: Capitulo 5. Modelo Neuronal para el
- Page 255 and 256: Capitulo 5. Modelo Neuronal para el
- Page 257 and 258: Capitulo 5. Modelo Neuronal para el
- Page 259 and 260: Capitulo 5. Modelo Neuronal para el
- Page 261 and 262: Capitulo 5. Modelo Neuronal para el
- Page 263 and 264: Capitulo 5. Modelo Neuronal para el
- Page 265 and 266: R1 HYPBF # 1 HYPBF # 2 R2 AIP VD Mu
- Page 267 and 268: Capitulo 5. Modelo Neuronal para el
- Page 269 and 270: Capitulo 6. Implantación de algori
- Page 271 and 272: Capitulo 6. Implantación de algori
- Page 273 and 274: Capitulo 6. Implantación de algori
- Page 275 and 276: Capitulo 6. Implantación de algori
Capitulo 5. Mo<strong>de</strong>lo Neuronal para el aprendizaje progresivo <strong>de</strong> tareas <strong>de</strong> Agarre<br />
regularización es equivalente a una solución en términos <strong>de</strong> una cierta clase <strong>de</strong><br />
funciones, <strong>de</strong>nominadas funciones <strong>de</strong> Green o funciones <strong>de</strong> base,<br />
N<br />
( ) ( ; )<br />
f x = ∑ c G x ξ<br />
(5.7)<br />
i=<br />
1<br />
223<br />
i i<br />
don<strong>de</strong> G(x) es una <strong>de</strong> esas funciones <strong>de</strong> base y los coeficientes ci satisfacen un sistema <strong>de</strong><br />
ecuaciones lineales que <strong>de</strong>pen<strong>de</strong>n <strong>de</strong> los N ejemplos, es <strong>de</strong>cir, <strong>de</strong> los datos que <strong>de</strong>ben<br />
aproximarse. Bajo condiciones bastante generales se pue<strong>de</strong> asumir que las funciones <strong>de</strong><br />
base son radiales por lo que (5.7) pue<strong>de</strong> reescribirse como,<br />
N<br />
2<br />
( ) = i ( − i )<br />
f x ∑ c G x ξ<br />
(5.8)<br />
i=<br />
1<br />
que es una combinación lineal <strong>de</strong> funciones <strong>de</strong> base radiales (neuronas en la capa oculta<br />
con función <strong>de</strong> activación equivalente a una función <strong>de</strong> base radial con centro en ξi ),<br />
cada una <strong>de</strong> ellas con su centro ξi coincidiendo con un punto <strong>de</strong> ejemplo. El número <strong>de</strong><br />
funciones <strong>de</strong> base radial y <strong>de</strong> centros es igual al número <strong>de</strong> ejemplos.<br />
La red neuronal asociada a la ecuación (5.8) pue<strong>de</strong> hacerse más general en los términos<br />
<strong>de</strong> la siguiente ecuación,<br />
n<br />
2<br />
( ) = α ( − α W )<br />
∑ (5.9)<br />
*<br />
f x c G x t<br />
α = 1<br />
don<strong>de</strong> los parámetros tα (a los que llamaremos ‘centros’) y los coeficientes cα son<br />
<strong>de</strong>sconocidos y en general el número n <strong>de</strong> neuronas <strong>de</strong> la capa oculta (funciones <strong>de</strong> base<br />
radial) es en general mucho menor que el número total <strong>de</strong> ejemplos ( n ≤ N ). La norma<br />
en este caso es una norma pon<strong>de</strong>rada,<br />
( ) ( )<br />
2 T T<br />
α W<br />
α α<br />
x − t = x − t W W x − t<br />
(5.10)<br />
don<strong>de</strong> W es una matriz cuadrada <strong>de</strong>sconocida y el superíndice T indica transposición.<br />
El caso más simple es en el que W es una matriz diagonal, en cuyo caso, los elementos<br />
<strong>de</strong> la diagonal wi asignan un peso específico a cada coor<strong>de</strong>nada <strong>de</strong>l vector <strong>de</strong> entrada x,<br />
especificando la importancia y unida<strong>de</strong>s <strong>de</strong> medida <strong>de</strong> cada elemento asociado al<br />
vector <strong>de</strong> entrada (la matriz W es muy importante cuando el vector <strong>de</strong> entrada está<br />
compuesto por elementos <strong>de</strong> distinta naturaleza y su importancia relativa sobre la<br />
salida es <strong>de</strong>sconocida). La ecuación (5.9) pue<strong>de</strong> implementarse mediante la red<br />
neuronal <strong>de</strong> la Figura 5.5.