Universidad Politécnica de Cartagena TESIS DOCTORAL “UNA ...
Universidad Politécnica de Cartagena TESIS DOCTORAL “UNA ... Universidad Politécnica de Cartagena TESIS DOCTORAL “UNA ...
Capitulo 5. Modelo Neuronal para el aprendizaje progresivo de tareas de Agarre del robot con el entorno y el guiado del algoritmo de aprendizaje. Nos centraremos en 3 etapas de aprendizaje distintas i) Aprendizaje del efecto visual causado por un comando motor en el brazo; ii) Aprendizaje del efecto visual causado por comandos motores sobre la mano; y iii) Aprendizaje de posturas de agarre asociadas a distintos objetos. La adquisición del sistema de una capacidad flexible de planificar y adaptarse a situaciones novedosas se obtiene a través del aprendizaje sucesivo de estas etapas. d) El artefacto robótico. Las tres etapas descritas en el apartado anterior serán simuladas en este capítulo y posteriormente será implementada en una plataforma robótica real (estos resultados se describirán con detalle en el capítulo 6). A la hora de aplicar de manera exitosa novedosos principios biológicos de organización del movimiento es necesario poseer un elevado grado de antropomorfismo en la plataforma robótica. La implementación se ha llevado a cabo sobre la plataforma NEUROCOR constituida por el cabezal LINCE , la mano CERVANTES (una mano mecatrónica que en su actuación mimetiza la acción muscular humana por medio de motores eléctricos y novísimos actuadores de fuerza oponentes), y un brazo robótico ABB IRB 1400. 3.1 Módulo básico. Red Neuronal HYPBF Parece claro que el cerebro emplea multitud de módulos corticales para llevar acabo transformaciones sensomotrices y es un punto clave de la neurociencia tanto teórica como experimental determinar los principios computacionales que rigen esta arquitectura modular. Quizás una de las observaciones más remarcables que se han realizado sobre este tema es la de que aparentemente tres acciones distintas tales como la computación, aprendizaje y memorización de este tipo de transformaciones pueden llevarse a cabo bajo un mismo substrato neuronal (Pouget y Snynder, 2000). Este substrato neuronal se corresponde a redes cuyas neuronas tienen curvas de respuesta ante señales posturales y visuales que son acampanadas o sigmoidales. La idea clave es que este tipo de neuronas proporcionan lo que en Teoría de la Regularización (Tikhonov y Arsenin, 1977) se denomina una serie de funciones de base (BF) que posteriormente permiten el cálculo y aprendizaje de cualquier mapeado no lineal y multivariable mediante una simple combinación lineal de dichas funciones de base. La hipótesis básica de nuestro esquema de trabajo en este capítulo es que el cerebro y más concretamente el córtex cerebral emplea módulos para la aproximación de funciones multivariables como componentes básicos de sus subsistemas de procesamiento de la información. Estos módulos ese asemejan a redes de 221
Capitulo 5. Modelo Neuronal para el aprendizaje progresivo de tareas de Agarre regularización HYPBF (redes neuronales de funciones básicas hiperplanas) (Poggio y Girosi, 1989), redes que pueden ser implementadas a través de mecanismos y circuitos biológicamente plausibles. Estas redes representan una extensión y generalización de las tablas de datos. Cómo sintetizar a través del aprendizaje los módulos básicos de aproximación. Redes de regularización En este apartado se describe la técnica para sintetizar los módulos de aproximación multivariable nombrados anteriormente a través del aprendizaje mediante ejemplos. El punto de partida de la argumentación consiste en la reformulación del problema del aprendizaje por ejemplos en un problema de aproximación (Poggio y Girosi, 1989, 1990a, 1990b). Para ilustrar esta conexión entre el aprendizaje de un mapa entrada – salida y un problema de aproximación tomemos el ejemplo de la reconstrucción de una superficie 2D a partir de una serie de puntos dispersos pertenecientes a esa superficie. Aprender, implica en este problema, la recolección de una serie de ejemplos formados por los pares de coordenadas xi, yi y los valores de la superficie di correspondientes a dichas coordenadas. Generalizar, significa en este problema, el estimar los valores de d en puntos x, y que no se corresponden a ningún ejemplo empleado en el aprendizaje. Este proceso requiere aproximar la superficie (la función) entre los datos de ejemplo. En este sentido, el aprendizaje consiste en un problema de reconstrucción de hipersuperficies (Poggio y Girosi, 1989, Omohundro, 1987). Desde este punto de vista, el aprendizaje de un mapeado suave a través de ejemplos es un problema matemático claramente mal condicionado, ya que la información contenida en los ejemplos no permite una reconstrucción unívoca del mapa en puntos donde no existen datos de aprendizaje. Además los datos de los ejemplos contienen, por lo general, ruido. Para poder convertir este problema en un problema bien condicionado es necesario hacer algunas suposiciones a priori sobre el mapeado. Una de las suposiciones más simples y generalistas que se pueden adoptar es la de que ese mapeado es suave, es decir, pequeños cambios en las entradas provocan pequeñas variaciones en los valores de las salidas. Las técnicas matemáticas que explotan restricciones de suavidad a la hora de transformar problemas mal condicionados en problemas bien condicionados se conocen bajo el epígrafe de teoría de la regularización (Tikhonov y Arsenin, 1977, Poggio y col 1985). Poggio y colaboradores (Poggio y Girosi, 1989) han demostrado que la solución a un problema de aproximación de funciones multivariables que ofrece la teoría de la regularización se puede expresar en términos de un tipo de redes neuronales multicapa denominadas redes de regularización o HYPBF. El resultado principal de estos autores es que la solución que da la teoría de la 222
- Page 173 and 174: Capitulo 4. Modelo Neuronal para la
- Page 175 and 176: Capitulo 4. Modelo Neuronal para la
- Page 177 and 178: Capitulo 4. Modelo Neuronal para la
- Page 179 and 180: Capitulo 4. Modelo Neuronal para la
- Page 181 and 182: Capitulo 4. Modelo Neuronal para la
- Page 183 and 184: Capitulo 4. Modelo Neuronal para la
- Page 185 and 186: Capitulo 4. Modelo Neuronal para la
- Page 187 and 188: Capitulo 4. Modelo Neuronal para la
- Page 189 and 190: Capitulo 4. Modelo Neuronal para la
- Page 191 and 192: Capitulo 4. Modelo Neuronal para la
- Page 193 and 194: Capitulo 4. Modelo Neuronal para la
- Page 195 and 196: Capitulo 4. Modelo Neuronal para la
- Page 197 and 198: Capitulo 4. Modelo Neuronal para la
- Page 199 and 200: Capitulo 4. Modelo Neuronal para la
- Page 201 and 202: Capitulo 4. Modelo Neuronal para la
- Page 203 and 204: Capitulo 4. Modelo Neuronal para la
- Page 205 and 206: Capitulo 4. Modelo Neuronal para la
- Page 207 and 208: Capitulo 4. Modelo Neuronal para la
- Page 209 and 210: Capitulo 4. Modelo Neuronal para la
- Page 211 and 212: Capitulo 5. Modelo Neuronal para el
- Page 213 and 214: Capitulo 5. Modelo Neuronal para el
- Page 215 and 216: Capitulo 5. Modelo Neuronal para el
- Page 217 and 218: Capitulo 5. Modelo Neuronal para el
- Page 219 and 220: Capitulo 5. Modelo Neuronal para el
- Page 221 and 222: Capitulo 5. Modelo Neuronal para el
- Page 223: Capitulo 5. Modelo Neuronal para el
- Page 227 and 228: Capitulo 5. Modelo Neuronal para el
- Page 229 and 230: Capitulo 5. Modelo Neuronal para el
- Page 231 and 232: Capitulo 5. Modelo Neuronal para el
- Page 233 and 234: Capitulo 5. Modelo Neuronal para el
- Page 235 and 236: Capitulo 5. Modelo Neuronal para el
- Page 237 and 238: Capitulo 5. Modelo Neuronal para el
- Page 239 and 240: Capitulo 5. Modelo Neuronal para el
- Page 241 and 242: Capitulo 5. Modelo Neuronal para el
- Page 243 and 244: Capitulo 5. Modelo Neuronal para el
- Page 245 and 246: Capitulo 5. Modelo Neuronal para el
- Page 247 and 248: Capitulo 5. Modelo Neuronal para el
- Page 249 and 250: 2.5 cm 3.0 cm 3.5 cm 2 cm Capitulo
- Page 251 and 252: Capitulo 5. Modelo Neuronal para el
- Page 253 and 254: Capitulo 5. Modelo Neuronal para el
- Page 255 and 256: Capitulo 5. Modelo Neuronal para el
- Page 257 and 258: Capitulo 5. Modelo Neuronal para el
- Page 259 and 260: Capitulo 5. Modelo Neuronal para el
- Page 261 and 262: Capitulo 5. Modelo Neuronal para el
- Page 263 and 264: Capitulo 5. Modelo Neuronal para el
- Page 265 and 266: R1 HYPBF # 1 HYPBF # 2 R2 AIP VD Mu
- Page 267 and 268: Capitulo 5. Modelo Neuronal para el
- Page 269 and 270: Capitulo 6. Implantación de algori
- Page 271 and 272: Capitulo 6. Implantación de algori
- Page 273 and 274: Capitulo 6. Implantación de algori
Capitulo 5. Mo<strong>de</strong>lo Neuronal para el aprendizaje progresivo <strong>de</strong> tareas <strong>de</strong> Agarre<br />
<strong>de</strong>l robot con el entorno y el guiado <strong>de</strong>l algoritmo <strong>de</strong> aprendizaje. Nos centraremos<br />
en 3 etapas <strong>de</strong> aprendizaje distintas i) Aprendizaje <strong>de</strong>l efecto visual causado por<br />
un comando motor en el brazo; ii) Aprendizaje <strong>de</strong>l efecto visual causado por<br />
comandos motores sobre la mano; y iii) Aprendizaje <strong>de</strong> posturas <strong>de</strong> agarre<br />
asociadas a distintos objetos. La adquisición <strong>de</strong>l sistema <strong>de</strong> una capacidad flexible<br />
<strong>de</strong> planificar y adaptarse a situaciones novedosas se obtiene a través <strong>de</strong>l<br />
aprendizaje sucesivo <strong>de</strong> estas etapas.<br />
d) El artefacto robótico. Las tres etapas <strong>de</strong>scritas en el apartado anterior serán<br />
simuladas en este capítulo y posteriormente será implementada en una plataforma<br />
robótica real (estos resultados se <strong>de</strong>scribirán con <strong>de</strong>talle en el capítulo 6). A la hora<br />
<strong>de</strong> aplicar <strong>de</strong> manera exitosa novedosos principios biológicos <strong>de</strong> organización <strong>de</strong>l<br />
movimiento es necesario poseer un elevado grado <strong>de</strong> antropomorfismo en la<br />
plataforma robótica. La implementación se ha llevado a cabo sobre la plataforma<br />
NEUROCOR constituida por el cabezal LINCE , la mano CERVANTES (una mano<br />
mecatrónica que en su actuación mimetiza la acción muscular humana por medio<br />
<strong>de</strong> motores eléctricos y novísimos actuadores <strong>de</strong> fuerza oponentes), y un brazo<br />
robótico ABB IRB 1400.<br />
3.1 Módulo básico. Red Neuronal HYPBF<br />
Parece claro que el cerebro emplea multitud <strong>de</strong> módulos corticales para llevar<br />
acabo transformaciones sensomotrices y es un punto clave <strong>de</strong> la neurociencia tanto<br />
teórica como experimental <strong>de</strong>terminar los principios computacionales que rigen esta<br />
arquitectura modular. Quizás una <strong>de</strong> las observaciones más remarcables que se han<br />
realizado sobre este tema es la <strong>de</strong> que aparentemente tres acciones distintas tales como<br />
la computación, aprendizaje y memorización <strong>de</strong> este tipo <strong>de</strong> transformaciones pue<strong>de</strong>n<br />
llevarse a cabo bajo un mismo substrato neuronal (Pouget y Snyn<strong>de</strong>r, 2000). Este<br />
substrato neuronal se correspon<strong>de</strong> a re<strong>de</strong>s cuyas neuronas tienen curvas <strong>de</strong> respuesta<br />
ante señales posturales y visuales que son acampanadas o sigmoidales. La i<strong>de</strong>a clave es<br />
que este tipo <strong>de</strong> neuronas proporcionan lo que en Teoría <strong>de</strong> la Regularización (Tikhonov y<br />
Arsenin, 1977) se <strong>de</strong>nomina una serie <strong>de</strong> funciones <strong>de</strong> base (BF) que posteriormente<br />
permiten el cálculo y aprendizaje <strong>de</strong> cualquier mapeado no lineal y multivariable<br />
mediante una simple combinación lineal <strong>de</strong> dichas funciones <strong>de</strong> base.<br />
La hipótesis básica <strong>de</strong> nuestro esquema <strong>de</strong> trabajo en este capítulo es que el<br />
cerebro y más concretamente el córtex cerebral emplea módulos para la aproximación<br />
<strong>de</strong> funciones multivariables como componentes básicos <strong>de</strong> sus subsistemas <strong>de</strong><br />
procesamiento <strong>de</strong> la información. Estos módulos ese asemejan a re<strong>de</strong>s <strong>de</strong><br />
221