13.07.2015 Views

clasificaci´on mediante conjuntos - Escuela Politécnica Superior

clasificaci´on mediante conjuntos - Escuela Politécnica Superior

clasificaci´on mediante conjuntos - Escuela Politécnica Superior

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

2 CAPÍTULO 1. INTRODUCCIÓNpartir de las distribuciones de probabilidad (desconocidas) del problema. Asimismo, suponemosque las distribuciones de probabilidad de los problemas que analizamos tienen unavariación suave. Además, suponemos que el muestreo de los ejemplos de entrenamiento seha realizado con una frecuencia suficientemente alta como para que las distintas regionesdel espacio de atributos relevantes a la clasificación estén bien representadas. Finalmente,dado que los modelos generados son estáticos, consideramos que las distribuciones deprobabilidad del problema son estacionarias, es decir, que no cambian con el tiempo.En general, el proceso completo de un sistema de reconocimiento automático se puededividir en recolección de la información, selección y codificación de atributos, eleccióndel algoritmo a aplicar y construcción y validación del modelo [Duda et al., 2001]. Esteproceso se representa esquemáticamente en la figura 1.1 y se describe a continuación.El primer paso de todo sistema de reconocimiento de patrones es la recolección de lainformación relevante al problema <strong>mediante</strong> sensores u otros medios. En muchas ocasionesel diseñador del sistema de reconocimiento no podrá actuar sobre esta fase del diseño yaque el planteamiento del problema puede ser posterior a la recogida de la información.A continuación, se debe elegir los atributos y codificarlos. Este paso es crítico, ya que nose podrán generar modelos eficaces si no se seleccionan características relevantes al problemade clasificación. El conocimiento experto sobre el problema puede ayudar a identificarlos atributos más adecuados y facilitar así la tarea del algoritmo de clasificación. Tanto enla fase de recolección de la información como en la de codificación se puede introducirruido en los datos, sea por errores de asignación de etiquetas, o por atributos cuyos valoresson erróneos debido a fallos en los detectores, etc. Estos errores en las primeras fasesgeneralmente limitan la fiabilidad de los modelos obtenidos.Una vez que se dispone de los datos codificados se debe elegir el modelo que se consideremás adecuado para el problema. Éste debe ser lo suficientemente complejo comopara capturar la información contenida en los ejemplos y suficientemente robusto comopara no ser sensible a fluctuaciones de muestreo u otros tipos de ruido en los datos. Generalmente,se tiene una preferencia (sesgo) por el modelo más sencillo posible que expliquelos ejemplos de entrenamiento (navaja de Occam, [Blumer et al., 1990]). Estesesgo aplicado a aprendizaje automático indica que a igual error en los ejemplos disponiblespara el entrenamiento se debe elegir el modelo menos complejo. Sin embargo,es importante hacer notar que esta preferencia no conduce necesariamente a la construcciónde un clasificador que generalice mejor: un ejemplo no visto en entrenamiento estarábien clasificado exactamente por la mitad de las hipótesis compatibles con el conjuntode entrenamiento en problemas de dos clases con atributos discretos [Mitchell, 1980;1990]. De hecho, se puede demostrar que, realizando un promedio uniforme sobre todoslos problemas de clasificación, el error esperado de generalización cometido por todos losalgoritmos de clasificación es el mismo (No Free Lunch Theorem, [Wolpert, 1995]). Portanto, la elección del modelo de clasificación se debe basar en elegir familias de clasificadorescuyo sesgo permita identificar preferentemente patrones del mismo tipo que los que

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!