clasificaci´on mediante conjuntos - Escuela Politécnica Superior

clasificaci´on mediante conjuntos - Escuela Politécnica Superior clasificaci´on mediante conjuntos - Escuela Politécnica Superior

13.07.2015 Views

102 CAPÍTULO 5. ORDEN DE AGREGACIÓN Y PODA EN BAGGINGde hasta 6.8 puntos porcentuales (88.04 % → 94.83 % ) con respecto al conjunto completousando 3 de los modelos generados. Sin embargo, el subconjunto seleccionado tiene unporcentaje mayor de patrones rechazados que pasa de 1.64 % en el conjunto completo a4.72 % de los patrones para el subconjunto seleccionado siendo la mejora efectiva de ≈ 3.6puntos porcentuales. Estos resultados se obtuvieron en un dominio específico de clasificaciónde cultivos a partir de imágenes multiespectrales de satélite. En [Bakker y Heskes,2003] se aplica el algoritmo propuesto a dos problemas de regresión. En los experimentosrealizados consiguen reducir de 50 redes neuronales iniciales a entre 3 y 7 (dependiendo dela configuración de las redes) con resultados equivalentes o ligeramente mejores que los detodo el conjunto.En una serie de artículos publicados por Zhou et al. [Zhou et al., 2002; Zhou y Tang,2003] se aplican algoritmos genéticos (AG) para buscar el subconjunto óptimo de clasificadores.En estos trabajos se aplica AG para determinar las ponderaciones óptimas para losclasificadores base de un conjunto para reducir el error de clasificación. El AG utiliza uncromosoma con un esquema de coma flotante en que cada gen representa el peso de cadared neuronal dentro del conjunto. Se hace evolucionar una población de estos cromosomasnormalizando la suma de pesos dentro de cada cromosoma en cada generación. La idoneidadde cada cromosoma se evalúa con el inverso del error. El error se calcula mediantevoto ponderado de los clasificadores usando los pesos dados por el cromosoma. Una vezseleccionado el esquema de pesos del conjunto se seleccionan los clasificadores que superenel peso medio [Zhou et al., 2002]. Asimismo, este procedimiento lo aplican a conjuntosde árboles de decisión utilizando un esquema binario de donde se obtiene directamentequé clasificadores estarán en la selección final y cuáles no [Zhou y Tang, 2003]. Los experimentosse realizan con conjuntos pequeños (20 elementos) generados con bagging ypresentan una mejora tanto en el error de clasificación como en la reducción del tamañodel conjunto. No están claras las ventajas de utilizar AG para este problema, ya que dadoel reducido número de clasificadores del conjunto sería posible llevar a cabo una búsquedaexhaustiva para encontrar el subconjunto óptimo.En [Demir y Alpaydin, 2005] se introduce un factor de utilidad que tiene en cuentael coste de clasificar nuevas instancias y así seleccionar el subconjunto que maximiza lafunción utilidad en velocidad de clasificación y error.5.4. Algoritmos de ordenaciónEn esta sección se proporciona una descripción detallada de las reglas desarrolladas enesta tesis para la selección del orden de agregación de los clasificadores del conjunto. Eluso de estas reglas de ordenación permite mejorar el error de generalización de baggingmediante la selección de subconjuntos de clasificadores del conjunto original. Partiendode un subconjunto de tamaño u − 1, se obtiene uno de tamaño u añadiendo un nuevo

5.4. ALGORITMOS DE ORDENACIÓN 103clasificador, seleccionado de acuerdo con una regla determinada. El orden aleatorio inicial(t = 1, 2, . . . , T ) de los clasificadores de bagging se reemplaza por un orden distinto(s 1 , s 2 , . . . s T ), donde s j es el índice de la posición original del clasificador que ocupa laposición j en la nueva ordenación del conjunto. Finalmente, se seleccionan los τ primerosclasificadores dependiendo del nivel de poda deseado.En esta sección vamos a simplificar la notación dada en el capítulo 2. La entrada de losalgoritmos de aprendizaje consiste en un conjunto de datos de entrenamiento etiquetados,ec. (2.1): L = {(x i , y i ), i = 1, 2, ..., N} donde x i es el vector de atributos e y i es la etiquetade clase. Por simplicidad consideraremos sólo problemas de clasificación binarios dondey ∈ {−1, 1}. Los resultados se pueden extender fácilmente a problemas con múltiplesclases. Como hemos visto, bagging genera una serie de hipótesis {h t (x) : t = 1, . . . , T },mediante diferentes remuestreos bootstrap de L. La decisión final de bagging se toma pormayoría de acuerdo con la ecuación de salida de la figura 2.6. Si asumimos clasificaciónbinaria donde h t (x) = ±1 la hipótesis combinada se puede expresar como)( T∑t=1H(x) = signoh t (x). (5.1)5.4.1. Ordenación basada en propiedades individualesSe han llevado a cabo una serie de experimentos preliminares para establecer si lascaracterísticas de los clasificadores individuales son medidas útiles para la ordenación delos conjuntos. En concreto, se han utilizado distintas estimaciones del error individual degeneralización de los clasificadores para establecer un orden dentro del conjunto:Ordenación usando el error de los clasificadores en el conjunto de entrenamiento.Ordenación usando el error en el conjunto out-of-bag de cada clasificador (ejemplosno utilizados por el clasificador al entrenar dejados fuera por el proceso de bootstrap[Breiman, 1996c]).Ordenación estimando el error en un conjunto independiente del conjunto de entrenamientoy de test y suficientemente grande.Hemos comprobado cómo el error en entrenamiento no es un indicador fiable del errorde generalización de cada clasificador y no conduce a ninguna ordenación útil del conjunto.Asimismo, tampoco ha llevado a ninguna ordenación válida el uso de un conjuntoindependiente del conjunto de entrenamiento como es el conjunto cambiante out-of-bag(este conjunto varía de un clasificador a otro). Los conjuntos out-of-bag presentan el problemaañadido de que la comparación de los errores individuales de distintos clasificadoresno es fiable debido a las fluctuaciones de muestreo de los distintos conjuntos out-of-bag.

5.4. ALGORITMOS DE ORDENACIÓN 103clasificador, seleccionado de acuerdo con una regla determinada. El orden aleatorio inicial(t = 1, 2, . . . , T ) de los clasificadores de bagging se reemplaza por un orden distinto(s 1 , s 2 , . . . s T ), donde s j es el índice de la posición original del clasificador que ocupa laposición j en la nueva ordenación del conjunto. Finalmente, se seleccionan los τ primerosclasificadores dependiendo del nivel de poda deseado.En esta sección vamos a simplificar la notación dada en el capítulo 2. La entrada de losalgoritmos de aprendizaje consiste en un conjunto de datos de entrenamiento etiquetados,ec. (2.1): L = {(x i , y i ), i = 1, 2, ..., N} donde x i es el vector de atributos e y i es la etiquetade clase. Por simplicidad consideraremos sólo problemas de clasificación binarios dondey ∈ {−1, 1}. Los resultados se pueden extender fácilmente a problemas con múltiplesclases. Como hemos visto, bagging genera una serie de hipótesis {h t (x) : t = 1, . . . , T },<strong>mediante</strong> diferentes remuestreos bootstrap de L. La decisión final de bagging se toma pormayoría de acuerdo con la ecuación de salida de la figura 2.6. Si asumimos clasificaciónbinaria donde h t (x) = ±1 la hipótesis combinada se puede expresar como)( T∑t=1H(x) = signoh t (x). (5.1)5.4.1. Ordenación basada en propiedades individualesSe han llevado a cabo una serie de experimentos preliminares para establecer si lascaracterísticas de los clasificadores individuales son medidas útiles para la ordenación delos <strong>conjuntos</strong>. En concreto, se han utilizado distintas estimaciones del error individual degeneralización de los clasificadores para establecer un orden dentro del conjunto:Ordenación usando el error de los clasificadores en el conjunto de entrenamiento.Ordenación usando el error en el conjunto out-of-bag de cada clasificador (ejemplosno utilizados por el clasificador al entrenar dejados fuera por el proceso de bootstrap[Breiman, 1996c]).Ordenación estimando el error en un conjunto independiente del conjunto de entrenamientoy de test y suficientemente grande.Hemos comprobado cómo el error en entrenamiento no es un indicador fiable del errorde generalización de cada clasificador y no conduce a ninguna ordenación útil del conjunto.Asimismo, tampoco ha llevado a ninguna ordenación válida el uso de un conjuntoindependiente del conjunto de entrenamiento como es el conjunto cambiante out-of-bag(este conjunto varía de un clasificador a otro). Los <strong>conjuntos</strong> out-of-bag presentan el problemaañadido de que la comparación de los errores individuales de distintos clasificadoresno es fiable debido a las fluctuaciones de muestreo de los distintos <strong>conjuntos</strong> out-of-bag.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!