clasificaci´on mediante conjuntos - Escuela Politécnica Superior
clasificaci´on mediante conjuntos - Escuela Politécnica Superior clasificaci´on mediante conjuntos - Escuela Politécnica Superior
102 CAPÍTULO 5. ORDEN DE AGREGACIÓN Y PODA EN BAGGINGde hasta 6.8 puntos porcentuales (88.04 % → 94.83 % ) con respecto al conjunto completousando 3 de los modelos generados. Sin embargo, el subconjunto seleccionado tiene unporcentaje mayor de patrones rechazados que pasa de 1.64 % en el conjunto completo a4.72 % de los patrones para el subconjunto seleccionado siendo la mejora efectiva de ≈ 3.6puntos porcentuales. Estos resultados se obtuvieron en un dominio específico de clasificaciónde cultivos a partir de imágenes multiespectrales de satélite. En [Bakker y Heskes,2003] se aplica el algoritmo propuesto a dos problemas de regresión. En los experimentosrealizados consiguen reducir de 50 redes neuronales iniciales a entre 3 y 7 (dependiendo dela configuración de las redes) con resultados equivalentes o ligeramente mejores que los detodo el conjunto.En una serie de artículos publicados por Zhou et al. [Zhou et al., 2002; Zhou y Tang,2003] se aplican algoritmos genéticos (AG) para buscar el subconjunto óptimo de clasificadores.En estos trabajos se aplica AG para determinar las ponderaciones óptimas para losclasificadores base de un conjunto para reducir el error de clasificación. El AG utiliza uncromosoma con un esquema de coma flotante en que cada gen representa el peso de cadared neuronal dentro del conjunto. Se hace evolucionar una población de estos cromosomasnormalizando la suma de pesos dentro de cada cromosoma en cada generación. La idoneidadde cada cromosoma se evalúa con el inverso del error. El error se calcula mediantevoto ponderado de los clasificadores usando los pesos dados por el cromosoma. Una vezseleccionado el esquema de pesos del conjunto se seleccionan los clasificadores que superenel peso medio [Zhou et al., 2002]. Asimismo, este procedimiento lo aplican a conjuntosde árboles de decisión utilizando un esquema binario de donde se obtiene directamentequé clasificadores estarán en la selección final y cuáles no [Zhou y Tang, 2003]. Los experimentosse realizan con conjuntos pequeños (20 elementos) generados con bagging ypresentan una mejora tanto en el error de clasificación como en la reducción del tamañodel conjunto. No están claras las ventajas de utilizar AG para este problema, ya que dadoel reducido número de clasificadores del conjunto sería posible llevar a cabo una búsquedaexhaustiva para encontrar el subconjunto óptimo.En [Demir y Alpaydin, 2005] se introduce un factor de utilidad que tiene en cuentael coste de clasificar nuevas instancias y así seleccionar el subconjunto que maximiza lafunción utilidad en velocidad de clasificación y error.5.4. Algoritmos de ordenaciónEn esta sección se proporciona una descripción detallada de las reglas desarrolladas enesta tesis para la selección del orden de agregación de los clasificadores del conjunto. Eluso de estas reglas de ordenación permite mejorar el error de generalización de baggingmediante la selección de subconjuntos de clasificadores del conjunto original. Partiendode un subconjunto de tamaño u − 1, se obtiene uno de tamaño u añadiendo un nuevo
5.4. ALGORITMOS DE ORDENACIÓN 103clasificador, seleccionado de acuerdo con una regla determinada. El orden aleatorio inicial(t = 1, 2, . . . , T ) de los clasificadores de bagging se reemplaza por un orden distinto(s 1 , s 2 , . . . s T ), donde s j es el índice de la posición original del clasificador que ocupa laposición j en la nueva ordenación del conjunto. Finalmente, se seleccionan los τ primerosclasificadores dependiendo del nivel de poda deseado.En esta sección vamos a simplificar la notación dada en el capítulo 2. La entrada de losalgoritmos de aprendizaje consiste en un conjunto de datos de entrenamiento etiquetados,ec. (2.1): L = {(x i , y i ), i = 1, 2, ..., N} donde x i es el vector de atributos e y i es la etiquetade clase. Por simplicidad consideraremos sólo problemas de clasificación binarios dondey ∈ {−1, 1}. Los resultados se pueden extender fácilmente a problemas con múltiplesclases. Como hemos visto, bagging genera una serie de hipótesis {h t (x) : t = 1, . . . , T },mediante diferentes remuestreos bootstrap de L. La decisión final de bagging se toma pormayoría de acuerdo con la ecuación de salida de la figura 2.6. Si asumimos clasificaciónbinaria donde h t (x) = ±1 la hipótesis combinada se puede expresar como)( T∑t=1H(x) = signoh t (x). (5.1)5.4.1. Ordenación basada en propiedades individualesSe han llevado a cabo una serie de experimentos preliminares para establecer si lascaracterísticas de los clasificadores individuales son medidas útiles para la ordenación delos conjuntos. En concreto, se han utilizado distintas estimaciones del error individual degeneralización de los clasificadores para establecer un orden dentro del conjunto:Ordenación usando el error de los clasificadores en el conjunto de entrenamiento.Ordenación usando el error en el conjunto out-of-bag de cada clasificador (ejemplosno utilizados por el clasificador al entrenar dejados fuera por el proceso de bootstrap[Breiman, 1996c]).Ordenación estimando el error en un conjunto independiente del conjunto de entrenamientoy de test y suficientemente grande.Hemos comprobado cómo el error en entrenamiento no es un indicador fiable del errorde generalización de cada clasificador y no conduce a ninguna ordenación útil del conjunto.Asimismo, tampoco ha llevado a ninguna ordenación válida el uso de un conjuntoindependiente del conjunto de entrenamiento como es el conjunto cambiante out-of-bag(este conjunto varía de un clasificador a otro). Los conjuntos out-of-bag presentan el problemaañadido de que la comparación de los errores individuales de distintos clasificadoresno es fiable debido a las fluctuaciones de muestreo de los distintos conjuntos out-of-bag.
- Page 68 and 69: 52 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 70 and 71: 54 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 72 and 73: 56 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 74 and 75: 58 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 76 and 77: 60 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 78 and 79: 62 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 80 and 81: 64 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 82 and 83: 66 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 84 and 85: 68 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 86 and 87: 70 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 88 and 89: 72 CAPÍTULO 4. ALTERACIÓN DE ETIQ
- Page 90 and 91: 74 CAPÍTULO 4. ALTERACIÓN DE ETIQ
- Page 92 and 93: 76 CAPÍTULO 4. ALTERACIÓN DE ETIQ
- Page 94 and 95: 78 CAPÍTULO 4. ALTERACIÓN DE ETIQ
- Page 96 and 97: 80 CAPÍTULO 4. ALTERACIÓN DE ETIQ
- Page 98 and 99: 82 CAPÍTULO 4. ALTERACIÓN DE ETIQ
- Page 100 and 101: Cuadro 4.3: Resumen de registros vi
- Page 102 and 103: 86 CAPÍTULO 4. ALTERACIÓN DE ETIQ
- Page 104 and 105: 88 CAPÍTULO 4. ALTERACIÓN DE ETIQ
- Page 106 and 107: 90 CAPÍTULO 4. ALTERACIÓN DE ETIQ
- Page 108 and 109: 92 CAPÍTULO 4. ALTERACIÓN DE ETIQ
- Page 111 and 112: Capítulo 5Orden de agregación y p
- Page 113 and 114: 5.2. ORDENACIÓN DE CLASIFICADORES
- Page 115 and 116: 5.2. ORDENACIÓN DE CLASIFICADORES
- Page 117: 5.3. OTROS TRABAJOS RELACIONADOS 10
- Page 121 and 122: 5.4. ALGORITMOS DE ORDENACIÓN 105M
- Page 123 and 124: 5.4. ALGORITMOS DE ORDENACIÓN 107F
- Page 125 and 126: 5.4. ALGORITMOS DE ORDENACIÓN 1093
- Page 127 and 128: 5.4. ALGORITMOS DE ORDENACIÓN 111n
- Page 129 and 130: 5.4. ALGORITMOS DE ORDENACIÓN 113o
- Page 131 and 132: 5.4. ALGORITMOS DE ORDENACIÓN 115s
- Page 133 and 134: 5.4. ALGORITMOS DE ORDENACIÓN 1171
- Page 135 and 136: 5.5. RESULTADOS EXPERIMENTALES 119L
- Page 137 and 138: 5.5. RESULTADOS EXPERIMENTALES 1210
- Page 139 and 140: 5.5. RESULTADOS EXPERIMENTALES 123p
- Page 141 and 142: 5.5. RESULTADOS EXPERIMENTALES 1250
- Page 143 and 144: 5.5. RESULTADOS EXPERIMENTALES 1270
- Page 145 and 146: 5.5. RESULTADOS EXPERIMENTALES 1290
- Page 147 and 148: Cuadro 5.7: Media del error de entr
- Page 149 and 150: Cuadro 5.9: Prueba-t para comparar
- Page 151 and 152: 5.6. CONCLUSIONES 135Cuadro 5.10: T
- Page 153 and 154: Capítulo 6Conclusiones y trabajo f
- Page 155 and 156: 139primeros elementos de acuerdo co
- Page 157 and 158: Apéndice ADescripción de los conj
- Page 159 and 160: 143A.1.4.Pima Indian DiabetesPima I
- Page 161 and 162: 145A.1.8.IonosphereIonosphereReposi
- Page 163 and 164: 147A.1.12.SonarSonarRepositorio UCI
- Page 165 and 166: 149A.1.16.VehicleVehicle silhouette
- Page 167 and 168: 151A.1.19.WineWineRepositorio UCI(F
5.4. ALGORITMOS DE ORDENACIÓN 103clasificador, seleccionado de acuerdo con una regla determinada. El orden aleatorio inicial(t = 1, 2, . . . , T ) de los clasificadores de bagging se reemplaza por un orden distinto(s 1 , s 2 , . . . s T ), donde s j es el índice de la posición original del clasificador que ocupa laposición j en la nueva ordenación del conjunto. Finalmente, se seleccionan los τ primerosclasificadores dependiendo del nivel de poda deseado.En esta sección vamos a simplificar la notación dada en el capítulo 2. La entrada de losalgoritmos de aprendizaje consiste en un conjunto de datos de entrenamiento etiquetados,ec. (2.1): L = {(x i , y i ), i = 1, 2, ..., N} donde x i es el vector de atributos e y i es la etiquetade clase. Por simplicidad consideraremos sólo problemas de clasificación binarios dondey ∈ {−1, 1}. Los resultados se pueden extender fácilmente a problemas con múltiplesclases. Como hemos visto, bagging genera una serie de hipótesis {h t (x) : t = 1, . . . , T },<strong>mediante</strong> diferentes remuestreos bootstrap de L. La decisión final de bagging se toma pormayoría de acuerdo con la ecuación de salida de la figura 2.6. Si asumimos clasificaciónbinaria donde h t (x) = ±1 la hipótesis combinada se puede expresar como)( T∑t=1H(x) = signoh t (x). (5.1)5.4.1. Ordenación basada en propiedades individualesSe han llevado a cabo una serie de experimentos preliminares para establecer si lascaracterísticas de los clasificadores individuales son medidas útiles para la ordenación delos <strong>conjuntos</strong>. En concreto, se han utilizado distintas estimaciones del error individual degeneralización de los clasificadores para establecer un orden dentro del conjunto:Ordenación usando el error de los clasificadores en el conjunto de entrenamiento.Ordenación usando el error en el conjunto out-of-bag de cada clasificador (ejemplosno utilizados por el clasificador al entrenar dejados fuera por el proceso de bootstrap[Breiman, 1996c]).Ordenación estimando el error en un conjunto independiente del conjunto de entrenamientoy de test y suficientemente grande.Hemos comprobado cómo el error en entrenamiento no es un indicador fiable del errorde generalización de cada clasificador y no conduce a ninguna ordenación útil del conjunto.Asimismo, tampoco ha llevado a ninguna ordenación válida el uso de un conjuntoindependiente del conjunto de entrenamiento como es el conjunto cambiante out-of-bag(este conjunto varía de un clasificador a otro). Los <strong>conjuntos</strong> out-of-bag presentan el problemaañadido de que la comparación de los errores individuales de distintos clasificadoresno es fiable debido a las fluctuaciones de muestreo de los distintos <strong>conjuntos</strong> out-of-bag.