clasificaci´on mediante conjuntos - Escuela Politécnica Superior
clasificaci´on mediante conjuntos - Escuela Politécnica Superior clasificaci´on mediante conjuntos - Escuela Politécnica Superior
140 CAPÍTULO 6. CONCLUSIONES Y TRABAJO FUTUROEn cuanto a desarrollos futuros, dentro de los métodos basados en árboles IGP, seríainteresante analizar su comportamiento en un rango mayor de problemas de clasificación,así como analizar la diversidad de los clasificadores que obtiene y compararla con la obtenidapor bagging y boosting.De más interés sería el análisis de la diversidad de los clasificadores generados con elmétodo class-switching, ya que se debería ver una relación bastante directa entre el porcentajede ejemplos modificados y las nubes obtenidas en los diagramas kappa-error. Asimismo,puede ser muy interesante la combinación del análisis de diversidad con una modificacióndel algoritmo de alteración de etiquetas de clase (como el presentado en [Kuncheva yKountchev, 2002]) para que generara clasificadores con distintas medidas de diversidad yno estrictamente independientes como los que produce el método propuesto.Por otro lado, los métodos de ordenación propuestos se pueden aplicar a una gran variedadde conjuntos y problemas. La extensión más inmediata del trabajo presentado seríaaplicarlo a otros conjuntos compuestos por otro tipo de clasificadores como por ejemploa conjuntos de redes neuronales. Asimismo estos métodos con pequeñas adaptaciones sepodrían aplicar a regresión. La regla de reducción de error adaptada a regresión podríabuscar el regresor que más reduzca el error cuadrático medio. La medida de complementariedadpuede seleccionar el regresor que reduzca el error cuadrático medio del mayornúmero de ejemplos.Por otro lado, y espoleados por la observación de que las heurísticas propuestas noson útiles para ordenar conjuntos formados por clasificadores que tienen una capacidadexpresiva elevada, habría que analizar más en profundidad cómo varía la capacidad degeneralización de los subconjuntos obtenidos por ordenación y poda con la capacidad derepresentación del clasificador individual. Por ejemplo variando la tasa de poda de los árbolesgenerados en el conjunto pasando de árboles no podados a árboles con una sola pregunta(Decision Stump), o modificando el número de neuronas en la capa oculta de una red neuronal.Estudios preliminares han mostrado que la ordenación y poda de class-switching,bagging con árboles sin podar o con redes neuronales con muchos nodos en la capa ocultano mejoran significativamente la capacidad de generalización de los conjuntos.Finalmente es necesario profundizar en el análisis de la dependencia de las curvas deerror de generalización con el número de clasificadores para los conjuntos ordenados (y sinordenar). Esto permitiría dar una estimación más precisa de la posición del mínimo.
Apéndice ADescripción de los conjuntos de datosutilizadosA.1.1.AudioAudiology-standarizedRepositorio UCI(Professor Jergen at Baylor College of Medicine)Datos: 226 Atributos: 69 categóricos de los cuales 60 binariosClases: 24 Distribución: 1 (x5), 2 (x7), 3, 4 (x3), 6, 8, 9, 20, 22 (x2), 48y 57Tipo: Real Ausentes: Sí (317 valores: 2 %)Descripción:Observaciones:Identificación de afecciones del oído.Conjunto con muchas clases con muy pocos ejemplos: 16 clasescon menos de 5 ejemplos y 5 clases con un solo dato. Esto haceque sea prácticamente imposible de predecir correctamente (siemprehabrá clases que o aparecen en entrenamiento o en test pero no en losdos).141
- Page 106 and 107: 90 CAPÍTULO 4. ALTERACIÓN DE ETIQ
- Page 108 and 109: 92 CAPÍTULO 4. ALTERACIÓN DE ETIQ
- Page 111 and 112: Capítulo 5Orden de agregación y p
- Page 113 and 114: 5.2. ORDENACIÓN DE CLASIFICADORES
- Page 115 and 116: 5.2. ORDENACIÓN DE CLASIFICADORES
- Page 117 and 118: 5.3. OTROS TRABAJOS RELACIONADOS 10
- Page 119 and 120: 5.4. ALGORITMOS DE ORDENACIÓN 103c
- Page 121 and 122: 5.4. ALGORITMOS DE ORDENACIÓN 105M
- Page 123 and 124: 5.4. ALGORITMOS DE ORDENACIÓN 107F
- Page 125 and 126: 5.4. ALGORITMOS DE ORDENACIÓN 1093
- Page 127 and 128: 5.4. ALGORITMOS DE ORDENACIÓN 111n
- Page 129 and 130: 5.4. ALGORITMOS DE ORDENACIÓN 113o
- Page 131 and 132: 5.4. ALGORITMOS DE ORDENACIÓN 115s
- Page 133 and 134: 5.4. ALGORITMOS DE ORDENACIÓN 1171
- Page 135 and 136: 5.5. RESULTADOS EXPERIMENTALES 119L
- Page 137 and 138: 5.5. RESULTADOS EXPERIMENTALES 1210
- Page 139 and 140: 5.5. RESULTADOS EXPERIMENTALES 123p
- Page 141 and 142: 5.5. RESULTADOS EXPERIMENTALES 1250
- Page 143 and 144: 5.5. RESULTADOS EXPERIMENTALES 1270
- Page 145 and 146: 5.5. RESULTADOS EXPERIMENTALES 1290
- Page 147 and 148: Cuadro 5.7: Media del error de entr
- Page 149 and 150: Cuadro 5.9: Prueba-t para comparar
- Page 151 and 152: 5.6. CONCLUSIONES 135Cuadro 5.10: T
- Page 153 and 154: Capítulo 6Conclusiones y trabajo f
- Page 155: 139primeros elementos de acuerdo co
- Page 159 and 160: 143A.1.4.Pima Indian DiabetesPima I
- Page 161 and 162: 145A.1.8.IonosphereIonosphereReposi
- Page 163 and 164: 147A.1.12.SonarSonarRepositorio UCI
- Page 165 and 166: 149A.1.16.VehicleVehicle silhouette
- Page 167 and 168: 151A.1.19.WineWineRepositorio UCI(F
- Page 169 and 170: Bibliografía[Aha et al., 1991] Dav
- Page 171 and 172: BIBLIOGRAFÍA 155[Dietterich y Kong
- Page 173 and 174: BIBLIOGRAFÍA 157[Haskell et al., 2
- Page 175 and 176: BIBLIOGRAFÍA 159[Martínez-Muñoz
- Page 177 and 178: BIBLIOGRAFÍA 161[Schapire et al.,
Apéndice ADescripción de los <strong>conjuntos</strong> de datosutilizadosA.1.1.AudioAudiology-standarizedRepositorio UCI(Professor Jergen at Baylor College of Medicine)Datos: 226 Atributos: 69 categóricos de los cuales 60 binariosClases: 24 Distribución: 1 (x5), 2 (x7), 3, 4 (x3), 6, 8, 9, 20, 22 (x2), 48y 57Tipo: Real Ausentes: Sí (317 valores: 2 %)Descripción:Observaciones:Identificación de afecciones del oído.Conjunto con muchas clases con muy pocos ejemplos: 16 clasescon menos de 5 ejemplos y 5 clases con un solo dato. Esto haceque sea prácticamente imposible de predecir correctamente (siemprehabrá clases que o aparecen en entrenamiento o en test pero no en losdos).141