clasificaci´on mediante conjuntos - Escuela Politécnica Superior
clasificaci´on mediante conjuntos - Escuela Politécnica Superior clasificaci´on mediante conjuntos - Escuela Politécnica Superior
90 CAPÍTULO 4. ALTERACIÓN DE ETIQUETAS DE CLASE4.5. ConclusionesLa modificación aleatoria de las etiquetas de clase de los ejemplos de entrenamientoes un procedimiento útil para generar conjuntos de clasificadores que: obtienen erroresde generalización significativamente mejores que bagging y cuya eficacia es comparableo mejor que boosting en varios problemas de clasificación de la colección de problemasde UCI y problemas de clasificación sintéticos. Estas mejoras de clasificación se alcanzanpara tasas relativamente altas de modificación de etiquetas de clases y para conjuntos conun gran número de clasificadores.La modificación aleatoria de las salidas como método de generación de conjuntos declasificadores fue propuesta inicialmente en [Breiman, 2000]. En esta referencia, los experimentosde clasificación fueron realizados con conjuntos de 100 clasificadores, que sondemasiado pequeños para que se ponga de manifiesto todo el potencial del método. Conlos experimentos realizados se ha ilustrado que es necesario utilizar un elevado númerode clasificadores (hasta 1000 predictores) para alcanzar el comportamiento asintótico delconjunto, especialmente para tasas altas de modificación de clases. Además, el métodode modificación de etiquetas propuesto, a diferencia del propuesto por Breiman, mantieneconstante la probabilidad de modificación global de clase (independientemente de laetiqueta original o la distribución original de clases) para cada ejemplo de entrenamiento.Con esta modificación se pueden utilizar valores más altos de modificación de clases paraconjuntos desequilibrados. Esta modificación permite alcanzar errores de generalizaciónsignificativamente mejores que flipping en los conjuntos con distribución desequilibrada declases. Para conjuntos con distribuciones de clases uniforme, el método desarrollado y elpropuesto por Breiman obtienen resultados de clasificación equivalentes.Otro punto importante abordado en este capítulo es la relación entre la tasa de modificaciónde clases p con la precisión final del conjunto. Valores más altos de p generan másruido en los problemas de clasificación que tienen que resolver los algoritmos base. Estosignifica que, para mayores valores de p, el patrón de clasificación de cada clasificadorindividual tiene menos similitud con el problema original. En consecuencia, es necesarioincluir un mayor número de elementos en el conjunto para perfilar de manera precisa lasfronteras de clasificación del problema original. No obstante, lejos de ser una desventaja, eluso de valores altos de p genera fronteras de clasificación más complejas que, en los problemasanalizados, conducen a mejores tasas de generalización. Existe un límite superior parael valor de p que se puede utilizar. Este límite corresponde al valor por encima del cual losclasificadores individuales se acercan al funcionamiento de un clasificador aleatorio. Losexperimentos realizados muestran que los conjuntos class-switching con valores de la tasade modificación de clases relativa de 3/5 alcanzan los mejores resultados en promedio paralos problemas analizados.Asimismo, el método propuesto para la generación de los conjuntos de entrenamientoperturbados permite realizar un análisis estadístico del proceso de entrenamiento para
4.5. CONCLUSIONES 91problemas de dos clases en términos de un proceso de Bernoulli. Suponiendo que los clasificadoresindividuales tienen suficiente flexibilidad para alcanzar error de clasificación nuloen los conjuntos perturbados, entonces las curvas de aprendizaje que muestran la dependenciadel error en función del tamaño del conjunto se pueden describir como una sumade términos de una distribución binomial. Además estas curvas de error en el conjunto deentrenamiento son independientes del problema de aprendizaje y sólo dependen de la tasade modificación de clase p, siempre que se usen conjuntos de datos en los que no existanvarios ejemplos caracterizados por el mismo vector de atributos.
- Page 55 and 56: 2.5. BAGGING Y BOSQUES ALEATORIOS 3
- Page 57 and 58: 2.6. BOOSTING 41ni de los ejemplos
- Page 59 and 60: 2.6. BOOSTING 43la decisión del co
- Page 61 and 62: 2.6. BOOSTING 45el agotamiento tamb
- Page 63 and 64: 2.7. OTROS CONJUNTOS DE CLASIFICADO
- Page 65: Parte INuevos conjuntos de clasific
- Page 68 and 69: 52 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 70 and 71: 54 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 72 and 73: 56 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 74 and 75: 58 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 76 and 77: 60 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 78 and 79: 62 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 80 and 81: 64 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 82 and 83: 66 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 84 and 85: 68 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 86 and 87: 70 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 88 and 89: 72 CAPÍTULO 4. ALTERACIÓN DE ETIQ
- Page 90 and 91: 74 CAPÍTULO 4. ALTERACIÓN DE ETIQ
- Page 92 and 93: 76 CAPÍTULO 4. ALTERACIÓN DE ETIQ
- Page 94 and 95: 78 CAPÍTULO 4. ALTERACIÓN DE ETIQ
- Page 96 and 97: 80 CAPÍTULO 4. ALTERACIÓN DE ETIQ
- Page 98 and 99: 82 CAPÍTULO 4. ALTERACIÓN DE ETIQ
- Page 100 and 101: Cuadro 4.3: Resumen de registros vi
- Page 102 and 103: 86 CAPÍTULO 4. ALTERACIÓN DE ETIQ
- Page 104 and 105: 88 CAPÍTULO 4. ALTERACIÓN DE ETIQ
- Page 108 and 109: 92 CAPÍTULO 4. ALTERACIÓN DE ETIQ
- Page 111 and 112: Capítulo 5Orden de agregación y p
- Page 113 and 114: 5.2. ORDENACIÓN DE CLASIFICADORES
- Page 115 and 116: 5.2. ORDENACIÓN DE CLASIFICADORES
- Page 117 and 118: 5.3. OTROS TRABAJOS RELACIONADOS 10
- Page 119 and 120: 5.4. ALGORITMOS DE ORDENACIÓN 103c
- Page 121 and 122: 5.4. ALGORITMOS DE ORDENACIÓN 105M
- Page 123 and 124: 5.4. ALGORITMOS DE ORDENACIÓN 107F
- Page 125 and 126: 5.4. ALGORITMOS DE ORDENACIÓN 1093
- Page 127 and 128: 5.4. ALGORITMOS DE ORDENACIÓN 111n
- Page 129 and 130: 5.4. ALGORITMOS DE ORDENACIÓN 113o
- Page 131 and 132: 5.4. ALGORITMOS DE ORDENACIÓN 115s
- Page 133 and 134: 5.4. ALGORITMOS DE ORDENACIÓN 1171
- Page 135 and 136: 5.5. RESULTADOS EXPERIMENTALES 119L
- Page 137 and 138: 5.5. RESULTADOS EXPERIMENTALES 1210
- Page 139 and 140: 5.5. RESULTADOS EXPERIMENTALES 123p
- Page 141 and 142: 5.5. RESULTADOS EXPERIMENTALES 1250
- Page 143 and 144: 5.5. RESULTADOS EXPERIMENTALES 1270
- Page 145 and 146: 5.5. RESULTADOS EXPERIMENTALES 1290
- Page 147 and 148: Cuadro 5.7: Media del error de entr
- Page 149 and 150: Cuadro 5.9: Prueba-t para comparar
- Page 151 and 152: 5.6. CONCLUSIONES 135Cuadro 5.10: T
- Page 153 and 154: Capítulo 6Conclusiones y trabajo f
- Page 155 and 156: 139primeros elementos de acuerdo co
90 CAPÍTULO 4. ALTERACIÓN DE ETIQUETAS DE CLASE4.5. ConclusionesLa modificación aleatoria de las etiquetas de clase de los ejemplos de entrenamientoes un procedimiento útil para generar <strong>conjuntos</strong> de clasificadores que: obtienen erroresde generalización significativamente mejores que bagging y cuya eficacia es comparableo mejor que boosting en varios problemas de clasificación de la colección de problemasde UCI y problemas de clasificación sintéticos. Estas mejoras de clasificación se alcanzanpara tasas relativamente altas de modificación de etiquetas de clases y para <strong>conjuntos</strong> conun gran número de clasificadores.La modificación aleatoria de las salidas como método de generación de <strong>conjuntos</strong> declasificadores fue propuesta inicialmente en [Breiman, 2000]. En esta referencia, los experimentosde clasificación fueron realizados con <strong>conjuntos</strong> de 100 clasificadores, que sondemasiado pequeños para que se ponga de manifiesto todo el potencial del método. Conlos experimentos realizados se ha ilustrado que es necesario utilizar un elevado númerode clasificadores (hasta 1000 predictores) para alcanzar el comportamiento asintótico delconjunto, especialmente para tasas altas de modificación de clases. Además, el métodode modificación de etiquetas propuesto, a diferencia del propuesto por Breiman, mantieneconstante la probabilidad de modificación global de clase (independientemente de laetiqueta original o la distribución original de clases) para cada ejemplo de entrenamiento.Con esta modificación se pueden utilizar valores más altos de modificación de clases para<strong>conjuntos</strong> desequilibrados. Esta modificación permite alcanzar errores de generalizaciónsignificativamente mejores que flipping en los <strong>conjuntos</strong> con distribución desequilibrada declases. Para <strong>conjuntos</strong> con distribuciones de clases uniforme, el método desarrollado y elpropuesto por Breiman obtienen resultados de clasificación equivalentes.Otro punto importante abordado en este capítulo es la relación entre la tasa de modificaciónde clases p con la precisión final del conjunto. Valores más altos de p generan másruido en los problemas de clasificación que tienen que resolver los algoritmos base. Estosignifica que, para mayores valores de p, el patrón de clasificación de cada clasificadorindividual tiene menos similitud con el problema original. En consecuencia, es necesarioincluir un mayor número de elementos en el conjunto para perfilar de manera precisa lasfronteras de clasificación del problema original. No obstante, lejos de ser una desventaja, eluso de valores altos de p genera fronteras de clasificación más complejas que, en los problemasanalizados, conducen a mejores tasas de generalización. Existe un límite superior parael valor de p que se puede utilizar. Este límite corresponde al valor por encima del cual losclasificadores individuales se acercan al funcionamiento de un clasificador aleatorio. Losexperimentos realizados muestran que los <strong>conjuntos</strong> class-switching con valores de la tasade modificación de clases relativa de 3/5 alcanzan los mejores resultados en promedio paralos problemas analizados.Asimismo, el método propuesto para la generación de los <strong>conjuntos</strong> de entrenamientoperturbados permite realizar un análisis estadístico del proceso de entrenamiento para