clasificaci´on mediante conjuntos - Escuela Politécnica Superior
clasificaci´on mediante conjuntos - Escuela Politécnica Superior clasificaci´on mediante conjuntos - Escuela Politécnica Superior
24 CAPÍTULO 2. CLASIFICACIÓN2.3. Conjuntos de clasificadoresLos conjuntos de clasificadores (ensembles of classifiers) son sistemas que clasificannuevos ejemplos combinando las decisiones individuales de los clasificadores delos que están compuestos. Los conjuntos de clasificadores se construyen en dos fases:en una primera fase, la fase de entrenamiento, se genera una serie de clasificadores(a cada uno de ellos lo denominaremos clasificador individual o clasificador base)con un algoritmo concreto (que denominaremos algoritmo base). En una segunda fasese combinan las distintas hipótesis generadas. La precisión del conjunto puede ser muchomayor que la precisión de cada uno de los miembros en los que está compuestocomo han demostrado multitud de estudios [Freund y Schapire, 1995; Breiman, 1996a;Quinlan, 1996a; Breiman, 1998; Schapire et al., 1998; Skurichina y Duin, 1998; Breiman,1999; Bauer y Kohavi, 1999; Sharkey, 1999; Breiman, 2000; Dietterich, 2000b;Webb, 2000; Breiman, 2001; Rätsch et al., 2001; Fürnkranz, 2002; Rätsch et al., 2002;Bryll et al., 2003; Hothorn y Lausen, 2003; Kim et al., 2003; Chawla et al., 2004;Martínez-Muñoz y Suárez, 2004b; Valentini y Dietterich, 2004; Hall y Samworth, 2005;Martínez-Muñoz y Suárez, 2005b]. Esta mejora se podrá obtener únicamente si los clasificadoresindividuales son suficientemente diversos: combinar clasificadores idénticos noconlleva ninguna mejora; de hecho se obtendría la misma respuesta que cada clasificadorbase. Por tanto para construir un conjunto de clasificadores, hay que elegir el algoritmo basey diseñar una metodología que sea capaz de construir clasificadores que cometan erroresdistintos en los datos de entrenamiento.Las distintas técnicas desarrolladas para la generación de conjuntos de clasificadores(primera fase) se pueden agrupar en [Dietterich, 1998b; 2000a]:Técnicas basadas en remuestreo de los datos de entrenamiento: Algunos delos métodos de generación de conjuntos de clasificadores más importantes, comoboosting [Freund y Schapire, 1995] y bagging [Breiman, 1996a], pertenecen aestá categoría. Este grupo de técnicas introduce perturbaciones en los datos de entrada(eliminación de ejemplos, repetición de ejemplos, distintas ponderaciones delos ejemplos, etc.) para obtener cada uno de los clasificadores individuales. La variabilidadrequerida dentro del conjunto es obtenida mediante modificaciones de ladistribución de entrenamiento (que se supone debe parecerse a la distribución real)y así inducir variaciones en los clasificadores individuales. Para que se genere lasuficiente variabilidad entre clasificadores, el algoritmo base debe tener una ciertainestabilidad frente a los cambios. Los árboles de decisión poseen características quelos convierte en buenos algoritmos base para este grupo de técnicas ya que pequeñasvariaciones en los datos de entrenamiento pueden hacer que las estructuras de losárboles generados sean completamente diferentes.Generalmente se considera que los algoritmos de clasificación vecino más próximoy discriminante lineal no son adecuados [Breiman, 1996a; Dietterich, 1998b].
2.3. CONJUNTOS DE CLASIFICADORES 25Estos clasificadores son bastante estables frente a modificaciones de los datos deentrenamiento y no se obtendría la variedad de clasificadores necesaria para que elconjunto generado mejore la capacidad de generalización del clasificador base. Bajodeterminadas condiciones, se pueden construir conjuntos de discriminantes linealesque mejoran el rendimiento de un sólo clasificador. Esto se consigue solamente ensituaciones donde el clasificador lineal se hace muy inestable, como se muestra experimentalmenteen la referencia [Skurichina y Duin, 1998]. En otra referencia de losmismos autores [Skurichina y Duin, 2002] se hace un estudio detallado de distintostipos de discriminantes lineales y de conjuntos de clasificadores (bagging, boostingy subespacios aleatorios) para hacer una “guía de uso”. En esta guía indican conqué conjuntos de clasificadores se pueden obtener mejoras respecto al discriminantelineal individual dependiendo del tamaño del conjunto de entrenamiento. Vecinomás próximo junto con bagging estándar obtiene los mismos resultados que vecinomás próximo ejecutado sobre todos los datos [Breiman, 1996a]. Sin embargo, se havisto recientemente que se pueden obtener mejoras significativas combinando vecinomás próximo junto con bagging siempre que el tamaño del conjunto remuestreadocontenga menos del 50 % de los ejemplos originales. Además se puede demostrarque si el porcentaje de remuestreo tiende a 0 mientras que los datos de entrenamientotienden a infinito entonces el error del conjunto de bagging con vecinos próximostiende al error de Bayes [Hall y Samworth, 2005].Boosting construye clasificadores mediante la asignación de pesos a los ejemplosde forma adaptativa. En cada iteración de boosting se construye un clasificador queintenta compensar los errores cometidos previamente por otros clasificadores. Paralograr que cada nuevo clasificador mejore los resultados en regiones donde fallan losanteriores se utiliza un conjunto de datos ponderado cuyos pesos son actualizadostras cada iteración: se incrementan los pesos de los ejemplos mal clasificados por elúltimo clasificador y se reducen los pesos de los bien clasificados. Boosting puede obien utilizar todos los ejemplos ponderados para construir cada clasificador (boostingcon reweighting), o bien hacer un remuestreo ponderado (boosting con resampling)donde tengan más probabilidad de aparecer en la muestra los ejemplos con mayor peso.En cualquier caso, el algoritmo de clasificación base se encuentra con un conjuntode entrenamiento con ejemplos con distinta importancia relativa. De hecho, cada nuevoclasificador individual se centra en la clasificación de los ejemplos más difícilesque han sido erróneamente clasificados por los clasificadores previos. Boosting esuno de los métodos más eficientes para la construcción de conjuntos de clasificadores.Sin embargo, presenta dificultades de generalización en algunos problemas ycuando los datos tienen ruido en la asignación de etiquetas de clase [Quinlan, 1996a;Opitz y Maclin, 1999; Dietterich, 2000b].
- Page 1: Universidad Autónoma de MadridEscu
- Page 5 and 6: AgradecimientosAgradezco muy sincer
- Page 7 and 8: Índice generalAgradecimientosV1. I
- Page 9: A.1.12. Sonar . . . . . . . . . . .
- Page 12 and 13: 4.5. Número medio de clasificadore
- Page 14 and 15: 3.5. Pseudocódigo de comités IGP
- Page 17 and 18: Capítulo 1IntroducciónUn clasific
- Page 19 and 20: 3aparecen en el problema concreto d
- Page 21 and 22: 5donde se realizan, etc [Dorronsoro
- Page 23 and 24: 7algoritmo genera un árbol de deci
- Page 25 and 26: de construcción de conjuntos de cl
- Page 27 and 28: Capítulo 2Clasificación2.1. Clasi
- Page 29 and 30: 2.1. CLASIFICACIÓN SUPERVISADA Y T
- Page 31 and 32: 2.2. ÁRBOLES DE DECISIÓN: CART Y
- Page 33 and 34: 2.2. ÁRBOLES DE DECISIÓN: CART Y
- Page 35 and 36: 2.2. ÁRBOLES DE DECISIÓN: CART Y
- Page 37 and 38: 2.2. ÁRBOLES DE DECISIÓN: CART Y
- Page 39: 2.2. ÁRBOLES DE DECISIÓN: CART Y
- Page 43 and 44: 2.3. CONJUNTOS DE CLASIFICADORES 27
- Page 45 and 46: 2.3. CONJUNTOS DE CLASIFICADORES 29
- Page 47 and 48: 2.4. ANÁLISIS DE SU FUNCIONAMIENTO
- Page 49 and 50: 2.4. ANÁLISIS DE SU FUNCIONAMIENTO
- Page 51 and 52: 2.4. ANÁLISIS DE SU FUNCIONAMIENTO
- Page 53 and 54: 2.4. ANÁLISIS DE SU FUNCIONAMIENTO
- Page 55 and 56: 2.5. BAGGING Y BOSQUES ALEATORIOS 3
- Page 57 and 58: 2.6. BOOSTING 41ni de los ejemplos
- Page 59 and 60: 2.6. BOOSTING 43la decisión del co
- Page 61 and 62: 2.6. BOOSTING 45el agotamiento tamb
- Page 63 and 64: 2.7. OTROS CONJUNTOS DE CLASIFICADO
- Page 65: Parte INuevos conjuntos de clasific
- Page 68 and 69: 52 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 70 and 71: 54 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 72 and 73: 56 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 74 and 75: 58 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 76 and 77: 60 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 78 and 79: 62 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 80 and 81: 64 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 82 and 83: 66 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 84 and 85: 68 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 86 and 87: 70 CAPÍTULO 3. CONJUNTOS DE ÁRBOL
- Page 88 and 89: 72 CAPÍTULO 4. ALTERACIÓN DE ETIQ
24 CAPÍTULO 2. CLASIFICACIÓN2.3. Conjuntos de clasificadoresLos <strong>conjuntos</strong> de clasificadores (ensembles of classifiers) son sistemas que clasificannuevos ejemplos combinando las decisiones individuales de los clasificadores delos que están compuestos. Los <strong>conjuntos</strong> de clasificadores se construyen en dos fases:en una primera fase, la fase de entrenamiento, se genera una serie de clasificadores(a cada uno de ellos lo denominaremos clasificador individual o clasificador base)con un algoritmo concreto (que denominaremos algoritmo base). En una segunda fasese combinan las distintas hipótesis generadas. La precisión del conjunto puede ser muchomayor que la precisión de cada uno de los miembros en los que está compuestocomo han demostrado multitud de estudios [Freund y Schapire, 1995; Breiman, 1996a;Quinlan, 1996a; Breiman, 1998; Schapire et al., 1998; Skurichina y Duin, 1998; Breiman,1999; Bauer y Kohavi, 1999; Sharkey, 1999; Breiman, 2000; Dietterich, 2000b;Webb, 2000; Breiman, 2001; Rätsch et al., 2001; Fürnkranz, 2002; Rätsch et al., 2002;Bryll et al., 2003; Hothorn y Lausen, 2003; Kim et al., 2003; Chawla et al., 2004;Martínez-Muñoz y Suárez, 2004b; Valentini y Dietterich, 2004; Hall y Samworth, 2005;Martínez-Muñoz y Suárez, 2005b]. Esta mejora se podrá obtener únicamente si los clasificadoresindividuales son suficientemente diversos: combinar clasificadores idénticos noconlleva ninguna mejora; de hecho se obtendría la misma respuesta que cada clasificadorbase. Por tanto para construir un conjunto de clasificadores, hay que elegir el algoritmo basey diseñar una metodología que sea capaz de construir clasificadores que cometan erroresdistintos en los datos de entrenamiento.Las distintas técnicas desarrolladas para la generación de <strong>conjuntos</strong> de clasificadores(primera fase) se pueden agrupar en [Dietterich, 1998b; 2000a]:Técnicas basadas en remuestreo de los datos de entrenamiento: Algunos delos métodos de generación de <strong>conjuntos</strong> de clasificadores más importantes, comoboosting [Freund y Schapire, 1995] y bagging [Breiman, 1996a], pertenecen aestá categoría. Este grupo de técnicas introduce perturbaciones en los datos de entrada(eliminación de ejemplos, repetición de ejemplos, distintas ponderaciones delos ejemplos, etc.) para obtener cada uno de los clasificadores individuales. La variabilidadrequerida dentro del conjunto es obtenida <strong>mediante</strong> modificaciones de ladistribución de entrenamiento (que se supone debe parecerse a la distribución real)y así inducir variaciones en los clasificadores individuales. Para que se genere lasuficiente variabilidad entre clasificadores, el algoritmo base debe tener una ciertainestabilidad frente a los cambios. Los árboles de decisión poseen características quelos convierte en buenos algoritmos base para este grupo de técnicas ya que pequeñasvariaciones en los datos de entrenamiento pueden hacer que las estructuras de losárboles generados sean completamente diferentes.Generalmente se considera que los algoritmos de clasificación vecino más próximoy discriminante lineal no son adecuados [Breiman, 1996a; Dietterich, 1998b].