clasificaci´on mediante conjuntos - Escuela Politécnica Superior

clasificaci´on mediante conjuntos - Escuela Politécnica Superior clasificaci´on mediante conjuntos - Escuela Politécnica Superior

13.07.2015 Views

24 CAPÍTULO 2. CLASIFICACIÓN2.3. Conjuntos de clasificadoresLos conjuntos de clasificadores (ensembles of classifiers) son sistemas que clasificannuevos ejemplos combinando las decisiones individuales de los clasificadores delos que están compuestos. Los conjuntos de clasificadores se construyen en dos fases:en una primera fase, la fase de entrenamiento, se genera una serie de clasificadores(a cada uno de ellos lo denominaremos clasificador individual o clasificador base)con un algoritmo concreto (que denominaremos algoritmo base). En una segunda fasese combinan las distintas hipótesis generadas. La precisión del conjunto puede ser muchomayor que la precisión de cada uno de los miembros en los que está compuestocomo han demostrado multitud de estudios [Freund y Schapire, 1995; Breiman, 1996a;Quinlan, 1996a; Breiman, 1998; Schapire et al., 1998; Skurichina y Duin, 1998; Breiman,1999; Bauer y Kohavi, 1999; Sharkey, 1999; Breiman, 2000; Dietterich, 2000b;Webb, 2000; Breiman, 2001; Rätsch et al., 2001; Fürnkranz, 2002; Rätsch et al., 2002;Bryll et al., 2003; Hothorn y Lausen, 2003; Kim et al., 2003; Chawla et al., 2004;Martínez-Muñoz y Suárez, 2004b; Valentini y Dietterich, 2004; Hall y Samworth, 2005;Martínez-Muñoz y Suárez, 2005b]. Esta mejora se podrá obtener únicamente si los clasificadoresindividuales son suficientemente diversos: combinar clasificadores idénticos noconlleva ninguna mejora; de hecho se obtendría la misma respuesta que cada clasificadorbase. Por tanto para construir un conjunto de clasificadores, hay que elegir el algoritmo basey diseñar una metodología que sea capaz de construir clasificadores que cometan erroresdistintos en los datos de entrenamiento.Las distintas técnicas desarrolladas para la generación de conjuntos de clasificadores(primera fase) se pueden agrupar en [Dietterich, 1998b; 2000a]:Técnicas basadas en remuestreo de los datos de entrenamiento: Algunos delos métodos de generación de conjuntos de clasificadores más importantes, comoboosting [Freund y Schapire, 1995] y bagging [Breiman, 1996a], pertenecen aestá categoría. Este grupo de técnicas introduce perturbaciones en los datos de entrada(eliminación de ejemplos, repetición de ejemplos, distintas ponderaciones delos ejemplos, etc.) para obtener cada uno de los clasificadores individuales. La variabilidadrequerida dentro del conjunto es obtenida mediante modificaciones de ladistribución de entrenamiento (que se supone debe parecerse a la distribución real)y así inducir variaciones en los clasificadores individuales. Para que se genere lasuficiente variabilidad entre clasificadores, el algoritmo base debe tener una ciertainestabilidad frente a los cambios. Los árboles de decisión poseen características quelos convierte en buenos algoritmos base para este grupo de técnicas ya que pequeñasvariaciones en los datos de entrenamiento pueden hacer que las estructuras de losárboles generados sean completamente diferentes.Generalmente se considera que los algoritmos de clasificación vecino más próximoy discriminante lineal no son adecuados [Breiman, 1996a; Dietterich, 1998b].

2.3. CONJUNTOS DE CLASIFICADORES 25Estos clasificadores son bastante estables frente a modificaciones de los datos deentrenamiento y no se obtendría la variedad de clasificadores necesaria para que elconjunto generado mejore la capacidad de generalización del clasificador base. Bajodeterminadas condiciones, se pueden construir conjuntos de discriminantes linealesque mejoran el rendimiento de un sólo clasificador. Esto se consigue solamente ensituaciones donde el clasificador lineal se hace muy inestable, como se muestra experimentalmenteen la referencia [Skurichina y Duin, 1998]. En otra referencia de losmismos autores [Skurichina y Duin, 2002] se hace un estudio detallado de distintostipos de discriminantes lineales y de conjuntos de clasificadores (bagging, boostingy subespacios aleatorios) para hacer una “guía de uso”. En esta guía indican conqué conjuntos de clasificadores se pueden obtener mejoras respecto al discriminantelineal individual dependiendo del tamaño del conjunto de entrenamiento. Vecinomás próximo junto con bagging estándar obtiene los mismos resultados que vecinomás próximo ejecutado sobre todos los datos [Breiman, 1996a]. Sin embargo, se havisto recientemente que se pueden obtener mejoras significativas combinando vecinomás próximo junto con bagging siempre que el tamaño del conjunto remuestreadocontenga menos del 50 % de los ejemplos originales. Además se puede demostrarque si el porcentaje de remuestreo tiende a 0 mientras que los datos de entrenamientotienden a infinito entonces el error del conjunto de bagging con vecinos próximostiende al error de Bayes [Hall y Samworth, 2005].Boosting construye clasificadores mediante la asignación de pesos a los ejemplosde forma adaptativa. En cada iteración de boosting se construye un clasificador queintenta compensar los errores cometidos previamente por otros clasificadores. Paralograr que cada nuevo clasificador mejore los resultados en regiones donde fallan losanteriores se utiliza un conjunto de datos ponderado cuyos pesos son actualizadostras cada iteración: se incrementan los pesos de los ejemplos mal clasificados por elúltimo clasificador y se reducen los pesos de los bien clasificados. Boosting puede obien utilizar todos los ejemplos ponderados para construir cada clasificador (boostingcon reweighting), o bien hacer un remuestreo ponderado (boosting con resampling)donde tengan más probabilidad de aparecer en la muestra los ejemplos con mayor peso.En cualquier caso, el algoritmo de clasificación base se encuentra con un conjuntode entrenamiento con ejemplos con distinta importancia relativa. De hecho, cada nuevoclasificador individual se centra en la clasificación de los ejemplos más difícilesque han sido erróneamente clasificados por los clasificadores previos. Boosting esuno de los métodos más eficientes para la construcción de conjuntos de clasificadores.Sin embargo, presenta dificultades de generalización en algunos problemas ycuando los datos tienen ruido en la asignación de etiquetas de clase [Quinlan, 1996a;Opitz y Maclin, 1999; Dietterich, 2000b].

24 CAPÍTULO 2. CLASIFICACIÓN2.3. Conjuntos de clasificadoresLos <strong>conjuntos</strong> de clasificadores (ensembles of classifiers) son sistemas que clasificannuevos ejemplos combinando las decisiones individuales de los clasificadores delos que están compuestos. Los <strong>conjuntos</strong> de clasificadores se construyen en dos fases:en una primera fase, la fase de entrenamiento, se genera una serie de clasificadores(a cada uno de ellos lo denominaremos clasificador individual o clasificador base)con un algoritmo concreto (que denominaremos algoritmo base). En una segunda fasese combinan las distintas hipótesis generadas. La precisión del conjunto puede ser muchomayor que la precisión de cada uno de los miembros en los que está compuestocomo han demostrado multitud de estudios [Freund y Schapire, 1995; Breiman, 1996a;Quinlan, 1996a; Breiman, 1998; Schapire et al., 1998; Skurichina y Duin, 1998; Breiman,1999; Bauer y Kohavi, 1999; Sharkey, 1999; Breiman, 2000; Dietterich, 2000b;Webb, 2000; Breiman, 2001; Rätsch et al., 2001; Fürnkranz, 2002; Rätsch et al., 2002;Bryll et al., 2003; Hothorn y Lausen, 2003; Kim et al., 2003; Chawla et al., 2004;Martínez-Muñoz y Suárez, 2004b; Valentini y Dietterich, 2004; Hall y Samworth, 2005;Martínez-Muñoz y Suárez, 2005b]. Esta mejora se podrá obtener únicamente si los clasificadoresindividuales son suficientemente diversos: combinar clasificadores idénticos noconlleva ninguna mejora; de hecho se obtendría la misma respuesta que cada clasificadorbase. Por tanto para construir un conjunto de clasificadores, hay que elegir el algoritmo basey diseñar una metodología que sea capaz de construir clasificadores que cometan erroresdistintos en los datos de entrenamiento.Las distintas técnicas desarrolladas para la generación de <strong>conjuntos</strong> de clasificadores(primera fase) se pueden agrupar en [Dietterich, 1998b; 2000a]:Técnicas basadas en remuestreo de los datos de entrenamiento: Algunos delos métodos de generación de <strong>conjuntos</strong> de clasificadores más importantes, comoboosting [Freund y Schapire, 1995] y bagging [Breiman, 1996a], pertenecen aestá categoría. Este grupo de técnicas introduce perturbaciones en los datos de entrada(eliminación de ejemplos, repetición de ejemplos, distintas ponderaciones delos ejemplos, etc.) para obtener cada uno de los clasificadores individuales. La variabilidadrequerida dentro del conjunto es obtenida <strong>mediante</strong> modificaciones de ladistribución de entrenamiento (que se supone debe parecerse a la distribución real)y así inducir variaciones en los clasificadores individuales. Para que se genere lasuficiente variabilidad entre clasificadores, el algoritmo base debe tener una ciertainestabilidad frente a los cambios. Los árboles de decisión poseen características quelos convierte en buenos algoritmos base para este grupo de técnicas ya que pequeñasvariaciones en los datos de entrenamiento pueden hacer que las estructuras de losárboles generados sean completamente diferentes.Generalmente se considera que los algoritmos de clasificación vecino más próximoy discriminante lineal no son adecuados [Breiman, 1996a; Dietterich, 1998b].

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!