Indução de Árvores de Decisão
Indução de Árvores de Decisão Indução de Árvores de Decisão
Razão de Ganho Usando o exemplo anterior para o atributo Aparência que produz três subconjuntos com 5, 4 e 5 exemplos, respectivamente Para este teste, cujo ganho é gain(Aparência,T) =0.24675 (mesmo valor anterior), a razão de ganho é gain-ratio(Aparência,T) = 0.24675 / 1.57741 = 0.156428 66
Atributos Numéricos Se um atributo X assume valores reais (numéricos), é gerado um teste binário cujos resultados são X Z O limite Z pode ser encontrado da seguinte forma Os exemplos de T são inicialmente ordenados considerando os valores do atributo X sendo considerado Há apenas um conjunto finito de valores, que podemos denotar (em ordem) por {v 1 , v 2 , ..., v L } Qualquer limite caindo entre v i e v i+1 tem o mesmo efeito que particionar os exemplos cujos valores do atributo X encontra-se em {v 1 , v 2 , ..., v i } e em {v i+1 , v i +2 , ..., v L } Assim, existem apenas L-1 divisões possíveis para o atributo X, cada uma devendo ser examinada Isso pode ser obtido (uma vez ordenados os valores) em uma única passagem, atualizando as distribuições de classes para a esquerda e para a direita do limite Z durante o processo Alguns indutores podem escolher o valor de limite como sendo o ponto médio de cada intervalo Z=(v i +v i+1 )/2 C4.5, entretanto, escolhe o maior valor de Z entre todo o conjunto de treinamento que não excede o ponto médio acima, assegurando que todos os valores que aparecem na árvore de fato ocorrem nos dados 67
- Page 16 and 17: saudável Representação da DT com
- Page 18 and 19: saudável Representação da DT com
- Page 20 and 21: Algoritmo TDIDT [C4.5, Quinlan, 199
- Page 28 and 29: Árvore de Decisão Induzida (sem p
- Page 30 and 31: Árvore de Decisão Induzida (podad
- Page 32 and 33: Relação entre Tamanho da Árvore
- Page 34 and 35: Escolha do Atributo A chave para o
- Page 36 and 37: Exercício Calcule info(T) para U
- Page 38 and 39: Entropia Considere agora que T foi
- Page 40 and 41: Solução [29+,35-] True False [21+
- Page 42 and 43: Exercício [29+,35-] True False [21
- Page 44 and 45: Exemplo 44
- Page 52: Escolha do Atributo para Particiona
- Page 61: Árvore de Decisão Induzida Umidad
- Page 64 and 65: Razão de Ganho T=[1a,1b,1c,...,1o,
- Page 68 and 69: Exemplo 68
- Page 70 and 71: Escolha do Atributo para Particiona
- Page 72: Escolha do Atributo para Particiona
- Page 85 and 86: Atributos com Valores Desconhecidos
- Page 87 and 88: Atributos com Valores Desconhecidos
- Page 89 and 90: Escolha de um Teste Assumindo que
- Page 91 and 92: Exercício Calcular info(T), info(A
- Page 93 and 94: Solução 93
- Page 95 and 96: Particionando o Conjunto de Treinam
- Page 97 and 98: Exemplo Quando os 14 exemplos são
- Page 99 and 100: Exemplo Distribuições de classes
- Page 102 and 103: Exemplo aparencia = sol :...umidade
- Page 104 and 105: Pré-Poda Evita gastar tempo const
- Page 106 and 107: Pós-Poda Existem várias forma de
- Page 108 and 109: Análise de Complexidade Vamos ass
- Page 110 and 111: Interpretação Geométrica Consid
- Page 112 and 113: X2 8 Interpretação Geométrica p/
- Page 114 and 115: X2 8 Interpretação Geométrica p/
Razão <strong>de</strong> Ganho<br />
Usando o exemplo anterior para o atributo<br />
Aparência que produz três subconjuntos com 5, 4<br />
e 5 exemplos, respectivamente<br />
Para este teste, cujo ganho é gain(Aparência,T)<br />
=0.24675 (mesmo valor anterior), a razão <strong>de</strong><br />
ganho é<br />
gain-ratio(Aparência,T) = 0.24675 / 1.57741 =<br />
0.156428<br />
66