Indução de Árvores de Decisão
Indução de Árvores de Decisão Indução de Árvores de Decisão
Escolha do Atributo A chave para o sucesso de um algoritmo de aprendizado por árvores de decisão depende do critério utilizado para escolher o atributo que particiona o conjunto de exemplos em cada iteração Algumas possibilidades para escolher esse atributo são: aleatória: seleciona qualquer atributo aleatoriamente menos valores: seleciona o atributo com a menor quantidade de valores possíveis mais valores: seleciona o atributo com a maior quantidade de valores possíveis ganho máximo: seleciona o atributo que possui o maior ganho de informação esperado, isto é, seleciona o atributo que resultará no menor tamanho esperado das subárvores, assumindo que a raiz é o nó atual; razão de ganho índice Gini 34
Entropia Seja S um subconjunto de T A informação esperada (ou entropia) do subconjunto S é (em bits) dado por Quando aplicado a todo o conjunto de treinamento T, info (T) mede a quantidade média de informação necessária para identificar a classe de um exemplo em T Lembrar que log b (a) = ln(a) / ln(b), ou seja, log 2 (x) = ln (x) / ln(2) Observação: assumir 0*log 2 (0) = 0 35
- Page 1: Indução de Árvores de José Augu
- Page 4 and 5: DT para Jogar Tênis Atributos: A
- Page 6 and 7: DT para Jogar Tênis Alta Normal N
- Page 8 and 9: DT para Jogar Tênis Aparência Tem
- Page 10 and 11: DT para Jogar Tênis Aparência Tem
- Page 12 and 13: DT para Jogar Tênis Aparência Tem
- Page 14 and 15: Exemplo: Árvore de Decisão saudá
- Page 16 and 17: saudável Representação da DT com
- Page 18 and 19: saudável Representação da DT com
- Page 20 and 21: Algoritmo TDIDT [C4.5, Quinlan, 199
- Page 28 and 29: Árvore de Decisão Induzida (sem p
- Page 30 and 31: Árvore de Decisão Induzida (podad
- Page 32 and 33: Relação entre Tamanho da Árvore
- Page 36 and 37: Exercício Calcule info(T) para U
- Page 38 and 39: Entropia Considere agora que T foi
- Page 40 and 41: Solução [29+,35-] True False [21+
- Page 42 and 43: Exercício [29+,35-] True False [21
- Page 44 and 45: Exemplo 44
- Page 52: Escolha do Atributo para Particiona
- Page 61: Árvore de Decisão Induzida Umidad
- Page 64 and 65: Razão de Ganho T=[1a,1b,1c,...,1o,
- Page 66 and 67: Razão de Ganho Usando o exemplo a
- Page 68 and 69: Exemplo 68
- Page 70 and 71: Escolha do Atributo para Particiona
- Page 72: Escolha do Atributo para Particiona
Escolha do Atributo<br />
A chave para o sucesso <strong>de</strong> um algoritmo <strong>de</strong> aprendizado<br />
por árvores <strong>de</strong> <strong>de</strong>cisão <strong>de</strong>pen<strong>de</strong> do critério utilizado para<br />
escolher o atributo que particiona o conjunto <strong>de</strong> exemplos<br />
em cada iteração<br />
Algumas possibilida<strong>de</strong>s para escolher esse atributo são:<br />
aleatória: seleciona qualquer atributo aleatoriamente<br />
menos valores: seleciona o atributo com a menor quantida<strong>de</strong> <strong>de</strong><br />
valores possíveis<br />
mais valores: seleciona o atributo com a maior quantida<strong>de</strong> <strong>de</strong><br />
valores possíveis<br />
ganho máximo: seleciona o atributo que possui o maior ganho <strong>de</strong><br />
informação esperado, isto é, seleciona o atributo que resultará no<br />
menor tamanho esperado das subárvores, assumindo que a raiz é<br />
o nó atual;<br />
razão <strong>de</strong> ganho<br />
índice Gini<br />
34