You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
Entropia<br />
Seja S um subconjunto <strong>de</strong> T<br />
A informação esperada (ou entropia) do subconjunto S é<br />
(em bits) dado por<br />
Quando aplicado a todo o conjunto <strong>de</strong> treinamento T, info<br />
(T) me<strong>de</strong> a quantida<strong>de</strong> média <strong>de</strong> informação necessária<br />
para i<strong>de</strong>ntificar a classe <strong>de</strong> um exemplo em T<br />
Lembrar que log b (a) = ln(a) / ln(b), ou seja, log 2 (x) = ln<br />
(x) / ln(2)<br />
Observação: assumir 0*log 2 (0) = 0<br />
35