27.07.2013 Views

Indução de Árvores de Decisão

Indução de Árvores de Decisão

Indução de Árvores de Decisão

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Análise <strong>de</strong> Complexida<strong>de</strong><br />

Vamos assumir que a profundida<strong>de</strong> da árvore para n exemplos é O<br />

(log n) (assumindo árvore balanceada)<br />

Vamos consi<strong>de</strong>rar o esforço para um atributo para todos os nós da<br />

árvore; nem todos os exemplos precisam ser consi<strong>de</strong>rados em cada<br />

nó mas certamente o conjunto completo <strong>de</strong> n exemplos <strong>de</strong>ve ser<br />

consi<strong>de</strong>rado em cada nível da árvore<br />

Como há log n níveis na árvore, o esforço para um único atributo é O<br />

(n log n)<br />

Assumindo que em cada nó todos os atributos são consi<strong>de</strong>rados, o<br />

esforço para construir a árvore torna-se O(mn log n)<br />

Se os atributos são numéricos, eles <strong>de</strong>vem ser or<strong>de</strong>nados, mas apenas<br />

uma or<strong>de</strong>nação inicial é necessária, o que toma O(n log n) para cada um<br />

dos m atributos: assim a complexida<strong>de</strong> acima permanece a mesma<br />

Se os atributos são nominais, nem todos os atributos precisam ser<br />

consi<strong>de</strong>rados em cada nó uma vez que atributos utilizados anteriormente<br />

não po<strong>de</strong>m ser reutilizados; entretanto, se os atributos são numéricos<br />

eles po<strong>de</strong>m ser reutilizados e, portanto, eles <strong>de</strong>vem ser consi<strong>de</strong>rados em<br />

cada nível da árvore<br />

108

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!