18.01.2015 Views

Análise de Observabilidade e Processamento de Erros Grosseiros ...

Análise de Observabilidade e Processamento de Erros Grosseiros ...

Análise de Observabilidade e Processamento de Erros Grosseiros ...

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

156 Busca Tabu para I<strong>de</strong>ntificação <strong>de</strong> <strong>Erros</strong> Conformativos<br />

Função avaliação 2<br />

Esta função <strong>de</strong> avaliação difere da anterior com relação ao tratamento da presença <strong>de</strong> erros<br />

grosseiros. Ao invés <strong>de</strong> utilizar o teste-J(̂x) na formulação, ela consi<strong>de</strong>ra o valor total da função<br />

J(̂x). Com essa abordagem, preten<strong>de</strong>-se dar preferência à configuração que possua o menor<br />

valor <strong>de</strong> J(̂x). Vale lembrar que o menor valor <strong>de</strong> J(̂x) não garante exatamente que a solução<br />

ótima obtida seja a causadora do erro, porém indica a configuração com maior probabilida<strong>de</strong><br />

<strong>de</strong> ser a correta. Essa suposição se <strong>de</strong>ve ao fato <strong>de</strong> que na presença <strong>de</strong> erros conformativos<br />

quando medidas corretas são retiradas erroneamente, muito provavelmente existirão resíduos<br />

<strong>de</strong> outras medidas maiores que o esperado provocado pela medida errônea, porém que não são<br />

consi<strong>de</strong>rados erros grosseiros por estarem abaixo do limiar <strong>de</strong> <strong>de</strong>tecção.<br />

f(x) = N er + βJ(̂x) (5.9)<br />

Algoritmo busca tabu básico<br />

Na Fig. (5.10) apresenta-se o algoritmo busca tabu básico. O mesmo algoritmo é utilizado<br />

para qualquer problema <strong>de</strong> otimização combinatório, obviamente observando as características<br />

<strong>de</strong> cada problema e é justamente este ponto que <strong>de</strong>termina o sucesso <strong>de</strong> qualquer algoritmo<br />

heurístico. O <strong>de</strong>sempenho do método é <strong>de</strong>terminado pelo conhecimento das características do<br />

problema e a capacida<strong>de</strong> <strong>de</strong> explorá-las particularizando o algoritmo 1 .<br />

5.3.1 Redução da vizinhança utilizando o vetor resíduo normalizado<br />

A análise do vetor resíduo normalizado representa uma ferramenta importante na i<strong>de</strong>ntificação<br />

<strong>de</strong> erros grosseiros. No processo convencional, se houver presença <strong>de</strong> múltiplos erros<br />

grosseiros não-conformativos é possível <strong>de</strong>monstrar que a medida que possui o maior resíduo<br />

normalizado é portadora <strong>de</strong> erros grosseiros. Portanto, caso um processo <strong>de</strong> eliminação sucessiva<br />

<strong>de</strong>ssas medidas seja realizada, po<strong>de</strong>-se recuperar o conjunto <strong>de</strong> medidas sem erros grosseiros.<br />

Na ocorrência <strong>de</strong> erros interativos e conformativos, a aplicação <strong>de</strong>ssa metodologia falha. No entanto,<br />

o resíduo normalizado ainda continua sendo uma ferramenta importante no processo <strong>de</strong><br />

i<strong>de</strong>ntificação.<br />

Durante a fase <strong>de</strong> análise da vizinhança, quando a configuração atual apresenta erros grosseiros,<br />

esses erros refletir-se-ão no resíduo normalizado e conseqüentemente na função objetivo. No<br />

1 Na literatura especializada é comum observar a expressão “tayloring the algorithm”.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!