13.04.2013 Views

Estatística II - ISMT

Estatística II - ISMT

Estatística II - ISMT

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

ESTATÍSTICA <strong>II</strong><br />

<strong>Estatística</strong> <strong>II</strong><br />

Teoria e exercícios passo-a-passo<br />

Este manual apresenta as estatísticas não paramétricas e os<br />

critérios de decisão para verificação de hipóteses. Pretendese<br />

com esta compilação de testes e teorias, capacitar o leitor<br />

para a aplicação estatística à investigação em ciências<br />

humanas (sociais, médicas, psicológicas, etc) e biológicas<br />

Margarida Pocinho<br />

17-09-2010<br />

1<br />

2010


ESTATÍSTICA <strong>II</strong><br />

Índice Geral<br />

I - INTRODUÇÃO.................................................................................................................... 7<br />

2<br />

2010<br />

ESTATÍSTICA PARAMÉTRICA E NÃO PARAMÉTRICA: REVISÕES ............................................... 7<br />

TESTES NÃO PARAMÉTRICOS ....................................................................................... 13<br />

TESTES PARA AMOSTRAS INDEPENDENTES: ........................................................... 14<br />

TESTE DO QUI-QUADRADO .................................................................................................... 14<br />

TESTE U DE MANN-WHITNEY ............................................................................................... 22<br />

TESTE DE KRUSKAL-WALLIS ................................................................................................ 28<br />

TESTES PARA AMOSTRAS RELACIONADAS .............................................................. 33<br />

TESTE DE FRIEDMAN ............................................................................................................. 44<br />

MEDIDAS DE CORRELAÇÃO E SUAS PROVAS DE SIGNIFICÂNCIA ............................................. 47<br />

COEFICIENTE DE CORRELAÇÃO RHO DE SPEARMAN-RANK .................................................... 48<br />

TESTES NÃO PARAMÉTRICOS NO SPSS ...................................................................... 50<br />

O TESTE DE MANN-WHITNEY ....................................................................................... 50<br />

O TESTE DE WILCOXON: ................................................................................................ 55<br />

TESTE H DE KRUSKAL-WALLIS: .................................................................................. 57<br />

ANEXOS ................................................................................................................................ 60


ESTATÍSTICA <strong>II</strong><br />

Licenciatura: Psicologia<br />

Unidade<br />

Curricular: <strong>Estatística</strong> <strong>II</strong><br />

Programa da Unidade Curricular<br />

2010-2011<br />

Docente: Margarida Tenente dos Santos Pocinho<br />

Página Web: http://docentes.ismt.pt/~m_pocinho/<br />

Contacto do<br />

Docente: 916784049<br />

Objectivos Gerais:<br />

Ano: 2.º Semestre: 1<br />

Esta Unidade Curricular (UC) visa estender os conhecimentos adquiridos em <strong>Estatística</strong> I, bem<br />

como fornecer aos alunos conhecimentos teóricos e práticos relativos a metodologias de inferência<br />

estatística não paramétrica. O conteúdo programático da unidade curricular compreende<br />

instrumentos de inferência estatística não paramétrica como as ordens, as estatísticas, as estatísticas<br />

de ordem, os estimadores e as distribuições de amostragem, a estimação não paramétrica pontual e<br />

por intervalos e os testes de hipóteses não paramétricos. São igualmente tratados aspectos<br />

essenciais de distribuições assintóticas. Os alunos devem ficar a conhecer os estimadores pontuais e<br />

as suas propriedades, construir intervalos de confiança não paramétricos e realizar testes de<br />

hipóteses não paramétricos. Relativamente a cada procedimento não paramétrico, os alunos devem<br />

saber claramente as suas condições de aplicabilidade.<br />

Esta UC tem ainda como objectivo o tratamento estatístico dos dados recolhidos, e sua análise, bem<br />

como, aprofundar o tratamento computacional de dados.<br />

Competências a Desenvolver:<br />

1. Aprofundar os conhecimentos sobre a estatística paramétrica e não paramétrica<br />

aplicada à psicologia iniciada em <strong>Estatística</strong> I,<br />

2. Aprofundar as estratégias estatísticas paramétricas e não paramétricas adequadas à<br />

resolução de determinado problema e aplicar as estratégias estatísticas não<br />

paramétricas quando as paramétricas não se aplicarem<br />

3. Organizar dados em matriz informática (SPSS) para análise de dados a partir de<br />

qualquer meio de recolha de dados<br />

4. Analisar dados e interpretar resultados resultantes quer dos cálculos manuais quer<br />

3<br />

2010


ESTATÍSTICA <strong>II</strong><br />

dos outputs informáticos<br />

Conteúdos Programáticos:<br />

Introdução: Inferência <strong>Estatística</strong>. Escala nominal, ordinal, intervalar e de razão. População,<br />

amostra, parâmetro, estatística, estatística de ordem. Métodos paramétricos, métodos robustos e<br />

métodos não paramétricos. Estimação pontual e intervalar. Testes de hipóteses. P-value.<br />

Comparação de duas populações. Amostras independentes e emparelhadas. Teste dos sinais. Teste<br />

de Wilcoxon. Teste de Mann-Whitney.<br />

Comparação de mais de duas populações. Amostras independentes ou relacionadas. Teste de<br />

Kruskal-Wallis. Comparações a posteriori. Teste de Cochran. Teste de Friedman. Teste do qui-<br />

quadrado para diferenças de probabilidades. Aleatoriedade e independência. Medidas e testes de<br />

associação. Teste do qui-quadrado em tabelas de contingência, para independência.. Coeficientes<br />

de correlação de Spearman. Teste de McNemar. Análise de ajustamento. Teste do qui-quadrado.<br />

Teste de Kolmogorov-Smirnov. Teste de Shapiro-Wilk.<br />

Calculo dos testes em SPSS e interpretação de resultados<br />

Metodologia de Avaliação:<br />

Avaliação Continuada:<br />

Elemento de Avaliação Peso (%) Mínimos<br />

(%) *<br />

Construção de uma base de dados e respectiva<br />

transformação (0,5 valor)<br />

Data e Hora Sala<br />

2,5 - Lab de Informática<br />

Sintaxe dos cálculos efectuados (0,5 valor) 2,5 - Lab de Informática<br />

Frequência teórica (9 valores) 45 - Qualquer<br />

Avaliação Prática (6) 30 - Lab de Informática<br />

Avaliação Final:<br />

Elemento de Avaliação Peso (%) Mínimos (%) * Data e Hora Sala<br />

Componente teórica (inclui a escolha de testes 50% 50% Normal:.<br />

Qualquer<br />

estatísticos adequados às variáveis em estudo<br />

e hipóteses colocadas bem como a correcta<br />

decisão de hipóteses)<br />

Recurso:.<br />

Componente prática (será avaliada através do<br />

cálculo de estatísticas não paramétricas<br />

manualmente e com recurso ao suporte<br />

informático spss)<br />

Outras Notas sobre a Avaliação:<br />

50% 50% Normal:.<br />

Recurso:.<br />

4<br />

2010<br />

Laboratório<br />

Informática


ESTATÍSTICA <strong>II</strong><br />

Embora as faltas sejam um aspecto ponderado na avaliação (cumprimento de tarefas), a aluna ou aluno que<br />

faltar fica duplamente penalizado: por não ter assistido à matéria e por não estar presente nas tarefas pedidas<br />

e por isso não sendo avaliado nessas tarefas. Assim não é necessário o estabelecimento de percentagem de<br />

aulas obrigatórias, para que o sistema de avaliação seja justo.<br />

Política Anti Cópia e Anti Plágio:<br />

Nesta disciplina, os alunos podem e devem consultar várias fontes de informação, assim como<br />

trocar ideias com colegas acerca dos conteúdos das aulas e dos trabalhos. No entanto, os<br />

trabalhos finais apresentados pelos alunos deverão ser da sua exclusiva autoria.<br />

No contexto da disciplina, considera-se cópia ou plágio quando parte ou a totalidade de um teste<br />

ou de um trabalho entregue ao docente contém materiais não referenciados que não são da autoria<br />

do aluno mas que são apresentados como tal.<br />

A cópia e o plágio são inaceitáveis, e todos os trabalhos onde é feita cópia ou plágio, parcial ou<br />

total, devem ser desclassificados. Tal aplica-se a quem copia ou plagia conteúdos alheios, assim<br />

como a quem, deliberadamente, permite a cópia do teste ou trabalho, parcial ou integralmente. Em<br />

caso de dúvida sobre o que é considerado plágio ou cópia, o aluno deverá contactar o docente<br />

para obter esclarecimentos adicionais.<br />

Gestão da Carga Horária:<br />

N.º<br />

Aula<br />

Tipo Data Prevista Conteúdo Metodologia<br />

1 PL 14-09-2010 Apresentação da disciplina e do docente<br />

1 T 17-09-2010<br />

2 PL 21-09-2010<br />

2 T 24-09-2010<br />

3 PL 28-09-2010<br />

Pré-requisitos da estatística paramétrica e princípios da<br />

estatística não paramétrica<br />

Iniciação à construção da matriz de dados em SPSS que<br />

servirá de base ao trabalhos e tarefas do módulo prático<br />

da disciplina<br />

Pré-requisitos da estatística paramétrica e princípios da<br />

estatística não paramétrica (continuação)<br />

Continuação da construção da matriz de dados em SPSS<br />

que servirá de base ao trabalhos e tarefas do módulo<br />

prático da disciplina<br />

5<br />

2010<br />

Expositiva com resolução de exercícios<br />

DEMONSTRATIVA (MEIOS<br />

INFORMÁTICOS)<br />

Expositiva com resolução de exercícios<br />

DEMONSTRATIVA (MEIOS<br />

INFORMÁTICOS)<br />

3 T 01-10-2010 Ordenações: somatórios e médias. Algoritmo e cálculo Expositiva com resolução de exercícios<br />

4 T 08-10-2010 Cálculo das frequências esperadas Expositiva com resolução de exercícios<br />

4 PL 12-10-2010<br />

Verificação de pré-requisitos para decisão das estratégias<br />

estatísticas em SPSS. Analise descritiva dos dados e<br />

registo de procedimentos na sintaxe<br />

5 T 15-10-2010 Qui-quadrado da aderência (X2) e qui-quadrado da<br />

DEMONSTRATIVA (MEIOS<br />

INFORMÁTICOS)<br />

Expositiva com resolução de exercícios


ESTATÍSTICA <strong>II</strong><br />

5 PL 19-10-2010<br />

6 T 22-10-2010<br />

independência<br />

Aumento da base de dados e cálculo da variáveis<br />

transformadas<br />

Cálculo do x2 da aderência, da independência<br />

(CONTINUAÇÃO)<br />

6<br />

2010<br />

DEMONSTRATIVA (MEIOS<br />

INFORMÁTICOS)<br />

Expositiva com resolução de exercícios<br />

6 T 29-10-2010 Cálculo do u de mann-whitney Expositiva com resolução de exercícios<br />

7 PL 02-11-2010<br />

Cálculo do x2 da aderência, da independência e u de<br />

mann-whitney, em SPSS<br />

DEMONSTRATIVA (MEIOS<br />

INFORMÁTICOS)<br />

7 T 05-11-2010 teste H de kruskal-wallis e W de wilcoxon Expositiva com resolução de exercícios<br />

8 PL 09-11-2010 teste H de kruskal-wallis e W de wilcoxon em SPSS<br />

8 T 12-11-2010<br />

9 PL 16-11-2010<br />

Interpretação dos testes, diferença das leituras resultantes<br />

dos procedimentos informáticos relativamente ao<br />

procedimento manual e tabelado<br />

Interpretação dos testes, diferença das leituras resultantes<br />

dos procedimentos informáticos relativamente ao<br />

procedimento manual e tabelado<br />

9 T 19-11-2010 Teste das mudanças de macnemar e q de cochran<br />

10 PL 23-11-2010<br />

10 T 26-11-2010<br />

11 PL 30-11-2010<br />

Calculo do teste das mudanças de macnemar e q de<br />

cochran em SPSS<br />

Friedman e esclarecimentos sobre duvidas para a<br />

frequência<br />

Cálculo do teste Friedman em SPSS e esclarecimentos<br />

sobre duvidas para a frequência<br />

11 T 03-12-2010 revisões para a Frequência teórica<br />

12 PL 07-12-2010 revisões para a Frequência pratica<br />

12 T 10-12-2010 Frequência teórica<br />

13 PL 14-12-2010 Frequência pratica<br />

13 T 17-12-2010 Correcção da frequência teórica<br />

DEMONSTRATIVA (MEIOS<br />

INFORMÁTICOS)<br />

Expositiva com resolução de exercícios e<br />

exemplos<br />

DEMONSTRATIVA (MEIOS<br />

INFORMÁTICOS)<br />

Expositiva com resolução de exercícios e<br />

exemplos<br />

DEMONSTRATIVA (MEIOS<br />

INFORMÁTICOS)<br />

Expositiva com resolução de exercícios e<br />

exemplos<br />

EXPOSITIVA E DEMONSTRATIVA<br />

(MEIOS INFORMÁTICOS)<br />

Utilização de papel, caneta e lápis,<br />

calculadora, consulta de tabelas de<br />

valores críticos e de tabelas de decisão<br />

DEMONSTRATIVA (MEIOS<br />

INFORMÁTICOS)<br />

Utilização de papel, caneta e lápis,<br />

calculadora, consulta de tabelas de<br />

valores críticos e de tabelas de decisão<br />

Utilização de papel, caneta e lápis,<br />

computador com SPSS, consulta de<br />

tabelas de decisão<br />

Utilização de papel, caneta e lápis,<br />

calculadora, consulta de tabelas de<br />

valores críticos e de tabelas de decisão


ESTATÍSTICA <strong>II</strong><br />

I - INTRODUÇÃO<br />

ESTATÍSTICA PARAMÉTRICA E NÃO PARAMÉTRICA: REVISÕES<br />

Paramétricos: calcula as diferenças numéricas exactas entre os resultados.<br />

Não paramétricos: apenas consideram se certos resultados são superiores ou inferiores a outros<br />

resultados.<br />

PRÉ-REQUISITOS PARA UTILIZAÇÃO DE TESTES<br />

Testes paramétricos<br />

1. que a variável tenha sido mensurada num nível mínimo intervalar;<br />

2. que a distribuição seja simétrica (e por vezes mesocurtica);<br />

3. que a característica estudada (variável) tenha distribuição normal numa dada população.<br />

4. Pressupostos<br />

Para saber se uma variável é simétrica dividimos o coeficiente assimetria (Skewness) pelo erro padrão<br />

e se o resultado estiver entre 2 e -2 a distribuição é simétrica.<br />

Para saber se uma variável é mesocurtica dividimos o coeficiente de achatamento (Kurtosis) pelo erro<br />

padrão e se o resultado estiver entre 2 e -2 a distribuição é mesocurtica.<br />

Mas se os resultados de um teste paramétrico, não cumpriram com os requisitos (no mínimo dados<br />

intervalares; distribuição simétrica, mesocurtica e normal), então não têm interpretação significativa.<br />

Quando acontecem estes factos, a maioria dos investigadores opta por testes de significância não-<br />

paramétricos.<br />

Sempre que não se pode, honestamente, admitir a simetria e a normalidade de distribuição, ou os<br />

dados foram recolhidos num nível de mensuração inferior ao intervalar, devemos recorrer a testes que<br />

não incluem a normalidade da distribuição ou nível intervalar de mensuração. Esses testes chamam-se<br />

não paramétricos<br />

Testes não-paramétricos: podem ser utilizados, mesmo quando os seus dados só podem ser medidos<br />

num nível ordinal, isto é, quando for apenas possível ordená-los por ordem de grandeza) podem ser<br />

utilizados mesmo quando os seus dados são apenas nominais, i.e., quando os sujeitos podem apenas<br />

ser classificados em categorias.<br />

7<br />

2010


ESTATÍSTICA <strong>II</strong><br />

PODER DE UM TESTE<br />

O poder de um teste é a probabilidade de rejeitarmos a H0 quando ela é realmente nula<br />

Os testes mais poderosos (os que têm maior probabilidade) de rejeição de H0, são testes que possuem<br />

pré-requisitos mais difíceis de satisfazer (testes paramétricos como t e F).<br />

As alternativas não paramétricas exigem muito menos pré-requisitos mas produzem testes de<br />

significância com menos poder que os correspondentes paramétricos.<br />

Em consequência<br />

Ao rejeitar-se a H0 sem preencher as exigências mínimas dos testes paramétricos, é mais provável que<br />

essa rejeição seja falsa (se rejeitar a H0 quando ela é verdadeira comete um erro de tipo I; se aceitar a<br />

H0 quando ela é falsa comete um erro de tipo <strong>II</strong>). Quando os requisitos de um teste paramétrico são<br />

violados, torna-se impossível conhecer o seu poder e a sua dimensão ()<br />

É obvio que os investigadores querem, a todo o custo, rejeitar a H0 quando ela é mesmo falsa,<br />

evitando um erro de tipo I.<br />

O teste ideal seria aquele que =0 e =1, o que implicaria que o teste conduziria sempre à decisão<br />

correcta, contudo o teste ideal raramente existe.<br />

A probabilidade do erro de 1ª espécie deve ser reduzida, fixando teórico em 0,1; 0,05 ou 0,01. o<br />

valor fixado para depende da importância que se dá ao facto de rejeitar a H0 quando esta é<br />

verdadeira.<br />

Uma ilustração deste ponto de vista pode ser feita com o seguinte exemplo:<br />

Uma pessoa é inocente até prova do contrário<br />

H0: A pessoa é inocente<br />

H1: A pessoa é culpada<br />

Erro I: A pessoa é condenada mas está inocente<br />

Erro <strong>II</strong>: A pessoa é absolvida mas é culpada<br />

Naturalmente a justiça procura reduzir a possibilidade de ocorrer o erro de 1ª espécie, pois entende-se<br />

que é mais grave condenar inocentes que absolver criminosos.<br />

Para certos sistemas judiciais um = 0,1 é demasiado elevado, optando por =0,01; noutros sistemas<br />

judiciais pode admitir que = 0,05 é um valor razoável.<br />

ASSIM …<br />

Fixada a probabilidade do erro de tipo I (dimensão do teste), o teste mais potente é aquele em que a<br />

escolha da região crítica minimiza a probabilidade do erro de 2ª espécie. Diz-se também que esta<br />

região crítica é a mais potente.<br />

8<br />

2010


ESTATÍSTICA <strong>II</strong><br />

Facilmente se conclui que o teste mais potente é aquele que, uma vez fixada a probabilidade de<br />

rejeitar a H0, quando ela é verdadeira, maximiza a potência ou a capacidade para rejeitar a mesma<br />

hipótese quando esta é falsa.<br />

ESTRATÉGIAS ESTATISTICAS DE ANÁLISE DE DADOS<br />

Para escolher qualquer tipo de teste estatístico<br />

Distinguir se a nossa amostra é constituída pelos mesmos sujeitos em todas as situações ou se é<br />

formada por diferentes sujeitos para cada situação<br />

Inter-sujeitos ou design não-relacionado<br />

este tipo de design é utilizado quando um indivíduo ou objecto é avaliado apenas uma vez. A<br />

comparação é efectuado entre os grupos de sujeitos/ objectos cujos resultados são não-relacionado.<br />

Desvantagem: conjunto das diferenças individuais na forma como os sujeitos reagem ou respondem à<br />

tarefa.<br />

Intra-sujeitos ou design relacionado<br />

A comparação é feita entre os mesmos sujeitos (sujeitos do mesmo grupo).<br />

A importância destes designs é a eliminação de quaisquer particularidades individuais, uma vez que<br />

ficam igualizadas em todas as situações.<br />

Desvantagem: Efeito de memória e aprendizagem.<br />

Amostras emparelhadas<br />

Igualizam-se sujeitos diferentes mas emparelhados, em termos de idade, sexo, profissão e outras<br />

características gerais que parecem importantes para cada pesquisa em particular.<br />

estes tipos de designs podem ser considerados de designs relacionados, uma vez que é controlado nas<br />

suas características relevantes.<br />

Desvantagem: Dificuldade em encontrar sujeitos que permitam o emparelhamento de todas as<br />

características relevantes.<br />

Dificuldades arranjar grandes amostras.<br />

A maioria dos investigadores principiantes enfrenta sérias dificuldades quando tem de usar a análise<br />

estatística. É apontado como prováveis causas o ensino de <strong>Estatística</strong> que, frequentemente, tem um<br />

enfoque matemático ou de receita que não conduzem ao aproveitamento desta ferramenta e o<br />

consequente despoletar de uma “ansiedade matemática”, que pode levar os estudantes a evitar o seu<br />

9<br />

2010


ESTATÍSTICA <strong>II</strong><br />

uso. Essa situação conduz, não raras vezes, à dependência de outros para seleccionar a estatística<br />

adequada ao seu projecto. O objectivo desta lição é ajudar a ter uma ideia da potencialidade da<br />

estatística apropriada a sua pesquisa.<br />

Primeiro examine seu estudo, identifique o que quer com sua análise estatística, devendo, para isso,<br />

especificar claramente as várias questões a que quer que sua análise estatística responda (conhecer a<br />

associação ou verificar as diferenças). Comece por escrever as suas questões de pesquisa e hipóteses.<br />

Depois identifique a variável dependente e independente bem como os seus níveis de mensuração.<br />

Após estar na posse dessa informação consulte a figura que se segue e vai ver que tudo começa a ficar<br />

mais fácil.<br />

Como segundo passo na escolha da estatística apropriada, verifique se sua variável dependente é<br />

adequada para a estatística paramétrica. A estatística paramétrica envolve pelo menos dois<br />

10<br />

2010


ESTATÍSTICA <strong>II</strong><br />

pressupostos iniciais: o primeiro é se a variável dependente segue uma distribuição normal e, o<br />

segundo é se os dados entre diferentes sujeitos são independentes ou emparelhados/relacionados.<br />

Portanto, uma variável dependente qualitativa ou categórica não se enquadra neste tipo de estatística,<br />

devendo usar o enfoque da estatística não paramétrica.<br />

Assim recorremos a estatística paramétrica quando analisamos variáveis dependentes contínuas.<br />

Se essas variáveis violam os pressupostos e não tem como corrigir essa violação, então deve utilizar a<br />

estatística não paramétrica. Só tem duas opções: ou aprende a lidar com a <strong>Estatística</strong> não<br />

paramétrica ou então aumenta o tamanho da amostra.<br />

Examine cada variável dependente uma por uma nesse processo. Nem todas terão as mesmas<br />

características. Um erro comum, por exemplo, é assumir que pode usar sempre o mesmo teste<br />

estatístico se os grupos experimentais são equivalente em idade, género, anos de estudos e outras<br />

variáveis demográficas. Idade e anos de estudo são duas variáveis geralmente analisadas com<br />

estatística paramétrica. O género e a etnia são variáveis nominais e por isto devem ser analisadas com<br />

<strong>Estatística</strong> não paramétrica.<br />

Definir quais as estratégias estatísticas a utilizar exige o conhecimento das lições anteriores. As mais<br />

robustas estratégias estatísticas exigem que as variáveis apresentem propriedades intervalares para que<br />

sejam obtidos resultados fidedignos. Contudo na investigação com seres humanos nem sempre é<br />

possível termos variáveis quantitativas, por isso para cada teste estatístico paramétrico existe um<br />

equivalente não paramétrico mas destes últimos existem vários que não tem equivalente paramétrico.<br />

Por exemplo se tanto a nossa variável dependente (VD) quanto a independente (VI) forem nominais e<br />

quisermos conhecer a associação entre elas podemos recorrer ao qui-quadrado (x 2 ) da independência;<br />

se ambas forem ordinais podemos recorrer ao rho de spearman mas se forem quantitativas e<br />

cumprirem com os restantes pré-requisitos da estatística paramétrica (simétricas, mesocurticas e<br />

distribuição normal) podemos utilizar o teste r de Pearson.<br />

Se em vez de querermos ver umas associação ou correlação pretendermos verificar se existem<br />

diferenças na distribuição de uma variável (VD) em função de outra com nível de mensuração<br />

nominal e dicotómica (VI) então podemos utilizar o teste t de student para amostras independentes<br />

(caso estejam cumpridos os pré-requisitos impostos à VD isto é, quantitativa, simétrica e apresente<br />

distribuição aproximadamente normal) ou o seu equivalente não paramétrico u de Mann-Whitney<br />

(caso não estejam cumpridos os pré-requisitos da estatística paramétrica mas a VD tenha um nível de<br />

mensuração no mínimo ordinal).<br />

Se a figura anterior não o deixou muito esclarecido experimente consultar o quadro que se segue. Os<br />

testes estatísticos paramétricos estão assinados com um asterisco (*)<br />

11<br />

2010


Variáveis Dependentes<br />

ESTATÍSTICA <strong>II</strong><br />

Testes para<br />

uma amostra<br />

Nominal<br />

Ordinal<br />

Quantitativa<br />

NIVEIS DE MENSURAÇÃO<br />

Nominal Ordinal/ grupo Quantitativa<br />

TESTE DE QUI-QUADRADO DA<br />

ADERÊNCIA<br />

TESTE DE KOLMOROGOV-<br />

SMIRNOV<br />

TESTE DE QUI-QUADRADO DA<br />

ADERÊNCIA<br />

Variáveis Independentes<br />

12<br />

2010<br />

-TESTE DE KOLMOROGOV-<br />

SMIRNOV<br />

-TESTE T PARA UMA<br />

AMOSTRA *<br />

Qualitativas Quantitativa<br />

Nominal/ dicotómica/ grupo Ordinal/ Grupo<br />

Qui-Quadrado da Independencia<br />

Kappa de Cohen (Tabelas Quadradas)<br />

Macnemar (2x2)<br />

Q de Cochran (Dicotómicas)<br />

Qui-Quadrado da Independencia<br />

(Variáveis Grupo)<br />

Teste Qui-Quadrado da Independencia Rho de Spearman<br />

Teste U de Mann-Whitney W de Wilcoxon (Igual Escala)<br />

Teste H de Kruskal-Wallis<br />

t de Student p/ dados Independentes *<br />

Kappa de Cohen (Tabelas<br />

Quadradas)<br />

Qui-Quadrado da Independencia<br />

(Variáveis Grupo)<br />

Rho de Spearman<br />

T de Student p/ dados<br />

Emparelhadas *<br />

U de Mann-Whitney W de Wilcoxon<br />

Anova a um critério e respectivo Post-<br />

Hoc *<br />

Rho de Spearman<br />

R de Pearson *<br />

H de Kruskal-Wallis e U Por Grupo<br />

Rho de Spearman<br />

Anova Para Medidas Repetidas<br />

*<br />

Friedman<br />

Supondo que suas variáveis dependentes tivessem uma distribuição normal ou que sua amostra fosse<br />

suficientemente grande, deve verificar todas as possibilidades de análise: univariada, bivariada,<br />

múltipla e multivariada, se for o caso. A análise univariada é quando a variável é analisada per se,<br />

análise bivariada quando uma variável dependente é relacionada com uma única variável<br />

independente, análise múltipla quando se analisa uma variável dependente em função de várias<br />

variáveis independentes, e análise multivariada, quando se analisa várias variáveis dependentes<br />

contínuas em função de variáveis independentes categóricas ou quando se analisa a estrutura das<br />

variáveis, visando a redução do número de variáveis.<br />

O quadro anterior não esgota as analises estatísticas, aliás existem outras tantas quantas as que<br />

apresentamos aqui, contudo mostra as mais utilizadas nas análises univariadas e bivariadas.


ESTATÍSTICA <strong>II</strong><br />

TESTES NÃO PARAMÉTRICOS<br />

Frank Wilcoxon (1892 - 1965) tornou-se conhecido por ter desenvolvido dois testes não<br />

paramétricos muito utilizados: o Teste de Soma de Postos Wilcoxon Rank Sum Test que é<br />

equivalente ao teste de Mann-Whitney, e o Teste de Postos com Sinais ou Wilcoxon Signed Rank<br />

Test (Rosner, 1995).<br />

A estatística não paramétrica é de distribuição livre:<br />

• Não incorpora as suposições restritivas, características dos testes paramétricos.<br />

13<br />

2010<br />

• Os dados não precisam estar normalmente distribuídos (Free Distribution). É necessário,<br />

apenas, que eles sejam ordenáveis.<br />

• São baseados em postos das observações e não em seus valores, como no caso dos<br />

paramétricos.<br />

• Podem ser aplicados para variáveis quantitativas, falsas intervalares( também chamadas de<br />

Desvantagens<br />

semi-quantitativas) e qualitativas.<br />

• Menos sensíveis aos erros de medida e rápidos para pequenas amostras.<br />

• Se as suposições básicas de um teste paramétrico são satisfeitas, então os testes não-<br />

paramétricos são menos poderosos do que a técnica paramétrica correspondente (exigirá<br />

uma amostra maior);<br />

• As hipóteses testadas por testes não-paramétricos tendem ser menos específicas;<br />

• Por usarem postos, em vez do valor da observação, esses testes não aproveitam toda a<br />

informação disponível sobre a distribuição dos dados;<br />

• Se existem muitas distribuições empatadas, as estatísticas serão superestimadas, exigindo<br />

correções.<br />

O posto de uma observação é a sua posição relativa às demais observações, quando os dados estão<br />

em ordem crescente. É uma forma de medir a posição relativa da observação, sem usar o valor<br />

observado diretamente.<br />

Os postos correspondentes às observações de uma variável X1, X2,..., Xn são:<br />

• Colocam-se as observações em ordem crescente, X1 < X2,...,< Xn.<br />

• Associam-se valores, correspondendo às suas posições relativas na amostra. O primeiro<br />

elemento recebe o valor 1, o segundo o valor 2, e assim por diante, até que a maior<br />

observação receba o valor n.


ESTATÍSTICA <strong>II</strong><br />

14<br />

2010<br />

• Se todas as observações são distintas, ou seja, se Xi Xj para todo i, j, os postos R1, R2,...,Rn<br />

são iguais aos valores associados às observações no passo anterior. Para observações iguais,<br />

associam-se postos todos iguais à média de suas posições relativas na amostra.<br />

Exemplo: Considere uma amostra de 8 idades de crianças do ambulátorio do IC, apresentada na<br />

tabela abaixo:<br />

Os postos devem ser cuidadosamente atribuídos, pois os testes serão baseados nesses valores.<br />

TESTES PARA AMOSTRAS INDEPENDENTES:<br />

TESTE DO QUI-QUADRADO<br />

O Qui-quadrado (X 2 ) é um teste estatístico não paramétrico, sendo um dos mais utilizados e bastante<br />

aplicado em diferentes planos experimentais. O X 2 é muito usado mesmo ao nível da estatística<br />

multivariada (no sentido de obter o grau de aderência entre o modelo obtido e o teórico).<br />

Existem vários testes baseados no qui-quadrado, contudo só dois tem esse nome: o teste do qui-<br />

quadrado da aderência ou ajustamento (para uma amostra) e o teste do qui-quadrado da<br />

independência.<br />

O Qui-quadrado (X 2 ) de aderência consiste em comparar os dados obtidos experimentalmente com os<br />

dados esperados de acordo com a lei. Das comparações surgem diferenças que podem ser grandes ou<br />

pequenas: se forem grandes, a hipótese nula (H0) que pressupõe um bom ajustamento deverá ser<br />

rejeitada em favor da hipótese alternativa (H1); se forem pequenas, a hipótese nula não será rejeitada e<br />

as diferenças são atribuíveis ao acaso. O objectivo é comparar frequências observadas com<br />

frequências teóricas ou esperadas, ou seja, verificar o seu grau de aproximação, que pode ser grande<br />

(=0) ou pequeno (> 0).


ESTATÍSTICA <strong>II</strong><br />

Utiliza-se quando os dados são nominais, pelo que em vez de se medirem resultados dos sujeitos<br />

apenas se podem distribuir os sujeitos por uma ou mais categorias.<br />

O Qui-quadrado (X 2 ) testa a hipótese experimental que prevê quantos sujeitos de cada grupo são<br />

distribuídos por uma determinada categoria.<br />

O X 2 de independência serve para ajudar a decidir se as duas variáveis estão ou não "amarradas" uma<br />

à outra por uma relação de dependência.<br />

Utiliza-se quando os dados são qualitativos e se pretende saber como é que se comportam os dados<br />

quando as variáveis se cruzam, isto é qual a contingência entre as variáveis.<br />

O objectivo é comparar as frequências observadas em cada uma das células de uma tabela de<br />

contingência com as diferenças esperadas. O teste compara o número de sujeitos que se distribuem por<br />

uma determinada categoria com o número de sujeitos que se esperaria se distribuíssem por essa<br />

mesma categoria, caso não existissem diferenças.<br />

O teste do X 2 reflecte o tamanho das diferenças entre as frequências observadas e esperadas. Para ser<br />

significativo, o valor de X 2 deverá ser igual ou superior aos valores críticos da tabela.<br />

TESTE DO QUI-QUADRADO DA ADERENCIA PASSO-A-PASSO<br />

1. Calcular as frequências esperadas (E) para cada célula, somando as frequências observadas e<br />

dividindo pelo número total de categorias.<br />

Em que<br />

2. Calcular X 2 :<br />

O = frequências observadas para cada categoria<br />

C = número de categorias<br />

3. Calcular os graus de liberdade:<br />

g.l. = (C-1)<br />

Se X 2 observado X 2 crítico rejeita-se H0 Se X 2 observado


ESTATÍSTICA <strong>II</strong><br />

Exemplo: A depressão acontece mais em homens ou em mulheres. Estudo efectuado com<br />

base na recolha de dados provenientes de uma amostra aleatória de indivíduos diagnosticados<br />

com depressão nos últimos 5 anos, que foram ou estão a ser acompanhados na consulta de um<br />

determinado hospital central.<br />

X 2 = ((-5) 2 /50) + (( 5) 2 /50)<br />

X 2 = 1<br />

FO FE Resíduos<br />

Feminino 45 50 -5<br />

Masculino 55 50 +5<br />

O X 2 observado é igual a 1<br />

O X 2 crítico é igual a 3,84<br />

100/2=50<br />

O valor observado é inferior ao valor crítico, logo, aceito a hipótese nula: a distribuição de<br />

deprimidos por sexo é homogénea.<br />

TESTE DO QUI-QUADRADO DA INDEPENDENCIA PASSO-A-PASSO<br />

16<br />

2010<br />

1. Numerar as "células" que representam cada uma das categorias e calcular as frequências<br />

esperadas (E) para uma, multiplicando os dois totais parciais relevantes para cada uma e<br />

dividindo pelo número total de sujeitos.


ESTATÍSTICA <strong>II</strong><br />

2. Calcular X 2 :<br />

em que<br />

O = frequências observadas para cada célula<br />

E = frequências esperadas para cada célula<br />

3. Calcular os graus de liberdade: g.l. = (r-1) (c-1)<br />

em que<br />

r = número de linhas da tabela de contingência<br />

c = número de colunas da tabela de contingência<br />

Exemplificando: para uma tabela de dupla entrada 2*2:<br />

g.l. = (número de colunas - 1) (número de linhas - 1) = 1*1 = 1<br />

consulta-se a tabela dos valores critico e,<br />

Se X 2 observado X 2 crítico rejeita-se H0 Se X 2 observado < X 2 crítico aceita-se H0<br />

Exemplo: Suponha que quer saber se os estudantes de ciências sociais utilizam um método de estudo<br />

significativamente diferente daquele que é utilizado pelos estudantes de tecnologia. A amostra<br />

prevista ficou constituída por dois grupos, um composto por 50 estudantes de ciências sociais e o<br />

outro por 50 estudantes de tecnologia. Enviou-se, então, via mail, um questionário aos 100 estudantes<br />

17<br />

2010


ESTATÍSTICA <strong>II</strong><br />

pedindo-lhes que indicassem se o seu método de estudo era regular (diário), irregular (só em épocas<br />

de avaliações) ou misto (estudar diariamente um pouco com maior intensidade nos períodos de<br />

avaliações). Foram recebidas 44 respostas dos estudantes de ciências sociais e 42 dos estudantes de<br />

tecnologia.<br />

A hipótese experimental (H1) era:<br />

H1: O tipo de estudo varia em função curso frequentado<br />

Os resultados são apresentados na forma de uma tabela 2*3, designada por tabela de contingência<br />

(crosstab).<br />

Tipo de estudo<br />

Regular Irregular Misto<br />

Grupo 1-Estudantes de Ciências Sociais 6 15 23<br />

Grupo 2-Estudantes de Tecnologia 10 8 24<br />

Instruções Passo-a-Passo: enumerar as células, obter os totais e calcular as frequência esperadas (E)<br />

Grupo 1<br />

Grupo 2<br />

Totais<br />

Resolva:<br />

E1=<br />

E4=<br />

Regular<br />

Tipo de estudo<br />

Irregular Misto Total<br />

E2=<br />

E3=<br />

6<br />

15<br />

23<br />

44<br />

E5=<br />

E6=<br />

10<br />

8<br />

24<br />

42<br />

16<br />

23<br />

47<br />

N=86<br />

18<br />

2010


ESTATÍSTICA <strong>II</strong><br />

Confira:<br />

Célula 1: E1 = 16X44 / 86 = 8,19<br />

Célula 2: E2 = 23X44 / 86 = 11,77<br />

Célula 3: E3 = 47X44 / 86 = 24,05<br />

Célula 4: E4 = 16X42 / 86 = 7,81<br />

Célula 5: E5= 23X42 / 86 = 11,23<br />

Célula 6: E6 = 47X42 / 86 = 22,95<br />

2. Aplicar a fórmula do x 2 e proceder ao cálculo do teste<br />

X 2 = (6-8,19) 2 + (15-11,77) 2 + (23-24,05) 2 + (10-7,81) 2 + (8-11,23) 2 + (24-22,95) 2<br />

8,19 11,77 24,05 7,81 11,23 22,95<br />

X 2 = 0,59 + 0,89 + 0,05 + 0,61 + 0,93 + 0,05 = 3,12<br />

3. Calcular os graus de liberdade (gl)<br />

g.l. = (r - 1) (c - 1) = (2 -1) (3 - 1) = 2<br />

4. Consultar a tabela dos valores críticos<br />

Para p=0,05 e gl=2 x 2 critico=5,99<br />

Conclusões: Dado que o valor observado de X 2 é apenas de 3,12, ou seja, inferior ao valor crítico de<br />

5,99 para p < 0,05, o resultado da experiência não é significativo. Aceita-se hipótese nula de que os<br />

padrões de estudo dos estudantes de ciências sociais e de tecnologia não diferem, rejeitando-se desta<br />

forma a nossa hipótese experimental (H1).<br />

19<br />

2010


ESTATÍSTICA <strong>II</strong><br />

Ao estudarmos as diferenças entre dois grupos podemos utilizar grupos relacionados/emparelhados ou<br />

grupos independentes. No caso de duas amostras independentes determinamos se as diferenças nas<br />

amostras constituem uma evidência convincente de uma diferença nos processos de tratamento a elas<br />

aplicados.<br />

Apesar do uso de duas amostras relacionadas em projectos de pesquisa ter méritos indiscutíveis, a sua<br />

aplicação, em geral, não é prática. Frequentemente, a natureza da variável dependente impede a<br />

utilização dos indivíduos como seus próprios controlos, tal como ocorre quando a variável dependente<br />

é o suicídio tentado; um problema que pode acontecer uma única vez. Pode ser também impossível<br />

delinear um projecto que utilize pares de dados, talvez por desconhecimento, por parte do<br />

investigador, de variáveis úteis que possam formar pares, ou pela impossibilidade de obter<br />

mensurações adequadas de alguma variável de reconhecida importância ou, enfim, porque<br />

simplesmente não se dispõe de “pares” adequados.<br />

Quando a utilização de duas amostras relacionadas não é prática ou adequada, podemos utilizar duas<br />

amostras independentes. Em tais projectos, as duas amostras podem ser obtidas por um de dois<br />

métodos:<br />

Podem ser extraídas aleatoriamente de duas populações;<br />

Podem decorrer da atribuição aleatória de dois tratamentos aos membros de uma amostra de origem<br />

arbitrária.<br />

Nota: Em nenhum destes casos se exige que as amostras tenham o mesmo tamanho.<br />

PROCEDIMENTOS PARA ORDENAÇÃO DE RESULTADOS<br />

Os testes não paramétricos U de Mann-Whitney; Wilcoxon; H de Kruskal-Wallis; rho de Spearman;<br />

tau de Kendall e Friedman, exigem o recurso a ordenações de resultados para efectuar os seus<br />

cálculos. Neste sentido começaremos por explicar os procedimentos de ordenação de resultados<br />

Ordenamento global de resultados (designs não-relacionados para sujeitos diferentes), utilizados nas<br />

estatísticas U de Mann-Whitney, H de Kruskal-Wallis e rho de Spearman:<br />

20<br />

2010


ESTATÍSTICA <strong>II</strong><br />

Para se ordenar resultados, atribui-se a ordem 1 (ordem mais baixa) ao sujeito que fuma menos, a<br />

ordem 2 ao seguinte, e por aí adiante, tal como no exemplo que se segue:<br />

n.º de cigarros/ dia ordem<br />

6 4<br />

3 1<br />

12 7<br />

4 2<br />

7 5<br />

5 3<br />

8 6<br />

n.º de cafés/ dia ordem<br />

1<br />

3<br />

2<br />

4<br />

6<br />

5<br />

8<br />

Sempre que exista um resultado 0 (zero) é contado como o valor observado mais baixo, sendo-lhe<br />

atribuída a ordem 1, tal como no exemplo que se segue:<br />

n.º de consultas ordem<br />

2.ª feira 6 5<br />

3.ª feira 3 2<br />

4.ª feira 0 1<br />

5.ª feira 4 3<br />

6.ª feira 5 4<br />

n.º de telefonemas ordem<br />

2.ª feira 60<br />

3.ª feira 30<br />

4.ª feira 40<br />

5.ª feira 24<br />

6.ª feira 75<br />

Sábado 15<br />

Domingo 0<br />

21<br />

2010


ESTATÍSTICA <strong>II</strong><br />

Quando existem resultados iguais são-lhe atribuídas a média das posições ou das ordens, calculadas<br />

com base na globalidade das ordens que deviam ter sido atribuídas a estes resultados, tal como no<br />

exemplo que se segue:<br />

absentismo no mês de Dezembro ordem<br />

1 2<br />

2 4<br />

1 2<br />

4 6,5<br />

1 2<br />

3 5<br />

4 6,5<br />

6 9<br />

5 8<br />

Assim os sujeitos com uma falta são 3 (1+1+1) que ocupariam o 1.º - 2.º - 3.º lugar, então<br />

3+2+1=6:(1+1+1)=2; com 4 faltas temos 2 sujeitos que ocupariam o 6.º e 7.º lugar, então<br />

6+7=13:(1+1)=6,5<br />

Refeições de carne ordem Refeições de peixe ordem<br />

100<br />

120<br />

200<br />

230<br />

111<br />

11<br />

412<br />

42<br />

111<br />

121<br />

30<br />

30<br />

412<br />

30<br />

600<br />

30<br />

500<br />

120<br />

TESTE U DE MANN-WHITNEY<br />

Quando Utilizar<br />

Dadas duas amostras, de tamanhos n1 e n2, é possível, mediante a prova U de Mann-Whitney, saber<br />

se ambas as amostras podem ser consideradas provenientes da mesma população.<br />

Como já se sabe, a estatística paramétrica só pode ser usada desde que os dados tenham sido<br />

mensurados, no mínimo, no nível intervalar. Além disso, as amostras devem ser aleatórias,<br />

independentes e a variável observacional precisa de ter distribuição normal na população.<br />

22<br />

2010


ESTATÍSTICA <strong>II</strong><br />

O teste U de Mann-Whitney deve ser utilizado em designs com duas situações, não-relacionado,<br />

quando são utilizados sujeitos diferentes em cada uma das situações experimentais.<br />

MANN-WHITNEY-WILCOXON: TESTE PARA PEQUENAS AMOSTRAS<br />

O cálculo da estatística do teste (U critico), e a consequente regra de decisão, depende do tamanho<br />

da amostra. Se qualquer dos grupos (nA ou nB) menor que 10 o valor crítico é obtido da tabela.<br />

Vejamos um exemplo em que o grupo A tem 4 sujeitos e o grupo B 5 e se pretende verificar se têm<br />

desempenhos significativamente diferentes.<br />

Um conjunto de 9 atletas 4 da equipa A e 5 da Equipa B vão em competição e chegara à meta nas<br />

seguintes posições<br />

Os tempos foram contabilizados e os atletas ordenados da seguinte forma:<br />

Qual o valor de U critico?<br />

Para o obter somamos as posições da equipa A e as posições da equipa B e obtemos<br />

UB=9+8+6+3+2= 28 UA=7+5+4+1= 17<br />

23<br />

2010


ESTATÍSTICA <strong>II</strong><br />

A seguir vamos à tabela dos valores críticos e cruzamos o número de indivíduos de uma equipa com o<br />

número de indivíduos da outra:<br />

Como podemos observar os valores de aceitação da H0 ( que não existem diferenças entre os grupos)<br />

estão entre 11 e 29 e os valores observados são 17 e 28 o que está dentro do intervalo. Logo podemos<br />

concluir que as equipas não têm desempenhos significativamente diferentes.<br />

Exercício: Um estudo visa a comparar, ao nível de significância de 5 %, se a taxa de creatinina é a mesma em<br />

dois grupos de pacientes renais: um grupo com 6 indivíduos que apresentavam insuficiência renal aguda (IRA),<br />

e outro, com 5 indivíduos, que não apresentavam IRA.<br />

H0: os grupos não são estatisticamente diferentes.<br />

HA: os grupos são estatisticamente diferentes.<br />

Taxa de Creatinina (mg/100ml)<br />

Paciente com IRA sem IRA<br />

1 3,3 0,9<br />

2 3,0 0,8<br />

3 4,0 0,6<br />

4 1,5 0,7<br />

5 2,4 0,8<br />

6 0,9<br />

Ordene, confira com as soluções e conclua com base na consulta da tabela<br />

R 10 9 11 7 8 5,5 50,5<br />

R 5,5 3,5 1 2 3,5 15,5<br />

B<br />

A<br />

24<br />

2010


ESTATÍSTICA <strong>II</strong><br />

MANN-WHITNEY-WILCOXON: TESTE PARA GRANDES AMOSTRAS<br />

Se ambos os grupos têm pelo menos dez observações, podemos usar a chamada forma assintótica do<br />

teste, na qual a estatística do teste pode ser aproximada por uma Normal.<br />

Procedimento:<br />

UA<br />

UB<br />

• Calculam-se as estatísticas padronizadas UA e UB, onde:<br />

nA( nA1)<br />

U n n <br />

R<br />

2<br />

B A B A<br />

nB( nB<br />

1)<br />

U n n R<br />

2<br />

A A B B<br />

Mann-Whitney-Wilcoxon Forma Assintótica<br />

U = min (U1 , U2)<br />

• Calculam-se a média e a variância de U, dadas por:<br />

n n<br />

EU ( ) <br />

2<br />

A B<br />

• Calcula-se a variável padronizada zU, dada por:<br />

25<br />

2010<br />

• Compara-se o valor absoluto de zU com o valor de z crítico (tabela z), para o nível de<br />

significância desejado.<br />

z<br />

U<br />

;<br />

nA nB ( nA nB<br />

1)<br />

var( U)<br />

<br />

;<br />

12<br />

U E( U ) 0,5<br />

<br />

;<br />

var( U)


ESTATÍSTICA <strong>II</strong><br />

Exemplo:Considere as distribuições de scores de idade mental normalizados de duas populações de<br />

crianças que sofrem de fenilcetonúria. Indivíduos com essa disfunção são incapazes de metabolizar a<br />

proteína fenilalanina. Desconfia-se de que um elevado nível sérico dessa proteína aumenta a<br />

probabilidade de deficiência mental da criança. Deseja-se comparar dois grupos de crianças: um com<br />

baixa exposição à fenilalanina (menos que 10 mg/dl diários) e outro com alta exposição (acima de 10<br />

mg/dl diários).<br />

Não há evidências de que os scores normalizados de idade mental sejam normalmente distribuídos nos<br />

pacientes com essa disfunção.<br />

Os scores de idade mental normalizados para as duas amostras de crianças sofrendo de fenilcetonúria<br />

estão na tabela abaixo:<br />

Baixa Exp. Alta Exp.<br />

39.5 35.0<br />

40.0 37.0<br />

45.5 37.0<br />

47.0 43.5<br />

47.0 44.0<br />

47.5 45.5<br />

48.7 46.0<br />

49.0 48.0<br />

51.0 48.3<br />

51.0 48.7<br />

52.0 51.0<br />

53.0 52.0<br />

54.0 53.0<br />

54.0 53.0<br />

55.0 54.0<br />

As estatísticas padronizadas de UA são:<br />

Para de 5% (bicaudal), o ZU de -1,205 1 , o que conclui?<br />

1 Test Statistics b<br />

FENIL<br />

Mann-Whitney U 83,500<br />

Wilcoxon W 203,500<br />

Z -1,205<br />

Asymp. Sig. (2-tailed) ,228<br />

Exact Sig. [2*(1-tailed Sig.)] ,233 a<br />

26<br />

2010


ESTATÍSTICA <strong>II</strong><br />

Racional:<br />

O racional que está por trás do teste U de Mann-Whitney é bastante semelhante ao do teste de<br />

Wilcoxon. A diferença fundamental entre as duas reside no facto do segundo se aplicar a designs<br />

relacionados e o U se aplicar a designs não-relacionado, utilizando, portanto, sujeitos diferentes. O<br />

teste de Wilcoxon analisa as diferenças entre a performance dos mesmos sujeitos (ou pares de sujeitos<br />

emparelhados) submetidos a duas situações experimentais. Com um design não-relacionado não temos<br />

uma base que nos permita comparar diferenças entre pares de resultados. Assim, o teste U de Mann-<br />

Whitney ordena os resultados de todos os sujeitos em ambas as situações como se fossem apenas um<br />

conjunto simples de resultados.<br />

27<br />

2010


ESTATÍSTICA <strong>II</strong><br />

Se as diferenças entre as situações forem aleatórias, como é postulado pela hipótese nula, então os<br />

resultados devem ser aproximadamente os mesmos e, consequentemente, as ordens devem ser também<br />

aproximadamente as mesmas para as duas situações. Se houver uma preponderância de ordens altas<br />

ou baixas numa situação ou na outra, então é porque a diferença no total dos resultados ordenados<br />

para cada situação é devida aos efeitos previstos da variável independente e não ao acaso. Se a soma<br />

total das ordens for muito baixa para uma das situações, então terá de haver uma preponderância de<br />

ordens elevadas na outra situação. Quanto menor for U mais significativas serão as diferenças entre<br />

as ordens das duas situações.<br />

O investigador pode precisar de decidir se diversas variáveis independentes devem ser consideradas<br />

como procedentes da mesma população. Os valores amostrais quase sempre são um tanto diferentes e<br />

o problema é determinar se as diferentes amostras observadas sugerem realmente diferenças entre as<br />

populações ou se são apenas variações casuais que podem ser esperadas entre amostras aleatórias da<br />

mesma população.<br />

Apresentamos técnicas para comparar a significância de diferenças entre três ou mais grupos de<br />

amostras independentes, ou seja, para comprovar a hipótese de nulidade de que K amostras<br />

independentes tenham sido extraídas da mesma população ou de populações idênticas.<br />

As provas não-paramétricas têm a vantagem de permitir estudar, quanto à significância, dados que são<br />

inerentemente classificados (escala nominal) ou se apresentam em postos (escala ordinal).<br />

Exercicio: Suponha que quer investigar o n.º de queixas dolorosas durante um tratamento a um mesmo problema<br />

terapêutico (controlada a gravidade e a extensão da lesão) em que se utilizaram duas técnicas diferentes. A<br />

hipótese experimental supõe que é durante a utilização da técnica B que o doente se apresenta mais queixoso.<br />

Paciente A Ordem (T1) B Ordem (T2)<br />

1 3 3 9 11<br />

2 4 4 7 9<br />

3 2 1,5 5 5,5<br />

4 6 7,5 10 12<br />

5 2 1,5 6 7,5<br />

6 5 5,5 8 10<br />

TOTAL 22 T1=23 45 T2=55<br />

MÉDIA 3,67 7,5<br />

TESTE DE KRUSKAL-WALLIS<br />

Requisitos para o uso do teste de Kruskal-Wallis<br />

O teste de Kruskal-Wallis pressupõe as seguintes condições para o seu adequado uso:<br />

1. Comparação de três ou mais amostras independentes;<br />

28<br />

2010


ESTATÍSTICA <strong>II</strong><br />

29<br />

2010<br />

2. O teste de Kruskal-Wallis não pode ser usado para testar diferenças numa única amostra de<br />

respondentes mensurados mais de uma vez;<br />

3. Dados cujo nível de mensuração seja no mínimo ordinal;<br />

4. Esta prova exige dados que possam ser ordenados e aos quais, por isso mesmo, seja possível<br />

atribuir postos ou ordens;<br />

5. O tamanho mínimo de cada amostra deve ser de 6 para se poder recorrer ao x 2 .<br />

Quando n > 5 por grupo de respondentes, a significância de H pode ser determinada por recorrência à Tabela do Qui-quadrado (Anexo I). Para<br />

testar diferenças entre amostras de tamanho inferior a 6, deve recorrer a tabelas especiais (Anexo IV).<br />

Quando utilizar<br />

Este teste pode ser considerado uma extensão do teste U de Mann-Whitney quando necessitamos de<br />

utilizar três ou mais situações. Deve ser utilizado em designs não-relacionado quando sujeitos<br />

diferentes são distribuídos por três ou mais situações.<br />

Exemplo: Suponha que estamos interessados em descobrir se existem diferenças no acesso a uma<br />

página da internet em função da característica: muito ilustrada, com algumas ilustrações e, sem<br />

ilustrações. Alocámos três páginas na internet com o mesmo assunto e titulo durante 4 meses. A seguir<br />

verificámos o número de vezes que foram acedidas durante quatro sábados seguidos. Os resultados<br />

foram.<br />

Sujeitos do grupo 1<br />

(página muito ilustrada)<br />

Sujeitos do grupo 2<br />

(página com algumas<br />

ilustrações)<br />

Sujeitos do grupo 3<br />

(Página sem ilustrações)<br />

Resultados Ordem Resultados Ordem Resultados Ordem<br />

Sábado 1 19 10 14 6 12 3,5<br />

Sábado 2 21 11 15 7 12 3,5<br />

Sábado 3 17 9 9 1 13 5<br />

Sábado 4 16 8 10 2<br />

TOTAL 73 38 38 14 47 14<br />

MÉDIA 18,25 12,67 11,75<br />

Racional<br />

Este teste pretende determinar se os resultados são significativamente diferentes para três ou mais<br />

grupos. Uma vez que todos os resultados foram, em princípio, obtidos por sujeitos diferentes a única<br />

forma de verificarmos as diferenças entre as situações é ordená-las em conjunto, como se tratassem<br />

apenas de um conjunto de resultados, tal como havíamos efectuado no teste U de Mann-Whitney. Isto<br />

acontece porque, não temos uma base para comparar resultados dos mesmos sujeitos ou de sujeitos<br />

emparelhados em diferentes situações, como com o teste U de Mann-Whitney para designs<br />

relacionados. Este ordenamento global, quando posteriormente adicionamos as ordens de cada coluna<br />

em separado, permite-nos obter o total das ordens para cada situação. Se existirem apenas diferenças<br />

aleatórias entre as situações, como é postulado na hipótese nula, é de esperar que ordens altas e baixas<br />

se distribuam de forma aproximadamente equivalente pelas diferentes situações. Mas, se pelo


ESTATÍSTICA <strong>II</strong><br />

contrário, houver uma preponderância de altos ou baixos resultados em qualquer uma das situações, é<br />

provável que tal facto reflicta diferenças significativas devidas à variável independente.<br />

O valor das diferenças entre os totais das ordens é dado pela estatística designada por H. Desde que<br />

a hipótese experimental preveja a existência de diferenças significativas entre as situações, o valor<br />

que obtivermos de H deverá ser igual ou superior ao valor crítico da Tabela, para que possa ser<br />

considerado significativo.<br />

Instruções passo-a-passo para calcular H<br />

30<br />

2010<br />

Ordene todos os grupos do design como se tratasse apenas de um conjunto de resultados,<br />

atribuindo a Ordem 1 ao menor resultado e assim sucessivamente.<br />

Para um ordenamento global dos resultados, veja as colunas ordem para os grupos 1, 2 e 3, em que<br />

todos os resultados são considerados em conjunto<br />

Adicione os totais das ordens para cada situação.<br />

Calcule o valor de H a partir da fórmula<br />

em que:<br />

Número total de sujeitos N=11<br />

nc número de sujeitos em cada grupo n1=4; n2=3; n3=4<br />

OU<br />

Tc=total de ordens para cada situação, ou seja, os totais das ordens para cada coluna T1=38;T2=14;T3=14<br />

Tc 2 =total das ordens para cada situação, cada um elevado ao quadrado T1 2 =38 2 ;T2 2 =14 2 ; T3 2 =14 2<br />

=soma dos quadrados dos totais das ordens para cada situação dividido pelo número de sujeitos dessa situação (nc)


ESTATÍSTICA <strong>II</strong><br />

Cálculo de H<br />

Calcule os graus de liberdade, ou seja, o número de situações/categorias (C) menos uma.<br />

gl = C – 1 = 3 – 1 = 2<br />

Consulta da significância na tabela<br />

31<br />

2010<br />

A Tabela (Anexo IV) utiliza-se em experiências com três grupos de sujeitos, e com um máximo de<br />

cinco sujeitos em cada grupo. Para um maior número de sujeitos, deve ser utilizada a Tabela do<br />

Qui-quadrado (Anexo I). Quando não são utilizados mais de três grupos, poderá localizar na coluna<br />

da esquerda da Tabela o número de sujeitos de cada grupo. Localize então a combinação que<br />

procura (no nosso caso: 4, 4, 3). Note que a ordem do número de sujeitos não é importante, mas a<br />

combinação apropriada na Tabela é 4, 4 e 3. Para essa combinação encontrará os valores críticos de<br />

H para várias probabilidades. Se o valor de H que obteve for igual ou superior ao valor crítico de<br />

um determinado nível de significância pode rejeitar a hipótese nula. No nosso exemplo, o valor<br />

obtido de H=7,26 é superior ao valor crítico de 7,1439 para p


ESTATÍSTICA <strong>II</strong><br />

32<br />

2010<br />

valores dos graus de liberdade (no nosso exemplo, gl=2) ao longo da coluna do lado esquerdo e<br />

verifique ao longo da linha os valores críticos para as diferentes probabilidades. O valor que<br />

obtivemos H=7,26 é superior ao valor crítico de 5,99 para p


ESTATÍSTICA <strong>II</strong><br />

TESTES PARA AMOSTRAS RELACIONADAS<br />

Empregam-se as provas estatísticas de duas amostras quando o investigador deseja determinar se dois<br />

tratamentos são diferentes ou se um tratamento é “melhor” do que o outro. Em cada caso, compara-se<br />

o grupo em que se aplicou o tratamento com outro que não sofreu nenhum tratamento ou que sofreu<br />

tratamento diferente.<br />

Em tais comparações de dois grupos observam-se, por vezes, diferenças significativas que não são<br />

resultantes do tratamento aplicado.<br />

Uma das maneiras de superar a dificuldade decorrente da introdução de diferenças “extrínsecas” entre<br />

dois grupos consiste em utilizar na pesquisa duas amostras relacionadas, isto é, relacionar de alguma<br />

forma as duas amostras estudadas. Tal relacionamento pode ser conseguido utilizando-se cada<br />

indivíduo como seu próprio controlo ou então formando pares de indivíduos e, em seguida, associando<br />

os dois membros de cada par às duas condições. Quando um indivíduo “serve como o seu próprio<br />

controlo”, ele é submetido a ambos os tratamentos em ocasiões diferentes. Quando se utiliza o método<br />

do emparelhamento devem procurar seleccionar-se, para cada par, indivíduos que sejam tão<br />

semelhantes quanto possível em relação a quaisquer variáveis extrínsecas que possam influenciar os<br />

resultados da pesquisa.<br />

Sempre que possível, o método de utilização do indivíduo como o seu próprio controlo<br />

(contrabalançando a ordem em que se aplicam os tratamentos ou métodos) é preferível ao método de<br />

emparelhamento. E a razão disso é que é limitada a nossa capacidade para formar os pares<br />

adequadamente, em consequência do nosso desconhecimento das variáveis relevantes que determinam<br />

o comportamento. A validade por emparelhamento está na razão directa do investigador para<br />

determinar como formar os pares, e essa capacidade é quase sempre muito limitada. Essa dificuldade é<br />

contornada quando se utiliza cada indivíduo como seu próprio controlo; não se pode pretender<br />

relacionamentos mais precisos do que a própria identidade.<br />

Ordenamento de diferenças entre resultados (designs relacionados para os mesmos sujeitos ou<br />

emparelhados):<br />

Em geral, a atribuição de ordens às diferenças entre resultados efectua-se tal como fizemos para os<br />

resultados, sendo atribuída a ordem mais baixa à menor diferença e por aí adiante;<br />

Diferenças idênticas entre resultados são ordenadas da mesma forma que resultados idênticos,<br />

atribuindo-se uma ordem média resultante da globalidade de ordens que essas diferenças deveriam<br />

ocupar;<br />

Resultados nulos de 0 são contados como o resultado mais baixo possível quando se calculam<br />

diferenças entre resultados;<br />

33<br />

2010


ESTATÍSTICA <strong>II</strong><br />

Contudo, quando existe igualdade entre resultados que originem uma diferença nula entre as situações<br />

experimentais, estes não são ordenados, sendo retirados da análise;<br />

Diferenças positivas e negativas são ordenadas em conjunto como se tratasse de um ordenamento<br />

simples de resultados, ignorando os sinais positivos e negativos.<br />

Exemplo: Suponha que quer ordenar as diferenças entre o número de frases correctas que um grupo de<br />

crianças com suspeita de perda auditiva produziu antes da colocação de um aparelho auditivo e após a<br />

colocação daquele.<br />

Quadro 14: Ordenação para Amostras Relacionadas ou Emparelhadas<br />

Sujeitos<br />

1<br />

2<br />

3<br />

4<br />

5<br />

6<br />

7<br />

8<br />

9<br />

10<br />

Ao contrário do que acontece nos casos das amostras relacionadas quando a diferença entre 2<br />

situações é nula nas amostras relacionas a este tipo de resultado não é atribuída nenhuma ordem,<br />

sendo que o resultado nem sequer é considerado na análise. No ordenamento de resultados negativos<br />

em amostras relacionadas ignoram-se os sinais quando se ordenam os resultados.<br />

PROVA DE MCNEMAR PARA A SIGNIFICÂNCIA DE MUDANÇAS<br />

Quando utilizar<br />

Nº de frases correctas<br />

antes do aparelho<br />

auditivo<br />

5<br />

5<br />

2<br />

1<br />

4<br />

2<br />

1<br />

4<br />

1<br />

1<br />

A prova de McNemar para a significância de mudanças é particularmente aplicável aos planeamentos<br />

do tipo “antes e depois”, em que cada indivíduo é utilizado como o seu próprio controlo e a<br />

mensuração se faz ao nível de uma escala nominal ou ordinal. Pode, assim, ser usada para testar a<br />

eficiência de determinada técnica (reuniões, folhetos, visita, etc.) sobre as preferências eleitorais a<br />

respeito de vários candidatos.<br />

Nº de frases correctas<br />

depois do aparelho<br />

auditivo<br />

6<br />

7<br />

3<br />

5<br />

5<br />

5<br />

5<br />

4<br />

7<br />

6<br />

diferenças<br />

Nestes casos, cada pessoa pode servir como o seu próprio controlo, utilizando-se a mensuração em<br />

escala nominal para avaliar as alterações da situação “após” em relação à situação “antes”.<br />

1<br />

2<br />

1<br />

4<br />

1<br />

3<br />

4<br />

0<br />

6<br />

5<br />

ordem<br />

2<br />

4<br />

2<br />

6,5<br />

2<br />

5<br />

6,5<br />

-<br />

9<br />

8<br />

34<br />

2010


ESTATÍSTICA <strong>II</strong><br />

Racional<br />

Para comparar a significância de qualquer mudança observada, por este método, constrói-se uma<br />

tabela de frequências de 4 casas para representar o 1º e o 2º conjunto de reacções dos mesmos<br />

indivíduos. As características gerais desta tabela são as que se apresentam a seguir, em que se utilizam<br />

os sinais “+” e “-” para indicar diferentes reacções.<br />

ANTES<br />

- +<br />

DEPOIS + A B<br />

- C D<br />

Note-se que os casos que acusam modificações entre a 1ª e a 2ª reacção aparecem nas células A e D.<br />

Um indivíduo é localizado na célula A se passou de “+” para “-” e na célula D se passou de “-“ para<br />

”+”. Na ausência de modificação, o indivíduo é classificado na célula B (reacção “+” antes e depois)<br />

ou na célula C (reacção “-” antes e depois).<br />

Como A e D representa o número total de indivíduos que acusam modificação, a perspectiva, sob a<br />

hipótese de nulidade, seria que ½ (A+D) acusassem modificações num sentido e ½ (A+D) acusassem<br />

modificações noutro sentido. Ou seja, ½ (A+D) é a frequência esperada, sob H0, tanto na célula A<br />

como na célula D.<br />

Na prova de McNemar de significância de mudança, estamos interessados apenas nas células A e D.<br />

Portanto,<br />

A=número de casos observados na célula A,<br />

D=número de casos observados na célula D e<br />

½ (A+D)=número esperado de casos tanto nas células A como D,<br />

Então<br />

com graus de liberdade=1<br />

CORRECÇÃO DE CONTINUIDADE<br />

A aproximação, pela distribuição do Qui-quadrado, da distribuição amostral da fórmula torna-se<br />

excelente se introduzir uma correcção de continuidade. Tal correcção é necessária, porque se utilizou<br />

um distribuição contínua (Qui-quadrado) para aproximar uma distribuição discreta. Quando todas as<br />

frequências esperadas são pequenas, tal aproximação pode ser fraca. A correcção de continuidade<br />

(Yates, 1934) constitui uma tentativa de remoção dessa fonte de erro.<br />

Com a correcção de continuidade, tem-se:<br />

com graus de liberdade=1<br />

35<br />

2010


ESTATÍSTICA <strong>II</strong><br />

Esta expressão indica que se deve subtrair 1 do valor absoluto da diferença entre A e D antes de elevar<br />

ao quadrado. O grau de significância de qualquer valor observado de Qui-quadrado, tal como<br />

calculado através da fórmula, é determinado mediante referência a uma Tabela (Anexo I). Se o valor<br />

observado de Qui-quadrado é igual a, ou maior do que, o valor exibido na Tabela para determinado<br />

nível de significância com gl=1, a implicação é que existe efeito “significativo” nas reacções “antes” e<br />

“depois”.<br />

Instruções passo-a-passo para calcular x 2<br />

Enquadrar as frequências observadas numa tabela de 4 casas.<br />

Determinar as frequências esperadas nas células A e D<br />

E=1/2 (A+D)<br />

36<br />

2010<br />

Se as frequências esperadas são inferiores a 5, empregar a prova binomial em<br />

substituição à prova de McNemar.<br />

Se as frequências esperadas não são inferiores a 5, calcular o valor de X 2 através<br />

da fórmula<br />

Mediante referência à Tabela (Anexo I), determinar a probabilidade, sob H0, associado a um valor tão<br />

grande quanto o valor observado de X 2 . Se trata de uma prova unilateral, dividir por 2 o valor da<br />

probabilidade exibido na Tabela. Se o valor de p, dado pela Tabela para o valor observado de X 2 com<br />

gl=1, não supera p, rejeita-se H0 em favor de H1.<br />

Exemplo: Suponha que um profissional de saúde está interessado em estudar os comportamentos<br />

resultantes da iniciação de obesos à prática do exercício físico. Este profissional observou ao longo<br />

dos anos que os obesos utilizam preferencialmente o elevador para se dirigirem à sua consulta cujo<br />

consultório era no 1.º andar. Coloca a hipótese de que os obesos que tiveram com terapêutica<br />

exercício físico começariam a usar preferencialmente as escadas. A fim de testar a hipótese o técnico<br />

observa 25 doentes em que ministrou como exercício físico caminhar uma hora por dia cinco vezes<br />

por semana. Decorrido um mês de exercício observa os mesmos 25 doentes e faz a classificação<br />

comportamentos. Os dados são os seguintes:<br />

Preferência antes da<br />

terapêutica<br />

Preferência após 30º dias de exercício<br />

Escadas Elevador<br />

Elevador 4 (A) 14 (B)<br />

Escadas 4 (C) 3 (D)


ESTATÍSTICA <strong>II</strong><br />

Hipótese de nula (H0): Para os obesos que modificaram a sua atitude, a probabilidade de mudar o<br />

percurso do elevador para as escadas (PA) é igual à probabilidade de mudar de mudar das escadas<br />

para o elevador (PD) e ambas são iguais a ½. Isto é,<br />

Prova estatística:<br />

H0: PA=PD=1/2 H1: PA>PD<br />

Utiliza-se a prova de McNemar para significância de mudanças, porque o estudo utiliza duas amostras<br />

relacionadas, é do tipo antes-e-depois e utiliza a escala de medida nominal (classificativa).<br />

Nível de significância:<br />

p=0,05 N=25<br />

Distribuição amostral:<br />

A distribuição Qui-quadrado com 1 grau de liberdade dá uma boa aproximação da distribuição<br />

amostral de Qui-quadrado, tal como calculada pela fórmula.<br />

Região de Rejeição:<br />

Como H1 especifica o sentido da diferença prevista, a região de rejeição é unilateral. Consiste de<br />

todos os valores de Qui-quadrado que são tão grandes que acusem uma probabilidade unilateral,<br />

associada à sua ocorrência sob H0 não superior a 0,05.<br />

Decisão:<br />

Estamos interessados nos obesos cujo comportamento acusa alteração: representados nas células A e D.<br />

Para os dados, temos:<br />

Sendo 0 valor observado de x 2 =0, devemos consultar a tabela (Anexo I) para obter o valor crítico, não<br />

esquecendo que temos uma amostra unicaudal a um nível de 0,05. consultando a tabela observamos<br />

um x 2 critico de 5,41.<br />

37<br />

2010


ESTATÍSTICA <strong>II</strong><br />

TESTE DOS SINAIS DE WILCOXON<br />

Quando utilizar<br />

Teste de Wilcoxon ou Wilcoxon Signed Rank Test<br />

ou<br />

Teste de postos com sinais (equivalente do teste t emparelhado)<br />

O teste de Wilcoxon deve ser utilizado num design experimental relacionado, com duas situações<br />

experimentais quando são utilizados os mesmos sujeitos ou sujeitos emparelhados em ambas as<br />

situações.<br />

Exemplo: Suponha que quer investigar se existe alguma diferença na quantidade de vocabulário<br />

utilizado por crianças que usam um aparelho auditivo ou por crianças que não usam. Este é um bom<br />

exemplo dum caso em que é essencial a utilização de sujeitos emparelhados. Como é óbvio, não é<br />

possível utilizar os mesmos sujeitos, uma vez que nenhuma criança que não precisa de usar aparelho<br />

auditivo usa um mesmo tempo. Por outro lado, não podemos escolher aleatoriamente os sujeitos para<br />

cada grupo. Pode dar-se o caso, por exemplo, de os sujeitos que usam aparelho auditivo serem mais<br />

velhos. Qualquer efeito encontrado neste grupo pode ficar a dever-se unicamente a esta diferença. Os<br />

dois grupos “com aparelho” e “sem aparelho” necessitam de ser emparelhados em termos de idade,<br />

sexo, inteligência e todas as outras variáveis que achemos necessário serem controladas.<br />

Apresentamos depois às crianças um teste que meça o seu vocabulário, traduzindo-o em resultados, tal<br />

como é mostrado na tabela seguinte.<br />

Par de<br />

sujeitos<br />

Situação A<br />

(com aparelho)<br />

Situação B<br />

(sem aparelho)<br />

d (A-B) Ordem de d<br />

Ordem das<br />

diferenças<br />

positivas<br />

38<br />

2010<br />

Ordem das<br />

diferenças<br />

negativas<br />

1 3 5 -2 5(-) 5<br />

2 4 5 -1 2(-) 2<br />

3 3 2 +1 2(+) 2<br />

4 1 5 -4 8,5(-) 8,5<br />

5 5 4 +1 2(+) 2<br />

6 2 5 -3 7(-) 7<br />

7 3 5 -2 5(-) 5<br />

8 4 4 0 -<br />

9 1 5 -4 8,5(-) 8,5<br />

10 3 5 -2 5(-) 5<br />

TOTAL 29 45 4 41<br />

RACIONAL<br />

O objectivo do teste dos sinais de Wilcoxon é comparar as performances de cada sujeito (ou pares de<br />

sujeitos) no sentido de verificar se existem diferenças significativas entre os seus resultados nas duas<br />

situações. Os resultados da Situação B são subtraídos dos da Situação A e à diferença resultante (d) é


ESTATÍSTICA <strong>II</strong><br />

atribuído o sinal mais (+) ou, caso seja negativa, o sinal menos (-). Estas diferenças são ordenadas em<br />

função da sua grandeza (independentemente do sinal positivo ou negativo). O ordenamento assim<br />

obtido é depois apresentado separadamente para os resultados positivos e negativos. O menor dos<br />

valores dá-lhe o valor de uma “estatística” designada por W, que pode ser consultada na Tabela de<br />

significância apropriada.<br />

A ideia é que se existirem apenas diferenças aleatórias, tal como é postulado pela hipótese nula, então<br />

haverá aproximadamente o mesmo número de ordens elevadas e de ordens inferiores tanto para as<br />

diferenças positivas como negativas. Caso se verifique uma preponderância de baixos resultados para<br />

um dos lados, isso significa a existência de muitos resultados elevados para o outro lado, indicando<br />

uma diferença em favor de uma das situações, superior àquilo que seria de esperar se os resultados se<br />

devessem ao acaso. Dado que a estatística W reflecte o menor total de ordens, quanto menor for o W<br />

mais significativas serão as diferenças nas ordenações entre as duas situações.<br />

INSTRUÇÕES PASSO-A-PASSO PARA CALCULAR W<br />

Calcule a diferença d entre cada par de resultados, atribuindo o sinal mais ou menos.<br />

Veja a coluna d(A-B)<br />

Ordene as diferenças por ordem de grandeza desde a ordem inferior até à superior, ignorando os sinais<br />

positivos e negativos.<br />

Veja a coluna ordenamento de d<br />

Em separado, junte também a ordenação correspondente aos sinais diferentes (+ ou -).<br />

Veja os totais para ordenamentos de diferenças positivas e de diferenças negativas nas respectivas<br />

colunas<br />

Considere o menor dos totais das ordens como W.<br />

Valor observado de W=4, uma vez que o total das ordens para as diferenças positivas é o menor<br />

Conte o número de pares de sujeitos N (não considere as igualdades).<br />

N=10-1=9<br />

Consulta da significância na tabela<br />

A tabela anexada (Anexo <strong>II</strong>I) apresenta-lhe o nível de significância de w tanto para os testes<br />

unicaudais como bicaudais. Na coluna da esquerda encontra os valores de N. Uma vez que não<br />

efectuámos uma previsão da direcção (como por exemplo, que obteríamos melhores resultados no<br />

vocabulário de criança em jardim de infância) teremos de utilizar os níveis de significância para uma<br />

hipótese bicaudal. Seleccione o valor adequado N=9 e verifique ao longo dessa linha se o valor de W<br />

é significativo. Uma vez que se convencionou utilizar o menor valor das ordens, então o valor obtido<br />

de W terá de ser igual ou inferior ao valor crítico da Tabela. Como o valor obtido W=4 é inferior ao<br />

39<br />

2010


ESTATÍSTICA <strong>II</strong><br />

valor crítico de 6 para p


ESTATÍSTICA <strong>II</strong><br />

PROVA DE COCHRAN<br />

Quando utilizar<br />

A prova de McNemar para duas amostras pode ser estendida para aplicação a pesquisas que envolvem<br />

mais de duas amostras. Essa extensão, que constitui a prova Q de Cochran para K amostras<br />

relacionadas, proporciona um método para comparar se três ou mais conjuntos correspondentes de<br />

frequências ou proporções diferem entre si significativamente. A correspondência pode basear-se<br />

em características relevantes dos diferentes indivíduos ou no facto de os mesmos indivíduos serem<br />

observados sob condições diferentes. A prova Q de Cochran adapta-se especialmente ao caso em que<br />

os dados se apresentam numa escala nominal ou sob a forma de informação ordinal dicotomizada.<br />

41<br />

2010<br />

Exemplo: Suponha que estamos interessados em saber se a atitude de um entrevistador influencia a aceitação de participação num estudo por<br />

inquérito. Poderemos treinar o entrevistador para efectuar as suas entrevistas de três maneiras diferentes:<br />

Demonstrando interesse, cordialidade, entusiasmo;<br />

Demonstrando formalismo, reserva e cortesia;<br />

Demonstrando modo abrupto, formalismo e aspereza.<br />

Exemplo: O entrevistador visitaria 3 grupos de 18 casas, aplicando o tipo 1 de entrevista a um grupo, o tipo 2 a outro grupo e o 3 ao terceiro<br />

grupo. Teríamos, assim, 18 conjuntos de potenciais inquiridos com três deles correspondendo em cada conjunto. Em cada conjunto atribuir-se-<br />

iam aleatoriamente aos três membros as três condições (tipos de entrevista). Teríamos, então, 3 amostras relacionadas (correspondentes) com 18<br />

elementos cada uma (N=18). Poderíamos, pois, comprovar se as diferenças fundamentais nos tipos de entrevista influenciariam o número de<br />

respostas afirmativas “sim” dadas para aceitação de participação pelos 3 grupos de correspondentes.<br />

Conjunto Resposta à entrevista 1 Resposta à entrevista 2 Resposta à entrevista 3<br />

1 1 1 1<br />

2 2 2 1<br />

3 1 2 1<br />

4 1 1 1<br />

5 2 1 1<br />

6 2 2 1<br />

7 2 2 1<br />

8 1 2 1<br />

9 2 1 1<br />

10 1 1 1<br />

11 2 2 2<br />

12 2 2 2<br />

13 2 2 1<br />

14 2 2 1<br />

15 2 2 1<br />

16 2 2 2<br />

17 2 2 1<br />

18 2 2 1<br />

Respostas “Sim” (1) e “Não” (2) dadas por donas de casa a três tipos de entrevistas<br />

Hipótese nula: A probabilidade de um “Sim” é a mesma para os três grupos de entrevistas.<br />

H1: As probabilidades de um “Sim” diferem conforme o tipo de entrevista.<br />

Prova estatística:<br />

Escolhe-se a prova Q de Cochran, porque os dados se referem a mais de dois grupos relacionados (K=3) e apresentam-se dicotomizados sob a<br />

forma “Sim” e “Não”.<br />

Nível de significância: p=0,01 N=18


ESTATÍSTICA <strong>II</strong><br />

Decisão:<br />

Recodificámos “Sim” por 1 e “Não” por 0.<br />

Conjunto Resposta à entrevista 1 Resposta à entrevista 2 Resposta à entrevista 3 Li<br />

(soma em linha)<br />

1 0 0 0 0 0<br />

2 1 1 0 2 4<br />

3 0 1 0 1 1<br />

4 0 0 0 0 0<br />

5 1 0 0 1 1<br />

6 1 1 0 2 4<br />

7 1 1 0 2 4<br />

8 0 1 0 1 1<br />

9 1 0 0 1 1<br />

10 0 0 0 0 0<br />

11 1 1 1 3 9<br />

12 1 1 1 3 9<br />

13 1 1 0 2 4<br />

14 1 1 0 2 4<br />

15 1 1 0 2 4<br />

16 1 1 1 3 9<br />

17 1 1 0 2 4<br />

18 1 1 0 2 4<br />

Total G1=13 G2=13 G3=3 Li=29 Li2=63<br />

Li=número total de respostas “Sim” para cada linha<br />

K=número de colunas Número de linhas<br />

Substituindo estes valores na fórmula, vem:<br />

Em que K= n.º de grupos<br />

Gj= n.º total de sucessos<br />

A Tabela (Anexo I) indica que Q 16,7 tem uma probabilidade de ocorrência, sob H0, p < 0,001,<br />

quando gl=K-1=3-1=2. Essa probabilidade é inferior ao nível de significância de p=0,01. O valor de Q<br />

está na região de rejeição e, consequentemente, a nossa decisão é rejeitar H0 em favor de H1,<br />

concluindo que o número de respostas “Sim” difere significativamente em relação aos tipos 1, 2 e 3 de<br />

entrevista.<br />

42<br />

2010<br />

Li 2


ESTATÍSTICA <strong>II</strong><br />

Racional<br />

Se os dados de uma pesquisa se dispõem numa tabela de dupla entrada com N linhas e K colunas, é<br />

possível testar a hipótese de nulidade de que a proporção ou frequência de respostas de determinado<br />

tipo seja a mesma em cada coluna, exceptuando as diferenças devidas ao acaso. Cochran mostrou que<br />

se a hipótese de nulidade é verdadeira, isto é, se não há diferença na probabilidade, digamos de<br />

“Sucesso” sob cada condição (o que equivale a dizer que os “Sucessos” ou “Fracassos” se distribuem<br />

aleatoriamente pelas linhas e colunas da tabela de dupla entrada), então, se o número de linhas é muito<br />

pequeno<br />

tem distribuição aproximadamente Qui-quadrado com gl=K-1, em que:<br />

Gj=número total de “Sucessos” na coluna j<br />

G=média dos Gj<br />

Li=número total de “sucessos” na linha i<br />

Uma expressão equivalente à fórmula anterior, e facilmente dedutível dela, mas que simplifica os<br />

cálculos é:<br />

Instruções passo-a-passo para calcular Q<br />

Para dados dicotomizados, atribuir a pontuação “1” a cada “Sucesso” e “0” a cada “Falha”.<br />

Dispor os dados numa tabela K.N, com K colunas e N linhas (Número de condições em cada um dos<br />

grupos).<br />

Determinar o valor de Q, aplicando a fórmula.<br />

A significância do valor observado de Q pode ser determinada mediante a observação do Anexo I,<br />

pois Q recorre à distribuição do Qui-quadrado com gl=K-1. Se a probabilidade associada à ocorrência,<br />

sob H0, de um valor tão grande quanto um valor observado de Q não supere p, rejeita-se H0.<br />

43<br />

2010


ESTATÍSTICA <strong>II</strong><br />

TESTE DE FRIEDMAN<br />

Quando utilizar<br />

Este teste pode ser considerado uma extensão do teste de Wilcoxon, quando é necessário utilizar três<br />

ou mais situações experimentais. Deve ser utilizado para um design relacionado quando os mesmos<br />

sujeitos (ou sujeitos emparelhados) são distribuídos por três ou mais situações experimentais.<br />

Exemplo: Suponha que um editor de livros de estatística produziu uma série de livros e quer escolher<br />

de entre três tipos de ilustrações, aquele que é mais eficaz para os estudantes.<br />

É pedido a oito universitários que classifiquem as obras numa escala de cinco pontos, desde “nada<br />

boa” até “muito boa”.<br />

Obtiveram-se os resultados apresentados na tabela seguinte.<br />

Racional<br />

Sujeitos Situação 1 (Ilustração A) Situação 2 (Ilustração B) Situação 3 (Ilustração C)<br />

Resulta. Ordem Resulta. Ordem Resulta. Ordem<br />

1 2 1 5 3 4 2<br />

2 1 1 5 3 3 2<br />

3 3 1 5 2,5 5 2,5<br />

4 3 2 5 3 2 1<br />

5 2 1 3 2 5 3<br />

6 1 1 4 2,5 4 2,5<br />

7 5 3 3 2 2 1<br />

8 1 1 4 3 3 2<br />

TOTAL 18 11 34 21 28 16<br />

MÉDIA 2,25 4,25 3,50<br />

Uma vez que se trata de um design relacionado no qual o mesmo sujeito obtém resultados em todas as<br />

situações, é permitido comparar os resultados de cada sujeito através de todas as situações, no sentido<br />

de verificarmos em que situação obtém maiores e menores resultados.<br />

Uma vez que existem mais do que duas situações, não é possível calcular as diferenças nos resultados<br />

de duas situações, como era o caso do teste de Wilcoxon. Pelo contrário, o ordenamento dos<br />

resultados de cada sujeito para as três condições será feita horizontalmente ao longo das linhas, tal<br />

como mostra a tabela. Por exemplo, aos resultados do sujeito 1, respectivamente 2 na Situação 1, 5 na<br />

Situação 2 e 4 na Situação 3, são atribuídas três ordens, do menor resultado para o maior: Ordem 1<br />

para a Situação 1, Ordem 2 para a Situação 3 e Ordem 3 para a Situação 2; este procedimento é<br />

44<br />

2010


ESTATÍSTICA <strong>II</strong><br />

semelhante para todos os sujeitos. Claro que se existissem quatro situações experimentais, os<br />

resultados de cada sujeito seriam ordenados de 1 a 4.<br />

O próximo passo é calcular os totais de ordens para cada situação. Se existirem apenas diferenças<br />

aleatórias entre os resultados de todas as situações, como é postulado pela hipótese nula, é de esperar<br />

que estes totais sejam aproximadamente iguais partindo do princípio de que surgiriam algumas ordens<br />

baixas (baixos resultados) e algumas ordens altas (altos resultados). Contudo, se as situações forem<br />

significativamente diferentes, é de esperar que se obtenham totais das ordens significativamente<br />

diferentes, com algumas situações a terem uma preponderância de ordens baixas e outras, uma<br />

preponderância de ordens altas. O tamanho das diferenças entre os totais das ordens é-nos dado por<br />

uma estatística designada por Xr 2 . Se o valor de Xr 2 for igual ou superior aos valores críticos das<br />

Tabelas C e D (Anexo V), isso implica que as diferenças nos totais das ordens são suficientemente<br />

grandes para que se possam considerar significativas.<br />

Instruções passo-a-passo para calcular w<br />

Ordene os resultados de cada sujeito em separado, ao longo de cada linha, atribuindo a Ordem 1 ao<br />

menor resultado e por aí adiante.<br />

(Veja as colunas das Ordens na tabela. Note que a ordem para cada linha de resultados corresponde às<br />

ordens 1,2 e 3, dado existirem três situações)<br />

Calcule o total das ordens para cada situação.<br />

Calcule o valor de XR 2 ou Fr a partir da fórmula<br />

F<br />

12<br />

<br />

Nk(<br />

k 1)<br />

r <br />

j1<br />

ou<br />

em que<br />

k<br />

2<br />

R j 3N<br />

( k 1<br />

<br />

C=número de situações C=3<br />

Número de sujeitos N=8<br />

Tc=total de ordens para cada situação T1=11;T2=21;T3=16<br />

Tc 2 =quadrado do total de ordens para cada situação T1 2 =11 2 ;T2 2 =21 2 ; T3 2 =16 2<br />

Tc 2 =soma dos quadrados dos totais das ordens para cada situação: 11 2 +21 2 +16 2<br />

45<br />

2010


ESTATÍSTICA <strong>II</strong><br />

Cálculo de XR 2<br />

Calcule os graus de liberdade, ou seja, o número de situações menos uma.<br />

(gl = C – 1 = 3 – 1 = 2)<br />

Consulta da significância na tabela<br />

Existem duas tabelas para consultar os valores críticos de Xr 2 . Uma delas, a Tabela C (Anexo V), é<br />

utilizada quando o número de situações e de sujeitos é pequeno. A Tabela C (1) apresenta os valores<br />

de Xr 2 para três situações quando N (número de sujeitos) se situa entre 2 e 9. A Tabela C (2) apresenta<br />

os valores de Xr 2 para quatro situações quando N (número de sujeitos) é de 2, 3 ou 4. A Tabela D<br />

(Anexo V) é a tabela de distribuição do Qui-quadrado; pode utilizá-la quando a amostra de sujeitos for<br />

superior às das Tabelas C (1) e C (2), uma vez que o Xr 2 tem uma distribuição semelhante à do Qui-<br />

quadrado.<br />

A Tabela que deve utilizar para consultar o valor de Xr 2 , no caso desta experiência, é a Tabela C (1),<br />

uma vez que se trata de 8 sujeitos expostos a 3 situações experimentais. Aquilo que temos de fazer é<br />

encontrar a coluna apropriada para N (número de sujeitos ou pares de sujeitos emparelhados) e<br />

descobrir na coluna p a probabilidade mais próxima que seja inferior aos níveis de significância<br />

convencionais. Consultando as probabilidades para N=8, o valor obtido de Xr 2 =6,25 é equivalente a<br />

uma probabilidade de p


ESTATÍSTICA <strong>II</strong><br />

são significativos ao nível de significância de p


ESTATÍSTICA <strong>II</strong><br />

Para Borg:<br />

48<br />

2010<br />

0,20 < r 0,35 Ligeira relação entre as variáveis, embora já possam ser<br />

estatisticamente significativas<br />

0,35 < r 0,65 Correlação estatisticamente significativa para além do nível de 1%<br />

0,65 < r 0,85 Correlações que tornam possíveis predições do grupo de que são dignas<br />

r > 0,85 Íntima relação entre as variáveis correlacionadas<br />

Para Bryman e Cramer (1995), citando Cohen e Holliday (1982)<br />

se Eta, r, rho, phi:<br />

0,2 Correlação muito fraca e sem significância<br />

0,2 < r 0,39 Correlação fraca<br />

0,4 < r 0,69 Correlação moderada<br />

0,7 < r 0,89 Correlação forte<br />

0,9 < r 1 Correlação muito elevada<br />

Coeficiente de correlação dá-nos:<br />

A direcção que é indicada pelo sinal + ou -<br />

A intensidade ou força que é dada pelo valor que varia entre -1 e 1. Se a correlação for zero não existe<br />

correlação entre as variáveis (exemplo: cor dos olhos e inteligência).<br />

COEFICIENTE DE CORRELAÇÃO RHO DE SPEARMAN-RANK<br />

Condições de utilização<br />

Este tipo de coeficiente de correlação utiliza-se quando temos:<br />

Teste não paramétrico (semelhante a uma distribuição livre), isto é, não coloca restrições quanto à<br />

forma da distribuição;<br />

Escala de medida no mínimo ordinal.<br />

Pode acontecer que os caracteres estudados não sejam mensuráveis, mas podem ser ordenados ou<br />

classificados. Por exemplo, quando se considera um grupo de candidatos a um certo lugar, eles podem


ESTATÍSTICA <strong>II</strong><br />

ser examinados segundo dois pontos de vista: conhecimentos e personalidade. Estas duas qualidades<br />

não podem ser medidas, mas é possível para cada uma delas efectuar uma classificação dos<br />

candidatos. Podemos, assim, examinar se existe correlação entre estes dois caracteres; cada par de<br />

dados (xi, yi) é formado pelas ordens ocupadas por um candidato nas duas classificações.<br />

Em que:<br />

di= diferença entre as posições nas duas variáveis, isto é, di=xi-yi<br />

49<br />

2010<br />

Para tal, temos que dar valores às posições: à pontuação mais baixa damos o valor 1 e assim<br />

sucessivamente. Quando os valores são iguais é a média dessas duas posições.<br />

Então, -1 1<br />

Se as duas classificações são iguais, di é sempre zero e então r=1 e a correlação é perfeita. Se as<br />

ordens mais altas de uma classe estão associadas às mais baixas da outra r torna-se negativo e se as<br />

duas classificações são inversas =-1.<br />

Exemplo: Calcule , sabendo que:<br />

xi 18 17 14 13 13 12 11 9 7 5<br />

yi 24 27 17 22 19 20 14 11 3 6<br />

xi posição yi posição di di 2<br />

18 1 24 2 -1 1<br />

17 2 27 1 1 1<br />

14 3 17 6 -3 9<br />

13 4,5 22 3 1,5 2,25<br />

13 4,5 19 5 -0,5 0,25<br />

12 6 20 4 2 4<br />

11 7 14 7 0 0<br />

9 8 11 8 0 0<br />

7 9 3 10 -1 1<br />

5 10 6 9 1 1<br />

=19,5


ESTATÍSTICA <strong>II</strong><br />

TESTES NÃO PARAMÉTRICOS NO SPSS<br />

Mais especificamente, veremos como realizar os testes:<br />

• Teste de Mann-Whitney U para comparar duas amostras independentes;<br />

• Teste de Wilcoxon para comparar duas amostras relacionadas;<br />

• Teste de Kruskal-Wallis H para comparar duas ou mais amostras independentes;<br />

Às vezes não podemos assumir normalidade e, outras vezes os dados que dispomos não nos<br />

permite calcular a média (e.g. quando os dados são ordinais). Os Métodos Não Paramétricos<br />

são aplicáveis em tais situações. Em particular, nós os usaremos principalmente quando não<br />

pudermos afirmar que a nossa amostra foi retirada de uma população normal.<br />

Como regra geral, recomenda-se o uso de um teste paramétrico ao invés de um não<br />

paramétrico, uma vez que os testes paramétricos tendem a discriminar mais e a ser mais<br />

poderosos. Entretanto, os não paramétricos devem ser usados quando os dados não respeitam<br />

as premissas básicas que embaçam os procedimentos estatísticos (e.g. normalidade ou<br />

homogeneidade de variâncias).<br />

O TESTE DE MANN-WHITNEY<br />

O teste de Mann-Whitney é a alternativa mais comum ao teste t para amostras independentes.<br />

Pode se utilizar este teste para testar a hipótese nula que afirma que as médias populacionais<br />

são as mesmas para os dois grupos. Este teste não exige que as populações tenham a mesma<br />

variância.<br />

Para fins ilustrativos, usaremos o seguinte exemplo:<br />

Um grupo 5 de ratos foi treinado para imitar o rato líder em um labirinto a procura de<br />

alimento e outro grupo de 4 ratos (controle) foi submetido a mesma situação, porém sem<br />

50<br />

2010


ESTATÍSTICA <strong>II</strong><br />

treinamento prévio. O número de tentativas é o critério de comparação entre os grupos. Existe<br />

diferença entre os dois grupos.<br />

Treinados 78 64 75 45 82<br />

Não treinados 110 70 53 51<br />

No SPSS...<br />

Figura 1: Entrada dos dados no programa.<br />

Em todo software estatístico, as colunas representam variáveis. No exemplo em questão,<br />

temos apenas uma variável (nº tentativas dos ratos), então digitaremos os dados numa coluna<br />

apenas. Criaremos uma segunda variável, “ensinado”, para discriminar a origem dos dados<br />

(amostra pertencente).<br />

51<br />

2010


ESTATÍSTICA <strong>II</strong><br />

Feito isso, para realizar o teste, devemos clicar em:<br />

ANALYSE/ NONPARAMETRIS TESTS/ 2 INDEPENDENT SAMPLES...<br />

Como consequência, surgirá a seguinte caixa de diálogo:<br />

Figura 2: Caixa de diálogo referente ao teste de Mann-Whitney.<br />

52<br />

2010


ESTATÍSTICA <strong>II</strong><br />

Devemos clicar em Define Groups...<br />

Após clicar em Continue e em Ok<br />

MANN-WHITNEY TEST<br />

53<br />

2010


ESTATÍSTICA <strong>II</strong><br />

Ao observar a tabela acima, vemos que a estatística teste Mann-Whitney U = 9,000 tem uma<br />

significância (P-valor) de 0,806. Assim, concluímos que não há evidência estatística de<br />

diferença entre os grupos de ratos.<br />

54<br />

2010


ESTATÍSTICA <strong>II</strong><br />

O TESTE DE WILCOXON:<br />

Este teste é a versão não paramétrica do teste t para amostras emparelhadas. Em particular,<br />

nós usamos este teste quando temos medições repetidas de uma amostra, mas a população<br />

original não tem necessariamente o formato de uma Normal.<br />

Como o teste U de Mann-Whitney, o teste de Wilcoxon pode ser usado com dados ordinais,<br />

intervalares ou proporcionais.<br />

Os dados para esse teste consistem dos diferentes registos das medições repetidas. Essas<br />

diferenças são então classificadas da menor para a maior em valores absolutos (sem<br />

considerar o sinal). Se existir uma diferença real entre as duas medições, ou tratamentos,<br />

então os diferentes registos serão consistentemente positivos ou negativos. Por outro lado, se<br />

não houver diferença entre os tratamentos, então os diferentes registos serão misturados<br />

regularmente.<br />

A hipótese nula é que a diferença entre os registos não é sistemática e, deste modo, não existe<br />

diferença entre os tratamentos.<br />

Como ilustração, usaremos o exemplo:<br />

Um fabricante de cigarros afirma que o conteúdo de nicotina dos cigarros Y é menor do que o<br />

dos cigarros X. Um laboratório fez as seguintes determinações do conteúdo de nicotina (em<br />

miligramas) das duas marcas:<br />

X: 1,0, 1,3, 1,5, 1,1, 1,6<br />

Y: 0,8, 1,2, 1,4, 0,9, 1,0<br />

Concorda com a afirmação do fabricante? Por quê?<br />

55<br />

2010


ESTATÍSTICA <strong>II</strong><br />

No SPSS...<br />

CLICAR EM ANALYSE/ NONPARAMETRIS TESTS/ 2 RELATED SAMPLES...<br />

Clicando em OK...<br />

WILCOXON SIGNED RANKS TEST<br />

56<br />

2010


ESTATÍSTICA <strong>II</strong><br />

A estatística teste de Wilcoxon, convertida num score z = -2,041 tem uma significância (P-<br />

valor) de 0,041. Assim, concluímos que os grupos são estatisticamente diferentes.<br />

TESTE H DE KRUSKAL-WALLIS:<br />

O teste H de Kruskal-Wallis é a versão não-paramétrica para medições da ANOVA de um<br />

factor independente. Nós usamos esse teste quando temos mais de duas amostras<br />

independentes e podemos assumir que elas são de populações com o mesmo formato, não<br />

necessariamente Normal. O teste H de Kruskal-Wallis pode ser usado com dados ordinais,<br />

intervalares ou proporcionais.<br />

Como o teste U de Mann-Whitney, o teste H de Kruskal-Wallis classifica todos os resultados<br />

observados. Se existirem diferenças entre os grupos, então os resultados das várias amostras<br />

serão sistematicamente agrupados (cluster) em ordem de classificação. Alternativamente, se<br />

não existirem diferenças entre os grupos, os resultados serão misturados com toda a ordem de<br />

classificação. A hipótese nula estabelece que mão há diferença entre os grupos, logo os<br />

resultados não irão se agrupar sistematicamente.<br />

Exemplo:<br />

Considerem os dados abaixo para estudar a hipótese da igualdade das médias do aumento dos<br />

pesos dos porcos alimentados com as rações A, B e C. Use α = 0,01.<br />

A: 3 1 5 2 4<br />

B: 8 7 10 6 9<br />

C: 14 13 12 11<br />

57<br />

2010


ESTATÍSTICA <strong>II</strong><br />

>ANALYSE > NONPARAMETRIC TESTS >K INDEPENDENT SAMPLES...<br />

>Clique em “Define Range” (definir variação).... A próxima caixa de diálogo nos leva a<br />

designar valores máximo e mínimo para a variável agrupada. No nosso arquivo de dados, os<br />

grupos foram rotulados de 1 a 3.<br />

Clicando em Continue e em OK...<br />

58<br />

2010


ESTATÍSTICA <strong>II</strong><br />

KRUSKAL-WALLIS TEST<br />

A estatística teste de Kruskal-Wallis (Qui-quadrado) é igual a 11,571 com significância<br />

de 0,003. Assim, concluímos que há evidência estatística de aumento de peso devido ao<br />

tipo de ração.<br />

59<br />

2010


ESTATÍSTICA <strong>II</strong><br />

ANEXOS<br />

60<br />

2010


ESTATÍSTICA <strong>II</strong><br />

ANEXO I<br />

Tabela do Quiquadrado (x 2 ):Valores críticos<br />

gl 0,995 0,99 0,975 0,95 0,9 0,1 0,05 0,025 0,01 0,005<br />

1 0,000 0,000 0,001 0,004 0,016 2,706 3,841 5,024 6,635 7,879<br />

2 0,010 0,020 0,051 0,103 0,211 4,605 5,991 7,378 9,210 10,597<br />

3 0,072 0,115 0,216 0,352 0,584 6,251 7,815 9,348 11,345 12,838<br />

4 0,207 0,297 0,484 0,711 1,064 7,779 9,488 11,143 13,277 14,860<br />

5 0,412 0,554 0,831 1,145 1,610 9,236 11,070 12,832 15,086 16,750<br />

6 0,676 0,872 1,237 1,635 2,204 10,645 12,592 14,449 16,812 18,548<br />

7 0,989 1,239 1,690 2,167 2,833 12,017 14,067 16,013 18,475 20,278<br />

8 1,344 1,647 2,180 2,733 3,490 13,362 15,507 17,535 20,090 21,955<br />

9 1,735 2,088 2,700 3,325 4,168 14,684 16,919 19,023 21,666 23,589<br />

10 2,156 2,558 3,247 3,940 4,865 15,987 18,307 20,483 23,209 25,188<br />

11 2,603 3,053 3,816 4,575 5,578 17,275 19,675 21,920 24,725 26,757<br />

12 3,074 3,571 4,404 5,226 6,304 18,549 21,026 23,337 26,217 28,300<br />

13 3,565 4,107 5,009 5,892 7,041 19,812 22,362 24,736 27,688 29,819<br />

14 4,075 4,660 5,629 6,571 7,790 21,064 23,685 26,119 29,141 31,319<br />

15 4,601 5,229 6,262 7,261 8,547 22,307 24,996 27,488 30,578 32,801<br />

16 5,142 5,812 6,908 7,962 9,312 23,542 26,296 28,845 32,000 34,267<br />

17 5,697 6,408 7,564 8,672 10,085 24,769 27,587 30,191 33,409 35,718<br />

18 6,265 7,015 8,231 9,390 10,865 25,989 28,869 31,526 34,805 37,156<br />

19 6,844 7,633 8,907 10,117 11,651 27,204 30,144 32,852 36,191 38,582<br />

20 7,434 8,260 9,591 10,851 12,443 28,412 31,410 34,170 37,566 39,997<br />

21 8,034 8,897 10,283 11,591 13,240 29,615 32,671 35,479 38,932 41,401<br />

22 8,643 9,542 10,982 12,338 14,041 30,813 33,924 36,781 40,289 42,796<br />

23 9,260 10,196 11,689 13,091 14,848 32,007 35,172 38,076 41,638 44,181<br />

24 9,886 10,856 12,401 13,848 15,659 33,196 36,415 39,364 42,980 45,558<br />

25 10,520 11,524 13,120 14,611 16,473 34,382 37,652 40,646 44,314 46,928<br />

26 11,160 12,198 13,844 15,379 17,292 35,563 38,885 41,923 45,642 48,290<br />

27 11,808 12,878 14,573 16,151 18,114 36,741 40,113 43,195 46,963 49,645<br />

28 12,461 13,565 15,308 16,928 18,939 37,916 41,337 44,461 48,278 50,994<br />

29 13,121 14,256 16,047 17,708 19,768 39,087 42,557 45,722 49,588 52,335<br />

30 13,787 14,953 16,791 18,493 20,599 40,256 43,773 46,979 50,892 53,672<br />

31 14,458 15,655 17,539 19,281 21,434 41,422 44,985 48,232 52,191 55,002<br />

32 15,134 16,362 18,291 20,072 22,271 42,585 46,194 49,480 53,486 56,328<br />

33 15,815 17,073 19,047 20,867 23,110 43,745 47,400 50,725 54,775 57,648<br />

34 16,501 17,789 19,806 21,664 23,952 44,903 48,602 51,966 56,061 58,964<br />

35 17,192 18,509 20,569 22,465 24,797 46,059 49,802 53,203 57,342 60,275<br />

36 17,887 19,233 21,336 23,269 25,643 47,212 50,998 54,437 58,619 61,581<br />

37 18,586 19,960 22,106 24,075 26,492 48,363 52,192 55,668 59,893 62,883<br />

38 19,289 20,691 22,878 24,884 27,343 49,513 53,384 56,895 61,162 64,181<br />

39 19,996 21,426 23,654 25,695 28,196 50,660 54,572 58,120 62,428 65,475<br />

40 20,707 22,164 24,433 26,509 29,051 51,805 55,758 59,342 63,691 66,766<br />

61<br />

2010


ESTATÍSTICA <strong>II</strong><br />

ANEXO <strong>II</strong><br />

Tabela de U para 0,05<br />

This table gives critical values of U. Decide on n2, the number of data belonging to the<br />

majority group, and n1, the number of data belonging to the minority group. n1 and n2 may be<br />

the same. Look up the corresponding critical value of U. E.g., for n2=6 and n1=3, the critical<br />

value is 2. If the calculated value of U is equal to or less than this value, then the majority<br />

group and the minority group are significantly different.<br />

Thus in the example given above, the value of U=2 for n2=6 and n1=3, and the two groups are<br />

significantly different from one another.<br />

n1 3 4 5 6 7 8<br />

3 0 0 1 2 2 3<br />

4 1 2 3 4 5<br />

5 4 5 6 8<br />

6 7 8 10<br />

7 11 13<br />

8 15<br />

Note: The table gives critical values for rejecting, as having a probability of 0.05 or less, the<br />

null hypotheses that the average values of the majority group and the minority group are the<br />

same.<br />

n2<br />

62<br />

2010


ESTATÍSTICA <strong>II</strong><br />

Tabela Z<br />

z 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09<br />

0,0 0,00000 0,00399 0,00798 0,01197 0,01595 0,01994 0,02392 0,02790 0,03188 0,03586<br />

0,1 0,03983 0,04380 0,04776 0,05172 0,05567 0,05962 0,06356 0,06749 0,07142 0,07535<br />

0,2 0,07926 0,08317 0,08706 0,09095 0,09483 0,09871 0,10257 0,10642 0,11026 0,11409<br />

0,3 0,11791 0,12172 0,12552 0,12930 0,13307 0,13683 0,14058 0,14431 0,14803 0,15173<br />

0,4 0,15542 0,15910 0,16276 0,16640 0,17003 0,17364 0,17724 0,18082 0,18439 0,18793<br />

0,5 0,19146 0,19497 0,19847 0,20194 0,20540 0,20884 0,21226 0,21566 0,21904 0,22240<br />

0,6 0,22575 0,22907 0,23237 0,23565 0,23891 0,24215 0,24537 0,24857 0,25175 0,25490<br />

0,7 0,25804 0,26115 0,26424 0,26730 0,27035 0,27337 0,27637 0,27935 0,28230 0,28524<br />

0,8 0,28814 0,29103 0,29389 0,29673 0,29955 0,30234 0,30511 0,30785 0,31057 0,31327<br />

0,9 0,31594 0,31859 0,32121 0,32381 0,32639 0,32894 0,33147 0,33398 0,33646 0,33891<br />

1,0 0,34134 0,34375 0,34614 0,34849 0,35083 0,35314 0,35543 0,35769 0,35993 0,36214<br />

1,1 0,36433 0,36650 0,36864 0,37076 0,37286 0,37493 0,37698 0,37900 0,38100 0,38298<br />

1,2 0,38493 0,38686 0,38877 0,39065 0,39251 0,39435 0,39617 0,39796 0,39973 0,40147<br />

1,3 0,40320 0,40490 0,40658 0,40824 0,40988 0,41149 0,41308 0,41466 0,41621 0,41774<br />

1,4 0,41924 0,42073 0,42220 0,42364 0,42507 0,42647 0,42785 0,42922 0,43056 0,43189<br />

1,5 0,43319 0,43448 0,43574 0,43699 0,43822 0,43943 0,44062 0,44179 0,44295 0,44408<br />

1,6 0,44520 0,44630 0,44738 0,44845 0,44950 0,45053 0,45154 0,45254 0,45352 0,45449<br />

1,7 0,45543 0,45637 0,45728 0,45818 0,45907 0,45994 0,46080 0,46164 0,46246 0,46327<br />

1,8 0,46407 0,46485 0,46562 0,46638 0,46712 0,46784 0,46856 0,46926 0,46995 0,47062<br />

1,9 0,47128 0,47193 0,47257 0,47320 0,47381 0,47441 0,47500 0,47558 0,47615 0,47670<br />

2,0 0,47725 0,47778 0,47831 0,47882 0,47932 0,47982 0,48030 0,48077 0,48124 0,48169<br />

2,1 0,48214 0,48257 0,48300 0,48341 0,48382 0,48422 0,48461 0,48500 0,48537 0,48574<br />

2,2 0,48610 0,48645 0,48679 0,48713 0,48745 0,48778 0,48809 0,48840 0,48870 0,48899<br />

2,3 0,48928 0,48956 0,48983 0,49010 0,49036 0,49061 0,49086 0,49111 0,49134 0,49158<br />

2,4 0,49180 0,49202 0,49224 0,49245 0,49266 0,49286 0,49305 0,49324 0,49343 0,49361<br />

2,5 0,49379 0,49396 0,49413 0,49430 0,49446 0,49461 0,49477 0,49492 0,49506 0,49520<br />

2,6 0,49534 0,49547 0,49560 0,49573 0,49585 0,49598 0,49609 0,49621 0,49632 0,49643<br />

2,7 0,49653 0,49664 0,49674 0,49683 0,49693 0,49702 0,49711 0,49720 0,49728 0,49736<br />

2,8 0,49744 0,49752 0,49760 0,49767 0,49774 0,49781 0,49788 0,49795 0,49801 0,49807<br />

2,9 0,49813 0,49819 0,49825 0,49831 0,49836 0,49841 0,49846 0,49851 0,49856 0,49861<br />

3,0 0,49865 0,49869 0,49874 0,49878 0,49882 0,49886 0,49889 0,49893 0,49896 0,49900<br />

3,1 0,49903 0,49906 0,49910 0,49913 0,49916 0,49918 0,49921 0,49924 0,49926 0,49929<br />

3,2 0,49931 0,49934 0,49936 0,49938 0,49940 0,49942 0,49944 0,49946 0,49948 0,49950<br />

3,3 0,49952 0,49953 0,49955 0,49957 0,49958 0,49960 0,49961 0,49962 0,49964 0,49965<br />

3,4 0,49966 0,49968 0,49969 0,49970 0,49971 0,49972 0,49973 0,49974 0,49975 0,49976<br />

3,5 0,49977 0,49978 0,49978 0,49979 0,49980 0,49981 0,49981 0,49982 0,49983 0,49983<br />

3,6 0,49984 0,49985 0,49985 0,49986 0,49986 0,49987 0,49987 0,49988 0,49988 0,49989<br />

3,7 0,49989 0,49990 0,49990 0,49990 0,49991 0,49991 0,49992 0,49992 0,49992 0,49992<br />

3,8 0,49993 0,49993 0,49993 0,49994 0,49994 0,49994 0,49994 0,49995 0,49995 0,49995<br />

3,9 >0,49995 etc ...<br />

z 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09<br />

Tabela da Distribuição Normal Padrão<br />

63<br />

2010


ESTATÍSTICA <strong>II</strong><br />

P(Z


ESTATÍSTICA <strong>II</strong><br />

z 0,0 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09<br />

0,0 0,5000 0,4960 0,4920 0,4880 0,4840 0,4801 0,4761 0,4721 0,4681 0,4641<br />

-0,1 0,4602 0,4562 0,4522 0,4483 0,4443 0,4404 0,4364 0,4325 0,4286 0,4247<br />

-0,2 0,4207 0,4168 0,4129 0,4090 0,4052 0,4013 0,3974 0,3936 0,3897 0,3859<br />

-0,3 0,3821 0,3783 0,3745 0,3707 0,3669 0,3632 0,3594 0,3557 0,3520 0,3483<br />

-0,4 0,3446 0,3409 0,3372 0,3336 0,3300 0,3264 0,3228 0,3192 0,3156 0,3121<br />

-0,5 0,3085 0,3050 0,3015 0,2981 0,2946 0,2912 0,2877 0,2843 0,2810 0,2776<br />

-0,6 0,2743 0,2709 0,2676 0,2643 0,2611 0,2578 0,2546 0,2514 0,2483 0,2451<br />

-0,7 0,2420 0,2389 0,2358 0,2327 0,2296 0,2266 0,2236 0,2206 0,2177 0,2148<br />

-0,8 0,2119 0,2090 0,2061 0,2033 0,2005 0,1977 0,1949 0,1922 0,1894 0,1867<br />

-0,9 0,1841 0,1814 0,1788 0,1762 0,1736 0,1711 0,1685 0,1660 0,1635 0,1611<br />

-1,0 0,1587 0,1562 0,1539 0,1515 0,1492 0,1469 0,1446 0,1423 0,1401 0,1379<br />

-1,1 0,1357 0,1335 0,1314 0,1292 0,1271 0,1251 0,1230 0,1210 0,1190 0,1170<br />

-1,2 0,1151 0,1131 0,1112 0,1093 0,1075 0,1056 0,1038 0,1020 0,1003 0,0985<br />

-1,3 0,0968 0,0951 0,0934 0,0918 0,0901 0,0885 0,0869 0,0853 0,0838 0,0823<br />

-1,4 0,0808 0,0793 0,0778 0,0764 0,0749 0,0735 0,0721 0,0708 0,0694 0,0681<br />

-1,5 0,0668 0,0655 0,0643 0,0630 0,0618 0,0606 0,0594 0,0582 0,0571 0,0559<br />

-1,6 0,0548 0,0537 0,0526 0,0516 0,0505 0,0495 0,0485 0,0475 0,0465 0,0455<br />

-1,7 0,0446 0,0436 0,0427 0,0418 0,0409 0,0401 0,0392 0,0384 0,0375 0,0367<br />

-1,8 0,0359 0,0351 0,0344 0,0336 0,0329 0,0322 0,0314 0,0307 0,0301 0,0294<br />

-1,9 0,0287 0,0281 0,0274 0,0268 0,0262 0,0256 0,0250 0,0244 0,0239 0,0233<br />

-2,0 0,0228 0,0222 0,0217 0,0212 0,0207 0,0202 0,0197 0,0192 0,0188 0,0183<br />

-2,1 0,0179 0,0174 0,0170 0,0166 0,0162 0,0158 0,0154 0,0150 0,0146 0,0143<br />

-2,2 0,0139 0,0136 0,0132 0,0129 0,0125 0,0122 0,0119 0,0116 0,0113 0,0110<br />

-2,3 0,0107 0,0104 0,0102 0,0099 0,0096 0,0094 0,0091 0,0089 0,0087 0,0084<br />

-2,4 0,0082 0,0080 0,0078 0,0075 0,0073 0,0071 0,0069 0,0068 0,0066 0,0064<br />

-2,5 0,0062 0,0060 0,0059 0,0057 0,0055 0,0054 0,0052 0,0051 0,0049 0,0048<br />

-2,6 0,0047 0,0045 0,0044 0,0043 0,0041 0,0040 0,0039 0,0038 0,0037 0,0036<br />

-2,7 0,0035 0,0034 0,0033 0,0032 0,0031 0,0030 0,0029 0,0028 0,0027 0,0026<br />

-2,8 0,0026 0,0025 0,0024 0,0023 0,0023 0,0022 0,0021 0,0021 0,0020 0,0019<br />

-2,9 0,0019 0,0018 0,0018 0,0017 0,0016 0,0016 0,0015 0,0015 0,0014 0,0014<br />

-3,0 0,0013 0,0013 0,0013 0,0012 0,0012 0,0011 0,0011 0,0011 0,0010 0,0010<br />

-3,1 0,0010 0,0009 0,0009 0,0009 0,0008 0,0008 0,0008 0,0008 0,0007 0,0007<br />

-3,2 0,0007 0,0007 0,0006 0,0006 0,0006 0,0006 0,0006 0,0005 0,0005 0,0005<br />

-3,3 0,0005 0,0005 0,0005 0,0004 0,0004 0,0004 0,0004 0,0004 0,0004 0,0003<br />

-3,4 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0002<br />

-3,5 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002<br />

-3,6 0,0002 0,0002 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001<br />

-3,7 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001<br />

-3,8 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001<br />

-3,9 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000<br />

65<br />

2010


ESTATÍSTICA <strong>II</strong><br />

ANEXO <strong>II</strong>I<br />

Tabela de Wilcoxon Valores críticos:<br />

TABLE: WILCOXON SIGNED RANK TEST (CI % = 95%)<br />

Critical values:<br />

Wilcoxon Signed-Ranks Test Critical values<br />

Number (n) 2 sided 1 sided<br />

6 0 2<br />

7 2 3<br />

8 3 5<br />

9 5 8<br />

10 8 10<br />

11 10 13<br />

12 13 17<br />

13 17 21<br />

14 21 25<br />

15 25 30<br />

16 29 35<br />

17 34 41<br />

18 40 47<br />

19 46 53<br />

20 52 60<br />

21 58 67<br />

22 65 75<br />

23 73 83<br />

24 81 91<br />

25 89 100<br />

Critical values: Wilcoxon Signed-Ranks test p=0.05 (CI% = 95%). Significant, if the calculated values<br />

presented in this table [the sum of the positive ranks or the negative ranks] is too small.<br />

66<br />

2010


ESTATÍSTICA <strong>II</strong><br />

ANEXO IV<br />

Tabela H<br />

Null Hypothesis versus Alternative Hypothesis<br />

Ho: Populations are identical vs. Ha: At least one pair of populations is different<br />

(Right-Tailed)<br />

Procedure<br />

Step 1 Rank all the data from smallest to largest (imagine they all are in one sample). Tied<br />

scores are assigned the rank equal to the mean of the rank positions that they normally<br />

occupy.<br />

Step 2 Calculate the rank sums of each sample<br />

Step 3 Calculate H<br />

Step 4: If the sample sizes are 5 or more then H is a 2 distribution with degrees of freedom<br />

(k 1).<br />

For a chi-squared distribution, the following table is needed:<br />

Chi-Squared Table<br />

Step 5 Compare H (found in step 3) with the number found in step 4<br />

67<br />

2010


ESTATÍSTICA <strong>II</strong><br />

ANEXO V<br />

Tabelas A a D (Tabelas de Friedman)<br />

Testa a hipótese de que vários grupos relacionados têm, todos, a mesma distribuição – é uma<br />

alternativa par a análise de variância com duas classificações.<br />

Aplicar este teste se possuir poucos dados amostrais e/ou as pressuposições, exigidas pela<br />

análise de variância, estiverem seriamente comprometidas.<br />

Exigência: as observações precisam ser medidas pelo menos em escala ordinal.<br />

F<br />

12<br />

<br />

Nk(<br />

k 1)<br />

r<br />

<br />

j1<br />

Valores Críticos para a análise de variância por número de ordem de Friedman*<br />

k N 0.10 0.05 0.01<br />

3 3 6.00 6.00<br />

4 6.00 6.50 8.00<br />

5 5.20 6.40 8.40<br />

6 5.33 7.00 9.00<br />

7 5.43 7.14 8.86<br />

8 5.25 6.25 9.00<br />

9 5.56 6.22 8.67<br />

10 5.00 6.20 9.60<br />

11 4.91 6.54 8.91<br />

12 5.17 6.17 8.67<br />

13 4.77 6.00 9.39<br />

∞ 4.61 5.99 9.21<br />

4 2 6.00 6.00<br />

3 6.60 7.40 8.60<br />

4 6.30 4.80 9.60<br />

5 6.36 7.80 9.96<br />

6 6.40 7.60 10.00<br />

7 6.26 7.80 10.37<br />

8 6.30 7.50 10.35<br />

∞ 6.25 7.82 11.34<br />

5 3 7.47 8.53 10.13<br />

4 7.60 8.80 11.00<br />

5 7.68 8.96 11.52<br />

∞ 7.78 9.49 13.28<br />

* Adaptado de Siegel, S. e Castellan Jr., N. J. Nonparametric statistics for the Behavioral<br />

Sciences, McGraw-Hill, 1988<br />

k<br />

2<br />

R j 3N(<br />

k 1)<br />

<br />

68<br />

2010


ESTATÍSTICA <strong>II</strong><br />

RHO DE SPEARMAN<br />

There are several kinds of correlation coefficient. The Spearman rank correlation<br />

coefficient demonstrated here, can safely be used with any kind of data that can be arranged<br />

in a sequence (i.e. can be ranked).<br />

The first three columns contain 'raw' data. In the example, column 1 is species names, the<br />

second column is the abundance of each species in sample 1, and column three is the<br />

abundance of species in sample 2. The test can, however, be used for any sets of paired values<br />

that can be ranked. So column two could be 'phi'-50, and column three could be macrobenthic<br />

biomass.<br />

In column 4, put the ranks of the abundances in column 2. In column 5 put the ranks of the<br />

abundances in column 3. Notice in column 5, the two ranks of 6=, which are given a score of<br />

6.5. Because there are two rows ranked 6=, there is no rank 7. Column 6 is the difference<br />

between the ranks, and column 7 is the difference squared.<br />

- SAMPLE 1 SAMPLE 2 SAMPLE 1 SAMPLE 2 - -<br />

species abundance abundance rank rank rank difference rank difference squared<br />

A 5 3 4 5 -1 1<br />

B 22 4 3 4 -1 1<br />

C 3 1 6 6= (6.5) -0.5 0.25<br />

D 1 0 8 8 0 0<br />

E 567 24 1 2 -1 1<br />

F 4 7 5 3 2 4<br />

G 102 25 2 1 1 1<br />

H 2 1 7 6=(6.5) -0.5 0.25<br />

The formula for calculating the value of the Spearman coefficient is:<br />

SRDS is the 'sum of rank differences squared, 8.5 in the example;<br />

ou<br />

N is the number of rows of data, 8 in the present case, so (N x (N 2 -1) = 8 x 63 = 504;<br />

So, the example value of the rank correlation coefficient is +0.899<br />

69<br />

2010


ESTATÍSTICA <strong>II</strong><br />

Note the positive sign, implying a positive correlation - the coefficient may have any value<br />

between -1.0 and +1.0.<br />

To decide if the coefficient's value is significant (i.e. if the correlation is meaningful), look up<br />

the critical value in the following table:<br />

N critical value<br />

5 0.9<br />

6 0.829<br />

7 0.714<br />

8 0.643<br />

9 0.6<br />

10 0.564<br />

12 0.506<br />

16 0.425<br />

20 0.377<br />

Then compare the absolute value of the coefficient with the critical value. If the calculated<br />

value exceeds the critical value, then the correlation coefficient is significant. (To get the<br />

'absolute' value of a negative value, replace the negative sign by a positive sign.)<br />

The critical value is 0.643 for N=8, so the example value of 0.899 is significant. There is a<br />

real correlation between the ranks of the species abundances in sample1 and sample 2. (If the<br />

calculated coefficient were -0.899, it would also be significant, but now would imply an<br />

inverse correlation. If the calculated coefficient were between -0.642 and +0.642, it would not<br />

be significant - i.e. no correlation would be apparent.)<br />

To be more precise, the hypothesis that the apparent relationship between sample 1 and<br />

sample 2 is only a result of chance, can be rejected in the exemplified case where the<br />

calculated coefficient is 0.899 for N=8, since the observed relationship would have occurred<br />

solely by chance less than 1 time in 20 (i.e. with a probability of less than 0.05).<br />

70<br />

2010

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!