Teste qui-quadrado de Pearson

Um nomograma do teste χ2.

O teste qui-quadrado (χ2) de Pearson (ou teste chi-quadrado de Pearson) é um teste estatístico aplicado a dados categóricos para avaliar quão provável é que qualquer diferença observada aconteça ao acaso. É adequado para amostras não pareadas/emparelhadas.[1] Dentre os diversos testes qui-quadrado existentes (por exemplo, a correção de continuidade de Yates, teste da razão da máxima verossimilhança, teste de Portmanteau em séries temporais, etc) é o mais utilizado. Suas propriedades foram primeiramente investigadas por Karl Pearson em 1900.[2] Em contextos onde é importante melhorar uma distinção entre a estatística e sua distribuição, nomes similares ao teste qui-quadrado de Pearson são usados.

Testa-se a hipótese nula afirmando-se que a distribuição de frequências de um certo evento observado em uma amostra é consistente com uma distribuição teórica particular. Os eventos considerados devem ser mutuamente excludentes e devem ter probabilidade total 1. Um caso comum para este teste é quando os eventos cobrem um valor de saída de uma variável categórica. Um simples exemplo é a hipótese de que um dado de 6 lados é "honesto" (isto é, todos os sei possíveis valores - 1, 2, 3, 4, 5 e 6 - são equiprováveis).

Definição

O teste qui-quadrado de Pearson é usado para avaliar três tipos de comparação: bondade do ajuste (também chamado teste de aderência), homogeneidade e independência.

  • Um teste de qualidade do ajuste estabelece se uma distribuição de frequências observadas difere de uma distribuição teórica.
  • Um teste de homogeneidade compara a distribuição de contagens para dois ou mais grupos usando a mesma variável categórica (por exemplo, escolha de atividades - faculdades, viagens, empregos - de alunos formados do ensino médio depois de um ano de formados, para ver se o número de alunos escolhendo uma certa atividade tem mudado de classe para classe, ou de década para década).[3]
  • Um teste de independência avalia se observações não pareadas em duas variáveis, expressas em uma tabela de contingência, são independentes entre si (por exemplo, respostas de votação de pessoas de diferentes nacionalidade para ver se a nacionalidade de uma pessoa está relacionada com a sua resposta).

Para todos os três testes, o procedimento do teste inclui os seguintes passos:

  1. Calcula-se a estatística de teste qui-quadrado χ 2 {\displaystyle \chi ^{2}} , que se assemelha a uma soma normalizada de desvios quadrados entre frequências observadas e teóricas (veja abaixo).
  2. Determina-se os graus de liberdade, g l {\displaystyle gl} , dessa estatística.
    1. Para o teste de qualidade de ajuste, isso é essencialmente o número de categorias reduzidas pelo número de parâmetros da distribuição ajustada.
    2. Para o teste de homogeneidade, g l = ( L i n h a s 1 ) ( C o l u n a s 1 ) {\displaystyle gl=(Linhas-1)*(Colunas-1)} onde Linhas corresponde ao número de categorias (isto é, linhas em uma tabela de contingência), e Colunas corresponde ao número de grupos independentes (isto é, colunas na tabela de contingência associada).
    3. Para o teste de independência, g l = ( L i n h a s 1 ) ( C o l u n a s 1 ) {\displaystyle gl=(Linhas-1)*(Colunas-1)} , onde nesse caso, Linhas corresponde ao número de categorias em uma variável e Colunas corresponde ao número de categorias na segunda variável.
  3. Seleciona-se um nível desejado de confiança (nível de significância, valor-p ou nível alfa) para o resultado do teste.
  4. Compara-se a estatística calculada χ 2 {\displaystyle \chi ^{2}} para o valor crítico da distribuição chi-quadrado com gl graus de liberdade e o nível de confiança selecionado (unicaudal já que o teste tem somente uma direção, isto é, o valor de teste maior que o valor crítico), onde em muitos casos dá uma boa aproximação da distribuição de χ 2 {\displaystyle \chi ^{2}} .
  5. Aceita-se ou não aceita-se a hipótese nula de que a distribuição de frequências observadas é a mesma que a distribuição teórica baseada em se a estatística de testes excede o valor crítico de χ 2 {\displaystyle \chi ^{2}} . Se o teste excede o valor crítico de χ 2 {\displaystyle \chi ^{2}} , a hipótese nula (H0 = Não há diferença entre as distribuições) não é aceita, e a hipótese alternativa (H1 = Existe diferença entre as distribuições) pode ser aceita, ambas dependendo do nível de significância.

Teste de aderência

Distribuição uniforme discreta

Nesse caso, N {\displaystyle N} observações são divididas entre n {\displaystyle n} células. Uma simples aplicação é testar a hipótese de que, na população geral, valores podem ocorrer em cada célula com a mesma frequência. A "frequência teórica" para qualquer célula (sob a hipótese nula de distribuição uniforme discreta) é portanto calculada como E i = N n {\displaystyle E_{i}={\frac {N}{n}}} , e a redução nos graus de liberdade é p = 1 {\displaystyle p=1} , notavelmente porque as frequências observadas O i {\displaystyle O_{i}} são restritas a soma até N {\displaystyle N} .

Outras distribuições

Quando testando se observações são variáveis aleatórias cujas distribuições pertencem a uma determinada família de distribuições, as "frequências teóricas" são calculadas usando a distribuição daquela família ajustada em alguma maneira padronizada. A redução nos graus de liberdade é calculada como p = s + 1 {\displaystyle p=s+1} , onde s {\displaystyle s} é o número de covariadas usadas no ajuste da distribuição. Por exemplo, quando testando uma distribuição tricovariada de Weibull, p = 4 {\displaystyle p=4} , e quando testando uma distribuição normal (onde os parâmetros são média e desvio padrão), p = 3 {\displaystyle p=3} , e quando checando uma distribuição de Poisson (onde o parâmetro é o valor esperado), p = 2 {\displaystyle p=2} . Portanto, haverá n p {\displaystyle n-p} graus de liberdade, onde n {\displaystyle n} é o número de categorias.

Calculando a estatística de teste

O valor da estatística de teste é

χ 2 = i = 1 n ( O i E i ) 2 E i = N i = 1 n ( O i / N p i ) 2 p i {\displaystyle \chi ^{2}=\sum _{i=1}^{n}{\frac {(O_{i}-E_{i})^{2}}{E_{i}}}=N\sum _{i=1}^{n}{\frac {(O_{i}/N-p_{i})^{2}}{p_{i}}}}

onde

χ 2 {\displaystyle \chi ^{2}} : Estatística de teste cumulativa de Pearson, que assintoticamente se aproxima da distribuição qui-quadrado;
O i {\displaystyle O_{i}} : Número de observações do tipo i;
N {\displaystyle N} : Número total de observações;
E i = N p i {\displaystyle E_{i}=Np_{i}} : A frequência esperada (teórica)do tipo i, avaliada sob a hipótese nula de que a fração do tipo i na população p i {\displaystyle p_{i}} ;
n {\displaystyle n} : O número de células na tabela.

Teste de independência

Nesse caso, uma "observação" consiste dos valores de dois valores de saída e a hipótese nula de que a ocorrência desses valores de saída são estatisticamente independentes. Cada observação é alocada em uma célula de uma tabela bidimensional (chamada tabela de contingência) de acordo com os valores dos dois valores de saída. Se existem r {\displaystyle r} linhas e c {\displaystyle c} colunas na tabela, a "frequência teórica" para a célula, dada a hipótese nula, é E i = N p i p j {\displaystyle E_{i}=Np_{i}p_{j}} , onde N {\displaystyle N} é o tamanho total da amostra (a soma de todas as células da tabela, p i . = O i . N = j = 1 c O i j N {\displaystyle p_{i.}={\frac {O_{i.}}{N}}=\sum _{j=1}^{c}{\frac {O_{ij}}{N}}} é a fração de observações do tipo i ignorando o atributo das colunas (fração dos totais das linhas) e p . j = O . j N = i = 1 r O i j N {\displaystyle p_{.j}={\frac {O_{.j}}{N}}=\sum _{i=1}^{r}{\frac {O_{ij}}{N}}} é a fração de observações do tipo j ignorando o atributo das linhas (fração dos totais das colunas). O termo "frequências" refere-se aos números absolutos mais do que valores já normalizados.

O valor da estatística de teste é

χ 2 = i = 1 r j = 1 c ( O i j E i j ) 2 E i j = N i , j p i p j ( ( O i j / N ) p i . p . j p i . p . j ) 2 {\displaystyle {\begin{aligned}\chi ^{2}&=\sum _{i=1}^{r}\sum _{j=1}^{c}{\frac {(O_{ij}-E_{ij})^{2}}{E_{ij}}}\\&=N\sum _{i,j}p_{i}p_{j}\left({\frac {(O_{ij}/N)-p_{i.}p_{.j}}{p_{i.}p_{.j}}}\right)^{2}\end{aligned}}}

Note que χ 2 {\displaystyle \chi ^{2}} é 0 se e somente se O i j = E i j i , j {\displaystyle O_{ij}=E_{ij}\forall i,j} , isto é, somente se o valor esperado e o valor observado for igual em todas as células.

Referências

  1. Gosall, Narinder Kaur Gosall, Gurpal Singh (2012). Doctor's Guide to Critical Appraisal. 3 ed. Knutsford: PasTest. pp. 129–130. ISBN 9781905635818 
  2. Pearson, Karl (1900). «On the criterion that a given system of deviations from the probable in the case of a correlated system of variables is such that it can be reasonably supposed to have arisen from random sampling» (PDF). Philosophical Magazine Series 5. 50 (302): 157-175. doi:10.1080/14786440009463897 
  3. Bock, David E.; Velleman, Paul F.; Veaux, Richard D. (2007). Stats, Modeling the World. Boston: Pearson Addison Wesley. pp. 606–627. ISBN 0-13-187621-X 
  • Chernoff, H.; Lehmann E.L. (1954). «The use of maximum likelihood estimates in χ 2 {\displaystyle \chi ^{2}} tests for goodness-of-fit». The Annals of Mathematical Statistics. 25: 579–586  A referência emprega parâmetros obsoletos |coautor= (ajuda)
  • Plackett, R.L. (1983). «Karl Pearson and the Chi-Squared Test». International Statistical Review. 51 (1): 59–72 

Ligações externas

  • Chi-Square Applet Calculator
  • Teste chi-quadrado online para distribuição uniforme
  • Um tutorial de teste chi-quadrado para estudantes de psicologia da Universidade de Oxford
  • v
  • d
  • e
Estatística
Estatística descritiva
Gráficos estatísticos
Inferência estatística
Estatística não-paramétrica
Análise de sobrevivência
  • Função de sobrevivência
  • Kaplan-Meier
  • Teste log-rank
  • Taxa de falha
  • Proportional hazards models
Amostragem
Distribuição de probabilidade
Correlação
Regressão
Análise multivariada
Séries temporais
  • Modelos para séries temporais
  • Tendência e sazonalidade
  • Modelos de suavização exponencial
  • ARIMA
  • Modelos sazonais
  • Portal da matemática

Referências