Teste de Friedman

Estatística
  • v
  • d
  • e

O teste de Friedman é um teste estatístico não-paramétrico desenvolvido por Milton Friedman.[1][2][3] Semelhante ao ANOVA, é utilizado para detectar diferenças nos tratamentos em várias experimentos de teste. O procedimento envolve a classificação de cada linha (ou bloco), então considerando os valores dos postos de colunas. É um caso especial do teste de Durbin.

Exemplos clássicos de utilização são:

  • n sommeliers classificam k diferentes vinhos. São quaisquer um dos k vinhos classificados consistentemente maiores ou menores do que os outros?
  • n soldadores usam k tochas de soldagem, e o que se seguiu soldas foram classificados em termos de qualidade. Fazer o k tochas produzir consistentemente melhor ou pior soldas?

O teste de Friedman é usado para medidas repetidas de análise unidirecional de variância dos postos. Seu uso de postos é semelhante ao do teste de Kruskal-Wallis por postos.

O teste de Friedman é amplamente suportado por muitos lista de softwares estatísticos.

Método

  1. Sejam os dados  { x i j } n × k {\displaystyle \{x_{ij}\}_{n\times k}} , isto é, uma matriz com n {\displaystyle n}  linhas (os blocos), k {\displaystyle k} colunas (os tratamentos) e uma única observação na intersecção de cada bloco e tratamento, calcule os postos dentro de cada bloco. Se existem valores repetidos, determine seus postos a média dos postos que teriam sido atribuídos sem a repetição. Substitua os dados com uma nova matriz  { r i j } n × k {\displaystyle \{r_{ij}\}_{n\times k}}  onde a entrada  r i j {\displaystyle r_{ij}}  é o posto de  x i j {\displaystyle x_{ij}}  dentro do bloco i {\displaystyle i} .
  2. Ache os valores:
    • r ¯ j = 1 n i = 1 n r i j {\displaystyle {\bar {r}}_{\cdot j}={\frac {1}{n}}\sum _{i=1}^{n}{r_{ij}}}
    • r ¯ = 1 n k i = 1 n j = 1 k r i j {\displaystyle {\bar {r}}={\frac {1}{nk}}\sum _{i=1}^{n}\sum _{j=1}^{k}r_{ij}}
    • S S t = n j = 1 k ( r ¯ j r ¯ ) 2 {\displaystyle SS_{t}=n\sum _{j=1}^{k}({\bar {r}}_{\cdot j}-{\bar {r}})^{2}} ,
    • S S e = 1 n ( k 1 ) i = 1 n j = 1 k ( r i j r ¯ ) 2 {\displaystyle SS_{e}={\frac {1}{n(k-1)}}\sum _{i=1}^{n}\sum _{j=1}^{k}(r_{ij}-{\bar {r}})^{2}}
  3. A estatística de teste é dada por  Q = S S t S S e {\displaystyle Q={\frac {SS_{t}}{SS_{e}}}} . Note que o valor de Q como computado acima não precisa ser ajustado para valores repetidos nos dados.
  4. Finalmente, quando n ou k é grande (i.e. n>15 ou k>4), a distribuição de probabilidade de Q pode ser aproximada por uma distribuição qui-quadrado. Nesse caso, o p-valor é dado por  P ( χ k 1 2 Q ) {\displaystyle \mathbf {P} (\chi _{k-1}^{2}\geq Q)} . Se n ou k é pequeno, a aproximação para qui-quadrado se torna pobre e o p-valor deverá ser obtido de tabelas de Q especialmente preparadas para o teste de Friedman. Se o p-valor é significante, testes de comparações múltiplas post hoc poderão ser feitos.

Testes relacionados

  • Quando estiver utilizando este tipo de projeto para uma resposta binária, ao invés desse teste, use teste Q de Cochran.
  • Kendall W é uma normalização da estatística de Friedman está entre 0 e 1.
  • O teste de Wilcoxon é um teste não paramétrico de dados dependentes de duas populações.
  • O teste de Skillings–Mack é uma estatística geral do tipo de Friedman que pode ser usada em praticamente qualquer projeto de blocos com uma estrutura arbitrária de falta de daos.

Análise Post hoc

Testes Post-hoc foram propostos por Schaich e Hamerle (1984),[4] bem como Conover (1971, 1980),[5]  a fim de decidir quais grupos são significativamente diferentes uns dos outros, com base na média das diferenças de postos dos grupos. Estes procedimentos estão detalhados em Bortz, Lienert e Boehnke (2000, p. 275).[6]

Nem todos os pacotes estatísticos suportam a análise post hoc para o teste de Friedman, mas códigos oriundos de contribuição de usuários existem e povêm essas facilidades (por exemplo, no SPSS e em R).[7][8]

Referências

  1. Friedman, Milton (1937). «The use of ranks to avoid the assumption of normality implicit in the analysis of variance». Journal of the American Statistical Association. 32 (200): 675–701. JSTOR 2279372. doi:10.2307/2279372 
  2. Friedman, Milton (1939). «A correction: The use of ranks to avoid the assumption of normality implicit in the analysis of variance». Journal of the American Statistical Association. 34 (205): 109. JSTOR 2279169. doi:10.2307/2279169 
  3. Friedman, Milton (1940). «A comparison of alternative tests of significance for the problem of m rankings». The Annals of Mathematical Statistics. 11 (1): 86-92. JSTOR 2235971. doi:10.1214/aoms/1177731944 
  4. Schaich, Eberhard; Hamerle, Alfred (1984). Verteilungsfreie statistische Prüfverfahren. Berlin: Springer-Verlag. ISBN 3-540-13776-9 
  5. Conover, W. J. (1971). Practical nonparametric statistics. Nova Iorque: John Wiley. ISBN 0-471-16851-3 
  6. Bortz, J.; Lienert, G.; Boehnke, K. (2000). Verteilungsfreie Methoden in der Biostatistik. Berlin: Springer-Vilag. ISBN 3-540-67590-6 
  7. «Post-hoc comparisons for Friedman test». Consultado em 21 de maio de 2017. Arquivado do original em 3 de novembro de 2012 
  8. «Post hoc analysis for Friedman's Test (R code)» 

Leitura complementar

  • Daniel, Wayne W. «Friedman two-way analysis of variance by ranks». Applied Nonparametric Statistics. [S.l.: s.n.] ISBN 0-534-91976-6 
  • Kendall, M. G. Rank Correlation Methods. [S.l.: s.n.] ISBN 0-85264-199-0 
  • Hollander, M.; Wolfe, D. A. Nonparametric Statistics. [S.l.: s.n.] ISBN 0-471-40635-X 
  • Siegel, Sidney; Castellan, N. John Jr. Nonparametric Statistics for the Behavioral Sciences. [S.l.: s.n.] ISBN 0-07-100326-6 
  • Portal de probabilidade e estatística
  • v
  • d
  • e
Estatística descritiva
Gráficos estatísticos
Inferência estatística
Estatística não-paramétrica
Análise de sobrevivência
  • Função de sobrevivência
  • Kaplan-Meier
  • Teste log-rank
  • Taxa de falha
  • Proportional hazards models
Amostragem
Distribuição de probabilidade
Correlação
Regressão
Análise multivariada
Séries temporais
  • Modelos para séries temporais
  • Tendência e sazonalidade
  • Modelos de suavização exponencial
  • ARIMA
  • Modelos sazonais