Distribuição beta

Distribuição Beta
Função densidade de probabilidade para a distribuição Beta
Função de densidade acumulada para a distribuição Beta
Parâmetros α > 0 R {\displaystyle \alpha >0\in \mathbb {R} }
β > 0 R {\displaystyle \beta >0\in \mathbb {R} }
Suporte x [ 0 , 1 ] {\displaystyle x\in [0,1]} ou x ( 0 , 1 ) {\displaystyle x\in (0,1)}
f.d.p. x α 1 ( 1 x ) β 1 B ( α , β ) {\displaystyle {\frac {x^{\alpha -1}(1-x)^{\beta -1}}{\mathrm {B} (\alpha ,\beta )}}\!}
onde B ( α , β ) = Γ ( α ) Γ ( β ) Γ ( α + β ) {\displaystyle \mathrm {B} (\alpha ,\beta )={\frac {\Gamma (\alpha )\Gamma (\beta )}{\Gamma (\alpha +\beta )}}}
f.d.a. I x ( α , β ) {\displaystyle I_{x}(\alpha ,\beta )}
(função Beta incompleta)
Média E [ X ] = α α + β {\displaystyle \operatorname {E} [X]={\frac {\alpha }{\alpha +\beta }}}
E [ ln X ] = ψ ( α ) ψ ( α + β ) {\displaystyle \operatorname {E} [\ln X]=\psi (\alpha )-\psi (\alpha +\beta )}
Mediana I 1 2 [ 1 ] ( α , β ) {\displaystyle I_{\frac {1}{2}}^{[-1]}(\alpha ,\beta )}
α 1 3 α + β 2 3 {\displaystyle \approx {\frac {\alpha -{\tfrac {1}{3}}}{\alpha +\beta -{\tfrac {2}{3}}}}} para α , β > 1 {\displaystyle \alpha ,\beta >1}
Moda α 1 α + β 2 {\displaystyle {\frac {\alpha -1}{\alpha +\beta -2}}} para α , β > 1 {\displaystyle \alpha ,\beta >1}
Variância var [ X ] = α β ( α + β ) 2 ( α + β + 1 ) {\displaystyle \operatorname {var} [X]={\frac {\alpha \beta }{(\alpha +\beta )^{2}(\alpha +\beta +1)}}}
var [ ln X ] = ψ 1 ( α ) ψ 1 ( α + β ) {\displaystyle \operatorname {var} [\ln X]=\psi _{1}(\alpha )-\psi _{1}(\alpha +\beta )}
Obliquidade 2 ( β α ) α + β + 1 ( α + β + 2 ) α β {\displaystyle {\frac {2\,(\beta -\alpha ){\sqrt {\alpha +\beta +1}}}{(\alpha +\beta +2){\sqrt {\alpha \beta }}}}}
Curtose 6 [ ( α β ) 2 ( α + β + 1 ) α β ( α + β + 2 ) ] α β ( α + β + 2 ) ( α + β + 3 ) {\displaystyle {\frac {6[(\alpha -\beta )^{2}(\alpha +\beta +1)-\alpha \beta (\alpha +\beta +2)]}{\alpha \beta (\alpha +\beta +2)(\alpha +\beta +3)}}}
Entropia ln B ( α , β ) ( α 1 ) ψ ( α ) ( β 1 ) ψ ( β ) + ( α + β 2 ) ψ ( α + β ) {\displaystyle {\begin{matrix}\ln \mathrm {B} (\alpha ,\beta )-(\alpha -1)\psi (\alpha )-(\beta -1)\psi (\beta )\\[0.5em]+(\alpha +\beta -2)\psi (\alpha +\beta )\end{matrix}}}
Função Geradora de Momentos 1 + k = 1 ( r = 0 k 1 α + r α + β + r ) t k k ! {\displaystyle 1+\sum _{k=1}^{\infty }\left(\prod _{r=0}^{k-1}{\frac {\alpha +r}{\alpha +\beta +r}}\right){\frac {t^{k}}{k!}}}

Em teoria da probabilidade e estatística, a distribuição beta é uma família de distribuições de probabilidade contínuas definidas no intervalo [ 0 , 1 ] {\displaystyle [0,1]} parametrizado por dois parâmetros positivos, denotados por α {\displaystyle \alpha } e β {\displaystyle \beta } , que aparecem como expoentes da variável aleatória e controlam o formato da distribuição.

A distribuição beta tem sido aplicada para modelar o comportamento de variáveis aleatórias limitadas a intervalos de tamanho finito em uma grande quantidade de disciplinas.

Em Inferência bayesiana, a distribuição beta é a distribuição conjugada a priori da distribuição de Bernoulli, distribuição binomial, distribuição binomial negativa e distribuição geométrica. Por exemplo, a distribuição beta pode ser usada na análise bayesiana para descrever conhecimentos iniciais sobre a probabilidade de sucesso assim como a probabilidade de que um veículo espacial vai completar uma missão especificada. A distribuição beta é um modelo conveniente para comportamento aleatório de porcentagens e proporções.

Caracterização

Função densidade de probabilidade

A função densidade de probabilidade (f.d.p.) da distribuição beta, para 0 x 1 {\displaystyle 0\leq x\leq 1} e parâmetros α {\displaystyle \alpha } e β {\displaystyle \beta } > 0 {\displaystyle >0} é uma função exponencial da variável x {\displaystyle x} e de sua reflexão ( 1 x ) {\displaystyle (1-x)} como segue:

f ( x ; α , β ) = c o n s t a n t e x α 1 ( 1 x ) β 1 = x α 1 ( 1 x ) β 1 0 1 u α 1 ( 1 u ) β 1 d u = Γ ( α + β ) Γ ( α ) Γ ( β ) x α 1 ( 1 x ) β 1 = 1 B ( α , β ) x α 1 ( 1 x ) β 1 {\displaystyle {\begin{aligned}f(x;\alpha ,\beta )&=\mathrm {constante} \cdot x^{\alpha -1}(1-x)^{\beta -1}\\\\&={\frac {x^{\alpha -1}(1-x)^{\beta -1}}{\displaystyle \int _{0}^{1}u^{\alpha -1}(1-u)^{\beta -1}\,du}}\\\\&={\frac {\Gamma (\alpha +\beta )}{\Gamma (\alpha )\Gamma (\beta )}}\,x^{\alpha -1}(1-x)^{\beta -1}\\\\&={\frac {1}{\mathrm {B} (\alpha ,\beta )}}x^{\alpha -1}(1-x)^{\beta -1}\end{aligned}}}

onde Γ ( z ) {\displaystyle \Gamma (z)} é a função gama. A função beta, B {\displaystyle \mathrm {B} } , é uma constante de normalização para assegurar que a probabilidade total integre a 1. Nas equações acima x {\displaystyle x} é uma realização - um valor observado que de fato ocorreu - de um processo aleatório X {\displaystyle X} .

Esta definição inclui os dois extremos x = 0 {\displaystyle x=0} e x = 1 {\displaystyle x=1} , que é consistente com as definições para outras distribuições contínuas suportadas em um intervalo limitado que são casos especiais da distribuição beta, por exemplo a distribuição arcoseno, e consistente com diversos autores, como N. L. Johnson e S. Kotz.[1][2][3][4] Entretanto, a inclusão de x = 0 {\displaystyle x=0} e x = 1 {\displaystyle x=1} não funciona para α , β < 1 {\displaystyle \alpha ,\beta <1} ; diversos autores, incluindo W. Feller,[5][6][7] escolheram excluir os extremos x = 0 {\displaystyle x=0} e x = 1 {\displaystyle x=1} (portanto, os dois extremos não são realmente parte do domínio da função de densidade) e considerar ao invés 0 < x < 1 {\displaystyle 0<x<1} .

Diversos autores, incluindo N. L. Johnson e S. Kotz,[1] usam os símbolos p {\displaystyle p} e q {\displaystyle q} (ao invés de α {\displaystyle \alpha } e β {\displaystyle \beta } ) para os parâmetros da distribuição de beta, reminiscente dos símbolos tradicionalmente usados dos parâmetros da distribuição de Bernoulli, porque a distribuição beta se aproxima da distribuição de Bernoulli no limite quando os dois parâmetros α {\displaystyle \alpha } e β {\displaystyle \beta } aproxima o valor de zero.

No seguinte, a variável aleatória X {\displaystyle X} distribuída sob a distribuição beta com parâmetros α {\displaystyle \alpha } e β {\displaystyle \beta } irá ser denotada por :[8][9]

X Beta ( α , β ) {\displaystyle X\sim \operatorname {Beta} (\alpha ,\beta )}

Outras notações são X B e ( α , β ) {\displaystyle X\sim {\mathcal {B}}e(\alpha ,\beta )} [10] e X β α , β {\displaystyle X\sim \beta _{\alpha ,\beta }} .[5]

Equação diferencial

A função densidade de probabilidade satisfaz a equação diferencial

f ( x ) = f ( x ) ( α + β 2 ) x ( α 1 ) ( x 1 ) x . {\displaystyle f'(x)=f(x)\,{\frac {(\alpha +\beta -2)x-(\alpha -1)}{(x-1)x}}.}
f.d.a. para a distribuição beta simétrica vs. x {\displaystyle x} e α {\displaystyle \alpha } = β {\displaystyle \beta }

Função distribuição acumulada

A função distribuição acumulada é

F ( x ; α , β ) = B ( x ; α , β ) B ( α , β ) = 0 x t a 1 ( 1 t ) b 1 d t B ( α , β ) = I x ( α , β ) {\displaystyle {\begin{aligned}F(x;\alpha ,\beta )&={\frac {\mathrm {B} {}(x;\alpha ,\beta )}{\mathrm {B} {}(\alpha ,\beta )}}\\\\&={\frac {\int _{0}^{x}t^{a-1}\,(1-t)^{b-1}\,dt}{B(\alpha ,\beta )}}\\\\&=I_{x}(\alpha ,\beta )\end{aligned}}}

onde B ( x ; α , β ) {\displaystyle \mathrm {B} (x;\alpha ,\beta )} é a função beta incompleta e I x ( α , β ) {\displaystyle I_{x}(\alpha ,\beta )} é a função beta incompleta regularizada.

Propriedades

Medidas de tendência central

Moda para distribuição beta para 1 α 5 {\displaystyle 1\leq \alpha \leq 5} e 1 β 5 {\displaystyle 1\leq \beta \leq 5}

Moda

A moda da variável aleatória X {\displaystyle X} de distribuição beta com α {\displaystyle \alpha } , β {\displaystyle \beta } > 1 {\displaystyle >1} é o valor mais provável da distribuição (correspondendo ao pico na f.d.p.), e é dado pela seguinte expressão:[1]

M o ( X ) = α 1 α + β 2 {\displaystyle Mo(X)={\frac {\alpha -1}{\alpha +\beta -2}}}

Quando os dois parâmetros são menores que 1 ( α {\displaystyle \alpha } , β {\displaystyle \beta } < 1 {\displaystyle <1} ), isto é a anti-moda: o menor ponto da curva densidade de probabilidade.[3]

Quando α = β {\displaystyle \alpha =\beta } , a expressão para a moda é simplificada para 1 2 {\displaystyle {\frac {1}{2}}} , mostrando que para α = β > 1 {\displaystyle \alpha =\beta >1} a moda está no centro da distribuição: que é simétrica nesse caso. Veja a seção "Formas" nesse artigo para uma lista completa de casos de moda, para valores arbitrários de α {\displaystyle \alpha } e β {\displaystyle \beta } . Para vários desses casos, o valor máximo da função densidade ocorre em um dos dois extremos. Em alguns casos, o valor máximo da função densidade ocorrendo num extremo é finito. Por exemplo, no caso de α = 2 {\displaystyle \alpha =2} , β = 1 {\displaystyle \beta =1} (ou α = 1 {\displaystyle \alpha =1} , β = 2 {\displaystyle \beta =2} ), a função densidade se torna uma distribuição triangular que é finita nos dois extremos. Em diversos outros casos existe uma singularidade em um dos extremos, onde o valor da função densidade se aproxima do infinito. Por exemplo, no caso α {\displaystyle \alpha } , β = 1 2 {\displaystyle \beta ={\frac {1}{2}}} , a distribuição beta simplifica-se para se tornar a distribuição arcoseno. Existe um debate entre matemáticos sobre alguns desses casos e se os extremos ( x = 0 {\displaystyle x=0} e x = 1 {\displaystyle x=1} ) pode ser chamados de modas ou não.[6][8]

  • Se os extremos são parte do domínio da função densidade
  • Se uma singularidade pode alguma vez ser chamada de moda
  • Se os casos com dois máximos deveriam ser chamados de bimodais
Mediana para a distribuição beta para 0 α 5 {\displaystyle 0\leq \alpha \leq 5} e 0 β 5 {\displaystyle 0\leq \beta \leq 5}
(Média - Mediana) para distribuição beta vs. α {\displaystyle \alpha } e β {\displaystyle \beta } indo de 0 a 2

Mediana

A mediana da distribuição beta é o único número real x = I 1 2 [ 1 ] ( α , β ) {\displaystyle x=I_{\frac {1}{2}}^{[-1]}(\alpha ,\beta )} para o qual a função beta incompleta regularizada I x ( α , β ) = 1 2 {\displaystyle I_{x}(\alpha ,\beta )={\tfrac {1}{2}}} . Não existe uma forma fechada para a mediana da distribuição beta para valores arbitrários de α {\displaystyle \alpha } e β {\displaystyle \beta } . Algumas formas fechadas para valores particulares dos parâmetros α {\displaystyle \alpha } e β {\displaystyle \beta } seguem:

  • Para casos simétricos, onde α = β {\displaystyle \alpha =\beta } , a mediana é igual a 1 2 {\displaystyle {\frac {1}{2}}}
  • Para α = 1 {\displaystyle \alpha =1} e β > 0 {\displaystyle \beta >0} , a mediana é igual a 1 2 1 β {\displaystyle 1-2^{-{\frac {1}{\beta }}}}
  • Para α > 0 {\displaystyle \alpha >0} e β = 1 {\displaystyle \beta =1} , a mediana é igual a 2 1 α {\displaystyle 2^{-{\frac {1}{\alpha }}}}
  • Para α = 3 {\displaystyle \alpha =3} e β = 2 {\displaystyle \beta =2} , a mediana é igual a solução real da função de quarto grau 1 8 x 3 + 6 x 4 = 0 {\displaystyle 1-8x^{3}+6x^{4}=0} , que se encontra no intervalo [ 0 , 1 ] {\displaystyle [0,1]} .

Os seguintes são os limites para a mediana da variável aleatória X {\displaystyle X} tem um parâmetro finito (não nulo) e o outro se aproximando desses limites:

lim β 0 Md(X) = lim α Md(X) = 1 , lim α 0 Md(X) = lim β Md(X) = 0. {\displaystyle {\begin{aligned}\lim _{\beta \to 0}{\text{Md(X)}}=\lim _{\alpha \to \infty }{\text{Md(X)}}=1,\\\lim _{\alpha \to 0}{\text{Md(X)}}=\lim _{\beta \to \infty }{\text{Md(X)}}=0.\end{aligned}}}

Uma aproximação razoável do valor da mediana da distribuição beta, para ambos α {\displaystyle \alpha } e β {\displaystyle \beta } maiores ou iguais a 1, é dado pela fórmula:[11]

Md(X) α 1 3 α + β 2 3  for  α , β 1. {\displaystyle {\text{Md(X)}}\approx {\frac {\alpha -{\tfrac {1}{3}}}{\alpha +\beta -{\tfrac {2}{3}}}}{\text{ for }}\alpha ,\beta \geq 1.}

Quando α {\displaystyle \alpha } , β 1 {\displaystyle \beta \leq 1} , o erro relativo (o erro absoluto dividido pela mediana) nessa aproximação é menor que 4% e para ambos α {\displaystyle \alpha } , β 2 {\displaystyle \beta \geq 2} é menor que 1%. O erro absoluto dividido pela diferença entre a média e a moda é similarmente pequeno:

| Mediana - aproximação Mediana | {\displaystyle \left\vert {\frac {\text{Mediana - aproximação}}{\text{Mediana}}}\right\vert } para distribuição beta para 1 α 5 {\displaystyle 1\leq \alpha \leq 5} e 1 β 5 {\displaystyle 1\leq \beta \leq 5}
| Mediana - aproximação Média - Moda | {\displaystyle \left\vert {\frac {\text{Mediana - aproximação}}{\text{Média - Moda}}}\right\vert } para distribuição beta para 1 α 5 {\displaystyle 1\leq \alpha \leq 5} e 1 β 5 {\displaystyle 1\leq \beta \leq 5}


Média para a distribuição beta para 1 α 5 {\displaystyle 1\leq \alpha \leq 5} e 1 β 5 {\displaystyle 1\leq \beta \leq 5}

Média

O valor esperado (média) μ {\displaystyle \mu } da variável aleatória X {\displaystyle X} sob a distribuição beta com parâmetros α {\displaystyle \alpha } e β {\displaystyle \beta } é uma função apenas da razão β α {\displaystyle {\frac {\beta }{\alpha }}} desses parâmetros:[1]

μ = E [ X ] = 0 1 x f ( x ; α , β ) d x = 0 1 x x α 1 ( 1 x ) β 1 B ( α , β ) d x = α α + β = 1 1 + β α {\displaystyle {\begin{aligned}\mu =\operatorname {E} [X]&=\int _{0}^{1}xf(x;\alpha ,\beta )\,dx\\&=\int _{0}^{1}x\,{\frac {x^{\alpha -1}(1-x)^{\beta -1}}{\mathrm {B} (\alpha ,\beta )}}\,dx\\&={\frac {\alpha }{\alpha +\beta }}\\&={\frac {1}{1+{\frac {\beta }{\alpha }}}}\end{aligned}}}

Fazendo α = β {\displaystyle \alpha =\beta } na expressão acima, obtém-se μ = 1 2 {\displaystyle \mu ={\frac {1}{2}}} , mostrando que para α = β {\displaystyle \alpha =\beta } , a média está no centro da distribuição, que é simétrica. Além dissoos seguintes limites podem ser obtidos da expressão acima:

lim β α 0 μ = 1 lim β α μ = 0 {\displaystyle {\begin{aligned}\lim _{{\frac {\beta }{\alpha }}\to 0}\mu =1\\\lim _{{\frac {\beta }{\alpha }}\to \infty }\mu =0\end{aligned}}}

Portanto, para β α 0 {\displaystyle {\frac {\beta }{\alpha }}\rightarrow 0} ou para α β {\displaystyle {\frac {\alpha }{\beta }}\rightarrow \infty } , a média está localizada no extremo direito, x = 1 {\displaystyle x=1} . Para esses limites, a distribuição beta se torna uma distribuição degenerada de um ponto com um pico de função delta de Dirac no extremo direito x = 1 {\displaystyle x=1} , com probabilidade 1; e probabilidade 0 em todo o resto do intervalo.

Analogamente, para β α {\displaystyle {\frac {\beta }{\alpha }}\rightarrow \infty } , ou para α β 0 {\displaystyle {\frac {\alpha }{\beta }}\rightarrow 0} , a média é localizada no extremo esquerdo, x = 0 {\displaystyle x=0} . A distribuição beta se torna uma distribuição degenerada de um ponto com um pico de função delta de Dirac no extremo esquerdo x = 0 {\displaystyle x=0} com probabilidade 1, e 0 em todo o resto do intervalo.

Enquanto para distribuições unimodais típicas (com modas centradas, pontos de inflexão nos dois lados da moda e caudas longas) é conhecido que a média amostral (como uma estimativa de local) não é tão robusta como a mediana amostral, o oposto é o caso para distribuições bimodais uniformes ou "em forma de U" com Beta ( α , β ) {\displaystyle {\text{Beta}}(\alpha ,\beta )} tal que α {\displaystyle \alpha } , β 1 {\displaystyle \beta \leq 1} , isto é, com as modas localizadas nos extremos da distribuição. Como Mosteller e Tukey frizam[12] "a média das duas observações extremas usa toda a informação amostral. Isto ilustra como, para distribuições de cauda curta, as observações extremas devem receber maior peso". Por contraste, segue que a mediana de uma distribuição bimodal em forma de U com modas nas fronteiras da distribuição (com Beta ( α , β ) {\displaystyle {\text{Beta}}(\alpha ,\beta )} tal que α {\displaystyle \alpha } , β 1 {\displaystyle \beta \leq 1} não é robusta, conforme a mediana amostral desconsidera as observações amostrais extremas. Uma aplicação prática disso ocorre por exemplo para passeios aleatórios, uma vez que a probabilidade para o tempo da última visita a origem em um passeio aleatório é distribuído como uma distribuição arco seno Beta ( 1 2 , 1 2 ) {\displaystyle {\text{Beta}}\left({\frac {1}{2}},{\frac {1}{2}}\right)} :[5][13] a média de um número de realizações de um passeio aleatório é um estimador muito mais robusto que a mediana (que é uma medida estimativa amostral inapropriada neste caso).

Média geométrica

(Média- Média geométrica) para distribuição beta versus α {\displaystyle \alpha } e β {\displaystyle \beta } de 0 a 2, mostrando a assimetria entre α {\displaystyle \alpha } e β {\displaystyle \beta } para a média geométrica
Médias geométricas para distribuição beta. Roxo = G ( x ) {\displaystyle G(x)} , amarelo = G ( 1 x ) {\displaystyle G(1-x)} , com os menores valores α {\displaystyle \alpha } e β {\displaystyle \beta } na frente
Médias geométricas para distribuição beta. Roxo = G ( x ) {\displaystyle G(x)} , amarelo = G ( 1 x ) {\displaystyle G(1-x)} , com os maiores valores α {\displaystyle \alpha } e β {\displaystyle \beta } na frente

O logaritmo da média geométrica G X {\displaystyle G_{X}} de uma distribuição da variável aleatória X {\displaystyle X} é a média aritmética de l n ( X ) {\displaystyle ln(X)} ou, equivalentemente, seu valor esperado:

ln G X = E [ ln X ] {\displaystyle \ln G_{X}=\operatorname {E} [\ln X]}

Para a distribuição beta, o valor esperado da integral é:

E [ ln X ] = 0 1 ln x f ( x ; α , β ) d x = 0 1 ln x x α 1 ( 1 x ) β 1 B ( α , β ) d x = 1 B ( α , β ) 0 1 x α 1 ( 1 x ) β 1 α d x = 1 B ( α , β ) α 0 1 x α 1 ( 1 x ) β 1 d x = 1 B ( α , β ) B ( α , β ) α = ln B ( α , β ) α = ln Γ ( α ) α ln Γ ( α + β ) α = ψ ( α ) ψ ( α + β ) {\displaystyle {\begin{aligned}\operatorname {E} [\ln X]&=\int _{0}^{1}\ln x\,f(x;\alpha ,\beta )\,dx\\[4pt]&=\int _{0}^{1}\ln x\,{\frac {x^{\alpha -1}(1-x)^{\beta -1}}{\mathrm {B} (\alpha ,\beta )}}\,dx\\[4pt]&={\frac {1}{\mathrm {B} (\alpha ,\beta )}}\,\int _{0}^{1}{\frac {\partial x^{\alpha -1}(1-x)^{\beta -1}}{\partial \alpha }}\,dx\\[4pt]&={\frac {1}{\mathrm {B} (\alpha ,\beta )}}{\frac {\partial }{\partial \alpha }}\int _{0}^{1}x^{\alpha -1}(1-x)^{\beta -1}\,dx\\[4pt]&={\frac {1}{\mathrm {B} (\alpha ,\beta )}}{\frac {\partial \mathrm {B} (\alpha ,\beta )}{\partial \alpha }}\\[4pt]&={\frac {\partial \ln \mathrm {B} (\alpha ,\beta )}{\partial \alpha }}\\[4pt]&={\frac {\partial \ln \Gamma (\alpha )}{\partial \alpha }}-{\frac {\partial \ln \Gamma (\alpha +\beta )}{\partial \alpha }}\\[4pt]&=\psi (\alpha )-\psi (\alpha +\beta )\end{aligned}}}

onde ψ {\displaystyle \psi } é a função digama.

Assim sendo, a média geométrica de uma distribuição beta com parâmetros α {\displaystyle \alpha } e β {\displaystyle \beta } é a exponencial da função digama de α {\displaystyle \alpha } e β {\displaystyle \beta } como segue:

G X = e E [ ln X ] = e ψ ( α ) ψ ( α + β ) {\displaystyle G_{X}=e^{\operatorname {E} [\ln X]}=e^{\psi (\alpha )-\psi (\alpha +\beta )}}

Enquanto para a distribuição beta com parâmetros α = β {\displaystyle \alpha =\beta } , segue que a curtose = 0 e a moda = média = mediana = 1 2 {\displaystyle {\frac {1}{2}}} , a média geométrica é menor que 1 2 {\displaystyle {\frac {1}{2}}} (isto é: G X < 1 2 {\displaystyle G_{X}<{\frac {1}{2}}} ). A razão para isso é que a transformação logarítmica faz os valores de | {\displaystyle |} próximos de zero pesarem muito, enquanto l n ( X ) {\displaystyle ln(X)} tende rapidamente para menos infinito conforme X se aproxima de zero, enquanto l n ( X ) {\displaystyle ln(X)} aplaina perto de zero quando X 1 {\displaystyle X\rightarrow 1} .

Ao longo de uma linha α = β {\displaystyle \alpha =\beta } , os seguintes limites se aplicam:

lim α = β 0 G X = 0 lim α = β G X = 1 2 {\displaystyle {\begin{aligned}&\lim _{\alpha =\beta \to 0}G_{X}=0\\&\lim _{\alpha =\beta \to \infty }G_{X}={\tfrac {1}{2}}\end{aligned}}}

Seguindo há os limites com um parâmetro finito (não-nulo) e o outro se aproximando desses limites:

lim β 0 G X = lim α G X = 1 lim α 0 G X = lim β G X = 0 {\displaystyle {\begin{aligned}\lim _{\beta \to 0}G_{X}=\lim _{\alpha \to \infty }G_{X}=1\\\lim _{\alpha \to 0}G_{X}=\lim _{\beta \to \infty }G_{X}=0\end{aligned}}}

O gráfico que acompanha mostra a diferença entre a média aritmética e a média geométrica para os parâmetros de forma α {\displaystyle \alpha } e β {\displaystyle \beta } de 0 a 2. Apesar do fato de que a diferença entre elas aproxima-se de zero conforme α {\displaystyle \alpha } e β {\displaystyle \beta } aproximam-se do infinito e que a diferença se torna larga para valores de α {\displaystyle \alpha } e β {\displaystyle \beta } aproximando-se de zero, pode-se observar uma assimetria evidente da média geométrica com respeito aos parâmetros α {\displaystyle \alpha } e β {\displaystyle \beta } . A diferença entre a média geométrica e a média aritmética é maior para valores pequenos de α {\displaystyle \alpha } em relação a β {\displaystyle \beta } do que quando trocando as magnitudes de α {\displaystyle \alpha } e β {\displaystyle \beta } .

Medidas de dispersão estatísticas

Variança[14]

A variança é o valor de uma distribuição beta com uma distribuição aleatória de variável X com os parâmetros α e β é

v a r ( X ) = E [ x μ 2 ] = α β ( α + β ) 2 ( α + β + 1 ) {\displaystyle var(X)=E[x-\mu ^{2}]={\alpha \beta \over (\alpha +\beta )^{2}(\alpha +\beta +1)}}

Tendo que α=β e através da expressão anterior tem-se que:

v a r ( X ) = 1 4 ( 2 β + 1 ) {\displaystyle var(X)={1 \over 4(2\beta +1)}}

Quanto mais próximo de zero for α = β a variança tende a diminuir. Quando α = β = 0 tem se que o ponto máximo da variança, var(x)=1/4. A distribuição beta é parametrizada através de sua média μ (0 <μ <1) e tamanho de amostra: ν = α + β (ν> 0), usando estás variáveis tem-se que a variança é dada por:

v a r ( X ) = μ ( 1 μ ) 1 + ν {\displaystyle var(X)={\mu (1-\mu ) \over 1+\nu }}

Como ν = (α + β) > 0 e var(X) < μ(1 − μ). Então uma distribuição simétrica (média) é quando μ=1/2, tendo então:

v a r ( X ) = 1 4 ( 1 + ν ) i f μ = 1 2 {\displaystyle var(X)={1 \over 4(1+\nu )}if\mu ={1 \over 2}}

Referências

  1. a b c d Johnson, Norman L.; Kotz, Samuel; Balakrishnan, N. (1995). «21:Beta Distributions». Continuous Univariate Distributions Vol. 2 2 ed. [S.l.]: Wiley. ISBN 978-0-471-58494-0 
  2. Keeping, E. S. (2010). Introduction to Statistical Inference. [S.l.]: Dover Publications. ISBN 978-0486685021 
  3. a b Wadsworth, George P. and Joseph Bryan (1960). Introduction to Probability and Random Variables. [S.l.]: McGraw-Hill 
  4. Hahn, Gerald J.; Shapiro, S. (1994). Statistical Models in Engineering (Wiley Classics Library). [S.l.]: Wiley-Interscience. ISBN 978-0471040651 
  5. a b c Feller, William (1971). An Introduction to Probability Theory and Its Applications, Vol. 2. [S.l.]: Wiley. ISBN 978-0471257097 
  6. a b Gupta, Arjun K. (2004). Handbook of Beta Distribution and Its Applications. [S.l.]: CRC Press. ISBN 978-0824753962 
  7. Panik, Michael J (2005). Advanced Statistics from an Elementary Point of View. [S.l.]: Academic Press. ISBN 978-0120884940 
  8. a b Rose, Colin; Smith, Murray D. (2002). Mathematical Statistics with MATHEMATICA. [S.l.]: Springer. ISBN 978-0387952345 
  9. Kruschke, John K. (2011). Doing Bayesian data analysis: A tutorial with R and BUGS. [S.l.]: Academic Press / Elsevier. p. 83. ISBN 978-0123814852 
  10. Berger, James O. (2010). Statistical Decision Theory and Bayesian Analysis 2 ed. [S.l.]: Springer. ISBN 978-1441930743 
  11. Kerman J. (2011) "A closed-form approximation for the median of the beta distribution". Arxiv
  12. Mosteller, Frederick and John Tukey (1977). Data Analysis and Regression: A Second Course in Statistics. [S.l.]: Addison-Wesley Pub. Co.,. p. 207. ISBN 978-0201048544 
  13. Feller, William (1968). An Introduction to Probability Theory and Its Applications. 1 3 ed. [S.l.: s.n.] ISBN 978-0471257080 
  14. «Beta distribution». Wikipedia (em inglês). 1 de novembro de 2017 
  • v
  • d
  • e
Estatística descritiva
Gráficos estatísticos
Inferência estatística
Estatística não-paramétrica
Análise de sobrevivência
  • Função de sobrevivência
  • Kaplan-Meier
  • Teste log-rank
  • Taxa de falha
  • Proportional hazards models
Amostragem
Distribuição de probabilidade
Correlação
Regressão
Análise multivariada
Séries temporais
  • Modelos para séries temporais
  • Tendência e sazonalidade
  • Modelos de suavização exponencial
  • ARIMA
  • Modelos sazonais
  • Portal de probabilidade e estatística
  • Portal da matemática