Distribuzione t di Student

distribuzione t {\displaystyle t} di Student
Funzione di densità di probabilità
Funzione di densità di probabilità
Funzione di ripartizione
Funzione di ripartizione
Parametri ν = n > 0   {\displaystyle \nu =n>0\ } (gradi di libertà)
Supporto R {\displaystyle \mathbb {R} }
Funzione di densità Γ ( n + 1 2 ) n π Γ ( n 2 ) ( 1 + t 2 n ) ( n + 1 2 ) {\displaystyle {\frac {\Gamma ({\frac {n+1}{2}})}{{\sqrt {n\pi }}\Gamma ({\frac {n}{2}})}}\left(1+{\frac {t^{2}}{n}}\right)^{-({\frac {n+1}{2}})}}
Funzione di ripartizione B ( t + t 2 + n 2 t 2 + n , n 2 , n 2 ) B ( n 2 , n 2 ) {\displaystyle {\frac {\mathrm {B} ({\frac {t+{\sqrt {t^{2}+n}}}{2{\sqrt {t^{2}+n}}}},{\frac {n}{2}},{\frac {n}{2}})}{\mathrm {B} ({\frac {n}{2}},{\frac {n}{2}})}}}


dove B {\displaystyle \mathrm {B} } è la funzione beta

Valore atteso 0   {\displaystyle 0\ } se n > 1 {\displaystyle n>1}
non definita altrimenti
Mediana 0 {\displaystyle 0}
Moda 0 {\displaystyle 0}
Varianza n n 2   {\displaystyle {\frac {n}{n-2}}\ } se n > 2 {\displaystyle n>2}
infinita altrimenti
Indice di asimmetria 0   {\displaystyle 0\ } se n > 3 {\displaystyle n>3}
non definita altrimenti
Curtosi 6 n 4   {\displaystyle {\frac {6}{n-4}}\ } se n > 4 {\displaystyle n>4}
infinita altrimenti
Entropia n + 1 2 ( ϝ ( 1 + n 2 ) ϝ ( n 2 ) ) + log ( n B ( n 2 , 1 2 ) ) {\displaystyle {\tfrac {n+1}{2}}\left(\digamma ({\tfrac {1+n}{2}})-\digamma ({\tfrac {n}{2}})\right)+\log {\left({\sqrt {n}}\mathrm {B} ({\tfrac {n}{2}},{\tfrac {1}{2}})\right)}}

dove ϝ {\displaystyle \digamma } è la funzione digamma e B {\displaystyle \mathrm {B} } è la funzione beta

Funzione caratteristica K n / 2 ( n | t | ) ( n | t | ) n / 2 Γ ( n / 2 ) 2 n / 2 1 {\displaystyle {\frac {K_{n/2}({\sqrt {n}}|t|)({\sqrt {n}}|t|)^{n/2}}{\Gamma (n/2)2^{n/2-1}}}} [1]

dove K n ( x ) {\displaystyle K_{n}(x)} è una funzione di Bessel

Manuale

Nella teoria delle probabilità la distribuzione di Student, o t di Student, è una distribuzione di probabilità continua che governa il rapporto tra due variabili aleatorie, la prima con distribuzione normale standard e la seconda, al quadrato, segue una distribuzione chi quadrato.

Questa distribuzione interviene nella stima della media di una popolazione che segue la distribuzione normale, e viene utilizzata negli omonimi test t di Student per la significatività e per ogni intervallo di confidenza della differenza tra due medie.

Storia

La distribuzione venne descritta nel 1908 da William Sealy Gosset, che pubblicò il suo risultato sotto lo pseudonimo "Student" perché la fabbrica di birra Guinness presso la quale era impiegato vietava ai propri dipendenti di pubblicare articoli affinché questi non divulgassero segreti di produzione. Il nome distribuzione di Student venne successivamente introdotto da Ronald Fisher.[2][3]

Definizione

La distribuzione di Student con parametro n {\displaystyle n} (gradi di libertà) governa la variabile aleatoria

T n = Z K / n , {\displaystyle T_{n}={\frac {Z}{\sqrt {K/n}}},}

dove Z {\displaystyle Z} e K {\displaystyle K} sono due variabili aleatorie indipendenti che seguono rispettivamente la distribuzione normale standard N ( 0 , 1 ) {\displaystyle {\mathcal {N}}(0,1)} e la distribuzione chi quadro χ 2 ( n ) {\displaystyle \chi ^{2}(n)} con n {\displaystyle n} gradi di libertà.

Stimatori

La media μ {\displaystyle \mu } e la varianza σ 2 {\displaystyle \sigma ^{2}} di una popolazione X {\displaystyle X} possono essere stimate tramite un suo campione di N {\displaystyle N} elementi, X 1 , , X N {\displaystyle X_{1},\ldots ,X_{N}} con gli stimatori

X ¯ = 1 N i = 1 N X i , {\displaystyle {\bar {X}}={\frac {1}{N}}\sum _{i=1}^{N}X_{i},}
S 2 = 1 N 1 i = 1 N ( X i X ¯ ) 2 . {\displaystyle S^{2}={\frac {1}{N-1}}\sum _{i=1}^{N}(X_{i}-{\bar {X}})^{2}.}

Supponiamo che le variabili aleatorie X 1 , , X N {\displaystyle X_{1},\ldots ,X_{N}} che compongono il campione siano indipendenti e distribuite normalmente, allora X ¯ {\displaystyle {\bar {X}}} è una variabile normale N ( μ , σ 2 N ) {\displaystyle {\mathcal {N}}\left(\mu ,{\frac {\sigma ^{2}}{N}}\right)} con valore atteso μ {\displaystyle \mu } e varianza σ 2 N {\displaystyle {\frac {\sigma ^{2}}{N}}} . Pertanto la variabile Z {\displaystyle Z} così definita

Z = X ¯ μ σ 2 / N {\displaystyle Z={\frac {{\bar {X}}-\mu }{\sqrt {\sigma ^{2}/N}}}}

seguirà una distribuzione normale standard, N ( 0 , 1 ) {\displaystyle {\mathcal {N}}(0,1)} . Il problema è che spesso non si conosce σ 2 {\displaystyle \sigma ^{2}} , pertanto dovremo avere a che fare con uno stimatore della varianza come S 2 {\displaystyle S^{2}} .

Dimostreremo che la seguente variabile aleatoria

k = ( N 1 ) S 2 σ 2 {\displaystyle k={\frac {(N-1)S^{2}}{\sigma ^{2}}}}

segue una distribuzione chi-quadro con N 1 {\displaystyle N-1} gradi di libertà, χ ( N 1 ) 2 {\displaystyle \chi _{(N-1)}^{2}} .

Le due variabili aleatorie Z {\displaystyle Z} e k {\displaystyle k} sono indipendenti, per il teorema di Cochran.

Pertanto si definisce la variabile aleatoria

t N 1 = X ¯ μ S 2 / N = X ¯ μ σ 2 N ( N 1 ) S 2 ( N 1 ) σ 2 = Z k / ( N 1 ) . {\displaystyle t_{N-1}={\frac {{\bar {X}}-\mu }{\sqrt {S^{2}/N}}}={\frac {{\bar {X}}-\mu }{\sqrt {{\frac {\sigma ^{2}}{N}}{\frac {(N-1)S^{2}}{(N-1)\sigma ^{2}}}}}}={\frac {Z}{\sqrt {k/(N-1)}}}.}

Tale variabile aleatoria segue una distribuzione di probabilità detta "t di Student".

Ricavare la distribuzione di t

Cominciamo con il dimostrare che k {\displaystyle k} è una variabile aleatoria di tipo chi-quadro. Ricordiamo che una distribuzione χ 2 ( n ) {\displaystyle \chi ^{2}(n)} è una particolare variabile di tipo gamma definita come segue

χ 2 ( n ) = Γ ( 1 2 , n 2 ) = e x 2 x n 2 1 2 n 2 Γ ( n 2 ) , {\displaystyle \chi ^{2}(n)=\mathrm {\Gamma } \left({\frac {1}{2}},{\frac {n}{2}}\right)={\frac {e^{-{\frac {x}{2}}}x^{{\frac {n}{2}}-1}}{2^{\frac {n}{2}}\Gamma ({\frac {n}{2}})}},}

dove Γ ( x ) {\displaystyle \Gamma (x)} è la funzione Gamma di Eulero definita come

Γ ( x ) = 0 + t x 1 e t d t , {\displaystyle \Gamma (x)=\int _{0}^{+\infty }{t^{x-1}e^{-t}dt},} con R e ( x ) n , {\displaystyle \mathrm {Re} (x)\neq -n,} per ogni n N 0 . {\displaystyle n\in \mathbb {N} _{0}.}

Una variabile chi-quadro con n {\displaystyle n} gradi di libertà si ottiene sommando n {\displaystyle n} variabili normali standard N ( 0 , 1 ) {\displaystyle {\mathcal {N}}(0,1)} elevate al quadrato. Detto ciò partiamo dalla definizione della varianza campionaria e aggiungiamo e sottraiamo nell'argomento della sommatoria μ {\displaystyle \mu } , il valore aspettato della variabile aleatoria X i {\displaystyle X_{i}} che coincide con quello della variabile aleatoria X ¯ {\displaystyle {\bar {X}}} .

S 2 = 1 N 1 i ( X i X ¯ ) 2 = 1 N 1 i ( X i + μ μ X ¯ ) 2 . {\displaystyle S^{2}={\frac {1}{N-1}}\sum _{i}(X_{i}-{\bar {X}})^{2}={\frac {1}{N-1}}\sum _{i}(X_{i}+\mu -\mu -{\bar {X}})^{2}.}

Definiamo i parametri a i {\displaystyle a_{i}} e b {\displaystyle b} come a i = X i μ , b = X ¯ μ {\displaystyle a_{i}=X_{i}-\mu ,b={\bar {X}}-\mu } e riscriviamo la formula precedente

( N 1 ) S 2 = i ( a i b ) 2 = i a i 2 + i b 2 2 i a i b = i ( X i μ ) 2 + i ( X ¯ μ ) 2 2 i ( X ¯ μ ) ( X i μ ) . {\displaystyle (N-1)S^{2}=\sum _{i}(a_{i}-b)^{2}=\sum _{i}a_{i}^{2}+\sum _{i}b^{2}-2\sum _{i}a_{i}b=\sum _{i}(X_{i}-\mu )^{2}+\sum _{i}({\bar {X}}-\mu )^{2}-2\sum _{i}({\bar {X}}-\mu )(X_{i}-\mu ).}

Ora possiamo esplicitare fuori dalle sommatorie tutti i termini che non dipendono da i {\displaystyle i} , ossia X ¯ {\displaystyle {\bar {X}}} e μ {\displaystyle \mu }

( N 1 ) S 2 = i ( X i μ ) 2 + N ( X ¯ μ ) 2 2 ( X ¯ μ ) i ( X i μ ) = i ( X i μ ) 2 + N ( X ¯ μ ) 2 2 ( X ¯ μ ) [ N μ + i X i ] {\displaystyle (N-1)S^{2}=\sum _{i}(X_{i}-\mu )^{2}+N({\bar {X}}-\mu )^{2}-2({\bar {X}}-\mu )\sum _{i}(X_{i}-\mu )=\sum _{i}(X_{i}-\mu )^{2}+N({\bar {X}}-\mu )^{2}-2({\bar {X}}-\mu )\left[-N\mu +\sum _{i}X_{i}\right]}
( N 1 ) S 2 = i ( X i μ ) 2 + N ( X ¯ μ ) 2 2 N ( X ¯ μ ) 2 = i ( X i μ ) 2 N ( X ¯ μ ) 2 , {\displaystyle (N-1)S^{2}=\sum _{i}(X_{i}-\mu )^{2}+N({\bar {X}}-\mu )^{2}-2N({\bar {X}}-\mu )^{2}=\sum _{i}(X_{i}-\mu )^{2}-N({\bar {X}}-\mu )^{2},}

sapendo che la somma su tutti gli X i {\displaystyle X_{i}} è uguale a N X ¯ {\displaystyle N{\bar {X}}} . Dividendo ora a destra e a sinistra per σ 2 {\displaystyle \sigma ^{2}} otteniamo a destra delle variabili normali

( N 1 ) S 2 σ 2 = i = 1 N ( X i μ σ ) 2 N ( X ¯ μ σ ) 2 = i = 1 N ( X i μ σ ) 2 ( X ¯ μ σ / N ) 2 . {\displaystyle {\frac {(N-1)S^{2}}{\sigma ^{2}}}=\sum _{i=1}^{N}\left({\frac {X_{i}-\mu }{\sigma }}\right)^{2}-N\left({\frac {{\bar {X}}-\mu }{\sigma }}\right)^{2}=\sum _{i=1}^{N}\left({\frac {X_{i}-\mu }{\sigma }}\right)^{2}-\left({\frac {{\bar {X}}-\mu }{\sigma /{\sqrt {N}}}}\right)^{2}.}

Abbiamo quindi ottenuto a sinistra una variabile che precedentemente avevamo indicato con k {\displaystyle k} , mentre a destra abbiamo somme di variabili normali standard al quadrato, coincidenti con una variabile chi quadro con N {\displaystyle N} gradi di libertà e un'altra variabile normale anch'essa standard elevata al quadrato, ossia una variabile chi-quadro ad un solo grado di libertà. Sapendo che somme di variabili di tipo chi-quadro con n {\displaystyle n} e m {\displaystyle m} gradi di libertà corrispondono ancora ad una variabile chi-quadro con n + m {\displaystyle n+m} gradi di libertà otteniamo che la funzione di densità di probabilità di k {\displaystyle k} è di tipo chi-quadro con N 1 {\displaystyle N-1} gradi di libertà.

Pertanto ora iniziamo a dire che

t n | k = Z n k , {\displaystyle t_{n}|k=Z{\sqrt {\frac {n}{k}}},}

dove n = N 1 {\displaystyle n=N-1} è il numero di gradi di libertà, e che

f ( t n | k ) = N ( 0 , n k ) = k 2 π n e k t 2 2 n . {\displaystyle f(t_{n}|k)={\mathcal {N}}\left(0,{\frac {n}{k}}\right)={\sqrt {\frac {k}{2\pi n}}}e^{-{\frac {kt^{2}}{2n}}}.}

Conosciuta la variabile aleatoria k {\displaystyle k} , essa si riduce difatti ad un parametro moltiplicativo per la normale. Dalla definizione di probabilità condizionata si ha

f ( t n , k ) = f ( t n | k ) f ( k ) , {\displaystyle f(t_{n},k)=f(t_{n}|k)f(k),}

dove

f ( k ) = e k 2 k n 2 1 2 n 2 Γ ( n 2 ) , {\displaystyle f(k)={\frac {e^{-{\frac {k}{2}}}k^{{\frac {n}{2}}-1}}{2^{\frac {n}{2}}\Gamma \left({\frac {n}{2}}\right)}},}

è una distribuzione chi-quadro con n = N 1 {\displaystyle n=N-1} gradi di libertà. Quindi

f ( t n , k ) = k 2 π n e k t 2 2 n e k 2 k n 2 1 2 n 2 Γ ( n 2 ) = k n 1 2 e k 2 ( 1 + t 2 n ) 2 n + 1 2 π n Γ ( n 2 ) . {\displaystyle f(t_{n},k)={\sqrt {\frac {k}{2\pi n}}}e^{-{\frac {kt^{2}}{2n}}}{\frac {e^{-{\frac {k}{2}}}k^{{\frac {n}{2}}-1}}{2^{\frac {n}{2}}\Gamma \left({\frac {n}{2}}\right)}}={\frac {k^{\frac {n-1}{2}}e^{-{\frac {k}{2}}\left(1+{\frac {t^{2}}{n}}\right)}}{2^{\frac {n+1}{2}}{\sqrt {\pi n}}\Gamma \left({\frac {n}{2}}\right)}}.}

Notiamo che la funzione di distribuzione cercata non è altro che una funzione marginale di f ( t n , k ) {\displaystyle f(t_{n},k)} , pertanto si ha

f ( t n ) = 0 f ( t n , k ) d k , {\displaystyle f(t_{n})=\int _{0}^{\infty }\!\!\!f(t_{n},k)dk,}
f ( t n ) = 1 2 n + 1 2 π n Γ ( n 2 ) 0 + k n 1 2 e k 2 ( 1 + t 2 n ) d k . {\displaystyle f(t_{n})={\frac {1}{2^{\frac {n+1}{2}}{\sqrt {\pi n}}\Gamma \left({\frac {n}{2}}\right)}}\int _{0}^{+\infty }k^{\frac {n-1}{2}}e^{-{\frac {k}{2}}\left(1+{\frac {t^{2}}{n}}\right)}dk.}

Ponendo una sostituzione con l'argomento dell'esponenziale, mantenendolo però negativo

y = k 2 ( 1 + t 2 n ) , d k = 2 ( 1 + t 2 n ) 1 d y , {\displaystyle y={\frac {k}{2}}\left(1+{\frac {t^{2}}{n}}\right),dk=2\left(1+{\frac {t^{2}}{n}}\right)^{-1}dy,}

otteniamo

f ( t n ) = ( 1 + t 2 n ) 1 2 n 1 2 π n Γ ( n 2 ) 0 + ( 2 y 1 + t 2 n ) n 1 2 e y d y = ( 1 + t 2 n ) n + 1 2 π n Γ ( n 2 ) 0 + y n 1 2 e y d y , {\displaystyle f(t_{n})={\frac {\left(1+{\frac {t^{2}}{n}}\right)^{-1}}{2^{\frac {n-1}{2}}{\sqrt {\pi n}}\Gamma ({\frac {n}{2}})}}\int _{0}^{+\infty }\left({\frac {2y}{1+{\frac {t^{2}}{n}}}}\right)^{\frac {n-1}{2}}e^{-y}dy={\frac {\left(1+{\frac {t^{2}}{n}}\right)^{-{\frac {n+1}{2}}}}{{\sqrt {\pi n}}\Gamma \left({\frac {n}{2}}\right)}}\int _{0}^{+\infty }y^{\frac {n-1}{2}}e^{-y}dy,}

l'integrale definito ha come risultato la funzione Gamma di Eulero stessa

0 + y n 1 2 e y d y = Γ ( n 1 2 + 1 ) = Γ ( n + 1 2 ) . {\displaystyle \int _{0}^{+\infty }y^{\frac {n-1}{2}}e^{-y}dy=\Gamma \left({\frac {n-1}{2}}+1\right)=\Gamma \left({\frac {n+1}{2}}\right).}

Pertanto otteniamo al fine il nostro risultato

f ( t n ) = Γ ( n + 1 2 ) π n Γ ( n 2 ) ( 1 + t 2 n ) n + 1 2 {\displaystyle f(t_{n})={\frac {\Gamma \left({\frac {n+1}{2}}\right)}{{\sqrt {\pi n}}\Gamma \left({\frac {n}{2}}\right)}}\cdot \left(1+{\frac {t^{2}}{n}}\right)^{-{\frac {n+1}{2}}}}

Notiamo che il limite di questa successione di funzioni per n {\displaystyle n\rightarrow \infty } è

lim n f ( t n ) = 1 π lim n Γ ( n + 1 2 ) n Γ ( n 2 ) lim n ( 1 + t 2 n ) n + 1 2 = 1 2 π e t 2 2 . {\displaystyle \lim _{n\to \infty }f(t_{n})={\frac {1}{\sqrt {\pi }}}\lim _{n\to \infty }{\frac {\Gamma \left({\frac {n+1}{2}}\right)}{{\sqrt {n}}\Gamma \left({\frac {n}{2}}\right)}}\lim _{n\to \infty }\left(1+{\frac {t^{2}}{n}}\right)^{-{\frac {n+1}{2}}}={\frac {1}{\sqrt {2\pi }}}e^{-{\frac {t^{2}}{2}}}.}

Sapendo che il primo limite ha come risultato 1 2 {\displaystyle {\frac {1}{\sqrt {2}}}} e il secondo tende a e t 2 2 {\displaystyle e^{-{\frac {t^{2}}{2}}}} .

In pratica, prendendo una popolazione di numerosità N {\displaystyle N} molto grande, la variabile aleatoria t tende ad essere una normale standard.

Caratteristiche

La distribuzione di Student con n {\displaystyle n} gradi di libertà è simmetrica, perché lo è la distribuzione normale standard mentre la distribuzione chi quadrato che funge da "parametro casuale di scala" non produce effetti di distorsione di tale simmetria.

La sua funzione di densità di probabilità è

f ( t ) = Γ ( n + 1 2 ) n π Γ ( n 2 ) ( 1 + t 2 n ) ( n + 1 ) / 2 = 1 n B ( 1 2 , n 2 ) ( 1 + t 2 n ) ( n + 1 ) / 2 , {\displaystyle f(t)={\frac {\Gamma \left({\frac {n+1}{2}}\right)}{{\sqrt {n\pi }}\Gamma \left({\frac {n}{2}}\right)}}\left(1+{\frac {t^{2}}{n}}\right)^{-(n+1)/2}={\frac {1}{{\sqrt {n}}\,\mathrm {B} \left({\frac {1}{2}},{\frac {n}{2}}\right)}}\left(1+{\frac {t^{2}}{n}}\right)^{-(n+1)/2},}

dove B {\displaystyle \mathrm {B} } la funzione beta.

La sua funzione di ripartizione è

F ( t ) = I x ( n 2 , n 2 ) , {\displaystyle F(t)=I_{x}\left({\frac {n}{2}},{\frac {n}{2}}\right),}

dove I x ( a , b ) = B ( x , a , b ) B ( a , b ) {\displaystyle I_{x}(a,b)={\frac {\mathrm {B} (x,a,b)}{\mathrm {B} (a,b)}}} è la funzione beta incompleta regolarizzata con

x = t + t 2 + n 2 t 2 + n . {\displaystyle x={\frac {t+{\sqrt {t^{2}+n}}}{2{\sqrt {t^{2}+n}}}}.}

Per k < n {\displaystyle k<n} i momenti (semplici o centrali, in quanto coincidono per una PDF simmetrica) di ordine k {\displaystyle k} della distribuzione sono

μ k = { 0 , se  k  è dispari, Γ ( k + 1 2 ) Γ ( n k 2 ) n k / 2 π Γ ( n 2 ) , se  k  è pari. {\displaystyle \mu _{k}={\begin{cases}0,&{\text{se }}k{\text{ è dispari,}}\\\displaystyle {\frac {\Gamma ({\frac {k+1}{2}})\Gamma ({\frac {n-k}{2}})n^{k/2}}{{\sqrt {\pi }}\Gamma ({\frac {n}{2}})}},&{\text{se }}k{\text{ è pari.}}\end{cases}}}

In particolare, oltre alla speranza matematica E ( t ) = 0 {\displaystyle E(t)=0} e all'indice di asimmetria γ 1 = 0 {\displaystyle \gamma _{1}=0} (per n > 3 {\displaystyle n>3} ) predetti dalla simmetria della distribuzione, si trovano:

  • la varianza Var ( t ) = n n 2 , {\displaystyle {\text{Var}}(t)={\frac {n}{n-2}},} per n > 2 ; {\displaystyle n>2;}
  • l'indice di curtosi γ 2 = 6 n 4 , {\displaystyle \gamma _{2}={\frac {6}{n-4}},} per n > 4. {\displaystyle n>4.}

Consideriamo infine un ultimo parametro: la larghezza a metà altezza. Per una variabile t {\displaystyle t} di Student abbiamo che il picco della funzione è nel suo valore atteso, ossia in 0 {\displaystyle 0} , dove la distribuzione ha valore massimo

Γ ( n + 1 2 ) π n Γ ( n 2 ) . {\displaystyle {\frac {\Gamma ({\frac {n+1}{2}})}{{\sqrt {\pi n}}\Gamma ({\frac {n}{2}})}}.}

Per cui troviamo i valori di t {\displaystyle t} per i quali f ( t n ) {\displaystyle f(t_{n})} assume altezza uguale a metà della massima assoluta.

Γ ( n + 1 2 ) 2 π n Γ ( n 2 ) = Γ ( n + 1 2 ) ( 1 + t 2 n ) n + 1 2 π n Γ ( n 2 ) . {\displaystyle {\frac {\Gamma ({\frac {n+1}{2}})}{2{\sqrt {\pi n}}\Gamma ({\frac {n}{2}})}}={\frac {\Gamma ({\frac {n+1}{2}})\left(1+{\frac {t^{2}}{n}}\right)^{-{\frac {n+1}{2}}}}{{\sqrt {\pi n}}\Gamma ({\frac {n}{2}})}}.}

Per cui

1 2 = ( 1 + t 2 n ) n + 1 2 2 = ( 1 + t 2 n ) n + 1 2 {\displaystyle {\frac {1}{2}}=\left(1+{\frac {t^{2}}{n}}\right)^{-{\frac {n+1}{2}}}\iff 2=\left(1+{\frac {t^{2}}{n}}\right)^{\frac {n+1}{2}}}

dove t {\displaystyle t} ha due soluzioni, come ci aspettavamo dalla simmetria della funzione, coincidenti a

t ± = ± n ( 2 2 n + 1 1 ) . {\displaystyle t_{\pm }=\pm {\sqrt {n\left(2^{\frac {2}{n+1}}-1\right)}}.}

Per cui la larghezza a mezza altezza della funzione è data da

t + t = 2 n ( 2 2 n + 1 1 ) . {\displaystyle t_{+}-t_{-}=2{\sqrt {n\left(2^{\frac {2}{n+1}}-1\right)}}.}

Eseguendo il limite per n {\displaystyle n\rightarrow \infty } troviamo un'espressione convergente a

lim n t + t = 2 ln 4 = 8 ln 2 , {\displaystyle \lim _{n\to \infty }t_{+}-t_{-}=2{\sqrt {\ln 4}}={\sqrt {8\ln 2}},}

che è l'equivalente della larghezza a metà altezza (FWHM) della normale standard. Viceversa per n = 1 {\displaystyle n=1} otteniamo un FWHM = 2. Difatti per n = 1 {\displaystyle n=1} la distribuzione t di Student coincide con una distribuzione di Lorentz-Cauchy di parametri ( 0 , 1 ) {\displaystyle (0,1)} dove la FWHM è per l'appunto uguale a 2 {\displaystyle 2} .

Statistica

Intervallo di confidenza

La distribuzione di Student viene utilizzata per definire degli intervalli di confidenza per la media di una popolazione, sulla base degli stimatori puntuali X ¯ {\displaystyle {\bar {X}}} e S n 2 {\displaystyle S_{n}^{2}} della sua media e della sua varianza. Dall'equazione

T = X ¯ μ S n 2 / n , {\displaystyle T={\frac {{\bar {X}}-\mu }{\sqrt {S_{n}^{2}/n}}},}

si ha infatti

P ( a T b ) = P ( X ¯ b S n 2 / n μ X ¯ a S n 2 / n ) . {\displaystyle P(a\leqslant T\leqslant b)=P\left({\bar {X}}-b{\sqrt {S_{n}^{2}/n}}\leqslant \mu \leqslant {\bar {X}}-a{\sqrt {S_{n}^{2}/n}}\right).}

Scegliendo quindi dei quantili q α < q β {\displaystyle q_{\alpha }<q_{\beta }} per la distribuzione di Student con n {\displaystyle n} gradi di libertà, si ha

β α = P ( q α T q β ) = P ( X ¯ q β S n 2 / n μ X ¯ q α S n 2 / n ) , {\displaystyle \beta -\alpha =P(q_{\alpha }\leqslant T\leqslant q_{\beta })=P\left({\bar {X}}-q_{\beta }{\sqrt {S_{n}^{2}/n}}\leqslant \mu \leqslant {\bar {X}}-q_{\alpha }{\sqrt {S_{n}^{2}/n}}\right),}

cioè un intervallo di confidenza per la media μ {\displaystyle \mu } con livello di confidenza β α {\displaystyle \beta -\alpha } è:

[ X ¯ q β S n 2 / n   ,   X ¯ q α S n 2 / n   ] {\displaystyle \left[{\bar {X}}-q_{\beta }{\sqrt {S_{n}^{2}/n}}\ ,\ {\bar {X}}-q_{\alpha }{\sqrt {S_{n}^{2}/n}}\ \right]} .

Qualora si considerino intervalli simmetrici si può utilizzare l'indice z α {\displaystyle z_{\alpha }} definito da

α = P ( | T | z α ) = P ( z α T z α ) = 2 F ( z α ) 1 , {\displaystyle \alpha =P(|T|\leqslant z_{\alpha })=P(-z_{\alpha }\leqslant T\leqslant z_{\alpha })=2F(z_{\alpha })-1,}

ossia

z α = q 1 α 2 , {\displaystyle z_{\alpha }=q_{1-{\frac {\alpha }{2}}},}

e si ottiene l'intervallo di confidenza per μ {\displaystyle \mu } con livello di confidenza α {\displaystyle \alpha }

[ X ¯ z α S n 2 / n   ,   X ¯ + z α S n 2 / n   ] . {\displaystyle \left[{\bar {X}}-z_{\alpha }{\sqrt {S_{n}^{2}/n}}\ ,\ {\bar {X}}+z_{\alpha }{\sqrt {S_{n}^{2}/n}}\ \right].}

Altre distribuzioni

La distribuzione di Student con parametro n = 1 {\displaystyle n=1} corrisponde alla distribuzione di Cauchy di parametri ( 0 , 1 ) {\displaystyle (0,1)} : entrambe regolano il rapporto X / Y {\displaystyle X/Y} tra due variabili aleatorie indipendenti aventi distribuzione normale standard.

Al tendere di n {\displaystyle n} a infinito la distribuzione di Student con n {\displaystyle n} gradi di libertà converge alla distribuzione normale standard N ( 0 , 1 ) {\displaystyle {\mathcal {N}}(0,1)} .

Se T {\displaystyle T} è una variabile aleatoria con distribuzione t di Student di parametro n {\displaystyle n} , allora F = T 2 {\displaystyle F=T^{2}} segue la distribuzione di Fisher-Snedecor di parametri ( 1 , n ) {\displaystyle (1,n)} .

Tabella dei quantili

La seguente tabella[4] esprime, in funzione del parametro n {\displaystyle n} (riga) e di particolari valori di α {\displaystyle \alpha } (colonna), i quantili q α {\displaystyle q_{\alpha }} per la distribuzione di Student di parametro n {\displaystyle n} :

P ( T q α ) = F ( q α ) = α . {\displaystyle P(T\leqslant q_{\alpha })=F(q_{\alpha })=\alpha .}

L'ultima riga, indicata con "∞", si riferisce a una distribuzione normale standard.

n\α 0,90 0,95 0,975 0,99 0,995 0,9975 0,999 0,9995
1 3,078 6,314 12,706 31,821 63,657 127,321 318,309 636,619
2 1,886 2,920 4,303 6,965 9,925 14,089 22,327 31,599
3 1,638 2,353 3,182 4,541 5,841 7,453 10,215 12,924
4 1,533 2,132 2,776 3,747 4,604 5,598 7,173 8,610
5 1,476 2,015 2,571 3,365 4,032 4,773 5,893 6,869
6 1,440 1,943 2,447 3,143 3,707 4,317 5,208 5,959
7 1,415 1,895 2,365 2,998 3,499 4,029 4,785 5,408
8 1,397 1,860 2,306 2,896 3,355 3,833 4,501 5,041
9 1,383 1,833 2,262 2,821 3,250 3,690 4,297 4,781
10 1,372 1,812 2,228 2,764 3,169 3,581 4,144 4,587
11 1,363 1,796 2,201 2,718 3,106 3,497 4,025 4,437
12 1,356 1,782 2,179 2,681 3,055 3,428 3,930 4,318
13 1,350 1,771 2,160 2,650 3,012 3,372 3,852 4,221
14 1,345 1,761 2,145 2,624 2,977 3,326 3,787 4,140
15 1,341 1,753 2,131 2,602 2,947 3,286 3,733 4,073
16 1,337 1,746 2,120 2,583 2,921 3,252 3,686 4,015
17 1,333 1,740 2,110 2,567 2,898 3,222 3,646 3,965
18 1,330 1,734 2,101 2,552 2,878 3,197 3,610 3,922
19 1,328 1,729 2,093 2,539 2,861 3,174 3,579 3,883
20 1,325 1,725 2,086 2,528 2,845 3,153 3,552 3,850
21 1,323 1,721 2,080 2,518 2,831 3,135 3,527 3,819
22 1,321 1,717 2,074 2,508 2,819 3,119 3,505 3,792
23 1,319 1,714 2,069 2,500 2,807 3,104 3,485 3,768
24 1,318 1,711 2,064 2,492 2,797 3,091 3,467 3,745
25 1,316 1,708 2,060 2,485 2,787 3,078 3,450 3,725
26 1,315 1,706 2,056 2,479 2,779 3,067 3,435 3,707
27 1,314 1,703 2,052 2,473 2,771 3,057 3,421 3,690
28 1,313 1,701 2,048 2,467 2,763 3,047 3,408 3,674
29 1,311 1,699 2,045 2,462 2,756 3,038 3,396 3,659
30 1,310 1,697 2,042 2,457 2,750 3,030 3,385 3,646
40 1,303 1,684 2,021 2,423 2,704 2,971 3,307 3,551
50 1,299 1,676 2,009 2,403 2,678 2,937 3,261 3,496
60 1,296 1,671 2,000 2,390 2,660 2,915 3,232 3,460
100 1,290 1,660 1,984 2,364 2,626 2,871 3,174 3,390
1,282 1,645 1,960 2,326 2,576 2,807 3,090 3,291

Note

  1. ^ (EN) Simon Hurst, The Characteristic Function of the Student-t Distribution, in Financial Mathematics Research Report No. FMRR006-95, Statistics Research Report No. SRR044-95 (archiviato dall'url originale il 18 febbraio 2010).
  2. ^ (EN) Student (William Sealy Gosset), The probable error of a mean (PDF), in Biometrika, vol. 6, n. 1, marzo 1908, pp. 1–-25, DOI:10.1093/biomet/6.1.1.
  3. ^ (EN) Ronald Fisher, Applications of "Student's" distribution (PDF), in Metron, vol. 5, 1925, pp. 90-–104 (archiviato dall'url originale il 13 aprile 2011).
  4. ^ Valori critici calcolati con la funzione qt(p,g) di R.

Voci correlate

Altri progetti

Altri progetti

  • Wikimedia Commons
  • Collabora a Wikimedia Commons Wikimedia Commons contiene immagini o altri file su Distribuzione t di Student

Collegamenti esterni

  • (EN) Student’s t distribution, su Enciclopedia Britannica, Encyclopædia Britannica, Inc. Modifica su Wikidata
  • (EN) Eric W. Weisstein, Distribuzione t di Student, su MathWorld, Wolfram Research. Modifica su Wikidata
  • Probability, Statistics and Estimation in inglese. I primi Studentes a pagina 112.
  • Il test di Student di F. Scotti.
  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica