Varianza

Disambiguazione – Se stai cercando il grado di libertà in termodinamica, vedi Grado di libertà (chimica).
Niente fonti!
Questa voce o sezione sull'argomento statistica non cita le fonti necessarie o quelle presenti sono insufficienti.
Esempio di campioni da due popolazioni con la stessa media ma diversa varianza.
Esempio di campioni da due popolazioni con la stessa media ma diversa varianza. La popolazione rossa ha media 100 e varianza 100 (SD=10), invece la popolazione blu ha media 100 e varianza 2500 (SD=50).

In statistica e in teoria della probabilità la varianza di una variabile statistica o di una variabile aleatoria X {\displaystyle X} è una funzione, indicata con σ X 2 {\displaystyle \sigma _{X}^{2}} o con V a r ( X ) {\displaystyle \mathrm {Var} (X)} (o semplicemente con σ 2 {\displaystyle \sigma ^{2}} se la variabile è sottintesa), che fornisce una misura della variabilità dei valori assunti dalla variabile stessa; nello specifico, la misura di quanto essi si discostino quadraticamente rispettivamente dalla media aritmetica o dal valore atteso E [ X ] {\displaystyle \mathbb {E} [X]} .

Il termine di "varianza" venne introdotto nel 1918 da Ronald Fisher e sostituì nel tempo la denominazione di "deviazione standard quadratica" utilizzata da Karl Pearson.

Probabilità

Definizione

La varianza della variabile aleatoria X {\displaystyle X} è definita come il valore atteso del quadrato della variabile aleatoria centrata X E [ X ] {\displaystyle X-\mathbb {E} [X]}

σ X 2 = E [ ( X E [ X ] ) 2 ] . {\displaystyle \sigma _{X}^{2}=\mathbb {E} {\Big [}{\big (}X-\mathbb {E} [X]{\big )}^{2}{\Big ]}.}

Un esempio di "misura" dello scostamento di una variabile aleatoria dalla media è dato dalla disuguaglianza di Čebyšëv che controlla questo scostamento in termini dello scarto tipo:

P ( | X E [ X ] | λ σ X ) 1 λ 2 , {\displaystyle P{\Big (}{\big |}X-\mathbb {E} [X]{\big |}\geqslant \lambda \sigma _{X}{\Big )}\leqslant {\frac {1}{\lambda ^{2}}},}

dove σ X = σ X 2 {\displaystyle \sigma _{X}={\sqrt {\sigma _{X}^{2}}}}

Proprietà

Segno della varianza

La varianza di una variabile aleatoria non è mai negativa, ed è zero solamente quando la variabile assume quasi certamente un solo valore x 0 {\displaystyle x_{0}} , cioè se P ( X = x 0 ) = 1 {\displaystyle P(X=x_{0})=1} .

Massimo e minimo della varianza fissati i valori estremi della distribuzione

Dato un insieme di n {\displaystyle n} unità statistiche, dove m i n {\displaystyle \mathrm {min} } e m a x {\displaystyle \mathrm {max} } sono i valori minimo e massimo tra le unità, il massimo valore che può assumere la varianza è uguale a

σ m a x 2 = ( m a x m i n ) 2 4 . {\displaystyle \sigma _{\mathrm {max} }^{2}={\frac {(\mathrm {max} -\mathrm {min} )^{2}}{4}}.}

Se dalle osservazioni si conosce soltanto la media μ {\displaystyle \mu } , il valore è uguale a

σ m a x 2 = μ 2 ( n 1 ) . {\displaystyle \sigma _{\mathrm {max} }^{2}=\mu ^{2}(n-1).}

Espressione della varianza come differenza tra il momento di ordine 2 e il quadrato del valore atteso

Lo stesso argomento in dettaglio: Formula computazionale per la varianza.

Una formula alternativa per la varianza è

σ X 2 = E [ X 2 ] E [ X ] 2   {\displaystyle \sigma _{X}^{2}=\mathbb {E} [X^{2}]-\mathbb {E} [X]^{2}\ }

Questa formula è più pratica per calcolare la varianza.

Invarianza per traslazione

La varianza è invariante per traslazione, che lascia fisse le distanze dalla media, e cambia quadraticamente per riscalamento:

σ a X + b 2 = a 2 σ X 2   {\displaystyle \sigma _{aX+b}^{2}=a^{2}\sigma _{X}^{2}\ }

Varianza della somma di due variabili indipendenti

La varianza della somma di due variabili indipendenti o anche solo incorrelate è pari alla somma delle loro varianze

σ X + Y 2 = σ X 2 + σ Y 2 . {\displaystyle \sigma _{X+Y}^{2}=\sigma _{X}^{2}+\sigma _{Y}^{2}.}

Varianza della differenza di due variabili indipendenti

Usando le due precedenti affermazioni, possiamo dire che la varianza della differenza di due variabili indipendenti è pari alla somma delle loro varianze

σ X Y 2 = σ X + ( Y ) 2 = σ X 2 + σ Y 2 = σ X 2 + σ Y 2 . {\displaystyle \sigma _{X-Y}^{2}=\sigma _{X+(-Y)}^{2}=\sigma _{X}^{2}+\sigma _{-Y}^{2}=\sigma _{X}^{2}+\sigma _{Y}^{2}.}

Varianza della somma di due variabili non indipendenti

Se X {\displaystyle X} e Y {\displaystyle Y} non sono indipendenti, la formula viene corretta dalla loro covarianza,

σ X + Y 2 = σ X 2 + σ Y 2 + 2 σ X , Y , {\displaystyle \sigma _{X+Y}^{2}=\sigma _{X}^{2}+\sigma _{Y}^{2}+2\sigma _{X,Y},}

dove

σ X , Y = E [ X Y ] E [ X ] E [ Y ] . {\displaystyle \sigma _{X,Y}=\mathbb {E} [XY]-\mathbb {E} [X]\mathbb {E} [Y].}

Varianza della media aritmetica di variabili indipendenti

In particolare, la media aritmetica X ¯ = X 1 + + X n n {\displaystyle \textstyle {\bar {X}}={\frac {X_{1}+\ldots +X_{n}}{n}}} di n {\displaystyle n} variabili aleatorie indipendenti aventi la medesima distribuzione, ha varianza aritmetica

σ X ¯ 2 = 1 n 2 σ X 1 + + X n 2 = 1 n σ X 1 2 . {\displaystyle \sigma _{\bar {X}}^{2}={\frac {1}{n^{2}}}\sigma _{X_{1}+\ldots +X_{n}}^{2}={\frac {1}{n}}\sigma _{X_{1}}^{2}.}

Variabili aleatorie discrete e continue

La varianza di una variabile aleatoria discreta X {\displaystyle X} a valori in un insieme A {\displaystyle A} si calcola attraverso la sua funzione di probabilità:

E [ X ] = x A x P ( X = x ) {\displaystyle \mathbb {E} [X]=\sum _{x\in A}xP(X=x)}
σ X 2 = x A ( x E [ X ] ) 2 P ( X = x ) . {\displaystyle \sigma _{X}^{2}=\sum _{x\in A}(x-\mathbb {E} [X])^{2}P(X=x).}

La varianza di una variabile aleatoria continua X {\displaystyle X} a valori in un insieme A {\displaystyle A} si calcola attraverso la sua densità di probabilità:

E [ X ] = A x f ( x ) d x {\displaystyle \mathbb {E} [X]=\int _{A}xf(x)dx}
σ X 2 = A ( x E [ X ] ) 2 f ( x ) d x . {\displaystyle \sigma _{X}^{2}=\int _{A}(x-\mathbb {E} [X])^{2}f(x)dx.}

Esempio

Una variabile aleatoria di Bernoulli X {\displaystyle X} , cioè che ha probabilità p {\displaystyle p} di fornire "1" e probabilità q = 1 p {\displaystyle q=1-p} di fornire "0", ha valore atteso

E [ X ] = 0 P ( X = 0 ) + 1 P ( X = 1 ) = P ( X = 1 ) = p , {\displaystyle \mathbb {E} [X]=0\cdot P(X=0)+1\cdot P(X=1)=P(X=1)=p,}

e la sua varianza può essere calcolata come

σ X 2 = E [ ( X E [ X ] ) 2 ] = E [ ( X p ) 2 ] = p 2 P ( X = 0 ) + q 2 P ( X = 1 ) = p q ( p + q ) = p q , {\displaystyle \sigma _{X}^{2}=\mathbb {E} [(X-\mathbb {E} [X])^{2}]=\mathbb {E} [(X-p)^{2}]=p^{2}P(X=0)+q^{2}P(X=1)=pq(p+q)=pq,}

oppure come

σ X 2 = E [ X 2 ] E [ X ] 2 = P ( X = 1 ) p 2 = p ( 1 p ) = p q . {\displaystyle \sigma _{X}^{2}=\mathbb {E} [X^{2}]-\mathbb {E} [X]^{2}=P(X=1)-p^{2}=p(1-p)=pq.}

Statistica

In statistica la varianza è un indice di variabilità. Data una distribuzione di un carattere quantitativo X {\displaystyle X} su una popolazione di n {\displaystyle n} elementi, la varianza è la media aritmetica del quadrato delle distanze dei valori dalla loro media

σ X 2 = i ( x i μ X ) 2 n , {\displaystyle \sigma _{X}^{2}={\frac {\sum _{i}(x_{i}-\mu _{X})^{2}}{n}},}

dove μ X = i x i n {\displaystyle \textstyle \mu _{X}={\frac {\sum _{i}x_{i}}{n}}} è la media aritmetica di X {\displaystyle X} .

Nel caso si disponga della distribuzione di frequenze di un carattere, è possibile calcolare più facilmente la varianza attraverso la seguente formula:

σ X 2 = 1 n j = 1 K ( x j μ X ) 2 n j {\displaystyle \sigma _{X}^{2}={\frac {1}{n}}\sum _{j=1}^{K}(x_{j}-\mu _{X})^{2}n_{j}}

dove K {\displaystyle K} rappresenta il numero di modalità in cui si presenta il carattere x, mentre x j {\displaystyle x_{j}} e n j {\displaystyle n_{j}} sono rispettivamente la j-esima modalità di x e la relativa frequenza assoluta.

A partire dalla precedente formula, ricordando che n j / n = f j {\displaystyle n_{j}/n=f_{j}} , si ricava anche:

σ X 2 = j = 1 K ( x j μ X ) 2 f j {\displaystyle \sigma _{X}^{2}=\sum _{j=1}^{K}(x_{j}-\mu _{X})^{2}f_{j}}

dove f j {\displaystyle f_{j}} è la frequenza relativa della j-esima modalità.

Esiste, infine, una formula semplificata per il calcolo della varianza:

σ X 2 = ( 1 n i = 1 n x i 2 ) μ X 2 {\displaystyle \sigma _{X}^{2}=\left({\frac {1}{n}}\sum _{i=1}^{n}x_{i}^{2}\right)-\mu _{X}^{2}}

Le formule corrispondenti alla precedente che fanno uso della frequenza assoluta e di quella relativa sono:

σ X 2 = 1 n j = 1 K x j 2 n j μ X 2 {\displaystyle \sigma _{X}^{2}={\frac {1}{n}}\sum _{j=1}^{K}x_{j}^{2}n_{j}-\mu _{X}^{2}}
σ X 2 = j = 1 K x j 2 f j μ X 2 {\displaystyle \sigma _{X}^{2}=\sum _{j=1}^{K}x_{j}^{2}f_{j}-\mu _{X}^{2}}

Un difetto della varianza è quello di non avere la stessa unità di misura dei valori analizzati (se, per esempio, questi sono in cm, la varianza sarà in cm2), perciò in statistica viene molto spesso utilizzata anche la radice quadrata della varianza, vale a dire lo scarto quadratico medio (o deviazione standard o scarto tipo) σ X = σ X 2 {\displaystyle \sigma _{X}={\sqrt {\sigma _{X}^{2}}}} . Con riferimento a questa notazione la varianza si trova quindi anche indicata come σ 2 {\displaystyle \sigma ^{2}} .

Stimatori

In statistica si utilizzano solitamente due stimatori per la varianza su un campione di cardinalità n {\displaystyle n} :

S n 2 = i = 1 n ( x i x ¯ ) 2 n {\displaystyle S_{n}^{2}={\frac {\sum _{i=1}^{n}(x_{i}-{\bar {x}})^{2}}{n}}\quad } e S n 1 2 = i = 1 n ( x i x ¯ ) 2 n 1 , {\displaystyle \quad S_{n-1}^{2}={\frac {\sum _{i=1}^{n}(x_{i}-{\bar {x}})^{2}}{n-1}},}

dove x ¯ = x 1 + + x n n {\displaystyle \textstyle {\bar {x}}={\frac {x_{1}+\ldots +x_{n}}{n}}} è la media campionaria. Il primo è detto varianza campionaria, mentre il secondo è detto varianza campionaria corretta a causa della sua proprietà di correttezza. Infatti lo stimatore S n 1 2 {\displaystyle S_{n-1}^{2}} è privo di distorsione, cioè il suo valore atteso è proprio la varianza:

E [ S n 1 2 ] = σ 2 ( X ) {\displaystyle \mathbb {E} [S_{n-1}^{2}]=\sigma ^{2}(X)} .

Al contrario, lo stimatore S n 2 {\displaystyle S_{n}^{2}} ha un valore atteso diverso dalla varianza, E [ S n 2 ] = n 1 n σ 2 ( X ) {\displaystyle \mathbb {E} [S_{n}^{2}]=\textstyle {\frac {n-1}{n}}\sigma ^{2}(X)} .

Una spiegazione del termine n 1 {\displaystyle n-1} è data dalla necessità di stimare anche la media che per il teorema del limite centrale ha varianza 1/n. Se la media è nota, lo stimatore S n 2 {\displaystyle S_{n}^{2}} diventa corretto. Questa è detta "correzione di Bessel".

Se le X i {\displaystyle X_{i}} sono variabili aleatorie normali N ( μ , σ ) {\displaystyle N(\mu ,\sigma )} , lo stimatore S n 1 2 {\displaystyle S_{n-1}^{2}} è una variabile aleatoria con distribuzione χ 2 {\displaystyle \chi ^{2}} .

Esempio

Il campione di n = 5 {\displaystyle n=5} elementi { 4 , 1 , 1 , 2 , 7 } {\displaystyle \{-4,-1,1,2,7\}} ha media campionaria pari a:

x ¯ = 4 1 + 1 + 2 + 7 5 = 1 {\displaystyle {\bar {x}}={\frac {-4-1+1+2+7}{5}}=1}

e gli stimatori della varianza valgono rispettivamente

S n 2 = ( 4 1 ) 2 + ( 1 1 ) 2 + ( 1 1 ) 2 + ( 2 1 ) 2 + ( 7 1 ) 2 5 = 25 + 4 + 0 + 1 + 36 5 = 66 5 = 13 , 2 {\displaystyle S_{n}^{2}={\frac {(-4-1)^{2}+(-1-1)^{2}+(1-1)^{2}+(2-1)^{2}+(7-1)^{2}}{5}}={\frac {25+4+0+1+36}{5}}={\frac {66}{5}}=13,2}

e

S n 1 2 = 66 5 1 = 16 , 5. {\displaystyle S_{n-1}^{2}={\frac {66}{5-1}}=16,5.}

Voci correlate

Altri progetti

Altri progetti

  • Wikizionario
  • Wikimedia Commons
  • Collabora a Wikizionario Wikizionario contiene il lemma di dizionario «varianza»
  • Collabora a Wikimedia Commons Wikimedia Commons contiene immagini o altri file sulla varianza

Collegamenti esterni

  • (EN) variance, su Enciclopedia Britannica, Encyclopædia Britannica, Inc. Modifica su Wikidata
  • (EN) Eric W. Weisstein, Varianza, su MathWorld, Wolfram Research. Modifica su Wikidata
  • (EN) IUPAC Gold Book, "variance", su goldbook.iupac.org.
Controllo di autoritàThesaurus BNCF 22052 · GND (DE) 4078739-4 · NDL (ENJA) 00561029
  Portale Matematica
  Portale Scienza e tecnica
  Portale Statistica