Variància

Exemple de mostres de dues poblacions amb la mateixa mitjana però diferent variància. La població blava té una variància més gran que la població vermella.

En teoria de probabilitat, la variància d'una variable aleatòria[1] és una mesura de la dispersió d'una variable aleatòria X {\displaystyle X} respecte de la seva mitjana E [ X ] {\displaystyle E[X]} . Es defineix com l'esperança de ( X E [ X ] ) 2 {\displaystyle \left(X-E[X]\right)^{2}} , això és

V ( X ) = E [ ( X E [ X ] ) 2 ] , {\displaystyle V(X)=E\left[\left(X-E[X]\right)^{2}\right],}

on suposem que E [ X 2 ] < {\displaystyle E[X^{2}]<\infty } .

Està relacionada amb la desviació típica, que se sol designar amb la lletra grega σ {\displaystyle \sigma } i que és l'arrel quadrada de la variància:[2][3]

σ X = V ( X ) . {\displaystyle \sigma _{X}={\sqrt {V(X)}}.}

En estadística descriptiva[4] la variància d'un conjunt de dades x 1 , , x N {\displaystyle x_{1},\dots ,x_{N}} es defineix per

v = ( x 1 x ¯ ) 2 + + ( x N x ¯ ) 2 N = 1 N i = 1 N ( x i x ¯ ) 2 , {\displaystyle v={\frac {(x_{1}-{\overline {x}})^{2}+\cdots +(x_{N}-{\overline {x}})^{2}}{N}}={\frac {1}{N}}\sum _{i=1}^{N}(x_{i}-{\overline {x}})^{2},}
on x ¯ {\displaystyle {\overline {x}}} és la mitjana aritmètica de les dades:[5]
x ¯ = x 1 + + x N N = 1 N i = 1 N x i . {\displaystyle {\overline {x}}={\frac {x_{1}+\cdots +x_{N}}{N}}={\frac {1}{N}}\sum _{i=1}^{N}x_{i}.}
En inferència estadística s'utilitzen la variància poblacional i la variància mostral.

Variància d'una variable aleatòria

La variància d'una variable aleatòria X {\displaystyle X} es defineix per

V ( X ) = E [ ( X E [ X ] ) 2 ] = E [ X 2 ] ( E [ X ] ) 2 , {\displaystyle V(X)=E\left[\left(X-E[X]\right)^{2}\right]=E[X^{2}]-{\big (}E[X]{\big )}^{2},}
on E [ X ] {\displaystyle E[X]} és l'esperança o mitjana de X {\displaystyle X} , on suposem que E [ X 2 ] < {\displaystyle E[X^{2}]<\infty } . La segona igualtat s'obté desenvolupant el quadrat i utilitzant que E [ X ] {\displaystyle E[X]} és una constant. Cal remarcar que si E [ X 2 ] < {\displaystyle E[X^{2}]<\infty } , aleshores X {\displaystyle X} té esperança. Això es dedueix del fet que per a qualsevol nombre x R {\displaystyle x\in \mathbb {R} } , | x | ( x 2 + 1 ) / 2 {\displaystyle \vert x\vert \leq (x^{2}+1)/2} , d'on,
| X | 1 2 ( X 2 + 1 ) . {\displaystyle \vert X\vert \leq {\frac {1}{2}}(X^{2}+1).}
Llavors, traient esperances tenim
E [ | X | ] 1 2 ( E [ X 2 ] + 1 ) . {\displaystyle E[\vert X\vert ]\leq {\frac {1}{2}}(E[X^{2}]+1).}
La desigualtat | x | ( x 2 + 1 ) / 2 {\displaystyle \vert x\vert \leq (x^{2}+1)/2} es dedueix del fet que ( | x | + 1 ) 2 0. {\displaystyle (\vert x\vert +1)^{2}\geq 0.}

Interpretació de la variància

Considerem tres variables aleatòries. La primera és la constant 0: X 1 = 0 {\displaystyle X_{1}=0} que com és evident no varia gens. La segona, X 2 , {\displaystyle X_{2},} pren els valors 1 i -1 amb probabilitat 1/2; per exemple, correspon a un joc a cara o creu on si surt cara guanyem 1 euro i si surt creu perdem un euro. Finalment, X 3 {\displaystyle X_{3}} pren els valors 10 i -10 amb probabilitats 1/2; correspondria al mateix joc que abans però ara guanyaríem o perdríem 10 euros. Les tres variables tenen la mateixa esperança:

E [ X 1 ] = 0 , {\displaystyle E[X_{1}]=0,}
E [ X 2 ] = 1 2 × 1 + 1 2 × ( 1 ) = 0 , {\displaystyle E[X_{2}]={\frac {1}{2}}\times 1+{\frac {1}{2}}\times (-1)=0,}
E [ X 3 ] = 1 2 × 10 + 1 2 × ( 10 ) = 0. {\displaystyle E[X_{3}]={\frac {1}{2}}\times 10+{\frac {1}{2}}\times (-10)=0.}
D'altra banda, X 1 2 = 0 {\displaystyle X_{1}^{2}=0} , i llavors E [ X 1 2 ] = 0 , {\displaystyle E[X_{1}^{2}]=0,} i llavors V ( X 1 ) = 0 {\displaystyle V(X_{1})=0} .

Per a X 2 {\displaystyle X_{2}} , aplicant la fórmula del càlcul de l'esperança d'una funció d'una variable aleatòria tenim

E [ X 2 2 ] = 1 2 × 1 2 + 1 2 × ( 1 ) 2 = 1 , {\displaystyle E[X_{2}^{2}]={\frac {1}{2}}\times 1^{2}+{\frac {1}{2}}\times (-1)^{2}=1,}
d'on
V ( X 2 ) = E [ X 2 2 ] ( E [ X 2 ] ) 2 = 1. {\displaystyle V(X_{2})=E[X_{2}^{2}]-{\big (}E[X_{2}]{\big )}^{2}=1.}
Anàlogament, per a X 3 {\displaystyle X_{3}} tenim E [ X 3 2 ] = 100 {\displaystyle E[X_{3}^{2}]=100} i V ( X 3 ) = 100 {\displaystyle V(X_{3})=100} .

Així, les tres variables tenen igual mitjana, però la primera variable que és una constant té variància 0 (no varia gens respecte la seva mitjana), mentre que X 2 {\displaystyle X_{2}} pren valors més propers a la mitjana que X 3 {\displaystyle X_{3}} , i llavors la variància de X 2 {\displaystyle X_{2}} és més petita que la de X 3 {\displaystyle X_{3}} .

Càlcul de la variància en els casos habituals

Variables aleatòries discretes

Sigui X {\displaystyle X} una variable aleatòria discreta que pot prendre un nombre finit o infinit numerable de valors x 1 , x 2 , {\displaystyle x_{1},\,x_{2},\dots } amb probabilitats respectives p 1 , p 2 , {\displaystyle p_{1},\,p_{2},\dots } Aleshores

V ( X ) = i ( x i μ ) 2 p i = i x i 2 p i μ 2 , {\displaystyle V(X)=\sum _{i}(x_{i}-\mu )^{2}p_{i}=\sum _{i}x_{i}^{2}\,p_{i}-\mu ^{2},}
on μ = E [ X ] = i x i p i , {\displaystyle \mu =E[X]=\sum _{i}x_{i}p_{i},} i suposem que i x i 2 p i < . {\displaystyle \sum _{i}x_{i}^{2}\,p_{i}<\infty .}

Exemples

1. Si tenim un dau ordinari, que pren els valors 1 , 2 , , 6 {\displaystyle 1,2,\dots ,6} amb probabilitats

P ( X = 1 ) = = P ( X = 6 ) = 1 6 , {\displaystyle P(X=1)=\cdots =P(X=6)={\frac {1}{6}},}
aleshores,
μ = E ( X ) = 1 1 6 + + 6 1 6 = 1 6 i = 1 6 i = 3 , 5. {\displaystyle \mu =E(X)=1\cdot {\frac {1}{6}}+\cdots +6\cdot {\frac {1}{6}}={\frac {1}{6}}\sum _{i=1}^{6}i=3,5.}

Aplicant la fórmula del càlcul de l'esperança d'una funció d'una variable aleatòria,

E ( X 2 ) = 1 2 1 6 + + 6 2 1 6 = 15 , 17. {\displaystyle E(X^{2})=1^{2}\,{\frac {1}{6}}+\cdots +6^{2}\,{\frac {1}{6}}=15,17.}
Ara podem calcular la variància de X {\displaystyle X} :
V ( X ) = E ( X 2 ) ( E ( X ) ) 2 = 15 , 17 3.5 2 = 2 , 67. {\displaystyle V(X)=E(X^{2})-{\big (}E(X){\big )}^{2}=15,17-3.5^{2}=2,67.}

2. Sigui X {\displaystyle X} una variable binomial de paràmetres n {\displaystyle n} i p {\displaystyle p} , és a dir, que pot prendre els valors 0 , 1 , . . . , n {\displaystyle 0,1,...,n} , amb probabilitats:
P ( X = k ) = ( n k ) p k ( 1 p ) n k ,   k = 0 , , n , {\displaystyle P(X=k)={\binom {n}{k}}p^{k}(1-p)^{n-k},\ k=0,\dots ,n,}
aleshores
E ( X ) = k = 0 n k ( n k ) p k ( 1 p ) n k = n p k = 1 n ( n 1 k 1 ) p k 1 ( 1 p ) n k = ( ) n p j = 0 n 1 ( n 1 j ) p j ( 1 p ) n 1 j = ( ) n p , {\displaystyle E(X)=\sum _{k=0}^{n}k\,{\binom {n}{k}}p^{k}(1-p)^{n-k}=np\,\sum _{k=1}^{n}{\binom {n-1}{k-1}}p^{k-1}(1-p)^{n-k}=_{(*)}np\,\sum _{j=0}^{n-1}{\binom {n-1}{j}}p^{j}(1-p)^{n-1-j}=_{(**)}np,}
on a la igualtat (*) hem fet el canvi k 1 = j {\displaystyle k-1=j} , i a la igualtat (**) que
j = 0 n 1 ( n 1 j ) p j ( 1 p ) n 1 j = j = 0 n 1 P ( Y = j ) = 1 , {\displaystyle \sum _{j=0}^{n-1}{\binom {n-1}{j}}p^{j}(1-p)^{n-1-j}=\sum _{j=0}^{n-1}P(Y=j)=1,}
on Y {\displaystyle Y} és una variable binomial de paràmetres n 1 i p {\displaystyle n-1\quad {\text{i}}\quad p} .

D'altra banda, per calcular E [ X 2 ] {\displaystyle E[X^{2}]} calcularem primer E [ X ( X 1 ) ] {\displaystyle E[X(X-1)]} . Utilitzant de nou la fórmula per a calcular l'esperança d'una funció d'una variable aleatòria (en aquest cas, la funció g ( x ) = x ( x 1 ) {\displaystyle g(x)=x(x-1)} ), i amb arguments similars als anteriors,

E [ X ( X 1 ) ] = k = 0 n k ( k 1 ) ( n k ) p k ( 1 p ) n k = n ( n 1 ) p 2 k = 2 n ( n 2 k 2 ) p k 2 ( 1 p ) n k = n ( n 1 ) p 2 j = 0 n 2 ( n 2 j ) p j ( 1 p ) n 2 j = n ( n 1 ) p 2 . {\displaystyle E[X(X-1)]=\sum _{k=0}^{n}k(k-1)\,{\binom {n}{k}}p^{k}(1-p)^{n-k}=n(n-1)p^{2}\,\sum _{k=2}^{n}{\binom {n-2}{k-2}}p^{k-2}(1-p)^{n-k}=n(n-1)p^{2}\,\sum _{j=0}^{n-2}{\binom {n-2}{j}}p^{j}(1-p)^{n-2-j}=n(n-1)p^{2}.}
Així,
E [ X ( X 1 ) ] = E [ X 2 ] E [ X ] = n ( n 1 ) p 2 . {\displaystyle E[X(X-1)]=E[X^{2}]-E[X]=n(n-1)p^{2}.}
Aïllant E [ X 2 ] {\displaystyle E[X^{2}]} tenim
E [ X 2 ] = n 2 p 2 n p 2 + n p , {\displaystyle E[X^{2}]=n^{2}p^{2}-np^{2}+np,}
i aleshores,
V ( X ) = n p ( 1 p ) . {\displaystyle V(X)=np(1-p).}

3. Sigui X {\displaystyle X} una variable aleatòria de Poisson de paràmetre λ > 0 {\displaystyle \lambda >0} , és a dir, que pot prendre qualsevol valor natural (0 inclòs) amb probabilitats
P ( X = k ) = e λ λ k k ! , k = 0 , 1 , {\displaystyle P(X=k)=e^{-\lambda }{\frac {\lambda ^{k}}{k!}},\quad k=0,1,\dots }
D'una banda tenim que
E [ X ] = k = 0 k e λ λ k k ! = λ e λ k = 1 λ k 1 ( k 1 ) ! = ( ) λ e λ j = 0 λ j j ! = λ e λ e λ = λ , {\displaystyle E[X]=\sum _{k=0}^{\infty }ke^{-\lambda }\,{\frac {\lambda ^{k}}{k!}}=\lambda e^{-\lambda }\sum _{k=1}^{\infty }{\frac {\lambda ^{k-1}}{(k-1)!}}=_{(*)}\lambda e^{-\lambda }\sum _{j=0}^{\infty }{\frac {\lambda ^{j}}{j!}}=\lambda \,e^{-\lambda }e^{\lambda }=\lambda ,}
on a la igualtat (*) hem fet el canvi k 1 = j {\displaystyle k-1=j} , i després hem utilitzat que per a qualsevol nombre x R {\displaystyle x\in \mathbb {R} } , e x = n = 0 x n n ! . {\displaystyle e^{x}=\sum _{n=0}^{\infty }{\frac {x^{n}}{n!}}.}

Per a calcular E [ X 2 ] {\displaystyle E[X^{2}]} farem com en el cas de la binomial i calcularem E [ X ( X 1 ) ] {\displaystyle E[X(X-1)]} : Utilitzant arguments anàlegs als anteriors, tenim

E [ X ( X 1 ) ] = k = 0 k ( k 1 ) e λ λ k k ! = λ 2 e λ k = 2 λ k 2 ( k 2 ) ! = λ 2 . {\displaystyle E[X(X-1)]=\sum _{k=0}^{\infty }k(k-1)\,e^{-\lambda }{\frac {\lambda ^{k}}{k!}}=\lambda ^{2}e^{-\lambda }\sum _{k=2}^{\infty }{\frac {\lambda ^{k-2}}{(k-2)!}}=\lambda ^{2}.}
D'on es dedueix
V ( X ) = λ . {\displaystyle V(X)=\lambda .}

Variables aleatòries absolutament contínues

Sigui X {\displaystyle X} una variable aleatòria amb funció de densitat f {\displaystyle f} . Aleshores

V ( X ) = ( x μ ) 2 f ( x ) d x = x 2 f ( x ) d x μ 2 , {\displaystyle V(X)=\int _{-\infty }^{\infty }(x-\mu )^{2}\,f(x)\,dx=\int _{-\infty }^{\infty }x^{2}\,f(x)\,dx-\mu ^{2},}
on μ = E [ X ] = x f ( x ) d x {\displaystyle \mu =E[X]=\int _{-\infty }^{\infty }x\,f(x)\,dx} , i suposem x 2 f ( x ) d x < . {\displaystyle \int _{-\infty }^{\infty }x^{2}\,f(x)\,dx<\infty .}

Exemple Variable normal estàndard. Sigui X {\displaystyle X} una variable aleatòria normal estàndard, amb funció de densitat

f ( x ) = 1 2 π e x 2 / 2 , x R . {\displaystyle f(x)={\frac {1}{\sqrt {2\pi }}}\,e^{-x^{2}/2},\quad x\in \mathbb {R} .}
Integrant per parts,
E ( X 2 ) = x 2 f ( x ) d x = 1 2 π x 2 e x 2 / 2 d x = 1. {\displaystyle E(X^{2})=\int _{-\infty }^{\infty }x^{2}\,f(x)\,dx={\frac {1}{\sqrt {2\pi }}}\int _{-\infty }^{\infty }x^{2}\,e^{-x^{2}/2}\,dx=1.}
D'altra banda, l'esperança de X {\displaystyle X} val

E ( X ) = x e x 2 / 2 d x = 0 x e x 2 / 2 d x + 0 x e x 2 / 2 d x = 0 x e x 2 / 2 d x + 0 x e x 2 / 2 d x = 0. {\displaystyle E(X)=\int _{-\infty }^{\infty }x\,e^{-x^{2}/2}dx=\int _{-\infty }^{0}x\,e^{-x^{2}/2}dx+\int _{0}^{\infty }x\,e^{-x^{2}/2}dx=-\int _{0}^{\infty }x\,e^{-x^{2}/2}dx+\int _{0}^{\infty }x\,e^{-x^{2}/2}dx=0.}

Variables aleatòries sense variància

Pot ocórrer que una variable aleatòria no tingui esperança: per exemple, una variable amb distribució de Cauchy. Aleshores la fórmula E [ ( X E [ X ] ) 2 ] {\displaystyle E{\big [}(X-E[X])^{2}{\big ]}} no tindrà sentit. Es diu que la variància de X {\displaystyle X} no existeix.

D'altra banda, també pot passar que una variable X {\displaystyle X} tingui esperança, però que E [ X 2 ] = {\displaystyle E[X^{2}]=\infty } . Aleshores la fórmula de la variància es pot aplicar, però dona + {\displaystyle +\infty } . En aquest cas també es diu que la variància de X {\displaystyle X} no existeix o que és infinita. Una variable amb distribució t de Student amb dos graus de llibertat està en aquest cas.

Propietats de la variància

  1. V ( X ) 0 {\displaystyle V(X)\geq 0} , i V ( X ) = 0 {\displaystyle V(X)=0} si i només si X {\displaystyle X} és una constant quasi segurament.
  2. V ( a X + b ) = a 2 V ( X ) {\displaystyle V(aX+b)=a^{2}V(X)} essent a {\displaystyle a} i b {\displaystyle b} constants qualssevol.
  3. V ( X ) = E [ X 2 ] ( E [ X ] ) 2 . {\displaystyle V(X)=E[X^{2}]-{\big (}E[X]{\big )}^{2}.}
  4. Desigualtat de Txebixev: per a qualsevol constant k > 0 {\displaystyle k>0}
    P ( | X E [ X ] | k σ X ) 1 k 2 . {\displaystyle P\left(\left|X-E[X]\right|\geq k\sigma _{X}\right)\leq {\frac {1}{k^{2}}}.}
  5. Desigualtat de Cauchy-Schwarz. Si X {\displaystyle X} i Y {\displaystyle Y} són dues variables aleatòries, aleshores,
    E [ | X Y | ] E [ X 2 ] E [ Y 2 ] . {\displaystyle E{\big [}\vert X\,Y\vert {\big ]}\leq {\sqrt {E[X^{2}]\,E[Y^{2}]}}.}

Nova interpretació de la variància gràcies a la desigualtat de Txebixev

La desigualtat de Txebixev permet interpretar de quina manera la variància mesura la "dispersió" d'una variable aleatòria.[6] Si a la fórmula de la desigualtat de Txebixev prenem, per exemple, k = 3 {\displaystyle k=3} , aleshores la probabilitat que la variable s'allunyi de la seva mitjana més de 3 vegades la desviació típica serà menor de 1 / 9 0 , 11 {\displaystyle 1/9\approx 0,11} .

Covariància i correlació

Siguin X {\displaystyle X} i Y {\displaystyle Y} dues variables aleatòries. Definim la covariància de X {\displaystyle X} i Y {\displaystyle Y} a

Cov ( X , Y ) = E [ ( X E [ X ] ) ( Y E [ Y ] ) ] = E [ X Y ] E [ X ] E [ Y ] , {\displaystyle {\text{Cov}}(X,Y)=E{\big [}(X-E[X])(Y-E[Y]){\big ]}=E[X\,Y]-E[X]\,E[Y],}
on suposem que E [ X 2 ] < i E [ Y 2 ] < . {\displaystyle E[X^{2}]<\infty \quad {\text{i}}\quad E[Y^{2}]<\infty .} Tenim la següent fórmula per a la variància d'una suma de dues variables aleatòries:
V ( X + Y ) = V ( X ) + V ( Y ) + 2 Cov ( X , Y ) . {\displaystyle V(X+Y)=V(X)+V(Y)+2\,{\text{Cov}}(X,Y).}
Més generalment, per a la variància de la suma de n {\displaystyle n} variables aleatòries X 1 , , X n , {\displaystyle X_{1},\dots ,X_{n},} tenim
V ( i = 1 n X i ) = i = 1 n V ( X i ) + 2 1 i < j n Cov ( X i , X j ) . {\displaystyle V{\big (}\sum _{i=1}^{n}X_{i}{\big )}=\sum _{i=1}^{n}V(X_{i})+2\sum _{1\leq i<j\leq n}{\text{Cov}}(X_{i},X_{j}).}

Si Cov ( X , Y ) = 0 {\displaystyle {\text{Cov}}(X,Y)=0} , es diu que X {\displaystyle X} i Y {\displaystyle Y} estan incorrelacionades. En aquest cas, la variància de la suma o la resta de variables se simplifica:

V ( X + Y ) = V ( X Y ) = V ( X ) + V ( Y ) , {\displaystyle V(X+Y)=V(X-Y)=V(X)+V(Y),}
on, al cas de la resta, hem aplicat la propietat 2 de l'apartat anterior.

Noteu que si dues variables X {\displaystyle X} i Y {\displaystyle Y} són independents, aleshores són incorrelacionades, ja que E [ X Y ] = E [ X ] E [ Y ] {\displaystyle E[X\,Y]=E[X]\,E[Y]} .

La fórmula de la variància de la suma de n {\displaystyle n} variables també se simplifica: Si X 1 , , X n {\displaystyle X_{1},\dots ,X_{n}} són incorrelacionades dos a dos, és a dir, Cov ( X i , X j ) = 0 , {\displaystyle {\text{Cov}}(X_{i},X_{j})=0,} per a i j {\displaystyle i\neq j} , aleshores

V ( i = 1 n X i ) = i = 1 n V ( X i ) . {\displaystyle V{\big (}\sum _{i=1}^{n}X_{i}{\big )}=\sum _{i=1}^{n}V(X_{i}).}
Sigui X {\displaystyle X} i Y {\displaystyle Y} dues variables aleatòries tals que V ( X ) 0 i V ( Y ) 0. {\displaystyle V(X)\neq 0\quad i\quad V(Y)\neq 0.} Es defineix el coeficient de correlació entre X {\displaystyle X} i Y {\displaystyle Y} al nombre
ρ = Cov ( X , Y ) σ X σ Y . {\displaystyle \rho ={\frac {{\text{Cov}}(X,Y)}{\sigma _{X}\,\sigma _{Y}}}.}
Es ha de 1 ρ 1 {\displaystyle -1\leq \rho \leq 1} . A més, si ρ = 1 {\displaystyle \rho =1} , aleshores existeixen nombres a , b {\displaystyle a,\,b} , amb a > 0 {\displaystyle a>0} , tals que (quasi segurament)
Y = a X + b . {\displaystyle Y=aX+b.}
I si ρ = 1 {\displaystyle \rho =-1} , aleshores existeixen nombres a , b {\displaystyle a,\,b} , amb a < 0 {\displaystyle a<0} , tals que (quasi segurament)
Y = a X + b . {\displaystyle Y=aX+b.}
Per aquest motiu, el coeficient de correlació s'interpreta com una mesura del grau d'associació lineal entre dues variables (però no del grau d'associació general).

Variància d'una població finita

En estadística descriptiva[4] es considera una població (de persones o de coses: també s'anomena univers o col·lectiu) finita, amb N {\displaystyle N} elements, i es mesura una característica numèrica. Els resultats, iguals o diferents, es designen per x 1 , , x N {\displaystyle x_{1},\dots ,x_{N}} . La mitjana o mitjana aritmètica es defineix per

x ¯ = x 1 + + x N N = 1 N i = 1 N x i . {\displaystyle {\overline {x}}={\frac {x_{1}+\cdots +x_{N}}{N}}={\frac {1}{N}}\sum _{i=1}^{N}x_{i}.}

La variància es defineix per

v = ( x 1 x ¯ ) 2 + + ( x N x ¯ ) 2 N = 1 N i = 1 N ( x i x ¯ ) 2 . {\displaystyle v={\frac {(x_{1}-{\overline {x}})^{2}+\cdots +(x_{N}-{\overline {x}})^{2}}{N}}={\frac {1}{N}}\sum _{i=1}^{N}(x_{i}-{\overline {x}})^{2}.}

En general, en les observacions hi ha nombres repetits i només tenim K {\displaystyle K} valors diferents, que escriurem x 1 , , x K {\displaystyle x_{1},\dots ,x_{K}} , de manera que els N {\displaystyle N} nombres es resumeixen en una taula de freqüències:

Valor Freqüència

absoluta

Freqüència

relativa

x 1 {\displaystyle x_{1}} F 1 {\displaystyle F_{1}} f 1 {\displaystyle f_{1}}
x 2 {\displaystyle x_{2}} F 2 {\displaystyle F_{2}} f 2 {\displaystyle f_{2}}
{\displaystyle \vdots } {\displaystyle \vdots } {\displaystyle \vdots }
x k {\displaystyle x_{k}} F K {\displaystyle F_{K}} f K {\displaystyle f_{K}}
TOTAL N {\displaystyle N} 1 {\displaystyle 1}

on F i {\displaystyle F_{i}} és la freqüència absoluta de la dada x i {\displaystyle x_{i}} , és a dir, el nombre de vegades que surt aquesta dada, i f i = F i / N {\displaystyle f_{i}=F_{i}/N} és la freqüència relativa. Aleshores la mitjana es calcula per la fórmula

x ¯ = 1 N i = 1 K x i F i = i = 1 K x i f i , {\displaystyle {\overline {x}}={\frac {1}{N}}\sum _{i=1}^{K}x_{i}F_{i}=\sum _{i=1}^{K}x_{i}f_{i},}

i la variància per

v = 1 N i = 1 K ( x i x ¯ ) 2 F i = i = 1 K ( x i x ¯ ) 2 f i . {\displaystyle v={\frac {1}{N}}\sum _{i=1}^{K}(x_{i}-{\overline {x}})^{2}F_{i}=\sum _{i=1}^{K}(x_{i}-{\overline {x}})^{2}f_{i}.}

Atès que la variància de la població descrita per la taula anterior coincideix amb la variància d'una variable aleatòria discreta que prengui els valors x 1 , , x K {\displaystyle x_{1},\dots ,x_{K}} amb probabilitats f 1 , , f K {\displaystyle f_{1},\dots ,f_{K}} , les propietats i fórmules que hem comentat als apartats anteriors també serveixen per aquest cas. Aleshores, per la Propietat 3 de la variància, tenim la fórmula

v = 1 N i = 1 K x i 2 F i ( x ¯ ) 2 = i = 1 K x i 2 f i ( x ¯ ) 2 . {\displaystyle v={\frac {1}{N}}\sum _{i=1}^{K}x_{i}^{2}F_{i}-({\overline {x}})^{2}=\sum _{i=1}^{K}x_{i}^{2}f_{i}-({\overline {x}})^{2}.}

Aquesta fórmula és útil per a calcular la variància amb les dades tabulades. Per exemple, utilitzant freqüències absolutes tenim

x {\displaystyle x} F {\displaystyle F} x F {\displaystyle xF} x 2 {\displaystyle x^{2}} x 2 F {\displaystyle x^{2}F}
x 1 {\displaystyle x_{1}} F 1 {\displaystyle F_{1}} x 1 F 1 {\displaystyle x_{1}F_{1}} x 1 2 {\displaystyle x_{1}^{2}} x 1 2 F 1 {\displaystyle x_{1}^{2}F_{1}}
x 2 {\displaystyle x_{2}} F 2 {\displaystyle F_{2}} x 2 F 2 {\displaystyle x_{2}F_{2}} x 2 2 {\displaystyle x_{2}^{2}} x 2 2 F 2 {\displaystyle x_{2}^{2}F_{2}}
{\displaystyle \vdots } {\displaystyle \vdots } {\displaystyle \vdots } {\displaystyle \vdots } {\displaystyle \vdots }
x K {\displaystyle x_{K}} F K {\displaystyle F_{K}} x K F K {\displaystyle x_{K}F_{K}} x K 2 {\displaystyle x_{K}^{2}} x K 2 F K {\displaystyle x_{K}^{2}F_{K}}
TOTAL N {\displaystyle N} i = 1 K x i F i {\displaystyle \sum _{i=1}^{K}x_{i}F_{i}} i = 1 K x i 2 F i {\displaystyle \sum _{i=1}^{K}x_{i}^{2}F_{i}}

Llavors dividint el total de la tercera columna per N {\displaystyle N} s'obté x ¯ {\displaystyle {\overline {x}}} , i dividint el total de la cinquena columna per N {\displaystyle N} s'obté l'altre terme que intervé en la fórmula de la variància.

Per a variància poblacional i variància mostral vegeu la pàgina desviació tipus.

Referències

  1. Chung, Kai Lai. Teoría elemental de la probabilidad y de los procesos estocásticos, cap . 6. Editorial Reverté, 1983. 
  2. Variance a MathWorld (anglès)
  3. «variance | statistics | Britannica» (en anglès). [Consulta: 29 gener 2022].
  4. 4,0 4,1 Lobez Urquía, J.; Casa Aruta, E.. Estadística intermedia. Segunda edición. Vicens-Vives, 1975. 
  5. «Standard Deviation and Variance». [Consulta: 4 febrer 2022].
  6. Bonet, E.. Espais de probabilitat finits. Barcelona: Editorial Lavínia, S. A., 1969, p. 158. 

Vegeu també

  • Vegeu aquesta plantilla
Distribució de probabilitat contínua
Localització
Dispersió
Patró de distribució
Variància · Asimetria · Curtosi · Moments
Distribució de probabilitat discreta
Índex de dispersió
Correlació
Taules de resum
Gràfics estadístics
Diagrama de barres · Diagrama de caixes · Diagrama de control · Correlograma · Diagrama de dispersió · Histograma · Diagrama de punts i línies · Diagrama d'àrees  · Diagrama Q-Q · Diagrama de tiges i fulles · Diagrama de sectors · Diagrama de xarxa