Referencia : Ross 2.4.3 p41, Gubner 2.4 p84, León-García 4.3.2 p 160
Varianza de variables aleatorias discretas
el n-ésimo momento, n≥1 de una variable aleatoria X se define como E[Xn ].
en el caso discreto:
E [ X n ] = ∑ x : p ( x ) > 0 x n p ( x ) E[X^n] = \sum_{x:p(x)>0} x^n p(x) E [ X n ] = x : p ( x ) > 0 ∑ x n p ( x )
en el caso continuo.
E [ X n ] = ∫ − ∞ ∞ x n f ( x ) δ x E[X^n] = \int_{-\infty}^{\infty} x^n f(x) \delta x E [ X n ] = ∫ − ∞ ∞ x n f ( x ) δ x
El primer momento es la media, E[X].
La varianza σ2 de X se define como:
v a r ( X ) = E [ ( X − E [ X ] ) 2 ] var(X) = E[(X-E[X])^2] v a r ( X ) = E [ ( X − E [ X ] ) 2 ]
La varianza de X mide el promedio al cuadrado de la desviación de X del valor esperado.
Ejemplo Gubner 2.27.
Sea X y Y variables aleatorias con sus respectivas funciones de probabilidad de masa, pmf, mostradas en la figura. Calcule var(X) y var(Y)
solución: por simetría, ambas variables tienen media cero, la varianza será:
v a r ( X ) = E [ ( x − E [ x ] ) 2 ] = E [ ( x − 0 ) 2 ] = E [ x 2 ] var(X)= E[(x-E[x])^2] = E[(x-0)^2] = E[x^2] v a r ( X ) = E [ ( x − E [ x ] ) 2 ] = E [ ( x − 0 ) 2 ] = E [ x 2 ]
E [ X 2 ] = ( − 2 ) 2 1 6 + ( − 1 ) 2 1 3 + ( 1 ) 2 1 3 + ( 2 ) 2 1 6 = 2 E[X^2] = (-2)^2 \frac{1}{6} + (-1)^2 \frac{1}{3} +(1)^2 \frac{1}{3} +(2)^2 \frac{1}{6} =2 E [ X 2 ] = ( − 2 ) 2 6 1 + ( − 1 ) 2 3 1 + ( 1 ) 2 3 1 + ( 2 ) 2 6 1 = 2
v a r ( Y ) = E [ ( Y − E [ Y ] ) 2 ] = E [ ( Y − 0 ) 2 ] = E [ Y 2 ] var(Y)= E[(Y-E[Y])^2] = E[(Y-0)^2] = E[Y^2] v a r ( Y ) = E [ ( Y − E [ Y ] ) 2 ] = E [ ( Y − 0 ) 2 ] = E [ Y 2 ]
E [ Y 2 ] = ( − 2 ) 2 1 3 + ( − 1 ) 2 1 6 + ( 1 ) 2 1 6 + ( 2 ) 2 1 3 = 3 E[Y^2] = (-2)^2 \frac{1}{3} + (-1)^2 \frac{1}{6} +(1)^2 \frac{1}{6} +(2)^2 \frac{1}{3} =3 E [ Y 2 ] = ( − 2 ) 2 3 1 + ( − 1 ) 2 6 1 + ( 1 ) 2 6 1 + ( 2 ) 2 3 1 = 3
X y Y tienen media cero, pero Y tomará valores mas lejanos de su media, dado que var(Y)>var(X).
cuando una variable aleatoria tiene media diferente de cero, puede ser conveniente usar también la fórmula:
v a r ( X ) = E [ X 2 ] − ( E [ x ] ) 2 var(X) = E[X^2]-(E[x])^2 v a r ( X ) = E [ X 2 ] − ( E [ x ] ) 2
que indica que la varianza es igual al segundo momento menos el cuadrado del primer momento. Como tarea encuentre la fórmula al reemplazar m=E[X] y desarrollando el cuadrado.
La desviación estándar de X se define como el valor positivo de la raiz cuadrada de la varianza, y se usa el símbolo σ
Ejemplo Ross 2.29
Un sistema de comunicación óptico usa un fotodetector cuya salida es modelada como una variable aleatorioa X tipo Poisson(λ). Encuentre la varianza de X
Solución:
P ( X ) = λ x e − λ x ! P(X)= \frac{\lambda ^x e^{-\lambda}}{x!} P ( X ) = x ! λ x e − λ
E [ x ] = ∑ n = 0 ∞ n P ( X = n ) E[x] = \sum_{n=0}^{\infty} n P(X=n) E [ x ] = n = 0 ∑ ∞ n P ( X = n )
= ∑ n = 0 ∞ n λ n e − λ n ! = \sum_{n=0}^{\infty} n \frac{\lambda ^n e^{-\lambda}}{n!} = n = 0 ∑ ∞ n n ! λ n e − λ
dado que el término n=0 se puede descartar:
= ∑ n = 1 ∞ n λ n e − λ n ! = ∑ n = 1 ∞ n λ n e − λ n ( n − 1 ) ! = \sum_{n=1}^{\infty} n \frac{\lambda ^n e^{-\lambda}}{n!} = \sum_{n=1}^{\infty} n\frac{\lambda ^n e^{-\lambda}}{n(n-1)!} = n = 1 ∑ ∞ n n ! λ n e − λ = n = 1 ∑ ∞ n n ( n − 1 ) ! λ n e − λ
= λ e − λ ∑ n = 1 ∞ λ n − 1 ( n − 1 ) ! = \lambda e^{-\lambda} \sum_{n=1}^{\infty} \frac{\lambda ^{n-1} }{(n-1)!} = λ e − λ n = 1 ∑ ∞ ( n − 1 ) ! λ n − 1
cambiando el indice de la suma de n a k=n-1, se tiene que:
∑ k = 0 ∞ λ k k ! = e λ \sum_{k=0}^{\infty} \frac{\lambda ^{k} }{k!} = e^{\lambda} k = 0 ∑ ∞ k ! λ k = e λ
E [ X ] = λ e − λ ∑ k = 0 ∞ λ k k ! = λ e − λ e λ = λ E[X]=\lambda e^{-\lambda} \sum_{k=0}^{\infty} \frac{\lambda ^{k} }{k!} = \lambda e^{-\lambda} e^{\lambda} = \lambda E [ X ] = λ e − λ k = 0 ∑ ∞ k ! λ k = λ e − λ e λ = λ
Observe que: E[x2 ] = E[X(X-1)]+E[X].
Dado que E[X]=λ se calcula que:
E [ X ( X − 1 ) ] = ∑ n = 0 ∞ n ( n − 1 ) P ( X = n ) E[X(X-1)] = \sum_{n=0}^{\infty} n(n-1) P(X=n) E [ X ( X − 1 ) ] = n = 0 ∑ ∞ n ( n − 1 ) P ( X = n )
= ∑ n = 2 ∞ λ n e − λ ( n − 2 ) ! = λ 2 e − λ ∑ n = 2 ∞ λ n − 2 ( n − 2 ) ! = \sum_{n=2}^{\infty} \frac{\lambda ^n e^{-\lambda}}{(n-2)!} = \lambda ^2 e^{-\lambda} \sum_{n=2}^{\infty} \frac{\lambda ^{n-2}}{(n-2)!} = n = 2 ∑ ∞ ( n − 2 ) ! λ n e − λ = λ 2 e − λ n = 2 ∑ ∞ ( n − 2 ) ! λ n − 2
se tiene nuevamente que, k=n-2:
E [ X ( X − 1 ) ] = λ 2 e − λ ∑ k = 0 ∞ λ k k ! = λ 2 E[X(X-1)] = \lambda ^2 e^{-\lambda} \sum_{k=0}^{\infty} \frac{\lambda ^{k}}{k!} = \lambda ^2 E [ X ( X − 1 ) ] = λ 2 e − λ k = 0 ∑ ∞ k ! λ k = λ 2
con lo que E[X2 ] = λ2 + λ
v a r ( X ) = E [ X 2 ] − ( E [ x ] ) 2 = ( λ 2 + λ ) − λ 2 = λ var(X) = E[X^2] - (E[x])^2 = (\lambda ^2 + \lambda) - \lambda ^2 = \lambda v a r ( X ) = E [ X 2 ] − ( E [ x ] ) 2 = ( λ 2 + λ ) − λ 2 = λ
La variable aleatoria Poisson tiene los valores de media y varianza iguales.