valor esperado – PAM a PSK

Y(t) = a \cos \big( 2\pi t + \frac{\pi}{2}X(t) \big)

La pmf de x(t) es 0.5 para cada valor de [-1,1]

c) Encuentre la media y autocorrelacion de Y(t)

E[Y(t)] = E\big[ a \cos \big( 2\pi t + \frac{\pi}{2}X \big)\big]

Referencia:  León-García 3.3.1 p. 107. Valor esperado de funciones de variable aleatoria

Si z =g(x)

E[g(x)] = \sum_k g(x_k)p_x(X_k)

se tiene entonces que:

= \big[a \cos \big( 2\pi t + \frac{\pi}{2}(-1) \big)\big]\frac{1}{2} + \big[a \cos \big( 2\pi t + \frac{\pi}{2}(1) \big)\big] \frac{1}{2} = \frac{a}{2}\cos \big( 2\pi t - \frac{\pi}{2} \big) + \frac{a}{2}\cos \big( 2\pi t + \frac{\pi}{2} \big) = \frac{a}{2} \sin \big( 2\pi t \big) - \frac{a}{2} \sin \big( 2\pi t \big) = 0 E[Y(t)] = 0

Valor Esperado de una función

Referencia: Gubner 2.4 p83 , Ross 2.4.3 p42, León-García 3.3.1 p.107

Dada una variable aleatoria X, se puede definir una nueva variable aleatoria Z = g(X), donde g(x) es una función de valor real de la variable real x.

Para calcular E[Z] se puede proceder como:

E[g(X)] = \sum_i g(x_i)p_X(x_i) E[g(x)] = \int_{-\infty}^{\infty} g(x) f(x) dx

dado que la fórmula es mas fácil de usar que encontrar la pmf de Z, la formula se la conoce como la «ley del estadístico inconsciente» o LOTUS (Law Of The Unconscious Statistician).

Una aplicación simple es :

E[aX] = \sum_i ax_i p_X(x_i) = = a \sum_i x_i p_X(x_i) = a E[X]

Ejemplo

Referencia: León- García 3.17

Sea X un ruido en el voltaje que está uniformemente distribuido en SX = {-3,-1,+1,+3} con pX = 1/4 para k en SX. Encuentre E[Z] donde Z=X2.

Solución: Buscando primero encontrar la pmf de Z, el SZ ={9,1,1,9} = {1,9}, por lo que:

pZ(9) = P[X ∈ {-3,+3}] 
      = pX(-3) + pX(3) 
      = 1/4 + 1/4 = 1/2
pZ(1) = pX(-1) + pX(1) = 
      = 1/4 + 1/4 = 1/2
entonces:
E[Z] = 1(1/2) + 9(1/2) = 5 

usando la fórmula para E[Z]:

E[Z] = E[g(X)] = \sum_i g(x_i)p_X(x_i) = \sum_i i^2 p_X(x_i) = \frac{1}{4} [(-3)^2 + (-1)^2+1^2+2^2] = = \frac{20}{4} = 5

con lo que se obtuvo el mismo resultado.


Ross Corolario 2.2. Siendo a y b constantes, entonces:

E[aX + b] = aE[X] +b

Valor Esperado de variables aleatorias contínuas

Referencia: Ross 2.4.2 p39, Gubner 4.2 p149, León-García 4.3 p 155, p16

Si X es una variablea aleatoria contínua que tiene una función densidad de probabilidad f(x), el valor esperado de X se define como:

E[X]= \int_{-\infty}^{\infty}xf(x) \delta x

Ejemplo

Referencia: Ross 4.7.

Sea X una variable aleatoria contínua uniforme [a,b], encuentre el valor esperado:

Solución:

E[X]= \int_{-\infty}^{\infty} xf(x) \delta x = \int_{a}^{b} x\frac{1}{b-a}\delta x = \left. = \frac{1}{(b-a)} \frac{x^2}{2} \right|_{a}^{b} = \frac{1}{(b-a)} \frac{b^2-a^2}{2} = = \frac{(b+a)(b-a)}{2(b-a)} = \frac{a+b}{2}

que es el promedio simple entre a y b cuando la función es uniforme.


Ejemplo

Ross 4.8/Leon-García 4.20. Un convertidor analógico-digital o cuantizador con resolución de paso Δ voltios redondea en la entrada el valor más cercano al múltiplo de Δ voltios como se muestra en la figura.

La entrada es un voltaje Vin de tipo aleatorio y la salida del convertidor es A/D es Vout, y su desempeño se mide por el error cuadratico medio:

E[|Vin – Vout|2]

Se supone que el error Vin – Vout se puede aproximar a una función aleatoria uniforme [-Δ/2,Δ/2] dado que siempre el valor siempre cae en el intervalo dado. Determine el valor esperado para la señal de entrada, y también el valor del error cuadrático medio.

Solución: Para el intervalo centrado en el origen

f(x)= \frac{1}{b-a} E[X] = \int_{-\Delta /2}^{\Delta /2} xf(x) \delta x = =\int_{-\Delta /2}^{\Delta /2} x\frac{1}{\Delta /2 - (-\Delta /2)} \delta x = \int_{-\Delta /2}^{\Delta /2} \frac{x}{\Delta} \delta x = \left. \frac{x^2}{2 \Delta} \right|_{-\Delta /2}^{\Delta /2} = \frac{1}{2\Delta} \big[ {\big( \frac{-\Delta}{2}\big)}^2 - {\big( \frac{\Delta}{2}\big)}^2 \big] = 0

Para el error cuadrático medio en [a,b], a=-Δ/2, b=Δ/2

E[|V_{in}-V_{out}|^2] \approx E[X^2] = \int_{-\infty}^{\infty} x^2 f(x) \delta x = \int_{a}^{b} x^2 \frac{1}{b - a} \delta x = \left. \frac{1}{b-a} \frac{x^3}{3} \right|_{a}^{b} = \frac{1}{b-a} \frac{b^3-a^3}{3} = = \frac{(b-a)(b^2+ba+a^2)}{3(b-a)} = \frac{b^2+ba+a^2}{3} = \frac{({\frac{\Delta}{2})}^2 + {(\frac{\Delta}{2})}{(\frac{-\Delta}{2})} + {(\frac{-\Delta}{2})}^2}{3} = \frac{1}{3} \frac{\Delta ^2 -\Delta^2 + \Delta ^2}{4} = \frac{\Delta ^2}{12}

Valor Esperado E[x]

Para describir el comportamiento de una variable aleatoria discreta, en algunos casos usamos algunos parámetros para resumir la información de las funciones de distribución de probabilidad (pmf).

El valor esperado o media de una variable aleatoria discreta X se define como:

m_x = E[X] = \sum\limits_{x \in S_x} x p_x(x) = = \sum\limits_{k} x_k p_x(x_k)

El valor esperado E[X] está definido si la suma anterior absolutamente converge , es decir:

E[|X|] = \sum\limits_{k} |x_k| p_x(x_k) < \infty

Ejemplo

De repetir un experimento 150 veces, se obtienen dos variables aleatorias. La variable Y tiene valores alrededor de 0, mientras que la variable X tiene valores alrededor de 6 . También observe que X tiene mayor variación que Y.

# Valor esperado
import numpy as np
import matplotlib.pyplot as plt
import scipy.stats as stats

# INGRESO
n = 150

media_x = 0
escala_x = 1

media_y = 6
escala_y = 2

# PROCEDIMIENTO
px = stats.norm.rvs(media_x,escala_x,size=n)
py = stats.norm.rvs(media_y,escala_y,size=n)

# SALIDA
plt.title(' aleatorios X y Y')
plt.plot(px, 'o-')
plt.plot(py, '*-')
plt.xlabel('intentos')
plt.axhline(media_x)
plt.axhline(media_y)
plt.show()


Siendo px(x) la función de distribución de probabilidad de los puntos x1, x2, … , entonces E[x] representa el centro de masa de la distribución. Por ejemplo

Ejemplo: Media de una variable aleatoria tipo Bernoulli

Encuentre el valor de la variable aleatoria IA:

E[I_A] = 0p_i(0) + 1p_1(1) = p

donde p es la probabilidad de éxito de una prueba Bernoulli.

Ejemplo: Tres lanzamientos de una moneda y la variable aleatoria Binomial

Sea X el número de caras en tres lanzamientos de una moneda, Encuentre E[X]

E[X] = \sum \limits_{k=0}{3} k p_x(k) = 0 \big( \frac{1}{8} \big) + 1 \big(\frac{3}{8} \big) + 2\big(\frac{3}{8} \big) + 3\big(\frac{1}{8} \big) = 1.5

Ejemplo: Media de una variable aleatoria uniforme

Se conoce que px(j) = 1/M, para j=0, … , M-1, entonces:

E[X] = \sum \limits_{k=0}^{M-1} k \frac{1}{M} =\frac{1}{M}[ { 0 + 1 + 2 + ... + M-1}] = \frac{(M-1)M}{2M} = \frac{M-1}{2}

El término de «valor esperado» no quiere decir que esperamos observar E[X] cuando se ejecuta un experimento que genera X. Por ejemplo, el valor esperado de un intento Bernoulli es p, pero sus resultados siempre son 0 ó 1.

E[X] corresponde al «promedio de X» en un gran número de observaciones de X.

El promedio aritmético o media muestral de las observaciones , cuando n tiende a ser grande converge al valor esperado:

\langle X\rangle_n = \sum\limits_{k} x_k f_k(n) \rightarrow \rightarrow \sum\limits_{k} x_k p_x (x_k) = E[x]

Referencia: León-García p.104, Gubner p.80,