3Eva_IIT2017_T3 Autocorrelacion AM/PM

3ra Evaluación II Término 2017-2018.  Febrero 20, 2018

Tema 3 (25 puntos) Considere la combinación lineal de dos sinusoides.

X(t) = A_1 \cos (\omega _0 t + \theta _1) + A_2 \cos (\sqrt{2}\omega_0 t + \theta _2)

Donde θ1 y θ2 son variables aleatorias independientes y uniformes en el intervalo (0, 2π).
A1, A2 son variables aleatorias conjuntas Gaussianas.
Asuma que las amplitudes son independientes de las variables aleatorias de la fase.

a) Encuentre la media para X(t)

b) Encuentre la función de auto-correlación para X(t)

Rúbrica: literal a (5 puntos), literal b (20 puntos)

Autocovarianza en AM

Referencia: León García Ejemplo 9.9 p495, Gubner Ej10.35 p496

Sea X(t) = A cos(2πt), donde A es una variable aleatoria, con un comportamiento semejante a la figura.

Encontrar el valor esperado , la autocorrelación y autocovarianza de de X(t).


El valor esperado se calcula a continuación, note que la media varia respecto a t y que el valor es cero para valores de t donde cos(2πt) =0.

E[X(t)] = E[A cos(2\pi t)] E[X(t)] = E[A] cos(2\pi t)

La autocorrelación es:

R_X(t_1,t_2) = E[A cos(2\pi t_1) A cos(2\pi t_2)] = E[A^{2} cos(2\pi t_1) cos(2\pi t_2)] = E[A^{2}] cos(2\pi t_1) cos(2\pi t_2)

usando:

2 cos(x)cos(y) = cos(x-y) + cos(x+y) cos(x)cos(y) = \frac{ cos(x-y) + cos(x + y)}{2}

se reemplaza:

= E[A^{2}] \frac{1}{2}[cos(2\pi t_1 - 2\pi t_2) + cos(2\pi t_1 + 2\pi t_2)] R_X(t_1,t_2) = E[A^{2}] \frac{[cos(2\pi (t_1 - t_2)) + cos(2\pi (t_1 + t_2))]}{2}

se observa que el valor de autocorrelación depende de las diferencias de tiempo t1 y t2.


La autocovarianza es:

Cov_X(t_1,t_2) = R_X(t_1,t_2) - E[X(t_1)]E[X(t_2)] = E[A^{2}] cos(2\pi t_1) cos(2\pi t_2) - E[A] cos(2\pi t_1)E[A] cos(2\pi t_2) = E[A^{2}] cos(2\pi t_1) cos(2\pi t_2) - E[A]^2 cos(2\pi t_1)cos(2\pi t_2) = (E[A^{2}] - E[A]^2) cos(2\pi t_1)cos(2\pi t_2) = Var[A] cos(2\pi t_1)cos(2\pi t_2)

con el mismo procedimiento de cos(x)cos(y):

Cov_X(t_1,t_2) = Var[A] \frac{[cos(2\pi (t_1 - t_2)) + cos(2\pi (t_1 + t_2))]}{2}

Autocorrelación, Autocovarianza con variable tiempo

Referencia: León-García 9.2.2 p493

Se puede usar los momentos de muestras en el tiempo para parcialmente especificar un proceso aleatorio al resumir la información contenida en las cdf conjuntas.


Procesos aleatorios Contínuos en tiempo

Media:

m_X(t) = E[X(t)] = \int_{-\infty}^{\infty} x f_{X(t)}(x) dx

Varianza:

VAR[X(t)] = \int_{-\infty}^{\infty} ( x - m_X(t))^2 f_{X(t)}(x) dx

donde f_{X(t)}(x) es la pdf de X(t). Note que ambas son funciones determinísticas de tiempo.

Autocorrelación

R_X(t_1,t_2) = E[X(t_1,t_2)] = = \int_{-\infty}^{\infty} \int_{-\infty}^{\infty} xy f_{X(t_1),X(t_2)}(x,y) dx dy

Autocovarianza:

C_X(t_1,t_2) = E[\{X(t_1) - m_X(t_1) \} \{ X(t_2) - m_X(t_2)\} C_X(t_1,t_2) = R_X(t_1,t_2) - m_X(t_1) m_X(t_2)

coeficiente de correlación

\rho (t_1, t_2) = \frac{C_x(t_1,t_2)}{\sqrt{C_x(t_1,t_1)}\sqrt{C_x(t_2,t_2)}}

El coeficiente de correlación es la medida en la cual una variable aleatoria puede predecirse como una función lineal de otra.


Procesos aleatorios Discretos en tiempo

Media:

m_X(n) = E[X(n)]

Varianza:

VAR[X(n)] = E[(X(n) - m_X(n))^2]

Autocorrelación

R_X(n_1,n_2) = E[X(n_1,n_2)]

Autocovarianza:

C_X(n_1,n_2) = E[\{X(n_1) - m_X(n_1) \} \{ X(n_2) - m_X(n_2)\} C_X(n_1,n_2) = R_X(n_1,n_2) - m_X(n_1) m_X(n_2)

 

2Eva_IIIT2012_T3 autocovarianza

2da Evaluación III Término 2012-2013. Marzo 20, 2013. FIEC03236

Tema 3 (40 puntos). Dada la figura, asuma que el proceso es estocástico:

Siendo X(t) = A*g(t),  donde A es una variable aleatoria que toma los valores -1 y +1 con igual probabilidad, determine:

a) La función (pmf) probabilidad de masa de X(t)

b) E[X(t)], Var[X(t)]

c) La pmf conjunta de X(t) y X(t+d)

d) La CX(t, t+d), d>0

Rúbrica: cada literal (10 puntos)

2Eva_IIT2010_T2 Autocorrelación

2da Evaluación II Término 2010-2011. Febrero, 2011. FIEC03236

Tema 2 (30 puntos). Asuma que X(t) = At +B es un proceso estocástico.
A y B son variables aleatorias independientes que tienen ambas la misma función de densidad uniforme en [-1,1].

Determine:

a) El valor esperado E[X(t)] y autocorrelación RX(t,t+τ)
b) la función de densidad fX(x) de la variable aleatoria de X(1)
c) ¿Existe un valor de t1 y t2 para los cuales X(t1) y X(t2) son variables aleatorias independientes? demuestre su respuesta

3Eva_IIT2009_T2 autocorrelación

3ra Evaluación II Término 2009-2010. Febrero 18, 2010. FIEC03236

Tema 2 (35 puntos). Sean A y Θ variables aleatorias independientes, A con distribución exponencial de media 1, y Θ con distribución uniforme en el intervalo (0, π/2), es decir las funciones de densidad de A y B son respectivamente:

f_A(a) = e^{-a} , a \in [0,\infty) T_{\Theta}(\theta) = \frac{2}{\pi} , \theta \in [0,\pi /2 ]

Sea X(t) un proceso estocástico definido por:

X(t) = e^{-At}cos(\pi t + 4 \Theta) ; t>0

Calcular:
a) La media y la autocorrelación del proceso X(t).¿Es el proceso estacionario en sentido amplio?
b) La varianza de X(t) y la covarianza entre X(1) y X(2).
c) La función de densidad de probabilidad para X(0)

cos(a ± b) = cos(a)cos(b) ∓ sen(a) sen(b)

Rúbrica: literal a (10 puntos, literal b (10 puntos), literal c (15 puntos)

1Eva_IT2010_T4 autocorrelaciones para una serie

Tema 4. Asumiendo estacionariedad y con la ayuda de

r_k = \frac{\sum \limits^n_{i=k+1} (x_i-\bar{x})(x_{i-k}-\bar{x})}{\sum \limits^n_{i=1} (x_i-\bar{x})^2 }

a) Encontrar las autocorrelaciones de orden k = 0, 1, 2, 3, 4, 5 para la siguiente serie X = [2, 3, 5, 1, 5, 2], donde xj es un elemento del vector en la posición j, j = 1, . . . , n y bosquejar la gráfica de la función de autocorrelación (ACF).

b) Si las bandas de confianza del gráfico ACF están dadas por \pm z_{\alpha /2}\frac{1}{\sqrt{n}} , ¿es posible decir que con 95% (1 − α = 0,95) puede rechazarse la hipótesis de que todas las autocorrelaciones son cero?.