Proceso aleatorio estacionario

Referencia: León-García 9.6, 9.6.1 p518,521; Gubner 10.3, 10.2 p395, p392; Ross 10.7 p654, p656

Estacionario

Un proceso aleatorio discreto o contínuo en el tiempo 
X(t) es estacionario si la distribución conjunta de 
cualquier grupo de muestras No depende de la ubicación 
del tiempo de origen.
F_{X(t_1),..., X(t_k)} (x_1, ... x_k) = F_{X(t_1+\tau),..., X(t_k)} (x_1, ... x_k+\tau)

para cualquier τ, k, o muestras t1, ... , tk.

Estacionario con cdf de 1er Orden

Un proceso aleatorio estacionario con cdf de primer orden debe ser independiente del tiempo

F_{X(t)} (x) = F_{X(t+\tau)} (x) = F_X(x)

para todo t, τ, dicho de otra forma, sus resultados son constantes

m_{X}(t) = E[X(t)]=m VAR[X(t)] = E[(X(t)-m)^2] = \sigma ^2

Estacionario con cdf de 2do Orden

Un proceso aleatorio estacionario con cdf de segundo orden debe depender solo de la diferencia de tiempo entre muestras y NO en particular del tiempo de las muestras

F_{X(t_1),X(t_2)} (x_1,x_2) = F_{X(0),X(t_2-t_1)} (x_1,x_2)

para todo t1, t2

R_{X}(t_1,t_2) = R_{X} (t_2-t_1) C_{X}(t_1,t_2) = C_{X} (t_2-t_1)

Estacionario en el Sentido Amplio (WSS o débil)

 Un proceso aleatorio discreto o contínuo en el tiempo 
X(t) es estacionario en el sentido amplio (WSS) 
si satiface que: 
m_X(t) = m C_{X}(t_1,t_2) = C_{X} (t_2-t_1)

De forma semejante, los procesos X(t) y Y(t) son estacionarios conjuntos si ambos son estacionarios en el sentido amplio y si covarianza cruzada depende solo de t1-t2.

R_{X}(t_1,t_2) = R_{X} (\tau) C_{X}(t_1,t_2) = C_{X} (\tau)

Autocovarianza PM

Referencia: León García Ejemplo 9.10 p495, Gubner Ejemplo 10.8 p389, Gubner Ejemplo 10.17 p396

Sea X(t) = cos(ω t + Φ), donde Φ es uniforme en el intervalo (-π,π) Encontrar la autocovarianza de X(t).

la variable aleatoria Φ tiene distribución uniforme en el intervalo, por lo que la función fΦ(φ) es constante = 1/[π - (-π)] = 1/2π.

Recordamos que:

E[g(x)] = \int_{-\infty}^{\infty} g(x) f(x) dx

Media (León-García 4.15 p158):

m_X(t) = E[cos(\omega t + \Phi)] = = \int_{-\pi}^{\pi} cos(\omega t + \Phi) \frac{1}{2\pi} d\Phi = \left. \frac{-1}{2\pi} (sin (\omega t + \Phi)) \right|_{-\pi}^{\pi} = \frac{-1}{2\pi} [sin (\omega t + (-\pi)) - sin (\omega t + \pi)] = 0

Autocovarianza

dado que el valor esperado es cero, la autocovarianza es igual a la autocorrelación

C_{X} (t_1,t_2) = R_X (t_1,t_2) - E[X(t_1,t_2)] = R_X (t_1,t_2) = E[cos(\omega t_1 + \Phi) cos(\omega t_2 +\Phi)]

Recordando que:

E[g(x)] = \int_{-\infty}^{\infty} g(x) f(x) dx cos(x) cos(y) = \frac{cos(x-y) + cos(x+y) }{2}

se tiene que:

= \int_{-\pi}^{\pi} [cos(\omega t_1 + \Phi) cos(\omega t_2 +\Phi)] \frac{1}{2\pi} d\Phi = \int_{-\pi}^{\pi} \frac{cos(\omega (t_1 - t_2))+cos(\omega (t_1 + t_2)+ 2\Phi)}{2} \frac{1}{2\pi} d\Phi = \int_{-\pi}^{\pi} \frac{cos(\omega (t_1 - t_2))}{2} \frac{1}{2\pi} d\Phi + \int_{-\pi}^{\pi} \frac{cos(\omega (t_1 + t_2 )+ 2\Phi)}{2} \frac{1}{2\pi} d\Phi

El primer integral, el coseno no depende de Φ, mientras que el segundo integral es semejante al intergral de la media y cuyo resultado es cero.

= \left. \frac{cos(\omega (t_1 - t_2))}{2} \frac{\Phi}{2\pi} \right|_{-\pi}^{\pi} + 0
C_{X} (t_1,t_2) = R_X (t_1,t_2) =
= \frac{1}{2} cos(\omega (t_1 - t_2))

Autocovarianza en AM

Referencia: León García Ejemplo 9.9 p495, Gubner Ej10.35 p496

Sea X(t) = A cos(2πt), donde A es una variable aleatoria, con un comportamiento semejante a la figura.

Encontrar el valor esperado , la autocorrelación y autocovarianza de de X(t).


El valor esperado se calcula a continuación, note que la media varia respecto a t y que el valor es cero para valores de t donde cos(2πt) =0.

E[X(t)] = E[A cos(2\pi t)] E[X(t)] = E[A] cos(2\pi t)

La autocorrelación es:

R_X(t_1,t_2) = E[A cos(2\pi t_1) A cos(2\pi t_2)] = E[A^{2} cos(2\pi t_1) cos(2\pi t_2)] = E[A^{2}] cos(2\pi t_1) cos(2\pi t_2)

usando:

2 cos(x)cos(y) = cos(x-y) + cos(x+y) cos(x)cos(y) = \frac{ cos(x-y) + cos(x + y)}{2}

se reemplaza:

= E[A^{2}] \frac{1}{2}[cos(2\pi t_1 - 2\pi t_2) + cos(2\pi t_1 + 2\pi t_2)] R_X(t_1,t_2) = E[A^{2}] \frac{[cos(2\pi (t_1 - t_2)) + cos(2\pi (t_1 + t_2))]}{2}

se observa que el valor de autocorrelación depende de las diferencias de tiempo t1 y t2.


La autocovarianza es:

Cov_X(t_1,t_2) = R_X(t_1,t_2) - E[X(t_1)]E[X(t_2)] = E[A^{2}] cos(2\pi t_1) cos(2\pi t_2) - E[A] cos(2\pi t_1)E[A] cos(2\pi t_2) = E[A^{2}] cos(2\pi t_1) cos(2\pi t_2) - E[A]^2 cos(2\pi t_1)cos(2\pi t_2) = (E[A^{2}] - E[A]^2) cos(2\pi t_1)cos(2\pi t_2) = Var[A] cos(2\pi t_1)cos(2\pi t_2)

con el mismo procedimiento de cos(x)cos(y):

Cov_X(t_1,t_2) = Var[A] \frac{[cos(2\pi (t_1 - t_2)) + cos(2\pi (t_1 + t_2))]}{2}

Autocorrelación, Autocovarianza con variable tiempo

Referencia: León-García 9.2.2 p493

Se puede usar los momentos de muestras en el tiempo para parcialmente especificar un proceso aleatorio al resumir la información contenida en las cdf conjuntas.


Procesos aleatorios Contínuos en tiempo

Media:

m_X(t) = E[X(t)] = \int_{-\infty}^{\infty} x f_{X(t)}(x) dx

Varianza:

VAR[X(t)] = \int_{-\infty}^{\infty} ( x - m_X(t))^2 f_{X(t)}(x) dx

donde f_{X(t)}(x) es la pdf de X(t). Note que ambas son funciones determinísticas de tiempo.

Autocorrelación

R_X(t_1,t_2) = E[X(t_1,t_2)] = = \int_{-\infty}^{\infty} \int_{-\infty}^{\infty} xy f_{X(t_1),X(t_2)}(x,y) dx dy

Autocovarianza:

C_X(t_1,t_2) = E[\{X(t_1) - m_X(t_1) \} \{ X(t_2) - m_X(t_2)\} C_X(t_1,t_2) = R_X(t_1,t_2) - m_X(t_1) m_X(t_2)

coeficiente de correlación

\rho (t_1, t_2) = \frac{C_x(t_1,t_2)}{\sqrt{C_x(t_1,t_1)}\sqrt{C_x(t_2,t_2)}}

El coeficiente de correlación es la medida en la cual una variable aleatoria puede predecirse como una función lineal de otra.


Procesos aleatorios Discretos en tiempo

Media:

m_X(n) = E[X(n)]

Varianza:

VAR[X(n)] = E[(X(n) - m_X(n))^2]

Autocorrelación

R_X(n_1,n_2) = E[X(n_1,n_2)]

Autocovarianza:

C_X(n_1,n_2) = E[\{X(n_1) - m_X(n_1) \} \{ X(n_2) - m_X(n_2)\} C_X(n_1,n_2) = R_X(n_1,n_2) - m_X(n_1) m_X(n_2)

 

Funciones de una Variable aleatoria

Sea X una variable aleatoria y sea g(x) una función de valor real definida en el eje real.

Defina Y= g(X), esto es. Y está determinada por la evaluación de la función en g(x) en el valor que ha tomado la variable aleatoria X.  Entonces Y también es una variable aleatoria.

Las probabilidades de los valores para Y dependen de la función g(x) así como la función distribución acumulada de X.

Considere una función no lineal Y=g(X) como la que se muestra en la figura.

donde |dy| es la longitud del intervalo y < Y ≤ (y+dy).
De forma similar, la probabilidad que el evento en cada intervalo es aproximadamente

f_Y(y)=\left.\sum_{k} \frac{f_X(x)}{|dy/dx|} \right|_{x=x_k} =\left.\sum_{k} f_X(x) \left| \frac{dx}{dy} \right| \right|_{x=x_k}

Ejemplo: León García 4.30 p.176

Sea X el valor de las muestras de voltaje de una señal de voz, y suponga que X tiene una distribución uniforme en el intervalo [-4d,4d].

Sea Y = q(X), donde la función característica de entrada-salida de un cuantizador (convertidor analógico-digital) se muetra en la figura. Encuentre la función de probabilidad de masa para Y.

Solución: El evento {Y=q} para q en SY es equivalente al evento {X en Iq}, donde Iq es un intervalo de puntos equivalentes mapeados en representación al punto q. La pmf de Y se encuentra evaluando:
P[Y=q] = \int_{I_q} f_X(t) dt

Lo que permite ver fácilmente que la representación de un punto tiene un intervalo de longitud d mappeado en él. Entonces existirán ocho posibles salidas equiprobables, es decir, P[Y=q] = 1/8 para q en SY-

2Eva_IIIT2012_T2 densidad espectral de potencia

2da Evaluación III Término 2012-2013. Marzo 20, 2013. FIEC03236

Tema 2 (50 puntos). Sea X(τ) un proceso estocástico normal y estacionario de media 1 y autocorrelación:

R_X (\tau)=\frac{18}{9 + \tau^2} + 1
\tau \in \Re

a) Calcular la P(|X(3)|>1)
b)Determinar la matriz de covarianzas de la variable aleatoria tridimensional [X(0),X(1),X(3)]
c) La autocorrelación del proceso estocástico
Y(t)=2X(t+2)+t
d) La función de densidad de la variable aleatoria
Z=X^2 (3)
d) SX(f) y Graficarla

Rúbrica: cada literal (10 puntos)

Metodo de la Transformada

Referencia: Gubner 4.3 p159, León García 7.6.2 p 398

Los metodos de transformadas son muy útiles para cálculos que involucran derivadas e integrales de funciones. Muchos problemas involucran el uso de la "convolución" de dos funciones f1(x) * f2(x), cuyo cálculo se facilita si se tabaja con un método de transformadas.

Usar por ejemplo la transformada de Fourier, al cambiar de dominio convierte la convolución de funciones en una multiplicación, al resultado se le realiza la antitransformada y se obtiene el resultado buscado.

Función característica

Sea X una variable aleatoria contínua con función densidad de probabilidad f(x), entonces:

\Phi_{X} (\omega) = E\left[ e^{j \omega X} \right] = \int_{-\infty}^{\infty} f_{X}(x) e^{j\omega x} dx \text{donde } j=\sqrt{-1}

lo que también es la transformada de Fourier de f, la fórmula para invertir la transformada es:

f_{X}(x) = \frac{1}{2\pi} \int_{-\infty}^{\infty} \Phi_{X}(\omega) e^{-j\omega x} d\omega

Es una transformación de la función desde el dominio del tiempo (t) al dominio de la frecuencia (ω).

Nota: En los libros de sistemas y señales, se define la transformada de Fourier de f por \int_{-\infty}^{\infty} e^{-j\omega x} dx . Para ser mas preciso, se debería decir φX(v) es la transformada de Fourier evaluada en -v.

Convolutions | Why X+Y in probability is a beautiful mess. 3Blue1Brown. 27 junio 2023.

3Eva_IIT2010_T4 Densidad espectral de potencia

3ra Evaluación II Término 2010-2011. Febrero 17, 2011. FIEC03236

Tema 4 (25 puntos). Sea X(t) un proceso estocastico estacionario en el sentido amplio (WSS) con valor esperado E[X(t)]=a y con una SX(f).

Considere la variable aleatoria Θ con distribución uniforme en (0, 2π) que es independiente de la variable aleatoria definida X(t), y el proceso :

Y(t) = 2 X(t) cos (\omega_0 t + \Theta)

a) Determine si el proceso Y(t) es WSS
b) Encuentre SY(f) y SX(f).

3Eva_IIT2009_T3 Densidad espectral de potencia

3ra Evaluación II Término 2009-2010. Febrero 18, 2010. FIEC03236

Tema 3 (30 puntos). Dada la siguiente función de Autocorrelación Rx(ζ) del proceso estocástico X(t) que es WSS.

a) (15 puntos) Encuentre Var[X(t)]
b) (15 puntos) Sx(w) ( o Sx(f))

Transformadas de Fourier

x(t) \rightarrow X(\omega) g(t) \rightarrow \int_{-\infty}^{\infty} g(t) e^{-j2 \pi ft} dt rect\left( \frac{t}{\tau}\right) \rightarrow \tau sinc\left( \frac{\omega \tau}{2}\right) tri\left( \frac{t}{\tau}\right) \rightarrow \frac{\tau}{2} sinc^2(\frac{\omega \tau}{4})

2Eva_IIT2009_T3 Densidad espectral de potencia

2da Evaluación II Término 2009-2010. Febrero 4, 2010 . FIEC03236

Tema 3 (30 puntos). Un proceso aleatorio estacionario en sentido amplio X(t) con densidad espectral de potencia:

\Im_{XX}(\omega) = 50 \pi \delta(\omega) + \frac{3}{1+\left(\frac{\omega}{2}\right)^2}

se aplica a una red con respuesta impulso

h(t) = 2 e^{-2t} \mu (t)

obteniendo luego de la red Y(t)
Determine:
a) Var[X(t)]
b) La densidad espectral de potencia de la respuesta de Y(t)
c) La potencia de Y(t)

Pares de Transformadas de Fourier:

x(t) \leftrightarrow X(\omega) 1 \leftrightarrow 2 \pi \delta(\omega) e^{-at}\mu (t) \leftrightarrow \frac{1}{a+j\omega} te^{-at}\mu (t) \leftrightarrow \frac{1}{(a+j\omega)^{2}} t^{n}e^{-at}\mu (t) \leftrightarrow \frac{n!}{(a+j\omega)^{n+1}} a>0