Soluciones

Ejercicios resueltos en forma simplificada con los algoritmos en Python. Contienen tareas por desarrollar, observaciones a otras formas de algoritmos.

s3Eva_IIT2017_T5 Sistema lineal

Z(t)=X(t)Y(t) Z(t) = X(t) -Y(t) Y(t)=h(t)X(t) Y(t) = h(t)*X(t)

a) autocorrelación de Z(t)

E[Z(t1)Z(t2)]=E[(X(t1)Y(t1))(X(t2)Y(t2))] E[Z(t_1)Z(t_2)] = E[(X(t_1) - Y(t_1))(X(t_2) -Y(t_2))] =E[X(t1)(X(t2)X(t1)Y(t2)Y(t1)X(t2)+Y(t1)Y(t2)] = E[X(t_1)(X(t_2) - X(t_1)Y(t_2) - Y(t_1)X(t_2) + Y(t_1)Y(t_2)] =E[X(t1)(X(t2)]E[X(t1)Y(t2)]E[Y(t1)X(t2)]+E[Y(t1)Y(t2)] = E[X(t_1)(X(t_2)] - E[X(t_1)Y(t_2)] - E[Y(t_1)X(t_2)] + E[Y(t_1)Y(t_2)] =RX(τ)RXY(τ)RYX(τ)+RY(τ) = R_X(\tau) - R_{XY}(\tau) - R_{YX}(\tau) + R_Y(\tau)

b) Densidad espectral de potencia de Z(t)

Sz(f)=F[RX(τ)]F[RXY(τ)]F[RYX(τ)]+F[RY(τ)] Sz(f) = F[R_X(\tau)] - F[R_{XY}(\tau)] - F[R_{YX}(\tau)] + F[R_Y(\tau)] =SX(f)SXY(f)SYX(f)+SY(f) = S_X(f) - S_{XY}(f) - S_{YX}(f) + S_Y(f) =SX(f)SXY(f)SXY(f)+SY(f) = S_X(f) - S_{XY}(f) - S_{XY}^* (f) + S_Y(f) =SX(f)H(f)SX(f)H(f)SX(f)+SY(f) = S_X(f) - H(f) S_{X}(f) - H^* (f) S_{X}(f) + S_Y(f) =[1H(f)H(f)+H(f)2]SX(f) = [1 - H(f) - H^* (f) + |H(f)|^2] S_X(f) =[12Re[H(f)]+H(f)2]SX(f) = [1 - 2Re[H(f)] + |H(f)|^2 ] S_X(f) Sz(f)=1H(f)2SX(f) Sz(f) = |1 - H(f)|^2 S_X(f)

s3Eva_IIT2017_T3 Autocorrelacion AM/PM

X(t)=A1cos(ω0t+θ1)+A2cos(2ω0t+θ2) X(t) = A_1 \cos (\omega _0 t + \theta _1) + A_2 \cos (\sqrt{2}\omega_0 t + \theta _2)
Las variables aleatorias Θ son uniformes en [0,2π], por lo que sus funciones de densidad de probabilidad son iguales a:
fθ1(θ1)=fθ2(θ2)=12π f_{\theta _1} (\theta _1) = f_{\theta _2}(\theta _2) = \frac{1}{2\pi}

a) valor esperado:

E[X(t)]=E[A1cos(ω0t+θ1)+A2cos(2ω0t+θ2)] E[X(t)] = E[A_1 \cos (\omega _0 t + \theta _1) + A_2 \cos (\sqrt{2}\omega_0 t + \theta _2) ] =E[A1cos(ω0t+θ1)]+E[A2cos(2ω0t+θ2)] =E[A_1 \cos (\omega _0 t + \theta _1)] + E[A_2 \cos (\sqrt{2}\omega_0 t + \theta _2) ]

las variables A1 y Θ1 son independientes, de la misma forma A2 y Θ2, lo que permite separar: E[XY] = E[X][Y]

=E[A1]E[cos(ω0t+θ1)]+E[A2]E[cos(2ω0t+θ2)] =E[A_1]E[\cos (\omega _0 t + \theta _1)] +E[A_2]E[\cos (\sqrt{2}\omega_0 t + \theta _2)]

y evaluar:

E[cos(ω0t+θ1)]=02πcos(ω0t+θ1)12πdθ1 E[\cos (\omega _0 t + \theta _1)] = \int_{0}^{2\pi} \cos (\omega _0 t + \theta _1) \frac{1}{2\pi} d\theta _1 E[g(x)]=02πg(x)f(x)dx E[g(x)] = \int_{0}^{2\pi} g(x) f(x) dx =12π02πcos(ω0t+θ1)dθ1 = \frac{1}{2\pi}\int_{0}^{2\pi} \cos (\omega _0 t + \theta _1) d\theta _1

que aplicando:

cos(x±y)=cos(x)cos(y)sen(x)sen(y) cos(x \pm y)= cos(x)cos(y) \mp sen(x)sen(y) =12π02π[cos(ω0t)cos(θ1)sin(ω0t)sin(θ1)]dθ1 = \frac{1}{2\pi}\int_{0}^{2\pi} \Big[\cos (\omega _0 t) \cos(\theta _1) - \sin(\omega _0 t)\sin(\theta _1)\Big] d\theta _1 =12πcos(ω0t)02πcos(θ1)dθ112πsin(ω0t)02πsin(θ1)dθ1 = \frac{1}{2\pi}\cos (\omega _0 t) \int_{0}^{2\pi} \cos(\theta _1) d\theta _1 - \frac{1}{2\pi}\sin(\omega _0 t) \int_{0}^{2\pi} \sin(\theta _1) d\theta _1 =12πcos(ω0t)sin(θ1)02π12πsin(ω0t)[cos(θ1)]02π = \frac{1}{2\pi}\cos (\omega _0 t) \sin(\theta _1)\Big|_{0}^{2\pi} - \frac{1}{2\pi}\sin(\omega _0 t) [-\cos(\theta _1)] \Big|_{0}^{2\pi} =12πcos(ω0t)[sin(2π)sin(0)]+12πsin(ω0t)[cos(2π)cos(0)] = \frac{1}{2\pi}\cos (\omega _0 t) [\sin(2\pi)-sin(0)] + \frac{1}{2\pi}\sin(\omega _0 t) [\cos(2\pi) - \cos(0)] E[cos(ω0t+θ1)]=0 E[\cos (\omega _0 t + \theta _1)] = 0

por lo que, aplicando lo mismo para el siguiente término del integral del valor esperado, se obtiene que:

E[X(t)]=0 E[X(t)] = 0

b) Para el caso de autocorrelación se tiene que:

E[X(t1)X(t2)]= E[X(t_1)X(t_2)] =
=E[[A1cos(ω0t1+θ1)+A2cos(2ω0t1+θ2)]. = E\Big[ [A_1 \cos (\omega _0 t_1 + \theta _1) + A_2 \cos (\sqrt{2}\omega_0 t_1 + \theta _2)] .

.[A1cos(ω0t2+θ1)+A2cos(2ω0t2+θ2)]] . [A_1 \cos (\omega _0 t_2 + \theta _1) + A_2 \cos (\sqrt{2}\omega_0 t_2 + \theta _2)] \Big]

multiplicando término a término

=E[A12cos(ω0t1+θ1)cos(ω0t2+θ1)]+ = E[A_1^2 \cos (\omega _0 t_1 + \theta _1) \cos (\omega _0 t_2 + \theta _1)] + E[A1A2cos(ω0t1+θ1)cos(2ω0t2+θ2)]+ E[A_1 A_2 \cos (\omega _0 t_1 + \theta _1) \cos (\sqrt{2}\omega_0 t_2 + \theta _2)] + E[A2A1cos(2ω0t1+θ2)cos(ω0t2+θ1)]+ E[A_2 A_1 \cos (\sqrt{2}\omega_0 t_1 + \theta _2) \cos (\omega _0 t_2 + \theta _1)] + E[A22cos(2ω0t1+θ2)cos(2ω0t2+θ2)]= E[A_2^2 \cos (\sqrt{2}\omega_0 t_1 + \theta _2) \cos (\sqrt{2}\omega_0 t_2 + \theta _2)] =

recordando que, las variables A1 y Θ1 son independientes, de la misma forma A2 y Θ2, lo que permite separar: E[XY] = E[X][Y]

=E[A12]E[cos(ω0t1+θ1)cos(ω0t2+θ1)]+ = E[A_1^2] E[\cos (\omega _0 t_1 + \theta _1) \cos (\omega _0 t_2 + \theta _1)] + E[A1A2]E[cos(ω0t1+θ1)cos(2ω0t2+θ2)]+ E[A_1 A_2] E[\cos (\omega _0 t_1 + \theta _1) \cos (\sqrt{2}\omega_0 t_2 + \theta _2)] + E[A2A1]E[cos(2ω0t1+θ2)cos(ω0t2+θ1)]+ E[A_2 A_1] E[\cos (\sqrt{2}\omega_0 t_1 + \theta _2) \cos (\omega _0 t_2 + \theta _1)] + E[A22]E[cos(2ω0t1+θ2)cos(2ω0t2+θ2)]= E[A_2^2] E[\cos (\sqrt{2}\omega_0 t_1 + \theta _2) \cos (\sqrt{2}\omega_0 t_2 + \theta _2)] =

Se desarrolla para una parte del segundo término de la suma:
E[cos(ω0t1+θ1)cos(2ω0t2+θ2)]= E[\cos (\omega _0 t_1 + \theta _1) \cos (\sqrt{2}\omega_0 t_2 + \theta _2)] =

que siendo independiente Θ1 y Θ2 E[XY] = E[X][Y]

=E[cos(ω0t1+θ1)]E[cos(2ω0t2+θ2)]=0 = E[\cos (\omega _0 t_1 + \theta _1)] E[\cos (\sqrt{2}\omega_0 t_2 + \theta _2)] = 0

cuyo primer término es cero, usando el resultado del literal a, y extendido el resultado para el segundo término, lo que reduce la expresión de la autocorrelación a:

E[X(t1)X(t2)]= E[X(t_1)X(t_2)] = =E[A12]E[cos(ω0t1+θ1)cos(ω0t2+θ1)]+ = E[A_1^2] E[\cos (\omega _0 t_1 + \theta _1) \cos (\omega _0 t_2 + \theta _1)] + +E[A22]E[cos(2ω0t1+θ2)cos(2ω0t2+θ2)] + E[A_2^2] E[\cos (\sqrt{2}\omega_0 t_1 + \theta _2) \cos (\sqrt{2}\omega_0 t_2 + \theta _2)]

para el primer término:

E[cos(ω0t1+θ1)cos(ω0t2+θ1)]= E[\cos (\omega _0 t_1 + \theta _1) \cos (\omega _0 t_2 + \theta _1)] = =12E[cos[(ω0t1+θ1)(ω0t2+θ1)]+cos[(ω0t1+θ1)+(ω0t2+θ1)] =\frac{1}{2}E\Big[\cos [(\omega _0 t_1 + \theta _1) - (\omega _0 t_2 + \theta _1)] + \cos [(\omega _0 t_1 + \theta _1) +(\omega _0 t_2 + \theta _1)\Big] =12E[cos(ω0(t1t2))+cos(ω0(t1+t2)+2θ1)] =\frac{1}{2}E\Big[\cos (\omega _0 (t_1 - t_2)) + \cos (\omega _0 (t_1 + t_2) + 2 \theta _1)\Big] =12E[cos(ω0(t1t2))]+E[cos(ω0(t1+t2)+2θ1)] =\frac{1}{2}E\Big[\cos (\omega _0 (t_1 - t_2)) \Big] + E\Big[\cos (\omega _0 (t_1 + t_2) + 2 \theta _1)\Big]

del literal a, el segundo término se vuelve cero:

=12E[cos(ω0(t1t2))] =\frac{1}{2}E[\cos (\omega _0 (t_1 - t_2)) ]

extendiendo el resultado para el segundo término de la autocorrelación:

E[X(t1)X(t2)]=12E[A12]E[cos(ω0(t1t2))]+ E[X(t_1)X(t_2)] = \frac{1}{2} E\Big[A_1^2\Big] E\Big[\cos (\omega _0 (t_1 - t_2)) \Big] + +12E[A22]E[cos(2ω0(t1t2))] + \frac{1}{2} E\Big[A_2^2\Big] E\Big[\cos (\sqrt{2}\omega _0 (t_1 - t_2)) \Big]

que se resume que la media es cero, constante, y que la autocorrelación depende solo de la diferencias de tiempo |t1-t2| = τ, por lo que el proceso se clasifica como estacionario en el sentido amplio WSS.

Recuerde que A1 y A2 son tipo Gaussianas, por lo que E[A12] es una constante.

s3Eva_IIT2017_T2 Servidores Rápido y Lento

Se establecen los casos posibles para los servidores, (rápido, lento):

0, 00, ambos servidores están libres
1, 10, el servidor lento está libre
2, 01, el servidor rápido esta libre
3, 11, ambos servidores están ocupados

b) … si los clientes al llegar y encontrar los servidores libres, se los envía al servidor más rápido.

las ecuaciones de balanceo son:

Sale del estado = Ingresa al estado
P00 λ = μ P01 + 2μ P10
P01 (λ + μ)  =  2μ P11
P10 (λ+ 2μ) = λ P00 + μ P11
P11 (μ + 2μ) = λ P01 + λ P10

P00 + P01 + P10 + P11 = 1

c) … si los clientes al llegar encuentran los servidores libres, se los envía a cualquiera con la misma probabilidad.


las ecuaciones de balanceo son:

Sale del estado = Ingresa al estado
P00 (λ/2 + λ/2) = μ P01 + 2μ P10
P01 (λ + μ)  =  (λ/2) P00 + 2μ P11
P10 (λ+ 2μ) = (λ/2) P00 + μ P11
P11 (μ + 2μ) = λ P01 + λ P10

P00 + P01 + P10 + P11 = 1

Tarea: Resolver los sistemas de ecuaciones.

s3Eva_IIT2017_T1 Radio con Respaldo

Definiciones para el problema para:

un dia cualquiera:    Parte operando A ó B:
        falla:     a
        sigue operando:  (1-a)
    Parte en reparación A ó B:
        se repara:      b
        sigue en reparación: (1-b)
Estados Xn:
0: No existen partes operativas/ todas fallaron
1: Una parte operativa/ una con falla
2: Dos partes operando/ no existen fallas

El diagrama a plantear con tres estados es:

Considera los eventos con las dos partes, estén operativas o dañadas. Los cambios, transición o pasos se consideran desde un dia para el siguiente día:

estado 0:
  sigue en 0, en reparación A y en reparacion B: 
            (1-b)(1-b) = (1-b)2
  pasa a 2, se repara A y se repara B: b*b = b2
  pasa a 1, se repara A y B sigue en reparación, ó,
            se repara B y A sigue en reparación:
            b(1-b) + (1-b)b = 2b(1-b)

estado 1:
  sigue en 1, no falla la operativa y 
            la otra sigue en reparación, ó,
            falla la operativa y 
            se repara la que estaba con falla 
            (1-a)(1-b) + ab
  pasa a 2, no falla la operativa y se repara la otra: 
            (1-a)b 
  pasa a 0, falla la operativa y 
            la otra sigue en reparación: a(1-b)

estado 2:
  sigue en 2: no falla ninguna: (1-a)(1-a) = (1-a)2
  pasa a 1: falla A y B sigue operando, ó,
            falla B y A sigue operando: 
            a(1-a)+(1-a)a = 2a(1-a)
  pasa a 0, falla A y falla B: a*a = a2

que al ponerlo en el digagrama, queda:

en la matriz de transición de estados de un paso P:

P=((1b)22b(1b)b2a(1b)(1a)(1b)+abb(1a)a22a(1a)(1a)2)P = \left( \begin{matrix} (1-b)^2 & 2b(1-b) & b^2 \\ a(1-b) & (1-a)(1-b) + ab & b(1-a) \\ a^2 & 2a(1-a) & (1-a)^2 \end{matrix} \right)

que reemplazando los valores para a=0.1 y b=0.7 se verifica que las filas suman 1:

P=(0.090.420.490.030.340.630.010.180.81)P = \left( \begin{matrix} 0.09 & 0.42 & 0.49 \\ 0.03 & 0.34 & 0.63 \\ 0.01 & 0.18 & 0.81 \end{matrix} \right)

para la pmf de estado estable o largo plazo Pn:

0.09 Π0 + 0.03 Π1 + 0.01 Π2 = Π0 
0.42 Π0 + 0.34 Π1 + 0.18 Π2 = Π1 
0.49 Π0 + 0.63 Π1 + 0.81 Π2 = Π2

Π0 + Π1 + Π2 = 1  

Resolviendo queda:

Π0 = 0.015625
Π1 = 0.21875
Π2 = 0.765625  

La proyección para n partes indica que los exponentes de la matriz se convertirán en n, y otros términos sin exponentes deben aumentar para incluir las otras opciones.


Caso de resolver la matriz con python:

# 3ra Evaluación II Término 2017
# Tema 1
import numpy as np

# INGRESO
a = 0.1
b = 0.7
n = 100
# PROCEDIMIENTO
P = np.array([[(1-b)**2, 2*b*(1-b), b**2],
              [a*(1-b), (1-a)*(1-b)+a*b, b*(1-a)],
              [a**2, 2*a*(1-a), (1-a)**2]])

Pn = np.linalg.matrix_power(P,n)
# SALIDA
print(P)
print(Pn)

los resultados son

[[ 0.09  0.42  0.49]
 [ 0.03  0.34  0.63]
 [ 0.01  0.18  0.81]]
[[ 0.015625  0.21875   0.765625]
 [ 0.015625  0.21875   0.765625]
 [ 0.015625  0.21875   0.765625]]
>>> 

s2Eva_IIT2017_T4 Sy(f) con funcion de transferencia H(f)

2da Evaluación II Término 2017-2018. Febrero 7, 2018

Tema 4.
Sx(f)=N02 S_x(f)= \frac{N_0}{2}

H(f)=11+j2πf H(f) = \frac{1}{1+j2\pi f} SYX(f)=H(f)Sx(f)=N0211+j2πf S_{YX}(f) = H(f) S_x(f) = \frac{N_0}{2}\frac{1}{1+j2\pi f} RYX(τ)=F1[SYX(f)] R_{YX}(\tau) = F^{-1} [S_{YX}(f)] =N02F1[11+j2πf] = \frac{N_0}{2} F^{-1} \Big[\frac{1}{1+j2\pi f} \Big] RYX(τ)=N02eτ,τ>0 R_{YX}(\tau) = \frac{N_0}{2} e^{-\tau} , \tau>0
Autocorrelación de Y(t)

SY(f)=H(f)2Sx(f) S_{Y}(f) = |H(f)|^2 S_x(f) =11+j2πf2N02 = \Big|\frac{1}{1+j2\pi f}\Big| ^2 \frac{N_0}{2} =11+(2πf)2N02 = \Big|\frac{1}{1+(2\pi f)^2}\Big| \frac{N_0}{2} SY(f)=N0421+(2πf)2 S_{Y}(f) = \frac{N_0}{4} \Big|\frac{2}{1+(2\pi f)^2}\Big| RY(τ)=F1[SY(f)] R_{Y}(\tau) = F^{-1} [S_{Y}(f)] =F1[N0421+(2πf)2 ] = F^{-1} \Big[\frac{N_0}{4} \frac{2}{1+(2\pi f)^2}\ \Big] =N04F1[21+(2πf)2 ] = \frac{N_0}{4} F^{-1} \Big[\frac{2}{1+(2\pi f)^2}\ \Big] RY(τ)=N04eτ R_{Y}(\tau) = \frac{N_0}{4} e^{-|\tau|}

Potencia promedio

RY(0)=N04e0=N04 R_{Y}(0) = \frac{N_0}{4} e^{-|0|} = \frac{N_0}{4}

s2Eva_IIT2017_T3 Sy(f) de la correlación Rx(t)

2da Evaluación II Término 2017-2018. Febrero 7, 2018

Tema 3.

RY(τ)  = RX(τ) cos(2 π f0 τ)

RX(τ) es una función de autocorrelación

SY(f) = F[RX(τ) cos(2 π f0 τ) ]

=  F[RX(τ) (ej 2π f0 τ +e-j 2π f0 τ )/2]

=  F[RX(τ) (ej 2π f0 τ )]/2 + F[RX(τ) e-j 2π f0 τ )]/2

=  SX(f – f0 )/2 + SX(f + f0 )/2

la densidad espectral de potencia se determina como:

SX(f)=F[RX(τ)] S_X (f) = F[R_X (\tau)]

Si RX(τ)=Λ(τT) R_X(\tau) = \Lambda \Big( \frac{\tau}{T} \Big)

SX(f)=F[Λ(tτ)] S_X(f) = F \Big[\Lambda \Big(\frac{t}{\tau} \Big) \Big] SX(f)=T[Sa(πfT)]2 S_X(f) = T [Sa(\pi fT)]^2

entonces la densidad espectral de potencia del problema se convierte en:

SY(f)=T[Sa(πT(ff0)]2+T[Sa(πT(f+f0)]2 S_Y (f) = T [Sa(\pi T(f - f_0)]^2 + T [Sa(\pi T(f + f_0)]^2

para el caso de calcular la potencia promedio RY(0) = Rx(0) cos(2 π f0 0) = A cos(0) = A.

 

 

s2Eva_IIT2017_T2 Covarianza X, Y

2da Evaluación II Término 2017-2018. Febrero 7, 2018

Tema 2.

θ es una variable aleatoria uniforme, distribuida en el rango [-π π].

fθ(θ)=1π(π))=12π f_{\theta} (\theta) = \frac{1}{\pi - (-\pi))} = \frac{1}{2\pi}

valor esperados X(t)

X(t)=cos(ωt+θ) X(t) = \cos (\omega t + \theta) E[X(t)]=E[cos(ωt+θ)] E[X(t)] = E[ \cos (\omega t + \theta)] =ππx(t)fθ(θ)dθ = \int_{-\pi}^{\pi}x(t)f_{\theta}(\theta) d\theta =ππcos(ωt+θ)12πdθ = \int_{-\pi}^{\pi}\cos (\omega t + \theta) \frac{1}{2\pi} d\theta =12πsin(ωt+θ)ππ = \frac{1}{2\pi}\sin (\omega t + \theta) \Big|_{-\pi}^{\pi} =12π[sin(ωt+π)sin(ωtπ)] = \frac{1}{2\pi} [ \sin (\omega t +\pi) -\sin (\omega t -\pi) ] E[X(t)]=0 E[X(t)] = 0

valor esperado Y(t)

Y(t)=sin(ωt+θ) Y(t) = \sin (\omega t + \theta) E[Y(t)]=E[sin(ωt+θ)] E[Y(t)] = E[ \sin(\omega t + \theta)] =ππy(t)fθ(θ)dθ = \int_{-\pi}^{\pi}y(t)f_{\theta}(\theta) d\theta =ππsin(ωt+θ)12πdθ = \int_{-\pi}^{\pi}\sin(\omega t + \theta) \frac{1}{2\pi} d\theta =12π[cos(ωt+θ)]ππ = \frac{1}{2\pi} [-\cos(\omega t + \theta)] \Big|_{-\pi}^{\pi} =12π[cos(ωt+π)(cos(ωtπ))] = \frac{1}{2\pi} [ -\cos(\omega t +\pi) - (-\cos (\omega t -\pi)) ] =12π[cos(ωtπ)cos(ωt+π)] = \frac{1}{2\pi} [\cos(\omega t -\pi) - \cos (\omega t +\pi) ] E[Y(t)]=0 E[Y(t)] = 0

Correlación X(t) y Y(t)

RXY[t,t+τ]=E[X(t)Y(t+τ)] R_{XY}[t,t+\tau] =E[X(t) Y(t+\tau)] =E[cos(ωt+θ)sin(ω(t+τ)+θ)] =E[\cos (\omega t + \theta) \sin (\omega (t+\tau) + \theta)] =E[12[sin[(ω(t+τ)+θ)(ωt+θ)]+sin[(ω(t+τ)+θ)+(ωt+θ)]]] =E \Big[ \frac{1}{2}\Big[\sin [(\omega (t+\tau) + \theta) - (\omega t + \theta)] + \sin [(\omega (t+\tau) + \theta) + (\omega t + \theta)] \Big] \Big] =12E[sin(ωτ)+sin(2ωt+ωτ+2θ)] =\frac{1}{2}E\Big[\sin (\omega \tau) + \sin (2\omega t+ \omega \tau + 2\theta) \Big] =12E[sin(ωτ)]+12E[sin(2ωt+ωτ+2θ)] =\frac{1}{2}E \Big[ \sin (\omega \tau) \Big] + \frac{1}{2}E\Big[\sin (2\omega t+ \omega \tau + 2\theta) \Big]

El primer término no contiene la variable aleatorioa Θ, por lo que se comporta como una constante para el valor esperado.

=sin(ωτ)2+12ππsin(2ωt+ωτ+2θ)12πdθ =\frac{\sin (\omega \tau)}{2} + \frac{1}{2}\int_{-\pi}^{\pi}\sin (2\omega t+ \omega \tau + 2\theta) \frac{1}{2\pi} d\theta =sin(ωτ)214πcos(2ωt+ωτ+2θ)ππ =\frac{\sin (\omega \tau)}{2} - \frac{1}{4\pi}\cos (2\omega t+ \omega \tau + 2\theta) \Big|_{-\pi}^{\pi} =sin(ωτ)214π[cos(2ωt+ωτ+2π)cos(2ωt+ωτ2π)] =\frac{\sin (\omega \tau)}{2} - \frac{1}{4\pi}\Big[ \cos (2\omega t+ \omega \tau + 2\pi) - \cos (2\omega t+ \omega \tau - 2\pi)\Big] =sin(ωτ)20 =\frac{\sin (\omega \tau)}{2} - 0 RXY[t,t+τ]=sin(ωτ)2 R_{XY}[t,t+\tau] =\frac{\sin (\omega \tau)}{2}
CXY[t,t+τ]=RXY[t,t+τ]E[X(t)]E[Y(t+τ)] C_{XY}[t,t+\tau] = R_{XY}[t,t+\tau] - E[X(t)]E[Y(t+\tau)] CXY[t,t+τ]=RXY[t,t+τ]0 C_{XY}[t,t+\tau] = R_{XY}[t,t+\tau] - 0 CXY[t,t+τ]=sin(ωτ)2 C_{XY}[t,t+\tau] = \frac{\sin (\omega \tau)}{2}

X(t) y Y(t) son procesos con correlación, pues su covarianza cruzada no es igual a cero para todas las selecciones de muestras de tiempo. Sin embargo, X(t1) y Y(t2) son variables aleatorias no correlacionadas para t1 y t2 dado que ω( t2  – t1 ) = k π, donde k es cualquier número entero.


Los valores de mas medias de X(t) = Y(t) =0 son constantes

RX[t,t+τ]=E[X(t)X(t+τ)] R_{X}[t,t+\tau] = E[X(t) X(t+\tau)] =E[cos(ωt+θ)cos(ω(t+τ)+θ)] =E[\cos (\omega t + \theta) \cos(\omega (t+\tau) + \theta)] =E[12[cos[(ωt+θ)(ω(t+τ)+θ)]+cos[(ωt+θ)+(ω(t+τ)+θ)]]] =E\Big[\frac{1}{2} \Big[ \cos [(\omega t + \theta) -(\omega (t+\tau) + \theta) ] + \cos[(\omega t + \theta)+(\omega (t+\tau) + \theta)] \Big] \Big] =12E[cos(ωτ)+cos(2ωt+ωτ+2θ)]] =\frac{1}{2}E\Big[ \cos (\omega \tau ) + \cos(2\omega t + \omega \tau + 2\theta)] \Big] =12E[cos(ωτ)]+12E[cos(2ωt+ωτ+2θ)]] =\frac{1}{2}E\Big[ \cos (\omega \tau )\Big] +\frac{1}{2}E\Big[ \cos(2\omega t + \omega \tau + 2\theta)] \Big] =cos(ωτ)2cos(ωτ)+0 =\frac{\cos (\omega \tau )}{2} \cos (\omega \tau ) +0

La autocorrelación depende solo de las diferencias de tiempo τ = t2-t1

El proceso X(t) clasifica como Estacionario en el sentido amplio.

Tarea: Revisar la autocorrelación para Y(t) para verificar si clasifica como WSS.

s2Eva_IIT2017_T1 PDF exp(ax)

2da Evaluación II Término 2017-2018. Febrero 7, 2018

Tema 1. Propuesta de solución

Y(x)=eαx Y(x) = e^{-\alpha x}

Siendo X de tipo uniforme entre (0,T]

fx(x)=1T f_x(x) = \frac{1}{T}

Se puede calcular la función de densidad por cada punto de intersecciónal, al trazar una paralela al eje x que pasa por el punto y0

fY(y)=kfx(x)dydxx=x0 f_Y(y) = \sum_k \frac{f_x(x)}{|\frac{dy}{dx}|} \Big|_{x=x_0}

De la gráfica del enunciado se encuentra que existe un solo punto de intersección  (y0, x0).

Para un valor de y0 se encuentra su valor equivalente en x0,

y0=eαx0 y_0 = e^{-\alpha x_0} ln(y0)=ln(eαx0) \ln (y_0) = \ln (e^{-\alpha x_0}) ln(y0)=αx0 \ln (y_0) = -\alpha x_0 x0=ln(y0)α x_0 = \frac{\ln (y_0)}{-\alpha}

la derivada dy/dx será

dydx=αeαx \frac{dy}{dx} = -\alpha e^{-\alpha x}

Reemplazando en la ecuación para fY(y):

fY(y)=1Tαeαx0 f_Y(y) = \frac{\frac{1}{T}}{|-\alpha e^{-\alpha x_0}|} =1Tαeαln(y0)α = \frac{1}{T|-\alpha e^{-\alpha \frac{ln(y_0)}{-\alpha}}|} =1Tαeln(y0) = \frac{1}{T|-\alpha e^{ln(y_0)}|} fY(y)=1Tαy f_Y(y) = \frac{1}{T\alpha y}

los valores de x se encuentran entre (0,T], por lo que los valores de y se encuentran:

y0=eα(0)=1 y_0 = e^{-\alpha(0)} = 1 yT=eα(T)=eαT y_T = e^{-\alpha (T)} = e^{-\alpha T}

el rango para y se encuentra entre 1 y e-αT.

La función de distribución acumulada:

FY(y)=1yfY(y)dy F_Y(y) = \int_{1}^{y} f_Y(y) dy =1Tαydy = \int \frac{1}{T\alpha y} dy =1Tα1ydy = \frac{1}{T\alpha} \int \frac{1}{y} dy =1Tαln(y)1y = \frac{1}{T\alpha} ln(y) \Big|_{1}^{y} =1Tα(ln(y)ln(1)) = \frac{1}{T\alpha}(ln(y) - ln(1)) =1Tα(ln(y)0) = \frac{1}{T\alpha}( ln(y) - 0) =1Tαln(y) = \frac{1}{T\alpha}ln(y) FY(y)=ln(y)Tα F_Y(y) = \frac{ln(y)}{T\alpha}

Gráfica: Para que la gráfica tenga una forma representativa, α=-1.

La auto-correlación aplica para funciones que dependen del tiempo, con diferencias de tiempo τ.
Para éste caso, no aplica la autocorrelación. tampoco se dispone de otra variable en el problema para realizar la correlación.


Script de python para presentar las gráficas del problema

import numpy as np
import matplotlib.pyplot as plt

# INGRESO
alfa = -1
T = 1
# Rango de x
a = 0
b = a + T
# muestreo
m = 100

# PROCEDIMIENTO
funciony = lambda x: np.exp(alfa*x)
pdf = lambda y: 1/(T*np.abs(alfa*y))
cdf = lambda y: np.log(y)/(np.abs(alfa)*T)

x = np.linspace(a,b,m)
yi = funciony(x)

ya = funciony(alfa*a)
yb = funciony(alfa*b)
y = np.linspace(yb,ya,m)

fy = pdf(y)
Fy = cdf(y)

# SALIDA
plt.subplot(311)
plt.plot(x, yi,label='y')
plt.legend()
plt.subplot(312)
plt.plot(y,fy, label='fy')
plt.legend()
plt.subplot(313)
plt.plot(y,Fy, label='Fy')
plt.legend()
plt.show()

correlacion multiplicación de procesos

Referencia: Problema León García 10.10 p.636

Sean X(t) y Y(t) procesos independientes estacionarios en el sentido amplio.

Defina Z(t) = X(t) Y(t)

a) Muestre que Z(t) es estacionario en el sentido amplio (WSS).

b) Encuentre RZ(τ) y SZ(f)

Solución propuesta:

E[Z(t)] = E[X(t) Y(t)]

que por ser independientes,

= E[ X(t) ] E[ Y(t) ] = mX mY

RZ(τ) = E[ Z(t) Z(t+τ) ]
= E[ X(t)Y(t) X(t+τ)Y(t+τ) ]
= E[ X(t)X(t+τ) Y(t)Y(t+τ) ]
= E[ X(t)X(t+τ)] E[ Y(t)Y(t+τ) ]
= RX(τ) RY(τ)

que tambien dependen solo de τ, por lo que Z(t) es WSS

SZ(f) = F[RZ(τ)]
= F[RX(τ) RY(τ)]
= SX(f) * SY(f) (convolución)