Autor: Edison Del Rosario

  • Variables Aleatorias Contínuas

    Referencia: León-García 445 Important Continuous Random Variables p164



    Uniforme


    S_X = [a,b] f_X(x) = \frac{1}{b-a} a\leq x \leq b E[X] = \frac{a+b}{2} VAR[X] = \frac{(b-a)^2}{12} \Phi_X(\omega) = \frac{e^{j\omega b}- e^{j\omega a}}{j\omega(b-a)}

    Exponencial


    S_X = [0, \infty) f_X(x) = \lambda e ^{-\lambda c} x \geq 0 \text{ , } \lambda > 0 E[X] = \frac{1}{\lambda} VAR[X] = \frac{1}{\lambda ^2} \Phi_X(\omega) = \frac{\lambda}{\lambda - j\omega}

    Nota: La variable aleatoria exponencial es la única variable aleatoria contínua con propiedad "sin memoria"


    Normal o Gausiana


    S_X = (-\infty, +\infty) f_X(x) = \frac{e^{-(x-m)^2 /2 \sigma ^2}}{\sqrt{2 \pi}\sigma}

    - ∞ < x < + ∞ , σ >0

    E[X] = m VAR[X] = \sigma ^2 \Phi_X(\omega) = e^{jm\omega - \sigma ^2 \omega ^2 /2}

    Nota: En un amplio rango de condiciones, X puede ser usada para aproximar la suma de un gran número de variables aleatorias independientes


    Gamma


    S_X = (0, \infty) f_X(x) = \frac{ \lambda (\lambda x)^{\alpha -1} e^{-\lambda x} } {\Gamma(\alpha)} x > 0, \alpha >0, \lambda > 0
    donde  \Gamma(z)  es la función gamma:
    \Gamma(z) = \int_{0}^{\infty} x^{z-1} e^{-x} dx , z>0 \Gamma \left(\frac{1}{2} \right) = \sqrt{\pi} \Gamma (z+1) = z \Gamma(z) , z>0 \Gamma (m+1) = m! , m>0 \text{, y entero} E[x] = \frac{\alpha}{\lambda} VAR[X] = \frac{\alpha}{\lambda^2} \Phi_X(\omega) =\frac{1}{(1-j\omega /\lambda)^{\alpha}}

    Casos especiales de Gamma

    Erlang m-1

    \alpha = m \text{, entero positivo}

    f_X(x) = \frac{ \lambda e^{-\lambda x }(\lambda x)^{m - 2} } {(m-1)!} x>0

    \Phi_X(\omega) = \left( \frac{1}{1-j\omega /\lambda} \right) ^{m}

    Nota: Una variable aleatoria Erlang m-1 se obtiene al añadir m variables aleatorias exponenciales independientes con parámetro λ

    Chi-cuadrado

    con k grados de libertad:

    \alpha = k/2 \text{, k entero positivo y } \lambda =1/2 f_X(x) = \frac{ x^{(k - 2)/2} e^{-x/2} } {2^{k/2} \Gamma (k/2)} x>0 \Phi_X(\omega) = \left( \frac{1}{1-2j\omega} \right) ^{k/2}

    Nota: la suma de k variables aleatorias Gausianas, mutuamente independientes, con varianza unitaria, media cuadrada 0, es una variable aleatoria Chi-cuadrada con k grados de libertad.


    Lapacian


    S_X = (-\infty, +\infty) f_X(x) = \frac{\alpha}{2} e^{-\alpha|x|}

    - ∞ < x < + ∞ , α >0

    E[x] =0 VAR[X] = \frac{2}{\alpha^2} \Phi_X(\omega) = \frac{\alpha^2}{\omega ^2 + \alpha ^2}

    Rayleigh


    S_X = [0, \infty) f_X(x) = \frac{x}{\alpha^2} e^{-x^2/2\alpha^2} x \geq 0 , \alpha>0 E[X] = \alpha \sqrt{\pi/2} VAR[X] =(2- \pi/2) \alpha^2

    Cauchy


    S_X = (-\infty, +\infty) f_X(x) = \frac{\alpha / \pi}{x ^2 + \alpha ^2}

    - ∞ < x < + ∞ , α >0

    NO existe la media o varianza

    \Phi_X(\omega) = e^{-\alpha|\omega| }

    Pareto


    S_X = [X_m, +\infty) , X_m>0 f_X(x) = \begin{cases} 0 && x< x_m\\ \alpha \frac{x_m^{\alpha}}{x^{\alpha+1}} && x \geq x_m \end{cases} E[X] =\frac{\alpha x_m}{\alpha - 1}, \alpha >1 VAR[X] =\frac{\alpha x_m^2}{(\alpha - 2)(\alpha-1)^2}, \alpha >2

    Nota: La variable aleatoria Pareto es el ejemplo mas destacado de variables aleatorias con colas largas y puede ser vista como una versión contínua de la variable aleatoria discreta Zipf


    Beta


    f_X(x) = \begin{cases} \frac{\Gamma (\alpha + \beta)}{\Gamma(\alpha) \Gamma(\beta)} x^{\alpha-1} (1-x)^{\beta-1} && ,\alpha>0 \\, && \beta>0 \\ , && 0 < x < 1 \\ 0 && \text{otro caso} \end{cases} E[X] = \frac{\alpha}{\alpha + \beta} VAR[X] = \frac{\alpha\beta}{(\alpha + \beta)^2 (\alpha + \beta + 1)}

    Nota: La variable aleatoria Beta es util para modelar una variedad de formas de funciones de densidad de probabilidad en intervalos finitos

  • Variables Aleatorias Discretas

    Referencia: León-García 3.5 Important Discrete Random Variables p115

    [Bernoulli] [Binomial] [Geométrica] [Binomial Negativa] [Poisson] [Uniforme] [Zipf]

    ..


    Bernoulli


    S_X=\{0, 1 \}

    p_0 = q = 1-p

    p_1=p, 0 \leq p \leq 1

    E[X] = p

    VAR[x] = p(1-p)

    G_X(z)=(q+pz)

    Nota: La variable aleatoria Bernoulli es es valor de la función indicador IA para algún evento; X=1 si ocurre A, y 0 en otro caso

    .


    Binomial


    S_X=\{0, 1, ... , n \}

    p_k={n \choose k} p^{k} (1-p)^{n-k}

    k = 0, 1, ... , n

    E[X]= np

    VAR[X] = np(1-p)

    G_X(z)= (q + pz)^{n}

    Nota: X es el numero de éxtidos en n intentos Bernoulli y por consiguiente la suma de n iid variables aleatorias Bernoulli.

    .


    Geométrica


    Versión 1:

    S_X=\{0, 1, 2, ... \}

    p_k = p(1-p)^{k}

    k= 0, 1, , ...

    E[X] =\frac{1-p}{p}

    VAR[X] = \frac{1-p}{p^2}

    G_X(z) = \frac{p}{1-qz}

    Nota: X es el número de fallas antes del primer éxito en una secuencia de intentos Bernoulli independientes. La variable aleatoria geométrica es la única una variable aleatoria con propiedad "sin memoria".

    Versión 2:

    S_X'=\{ 1, 2, ... \}

    p_k = p(1-p)^{k-1}

    k= 1, 2, ...

    E[X'] =\frac{1}{p}

    VAR[X'] = \frac{1-p}{p^2}

    G_{X'}(z) = \frac{pz}{1-qz}

    Nota: X'= X+1 es el número de intentos hasta primer éxito en una secuencia de intentos Bernoulli independientes.

    .


    Binomial Negativa


    S_X=\{ r, r+1, ... \}

    , donde r es un entero positivo

    p_k = {{k-1} \choose {r-1}} p^{r}(1-p)^{k-r}

    k = r, r+1, ...

    E[x] = \frac{r}{p}

    VAR[X] = \frac{r(1-p)}{p^2}

    G_X(z) = \left( \frac{pz}{1-qz}\right)^{r}

    Nota: X es el número de intentos hasta el r-ésimo éxito en una secuencia de intentos Bernoulli independientes

    .


    Poisson


    S_X=\{0, 1, 2, ... \}

    p_k = \frac{\alpha ^{k}}{k!} e^{-\alpha}

    k = 0, 1, ... \text{ y } \alpha>0

    E[X] = \alpha

    VAR[X] = \alpha

    G_X(z) = e^{\alpha(z-1)}

    Nota: X es el número de eventos que ocurren en una unidad de tiempo cuando el tiempo entre eventos es distribuido exponencialmente con media 1/α.

    .


    Uniforme


    S_X=\{1, 2, ..., L \}

    p_k = \frac{1}{L}

    k = 1, 2, ... , L

    E[X] = \frac{L+1}{2}

    VAR[X] = \frac{L^2 -1}{12}

    G_X(z) = \frac{z}{L} \frac{1- z^L}{1-z}

    Nota: La variable aleatoria uniforme sus resultados son igualmente probables. Juega un rol importante en la generación de números aleatorios

    .


    Zipf


    S_X=\{1, 2, ..., L \}

    , donde L es un entero positivo

    p_k = \frac{1}{c_L} \frac{1}{k}

    k = 1, 2, ... , L

    donde cL esta dado por:

    c_L = \sum_{j=1}^{L} = 1 + \frac{1}{2} + \frac{1}{3} + ... + \frac{1}{L}

    E[X] =\frac{L}{c_L}

    VAR[X] = \frac{L(L+1)}{2C_L} - \frac{L^2}{c_L ^2}

    Nota: La variable aleatoria Zipf tiene la propiedad que algunos resultados ocurren frecuentemente, pero muchos resultados suceden muy poco


    [Bernoulli] [Binomial] [Geométrica] [Binomial Negativa] [Poisson] [Uniforme] [Zipf]


  • 3Eva_IIIT2012_T6 potencia media

    3ra Evaluación III Término 2012-2013. Abril 19, 2013. FIEC03236

    Tema 6 (20 puntos). Sea X(t) un proceso normal y estacionario, con media 0 y densidad espectral:
    S_X = \frac{2}{4 + \omega ^2}
    Y sea Y(t) la respuesta de un sistema lineal a la entrada X(t), siendo:
    H(\omega) = \begin{cases} 2 && |\omega | \leq 2 \\ 0 && | \omega | \geq 2 \end{cases}
    la función de transferencia del sistema.

    Calcular:

    a) La P[X(t+1)-X(t)>1]
    b) La potencia media de X(t) y de Y(t)
    c) La P[Y(t)<1]

    Rúbrica: literal a y c (6 puntos), literal b (8 puntos)

  • 3Eva_IIIT2012_T5 matriz de covarianza

    3ra Evaluación III Término 2012-2013. Abril 19, 2013. FIEC03236

    Tema 5 (20 puntos). Un proceso estocástico estacionario X(t) tiene media E[X(t)] = 0 y autocorrelación:

    R_{X} (\tau) = 4 e^{-3| \tau |} , \tau \in \Re

    a) Calcular la P[X(1)>1]. (4 puntos)

    b) Calcular la matriz de covarianza de la v.a. [X(1),X(2),X(3)-X(1)]. (8 puntos)

    c) Calcular la P[X(3)-X(1)>1/X(2)>1]. (8 puntos)

  • 3Eva_IIIT2012_T4 funcion densidad bivariada

    3ra Evaluación III Término 2012-2013. Abril 19, 2013. FIEC03236

    Tema 4 (20 puntos). Las variables aleatorias X e Y son N(1,1) con distribución conjunta normal bidimensional, con coeficiente de correlación

    \rho =\frac{1}{2}
    Determinar:
    a)   La función de densidad de la variable aleatoria: (14 puntos)

    U = 2Y - X - 8

    b)   P(U>-8). (6 puntos).

  • 3Eva_IIIT2012_T3 función densidad

    3ra Evaluación III Término 2012-2013. Abril 19, 2013. FIEC03236

    Tema 3 (10 puntos) Si X es una variable aleatoria uniforme en [-2,2], y se define a Y=|X-1|. Determinar:

    a)   FY(y)

    b)   fY(y)

  • 3Eva_IIIT2012_T2 Probabilidad de error

    3ra Evaluación III Término 2012-2013. Abril 19, 2013. FIEC03236

    Tema 2 (20 puntos) Una fuente binaria emite los símbolos -1 y 1 con igual probabilidad.

    Cuando se envía  -1, el receptor recibe Z=-1+N, donde N (ruido) es uniforme en (-2,2).

    Análogamente cuando se envía 1. Si Z>0, el receptor decide que se envió 1 y si Z<0, que envió -1.

    Determine la probabilidad de error.

  • 3Eva_IIIT2012_T1 función densidad

    3ra Evaluación III Término 2012-2013. Abril 19, 2013. FIEC03236

    Tema 1 (10 puntos). Sea X una variable aleatoria con función de distribución ,

    F_X(x) = (1- e^{-\alpha x}) \mu (x-a)

    donde α ∈ Re, μ(x) es la función escalón y a ∈ Re+.

    Determine:

    a)   El valor de α.

    b)   P(X=a)

    Rúbrica: literal a y b (5 puntos)

  • 2Eva_IIIT2012_T3 autocovarianza

    2da Evaluación III Término 2012-2013. Marzo 20, 2013. FIEC03236

    Tema 3 (40 puntos). Dada la figura, asuma que el proceso es estocástico:

    Siendo X(t) = A*g(t),  donde A es una variable aleatoria que toma los valores -1 y +1 con igual probabilidad, determine:

    a) La función (pmf) probabilidad de masa de X(t)

    b) E[X(t)], Var[X(t)]

    c) La pmf conjunta de X(t) y X(t+d)

    d) La CX(t, t+d), d>0

    Rúbrica: cada literal (10 puntos)

  • 2Eva_IIIT2012_T2 densidad espectral de potencia

    2da Evaluación III Término 2012-2013. Marzo 20, 2013. FIEC03236

    Tema 2 (50 puntos). Sea X(τ) un proceso estocástico normal y estacionario de media 1 y autocorrelación:

    R_X (\tau)=\frac{18}{9 + \tau^2} + 1
    \tau \in \Re

    a) Calcular la P(|X(3)|>1)
    b)Determinar la matriz de covarianzas de la variable aleatoria tridimensional [X(0),X(1),X(3)]
    c) La autocorrelación del proceso estocástico
    Y(t)=2X(t+2)+t
    d) La función de densidad de la variable aleatoria
    Z=X^2 (3)
    d) SX(f) y Graficarla

    Rúbrica: cada literal (10 puntos)