Proceso aleatorio estacionario

Referencia: León-García 9.6, 9.6.1 p518,521; Gubner 10.3, 10.2 p395, p392; Ross 10.7 p654, p656

Estacionario

Un proceso aleatorio discreto o contínuo en el tiempo 
X(t) es estacionario si la distribución conjunta de 
cualquier grupo de muestras No depende de la ubicación 
del tiempo de origen.
F_{X(t_1),..., X(t_k)} (x_1, ... x_k) = F_{X(t_1+\tau),..., X(t_k)} (x_1, ... x_k+\tau)

para cualquier τ, k, o muestras t1, … , tk.

Estacionario con cdf de 1er Orden

Un proceso aleatorio estacionario con cdf de primer orden debe ser independiente del tiempo

F_{X(t)} (x) = F_{X(t+\tau)} (x) = F_X(x)

para todo t, τ, dicho de otra forma, sus resultados son constantes

m_{X}(t) = E[X(t)]=m VAR[X(t)] = E[(X(t)-m)^2] = \sigma ^2

Estacionario con cdf de 2do Orden

Un proceso aleatorio estacionario con cdf de segundo orden debe depender solo de la diferencia de tiempo entre muestras y NO en particular del tiempo de las muestras

F_{X(t_1),X(t_2)} (x_1,x_2) = F_{X(0),X(t_2-t_1)} (x_1,x_2)

para todo t1, t2

R_{X}(t_1,t_2) = R_{X} (t_2-t_1) C_{X}(t_1,t_2) = C_{X} (t_2-t_1)

Estacionario en el Sentido Amplio (WSS o débil)

 Un proceso aleatorio discreto o contínuo en el tiempo 
X(t) es estacionario en el sentido amplio (WSS) 
si satiface que: 
m_X(t) = m C_{X}(t_1,t_2) = C_{X} (t_2-t_1)

De forma semejante, los procesos X(t) y Y(t) son estacionarios conjuntos si ambos son estacionarios en el sentido amplio y si covarianza cruzada depende solo de t1-t2.

R_{X}(t_1,t_2) = R_{X} (\tau) C_{X}(t_1,t_2) = C_{X} (\tau)

Autocovarianza PM

Referencia: León García Ejemplo 9.10 p495, Gubner Ejemplo 10.8 p389, Gubner Ejemplo 10.17 p396

Sea X(t) = cos(ω t + Φ), donde Φ es uniforme en el intervalo (-π,π) Encontrar la autocovarianza de X(t).

la variable aleatoria Φ tiene distribución uniforme en el intervalo, por lo que la función fΦ(φ) es constante = 1/[π – (-π)] = 1/2π.

Recordamos que:

E[g(x)] = \int_{-\infty}^{\infty} g(x) f(x) dx

Media (León-García 4.15 p158):

m_X(t) = E[cos(\omega t + \Phi)] = = \int_{-\pi}^{\pi} cos(\omega t + \Phi) \frac{1}{2\pi} d\Phi = \left. \frac{-1}{2\pi} (sin (\omega t + \Phi)) \right|_{-\pi}^{\pi} = \frac{-1}{2\pi} [sin (\omega t + (-\pi)) - sin (\omega t + \pi)] = 0

Autocovarianza

dado que el valor esperado es cero, la autocovarianza es igual a la autocorrelación

C_{X} (t_1,t_2) = R_X (t_1,t_2) - E[X(t_1,t_2)] = R_X (t_1,t_2) = E[cos(\omega t_1 + \Phi) cos(\omega t_2 +\Phi)]

Recordando que:

E[g(x)] = \int_{-\infty}^{\infty} g(x) f(x) dx cos(x) cos(y) = \frac{cos(x-y) + cos(x+y) }{2}

se tiene que:

= \int_{-\pi}^{\pi} [cos(\omega t_1 + \Phi) cos(\omega t_2 +\Phi)] \frac{1}{2\pi} d\Phi = \int_{-\pi}^{\pi} \frac{cos(\omega (t_1 - t_2))+cos(\omega (t_1 + t_2)+ 2\Phi)}{2} \frac{1}{2\pi} d\Phi = \int_{-\pi}^{\pi} \frac{cos(\omega (t_1 - t_2))}{2} \frac{1}{2\pi} d\Phi + \int_{-\pi}^{\pi} \frac{cos(\omega (t_1 + t_2 )+ 2\Phi)}{2} \frac{1}{2\pi} d\Phi

El primer integral, el coseno no depende de Φ, mientras que el segundo integral es semejante al intergral de la media y cuyo resultado es cero.

= \left. \frac{cos(\omega (t_1 - t_2))}{2} \frac{\Phi}{2\pi} \right|_{-\pi}^{\pi} + 0
C_{X} (t_1,t_2) = R_X (t_1,t_2) =
= \frac{1}{2} cos(\omega (t_1 - t_2))

Autocovarianza en AM

Referencia: León García Ejemplo 9.9 p495, Gubner Ej10.35 p496

Sea X(t) = A cos(2πt), donde A es una variable aleatoria, con un comportamiento semejante a la figura.

Encontrar el valor esperado , la autocorrelación y autocovarianza de de X(t).


El valor esperado se calcula a continuación, note que la media varia respecto a t y que el valor es cero para valores de t donde cos(2πt) =0.

E[X(t)] = E[A cos(2\pi t)] E[X(t)] = E[A] cos(2\pi t)

La autocorrelación es:

R_X(t_1,t_2) = E[A cos(2\pi t_1) A cos(2\pi t_2)] = E[A^{2} cos(2\pi t_1) cos(2\pi t_2)] = E[A^{2}] cos(2\pi t_1) cos(2\pi t_2)

usando:

2 cos(x)cos(y) = cos(x-y) + cos(x+y) cos(x)cos(y) = \frac{ cos(x-y) + cos(x + y)}{2}

se reemplaza:

= E[A^{2}] \frac{1}{2}[cos(2\pi t_1 - 2\pi t_2) + cos(2\pi t_1 + 2\pi t_2)] R_X(t_1,t_2) = E[A^{2}] \frac{[cos(2\pi (t_1 - t_2)) + cos(2\pi (t_1 + t_2))]}{2}

se observa que el valor de autocorrelación depende de las diferencias de tiempo t1 y t2.


La autocovarianza es:

Cov_X(t_1,t_2) = R_X(t_1,t_2) - E[X(t_1)]E[X(t_2)] = E[A^{2}] cos(2\pi t_1) cos(2\pi t_2) - E[A] cos(2\pi t_1)E[A] cos(2\pi t_2) = E[A^{2}] cos(2\pi t_1) cos(2\pi t_2) - E[A]^2 cos(2\pi t_1)cos(2\pi t_2) = (E[A^{2}] - E[A]^2) cos(2\pi t_1)cos(2\pi t_2) = Var[A] cos(2\pi t_1)cos(2\pi t_2)

con el mismo procedimiento de cos(x)cos(y):

Cov_X(t_1,t_2) = Var[A] \frac{[cos(2\pi (t_1 - t_2)) + cos(2\pi (t_1 + t_2))]}{2}

Autocorrelación, Autocovarianza con variable tiempo

Referencia: León-García 9.2.2 p493

Se puede usar los momentos de muestras en el tiempo para parcialmente especificar un proceso aleatorio al resumir la información contenida en las cdf conjuntas.


Procesos aleatorios Contínuos en tiempo

Media:

m_X(t) = E[X(t)] = \int_{-\infty}^{\infty} x f_{X(t)}(x) dx

Varianza:

VAR[X(t)] = \int_{-\infty}^{\infty} ( x - m_X(t))^2 f_{X(t)}(x) dx

donde f_{X(t)}(x) es la pdf de X(t). Note que ambas son funciones determinísticas de tiempo.

Autocorrelación

R_X(t_1,t_2) = E[X(t_1,t_2)] = = \int_{-\infty}^{\infty} \int_{-\infty}^{\infty} xy f_{X(t_1),X(t_2)}(x,y) dx dy

Autocovarianza:

C_X(t_1,t_2) = E[\{X(t_1) - m_X(t_1) \} \{ X(t_2) - m_X(t_2)\} C_X(t_1,t_2) = R_X(t_1,t_2) - m_X(t_1) m_X(t_2)

coeficiente de correlación

\rho (t_1, t_2) = \frac{C_x(t_1,t_2)}{\sqrt{C_x(t_1,t_1)}\sqrt{C_x(t_2,t_2)}}

El coeficiente de correlación es la medida en la cual una variable aleatoria puede predecirse como una función lineal de otra.


Procesos aleatorios Discretos en tiempo

Media:

m_X(n) = E[X(n)]

Varianza:

VAR[X(n)] = E[(X(n) - m_X(n))^2]

Autocorrelación

R_X(n_1,n_2) = E[X(n_1,n_2)]

Autocovarianza:

C_X(n_1,n_2) = E[\{X(n_1) - m_X(n_1) \} \{ X(n_2) - m_X(n_2)\} C_X(n_1,n_2) = R_X(n_1,n_2) - m_X(n_1) m_X(n_2)

 

Convertidor Analógico Digital

Ejemplo: León-García 4.20 p.161
Un cuantizador se usa para convertir una señal analógica (ejemplo: audio) en su forma digital.

Un cuantizador crea un mapa de un voltaje aleatorio X en el punto más próximo q(X) a los valores 2R  representados como se muestra en la figura.

El valor de X se aproxima por q(X), el que se identifica con un número binario de R-bits. De esta forma, un voltage «analógico» X , que toma valores contínuos se convierte a un numero de R-bits.

El cuantizador introduce un error Z = X –  q(X) como se muestra en la figura (b). Note que Z es una función de X y cuyo rango está entre -d/2 y d/2, conocido como el tamaño de paso del cuantizador.

Suponga que X tiene una distribución uniforme en el intervalo [-xmax, xmax], que el cuentizador tiene 2R niveles, y que 2xmax = 2Rd.
Es sencillo mostrar que > está uniformemente distribuido en el intervalo [-d/2, d/2].

Se tiene que para una variable uniforme:
E[X]= \frac{1}{b-a}\int_{a}^{b}t dr = \frac{a+b}{2}
E[z] = \frac{d/2 - d/2}{2} = 0
El error Z tiene media cero.
La varianza es:
VAR[Z] =\frac{(d/2 - (-d/2)^2}{12} =\frac{d^2}{12}
El resultado es aproximadamente correcto para cualquier pdf que sea aproximadamente plana sobre un intervalo del cuantizador. Es el caso cuando 2R es grande.

La aproximación de q(x) puede ser observada como una versión «ruidosa» de X, dado que:
Q(Z) = X-Z
donde Z es el error de cuantización, Una medida de cuán bueno es el cuantizador se da por el factor SNR o de señal ruido, que se define como la fracción entre la varianza de la «señal» X para la varianza de la distorción de «ruido» Z:

\text{SNR} = \frac{VAR[X]}{VAR[Z]} = \frac{VAR[X]}{d^2 /12}
= \frac{VAR[X]}{x_{max}^2 /3} 2^{2R}
donde se ha usado el hecho que d= 2xmax/ 2R.
Cuando X es no uniforme, el valor de xmax se seleccciona de tal forma que P[|X|> xmax] sea pequeña. Un casi tipico es que xmax = 4 STD[X], con lo que SNR será:
\text{SNR} = \frac{3}{16} 2^{2R}
lo que es genera la formula conocida como:
\text{SNR dB} = 10 log_{10} \text{SNR} = 6R-7.3 dB

En otras palabras, el nivel de SNR se incrementa por un factor de 4 (6db) con cada bit adicional que se usa para representar X. Esto tiene sentido dado que cada bit duplica el número de niveles de cuantización, lo cual reduce el tamaño de paso por un factor de 2. La varianza del error podría ser reducida por el cuadrado de ésto, es decir 22=4

Funciones de una Variable aleatoria

Sea X una variable aleatoria y sea g(x) una función de valor real definida en el eje real.

Defina Y= g(X), esto es. Y está determinada por la evaluación de la función en g(x) en el valor que ha tomado la variable aleatoria X.  Entonces Y también es una variable aleatoria.

Las probabilidades de los valores para Y dependen de la función g(x) así como la función distribución acumulada de X.

Considere una función no lineal Y=g(X) como la que se muestra en la figura.

donde |dy| es la longitud del intervalo y < Y ≤ (y+dy).
De forma similar, la probabilidad que el evento en cada intervalo es aproximadamente

f_Y(y)=\left.\sum_{k} \frac{f_X(x)}{|dy/dx|} \right|_{x=x_k} =\left.\sum_{k} f_X(x) \left| \frac{dx}{dy} \right| \right|_{x=x_k}

Ejemplo: León García 4.30 p.176

Sea X el valor de las muestras de voltaje de una señal de voz, y suponga que X tiene una distribución uniforme en el intervalo [-4d,4d].

Sea Y = q(X), donde la función característica de entrada-salida de un cuantizador (convertidor analógico-digital) se muetra en la figura. Encuentre la función de probabilidad de masa para Y.

Solución: El evento {Y=q} para q en SY es equivalente al evento {X en Iq}, donde Iq es un intervalo de puntos equivalentes mapeados en representación al punto q. La pmf de Y se encuentra evaluando:
P[Y=q] = \int_{I_q} f_X(t) dt

Lo que permite ver fácilmente que la representación de un punto tiene un intervalo de longitud d mappeado en él. Entonces existirán ocho posibles salidas equiprobables, es decir, P[Y=q] = 1/8 para q en SY

Distribución Normal estándar acumulada

Referencia: Gubner 5.1 Table 5.1 p 189

Valores de la función de distribución acumulada normal estandar Φ(x) y su complementaria Q(x)= 1- Φ(x). Para evaluar Φ y Q para argumentos negativos, use el hecho que la densidad normal estándar es par, Φ(-x) = Q(x).

\Phi(x)= \frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{x} e^{-t^2 /2} dt Q(x) = 1- \Phi(x) = \frac{1}{\sqrt{2 \pi}} \int_{x}^{\infty} e^{-t^2 /2} dt
x Φ(x) Q(x) x Φ(x) Q(x)
0.0 0.5000 0.5000 2.0 0.9772 0.0228
0.1 0.5398 0.4602 2.1 0.9821 0.0179
0.2 0.5793 0.4207 2.2 0.9861 0.0139
0.3 0.6179 0.3821 2.3 0.9893 0.0107
0.4 0.6554 0.3446 2.4 0.9918 0.0082
0.5 0.6915 0.3085 2.5 0.9938 0.0062
0.6 0.7257 0.2743 2.6 0.9953 0.0047
0.7 0.7580 0.2420 2.7 0.9965 0.0035
0.8 0.7881 0.2119 2.8 0.9974 0.0026
0.9 0.8159 0.1841 2.9 0.9981 0.0019
1.0 0.8413 0.1587 3.0 0.9987 0.0013
1.1 0.8643 0.1357 3.1 0.9990 0.0010
1.2 0.8849 0.1151 3.2 0.9993 0.0007
1.3 0.9032 0.0968 3.3 0.9995 0.0005
1.4 0.9192 0.0808 3.4 0.9997 0.0003
1.5 0.9332 0.0668 3.5 0.9998 0.0002
1.6 0.9452 0.0548 3.6 0.9998 0.0002
1.7 0.9554 0.0446 3.7 0.9999 0.0001
1.8 0.9641 0.0359 3.8 0.9999 0.0001
1.9 0.9713 0.0287 3.9 1.0000 0.0000

s2Eva_IIIT2012_T1 limite central lápices

Solución propuesta

determine el número mínimo de lápices  para el semestre de 15 semanas de clase. Probabilidad de no quedarse sin lápices 0.99

μ =1
σ =1
Sn = 15

P\left ( z < \frac{15-n}{\sqrt{n}} \right) = 0.99
usando la tabla de Q(x) para 1-0.99 = 0.001 = 1*E(-2), x = 2.325
\frac{15 -\mu n}{\sigma \sqrt{n}} = \frac{15 -n}{ \sqrt{n}} = 2.325
(15 - n)^2 = (2.325 \sqrt{n})^2
225 - 2(15)n + n^2 = (2.325)^2 n
n^2 - 35.4056 n + 225 = 0
n=\frac{-35.40 \pm \sqrt{(35.4056)^2 - 4 (1)(225)}}{2(1)}
n_1 = 8.3
n_2 = 27.1
Entonces, tomando el menor valor de n el número de lápices mínimo es 9.

Variables Aleatorias Contínuas

Referencia: León-García 445 Important Continuous Random Variables p164

[uniforme] [Exponencial] [Normal] [Gamma] [Erlang m-1] [Chi-cuadrado] [Lapacian] [Rayleigh] [Cauchy] [Pareto] [Beta]

.


Uniforme


S_X = [a,b] f_X(x) = \frac{1}{b-a} a\leq x \leq b E[X] = \frac{a+b}{2} VAR[X] = \frac{(b-a)^2}{12} \Phi_X(\omega) = \frac{e^{j\omega b}- e^{j\omega a}}{j\omega(b-a)}

.


Exponencial


S_X = [0, \infty) f_X(x) = \lambda e ^{-\lambda c} x \geq 0 \text{ , } \lambda > 0 E[X] = \frac{1}{\lambda} VAR[X] = \frac{1}{\lambda ^2} \Phi_X(\omega) = \frac{\lambda}{\lambda - j\omega}

Nota: La variable aleatoria exponencial es la única variable aleatoria contínua con propiedad «sin memoria»

.


Normal o Gausiana


S_X = (-\infty, +\infty) f_X(x) = \frac{e^{-(x-m)^2 /2 \sigma ^2}}{\sqrt{2 \pi}\sigma}

– ∞ < x < + ∞ , σ >0

E[X] = m VAR[X] = \sigma ^2 \Phi_X(\omega) = e^{jm\omega - \sigma ^2 \omega ^2 /2}

Nota: En un amplio rango de condiciones, X puede ser usada para aproximar la suma de un gran número de variables aleatorias independientes

.


Gamma


S_X = (0, \infty) f_X(x) = \frac{ \lambda (\lambda x)^{\alpha -1} e^{-\lambda x} } {\Gamma(\alpha)} x > 0, \alpha >0, \lambda > 0
donde  \Gamma(z)  es la función gamma:
 \Gamma(z) = \int_{0}^{\infty} x^{z-1}  e^{-x} dx , z>0
 \Gamma \left(\frac{1}{2} \right) = \sqrt{\pi}
 \Gamma (z+1) = z \Gamma(z) , z>0 
 \Gamma (m+1) = m!  , m>0 \text{, y entero}
E[x] = \frac{\alpha}{\lambda} VAR[X] = \frac{\alpha}{\lambda^2} \Phi_X(\omega) =\frac{1}{(1-j\omega /\lambda)^{\alpha}}

Casos especiales de Gamma
.

Erlang m-1

\alpha = m \text{, entero positivo}

f_X(x) = \frac{ \lambda e^{-\lambda x }(\lambda x)^{m - 2} } {(m-1)!} x>0

\Phi_X(\omega) = \left( \frac{1}{1-j\omega /\lambda} \right) ^{m}

Nota: Una variable aleatoria Erlang m-1 se obtiene al añadir m variables aleatorias exponenciales independientes con parámetro λ
.

Chi-cuadrado
con k grados de libertad:

\alpha = k/2 \text{, k entero positivo y } \lambda =1/2 f_X(x) = \frac{ x^{(k - 2)/2} e^{-x/2} } {2^{k/2} \Gamma (k/2)} x>0 \Phi_X(\omega) = \left( \frac{1}{1-2j\omega} \right) ^{k/2}

Nota: la suma de k variables aleatorias Gausianas, mutuamente independientes, con varianza unitaria, media cuadrada 0, es una variable aleatoria Chi-cuadrada con k grados de libertad.

.


Lapacian


S_X = (-\infty, +\infty) f_X(x) = \frac{\alpha}{2} e^{-\alpha|x|}

– ∞ < x < + ∞ , α >0

E[x] =0 VAR[X] = \frac{2}{\alpha^2} \Phi_X(\omega) = \frac{\alpha^2}{\omega ^2 + \alpha ^2}

.


Rayleigh


S_X = [0, \infty) f_X(x) = \frac{x}{\alpha^2} e^{-x^2/2\alpha^2} x \geq 0 , \alpha>0 E[X] = \alpha \sqrt{\pi/2} VAR[X] =(2- \pi/2) \alpha^2

.


Cauchy


S_X = (-\infty, +\infty) f_X(x) = \frac{\alpha / \pi}{x ^2 + \alpha ^2}

– ∞ < x < + ∞ , α >0

NO existe la media o varianza

\Phi_X(\omega) = e^{-\alpha|\omega| }

.


Pareto


S_X = [X_m, +\infty) , X_m>0 f_X(x) = \begin{cases} 0 && x< x_m\\ \alpha \frac{x_m^{\alpha}}{x^{\alpha+1}} && x \geq x_m \end{cases} E[X] =\frac{\alpha x_m}{\alpha - 1}, \alpha >1 VAR[X] =\frac{\alpha x_m^2}{(\alpha - 2)(\alpha-1)^2}, \alpha >2

Nota: La variable aleatoria Pareto es el ejemplo mas destacado de variables aleatorias con colas largas y puede ser vista como una versión contínua de la variable aleatoria discreta Zipf

.


Beta


f_X(x) = \begin{cases} \frac{\Gamma (\alpha + \beta)}{\Gamma(\alpha) \Gamma(\beta)} x^{\alpha-1} (1-x)^{\beta-1} && ,\alpha>0 \\, && \beta>0 \\ , && 0 < x < 1 \\ 0 && \text{otro caso} \end{cases} E[X] = \frac{\alpha}{\alpha + \beta} VAR[X] = \frac{\alpha\beta}{(\alpha + \beta)^2 (\alpha + \beta + 1)}

Nota: La variable aleatoria Beta es util para modelar una variedad de formas de funciones de densidad de probabilidad en intervalos finitos


[uniforme] [Exponencial] [Normal] [Gamma] [Erlang m-1] [Chi-cuadrado] [Lapacian] [Rayleigh] [Cauchy] [Pareto] [Beta]


Variables Aleatorias Discretas

Referencia: León-García 3.5 Important Discrete Random Variables p115

[Bernoulli] [Binomial] [Geométrica] [Binomial Negativa] [Poisson] [Uniforme] [Zipf]

..


Bernoulli


S_X=\{0, 1 \} p_0 = q = 1-p p_1=p, 0 \leq p \leq 1 E[X] = p VAR[x] = p(1-p) G_X(z)=(q+pz)

Nota: La variable aleatoria Bernoulli es es valor de la función indicador IA para algún evento; X=1 si ocurre A, y 0 en otro caso

.


Binomial


S_X=\{0, 1, ... , n \} p_k={n \choose k} p^{k} (1-p)^{n-k} k = 0, 1, ... , n E[X]= np VAR[X] = np(1-p) G_X(z)= (q + pz)^{n}

Nota: X es el numero de éxtidos en n intentos Bernoulli y por consiguiente la suma de n iid variables aleatorias Bernoulli.

.


Geométrica


Versión 1:

S_X=\{0, 1, 2, ... \} p_k = p(1-p)^{k} k= 0, 1, , ... E[X] =\frac{1-p}{p} VAR[X] = \frac{1-p}{p^2} G_X(z) = \frac{p}{1-qz}

Nota: X es el número de fallas antes del primer éxito en una secuencia de intentos Bernoulli independientes. La variable aleatoria geométrica es la única una variable aleatoria con propiedad «sin memoria».

Versión 2:

S_X'=\{ 1, 2, ... \} p_k = p(1-p)^{k-1} k= 1, 2, ... E[X'] =\frac{1}{p} VAR[X'] = \frac{1-p}{p^2} G_{X'}(z) = \frac{pz}{1-qz}

Nota: X’= X+1 es el número de intentos hasta primer éxito en una secuencia de intentos Bernoulli independientes.

.


Binomial Negativa


S_X=\{ r, r+1, ... \}

, donde r es un entero positivo

p_k = {{k-1} \choose {r-1}} p^{r}(1-p)^{k-r} k = r, r+1, ... E[x] = \frac{r}{p} VAR[X] = \frac{r(1-p)}{p^2} G_X(z) = \left( \frac{pz}{1-qz}\right)^{r}

Nota: X es el número de intentos hasta el r-ésimo éxito en una secuencia de intentos Bernoulli independientes

.


Poisson


S_X=\{0, 1, 2, ... \} p_k = \frac{\alpha ^{k}}{k!} e^{-\alpha} k = 0, 1, ... \text{ y } \alpha>0 E[X] = \alpha VAR[X] = \alpha G_X(z) = e^{\alpha(z-1)}

Nota: X es el número de eventos que ocurren en una unidad de tiempo cuando el tiempo entre eventos es distribuido exponencialmente con media 1/α.

.


Uniforme


S_X=\{1, 2, ..., L \} p_k = \frac{1}{L} k = 1, 2, ... , L E[X] = \frac{L+1}{2} VAR[X] = \frac{L^2 -1}{12} G_X(z) = \frac{z}{L} \frac{1- z^L}{1-z}

Nota: La variable aleatoria uniforme sus resultados son igualmente probables. Juega un rol importante en la generación de números aleatorios

.


Zipf


S_X=\{1, 2, ..., L \}

, donde L es un entero positivo

p_k = \frac{1}{c_L} \frac{1}{k} k = 1, 2, ... , L

donde cL esta dado por:

c_L = \sum_{j=1}^{L} = 1 + \frac{1}{2} + \frac{1}{3} + ... + \frac{1}{L} E[X] =\frac{L}{c_L} VAR[X] = \frac{L(L+1)}{2C_L} - \frac{L^2}{c_L ^2}

Nota: La variable aleatoria Zipf tiene la propiedad que algunos resultados ocurren frecuentemente, pero muchos resultados suceden muy poco


[Bernoulli] [Binomial] [Geométrica] [Binomial Negativa] [Poisson] [Uniforme] [Zipf]