Logo Studenta

Variables Aleatórias Discretas e Distribuições de Probabilidade

¡Este material tiene más páginas!

Vista previa del material en texto

Lectura 7: Variables aleatorias discretas y
distribuciones de probabilidad
Estadística
November 12, 2014
Hasta ahora nos hemos enfocado en analizar eventos y sus respectivas probabilidades.
De todas maneras, en muchas aplicaciones de la vida cotidiana, la incertidumbre puede
caracterizarse mejor a través de variables que representan la incertidumbre de algún problema
en particular. Asi, una vez detectamos la fuente de incertidumbre, es posible realizar análisis
de tipo numérico de su comportamiento. Por ejemplo, la demanda de energía es una variable
que tiene un rol muy importante en la operación y planeación de los sistemas de potencia. La
demanda es una variable incierta y que muchos dicen que su crecimiento en el largo plazo está
directamente ligada al crecimiento económico del país. De hecho, existe evidencia estadística
que lo demuestra. Sin embargo, en el corto plazo, la demanda también es incierta —aunque
en menor grado— pero que incide directamente en la programación de la operación. En
este proceso se deben determinar los recursos eléctricos y energéticos que serán empleados
para abastecer la demanda que se cree tendrá el país. Asi pues que si los pronósticos no
tienen cierto nivel de precisión, se puede poner en riesgo la seguridad del sistema. Y para
realizar dichos pronósticos es necesario caracterizar apropiadamente el comportamiento de
la demanda, que para fines prácticos, la consideramos aleatoria. Es aleatoria porque depende
de los hábitos de consumo de cada uno de los usuarios, y dichos hábitos son subjetivos y
resulta imposible modelarlos con plena certeza.
1
La demanda es un ejemplo claro de variable aleatoria, variable porque tiene un valor
numérico y aleatoria porque el valor observado depende del experimento. La demanda es una
variable aleatoria continua porque su valor es un número real. Sin embargo, también existen
variables aleatorias discretas, que pueden relacionarse con el conteo de “éxitos” o “fracasos.”
Por ejemplo, el número de veces que una línea de transmisión deja de estar disponible, o
el número de fallas de una unidad de generación en cierto periodo. Por el momento, nos
dedicaremos a estudiar un poco las variables aleatorias discretas, es decir, aquellas cuyos
posibles valores constituyen un conjunto finito o contablemente infinito.
1. Variable aleatoria
Definición. Una variable aleatoria es una funcion de valor real en S.
Si un experimento es realizado, lo que significa que un evento ω es seleccionado de S,
entonces el valor de la variable aleatoria es X(ω). El valor X(ω) es llamado el valor realizado
de X para el resultado ω. Una variable aleatoria es discreta si existe un conjunto finito
x1, x2, . . . , xn o un conjunto contablemente infinito x1, x2, . . . tal que
P (X ∈ {x1, x2, . . .}) = 1.
Definición. Un experimento con solo dos resultados, “éxito” y “fracaso” se denomina ensayo
de Bernoulli.
Definición. Una variable aleatoria resultado de un ensayo de Bernoulli cuyos dos únicos
valores posibles 0 (“fracaso”) y 1 (“éxito”) se llama variable aleatoria de Bernoulli.
Tambien es posible asignar un valor numérico a experimentos cuyos resultados no lo son.
Por ejemplo, si N es el evento de que no lloverá en la noche, y S el evento de que si lloverá
en la noche, entonces podemos decir que X(N) = 0 y X(N ′) = 1.
2
Al probar si un diodo funciona o no, se tienen dos posibles resultados. Este es un ensayo
de Bernoulli donde podemos asignar los valores de 0 y 1 a la variable aleatoria discreta
X: X(funciona) = 1 y X(no funciona) = 0. Sin embargo, si queremos saber el número de
diodos que funcionan en la muestra, simplemente debemos sumar cada una de las variables
resultantes de cada ensayo de Bernoulli. Osea que Y =
∑100
i=1Xi.
Ejemplo 1. (Ejercicio 6 del Capítulo 3 de [2]). A partir de una hora fija, cada carro que
entra a una intersección es observado para ver si da vuelta a la izquierda I, a la derecha (D)
o si sigue de frente (F ). El experimento termina en cuanto se observa que un carro da vuelta
a la izquierda. Sea X = el número de carros observados. Cuáles son los posibles valores de
X? Dé cinco resultados y sus valores X asociados.
En el juego de parqués los movimientos estan determinados por la suma de dos lanza-
mientos independientes de un dado. El espacio muestral es:
S = {(ω1, ω2) : ω1, ω2 ∈ {1, 2, 3, 4, 5, 6}}
= {(1, 1) , (1, 2) , . . . , (1, 6) , (2, 1) , . . . , (6, 5) , (6, 6)} .
Entonces la suma de ambos resultados se puede expresar como funcion de los eventos del
espacio muestral
X (ω1, ω2) = ω1 + ω2 para (ω1, ω2) ∈ S.
2. Distribuciones de probabilidad para variables aleato-
rias discretas
Notas de este capitulo son adaptadas de [2] y [1].
3
De alguna manera, la variable aleatoria discreta X “transforma” un espacio muestral S
a otro espacio muestral mas tangible S̃, cuyos eventos son mas directamente relacionados
a lo que estamos interesados. A continuación nos dedicaremos a describir como la masa de
probabilidad está distribuida sobre todos los posibles valores de X.
2.1. Función de masa de probabilidad (pmf)
Definición. La función de masa de probabilidad (pmf) de una variable discreta aleatoria X
es la función fX : < → [0, 1], si para posible resultado x,
1. fX(x) ≥ 0,
2.
∑
x fX(x) = 1,
3. P (X = x) = fX(x).
Ejemplo 2. Considere un grupo de cinco donadores de sangre potenciales: a, b, c, d, y e. De
ellos, solo a y b tienen sangre tipo O+. Se determinará en orden aleatorio el tipo de sangre
con cinco muestras, una de cada individuo, hasta que se identifique un individuo O+. Sea la
variable aleatoria Y = el número de exámenes de sangre para identificar un individuo O+.
Encuentre la función de masa de probabilidad de Y .
Ejemplo 3. Un almacen de computadores recibe un envío que contiene 20 laptops similares,
de los cuales hay 3 defectuosos. Si un colegio compra de manera aleatoria 2 de estos laptops,
encuentre la distribución de probabilidad para el número de defectuosos.
Ejemplo 4. La tasa de falla forzada (forced outage rate—FOR) de una unidad de generación
de una planta se define como la probabilidad de que la unidad no esté disponible para generar
cuando se requiere. A partir de un tiempo fijo se cuenta el número de horas X en las que una
unidad de generación opera satisfactoriamente hasta que se produce un fallo. Suponga que
la operación de la unidad en una hora en particular es independiente de la hora anterior. Se
4
determinará el número de horas en las cuales la unidad —que tiene FOR igual a p— opera
sin fallar. Determine la pmf de X en función de p.
Solución. El experimento entonces consiste en observar cada hora la unidad de generación,
y éste termina cuando la unidad falla. Definamos con la letras “o” y “f ” los eventos simples
cuando la unidad opera y falla respectivamente. El espacio muestral es
S = {f, of, oof, ooof, oooof, . . .}
Este es un experimento contablemente infinito. Como X debe ser un mapeo del espacio
muestral, entonces para cada elemento en S, existe un valor de X; y este valor es el número
de observaciones (horas) requeridas para que ocurra “f ” así:
X (S) = {1, 2, 3, 4, 5, . . .}
Como ven, el dominio (o soporte) deX son todos los enteros positivos Z+. Ahora, debemos
determinar la probabilidad de ocurrencia de cada uno de los valores deX, i.e., P (X = x), x =
0, 1, 2, . . .. La probabilidad de una “o” es 1−p y la de una “f ” es p. Como el resultado de cada
observación es independiente de las demás (según el enunciado), entonces podemos usar la
regla del producto para eventos independientes.
Entonces, P (X = 1) = P (f) = p, P (X = 2) = P (of) = P (o)P (f) = (1 − p)p, P (X =
3) = P (oof) = P (o)P (o)P (f) = (1 − p)2p y así sucesivamente. En general, P (X = x) =
(1 − p)x−1p, x = 0, 1, 2, . . .. Entonces para la probabilidad de que la primer falla ocurra en
la hora x se requiere que la unidad opere durante x − 1 horas y que falle en la siguiente
hora. La Fig. 1 muestra la gráfica de fX con p = 0.05, se observaque es más probable que
la unidad falle en las primeras horas de operación dado que p es relativamente alta, aunque
dichas probabilidades son relativamente pequeñas.
El código en R con el que se creó la Fig. 1 se muestra a continuación:
5
0 20 40 60 80 100 120
0.
00
0.
02
0.
04
x
P
(X
 =
 x
)
Figura 1: pmf de X con p = 0.05
x <- 1:120
p <- .05
fx = p * (1-p)^(x-1)
plot(x, fx, type = "h", lwd=1, xlab = "x", ylab = "P(X = x)")
2.2. Distribución acumulada de probabilidad (cdf)
(Notas adaptadas de [1]). La pmf es suficiente para determinar la probabilidad de cual-
quier evento determinado por X, porque para cualquier conjunto A,
P (X ∈ A) =
∑
xi∈A
fX(xi).
Es decir, debemos tener en cuenta aquellos valores xi que estan contenidos en el evento
A.
Por ejemplo, si X ∈ {0, 1, . . . , 8}, entonces para determinar P (X ≥ 4) debemos tener
en cuenta los valores de X en el conjunto {4, 5, 6, 7, 8} que son los que definen el evento
6
{X ≥ 4}. Luego P (X ≥ 4) =
∑8
x=4 fX(x). Estos elementos son claves para calcular la cdf
de una variable aleatoria.
Definición. La distribucion acumulada de probabilidad (cdf) de una variable aleatoria X
es la funcion FX : < → [0, 1], definida por
FX(x) = P (X ≤ x) para −∞ < x <∞.
Para cualquier número x, FX(x) es la probabilidad de que el valor observado de X es máximo
x.
FX(x) también contiene toda la información probabilística de X, y se puede determinar
usando la pmf de X como:
FX(x) =
∑
y≤x
fX(y)
Proposición. Para dos números cualquiera a y b, con a ≤ b,
P (a ≤ X ≤ b) = FX (b)− FX
(
a−
)
donde a− = máx y
y<a
, y en el soporte (o dominio) de X. En otras palabras, a− representa el
valor posible de X más grande que es estrictamente menor que a.
Demostración. Expresar P (a ≤ X ≤ b) en términos de fX(a), fX(a+ 1), . . . , fX(b).
2.3. Propiedades de la distribución acumulada
(i) Para a ≤ b, se tiene que FX(a) ≤ FX(b). Esta propiedad resulta del hecho de que el
evento a ≤ b implica que el evento {X ≤ a} está contenido en el evento {X ≤ b}.
7
(ii) Dado que FX(a) es una probabilidad, su valor siempre está entre 0 y 1. Además,
ĺım
a→∞
FX(a) = ĺım
a→∞
P (X ≤ a) = 1
ĺım
a→−∞
FX(a) = ĺım
a→−∞
P (X ≤ a) = 0.
(iii) FX is continuo por la derecha, i.e., se tiene que
ĺım
�→0+
FX(a+ �) = FX(a).
Es fácil verificar que FX(a) = FX(a− 1) + p(a) donde p(a) > 0.
Ejemplo 5. Encuentre y grafique la distribución acumulada (cdf) del ejemplo anterior. Si
X es el número de horas para que la unidad falle, y la probabilidad de falla p = .05, cuál
es la probabilidad de que la unidad de generación falle entre las primeras 20 horas?, de que
falle entre la hora 10 y la 60?, y de que falle en la hora 51 o después?
Solución. Para determinar la cdf usamos la definición y procedemos a calcular la suma.
En este caso, nos enfrentamos a una serie geométrica que sabemos converge y tiene suma
siempre y cuando 0 < p < 1.
FX (x) =
x∑
y=1
fX(y) =
x∑
y=1
(1− p)y−1p = p
1− p
x∑
y=1
(1− p)y = p
1− p
[
x∑
y=0
(1− p)y − 1
]
=
p
1− p
[
1− (1− p)x+1
1− (1− p)
− 1
]
=
p
1− p
[
1− (1− p)x+1 − p
p
]
=
1
1− p
(1− p) [1− (1− p)x] = 1− (1− p)x, para x = 1, 2, . . .
La gráfica de FX se muestra en la Fig. 2. Observe que a pesar de que X es una variable
aleatoria discreta, FX está definida para todos los reales positivos. Además se cumple que
ĺım
x→−∞
FX(x) = 0 y que ĺım
x→∞
FX(x) = 1
8
0 20 40 60 80 100 120
0.
2
0.
4
0.
6
0.
8
1.
0
x
P
(X
 <
=
 x
)
Figura 2: cdf de X con p = 0.05
La probabilidad de que la unidad falle entre las primeras 20 horas (no confundir con
falla en la hora 20) sería
P (X ≤ 20) =
20∑
x=1
P (X = x) = FX(20) = 1− (1− 0,05)20 = 0,6415
La probabilidad de que la unidad falle entre la hora 10 y la hora 60 sería
P (10 ≤ X ≤ 60) =
60∑
x=10
P (X = x) = FX(60)−FX(10−1) = 0,9539−0,39698 = 0,5842
La probabilidad de que la unidad falle después de 50 horas sería
P (X > 50) = 1− P (X ≤ 50) = 1− FX(50) = (1− 0,05)50 = 1− 0,9231 = 0,0769
9
3. Media o valor esperado
Es una cantidad similar al valor medio x̄ de una muestra, el cual estaba ponderado de
acuerdo a las frecuencias relativas. El valor esperado de una variable aleatoria discreta X
es el promedio ponderado de los posibles valores que puede tomar, de manera que los pesos
están dados por fX o pmf. Usualmente, a la media de una población se le asigna la letra
griega µ.
Definición. El valor esperado o media de una variable aleatoria X con pmf fX se denota
por E [X] y esta definido como
E [X] =
∑
i
xi fX (xi)
donde los xi’s son los posibles valores de X.
Ejemplo 6. Si X es el número que se obtiene al lanzar un dado, verifique que E [X] = 7
2
.
Solución. Primero, debemos determinar la pmf de este experimento. Si no es un dado car-
gado, podemos decir que fX(x) = P (X = x) = 1/6 para x = 1, 2, . . . , 6. Por lo tanto, la
media es
E [X] =
6∑
x=1
x fX(x) = 1
(
1
6
)
+ 2
(
1
6
)
+ 3
(
1
6
)
+ 4
(
1
6
)
+ 5
(
1
6
)
+ 6
(
1
6
)
=
7
2
Observe que a pesar de que X es una variable aleatoria discreta, EX resultó ser un real. Esta
es una de las razones que muestran que en algunas situaciones la media no es el valor más
apropiado para representar una población. De hecho, en este caso, el dado nunca mostrará
el valor de 7/2, i.e., P (X = 7/2) = 0.
Ejemplo 7. Para el caso del ejemplo de la unidad de generación, determinar la media µ del
número de observaciones requeridas para obtener una falla. Asuma que la tasa de fallas sigue
siendo p.
10
Solución.
E [X] =
∞∑
x=1
x fX (x) =
∞∑
x=0
x (1− p)x−1 p = −p
∞∑
x=0
d
dp
{(1− p)x} = −p d
dp
{
∞∑
x=0
(1− p)x
}
= −p d
dp
{
1
1− (1− p)
}
= −p d
dp
{
1
p
}
= −p
(
−1
p2
)
=
1
p
. (1)
Como en ejemplos anteriores, si p = 0.05, tenemos que el número de horas requeridas en
promedio para que la unidad falle es µ = E [X] = 1/0,05 = 20 horas.
3.1. Reglas de la media
El valor esperado de una función g(X), de X, es
E [g(X)] =
∑
x
g (x) fX (x) .
Si la función g(X) = aX + b, podemos mostrar que
E [aX + b] = aE [X] + b.
En general,
E [ag(X) + bh(X) + c] = aE [g(X)] + bE [h(X)] + c.
Ejemplo 8. (Ejemplo 3.20 de [2]). Sea X el número entrevistas que un estudiante sostiene
antes de conseguir un trabajo, y tiene la función de masa de probabilidad
fX (x) =

k/x2, para x = 1, 2, 3, · · ·
0, de lo contrario
Determine la media X.
11
Solución.
E [X] =
∞∑
x=1
x
(
k
x2
)
= k
∞∑
x=1
1
x
=∞.
El término
∑∞
x=1 1/x corresponde a la serie armónica, la cual diverge. La conclusión es que
en promedio, el estudiante requiere infinitas entrevistas para conseguir un trabajo. Por qué
ocurre esto? porque la probabilidad fX sigue siendo grande para valores grandes de x, es
decir, tiene una “cola” significativa que no decae lo suficientemente rápido para que la media
sea finita.
3.2. Varianza
La varianza de X es usada para calcular la cantidad de variabilidad en X o en su dis-
tribución. Es analoga a la varianza muestral s2 estudiada anteriormente donde representaba
la variabilidad de los datos de una muestra en particular. También, la desviación estándar
sigue siendo la raíz positiva de la varianza.
Definición. Sea µ = E [X], la varianza de una variable aleatoria X, denotada por Var(X)
o σ2, es
Var (X) = σ2 = E (X − µ)2
y la desviación estándar SD(x) = σ.
Dos distribuciones con la misma media µ pueden tener diferente varianza porque la
distribucion o pmf fX puede ser diferente.
Proposición.
Var (X) = σ2 = E
[
(X − µ)2
]
= EX2 − µ2
Demostración. Expandir el término entre paréntesis y usar propiedades.
12
3.3. Reglas de la varianza
La varianza de una función g(X), de X, es
Var (g(X)) = E [g (X)− E g (X)]2 =
∑
x
(g (x)− E g (X))2 fX (x) .
La varianza de una constante c, es
Var c = 0
Si la función g(X) = ax+ b, podemos mostrar que
Var (aX + b) = a2 Var (X).
Ejemplo 9. En el ejemplo de la unidad de generación (con tasa de fallas p), muestre que
Var(X) = 1−p
p2
. [Sugerencia: Inicie derivando dos veces con respecto a p el término (1−p)x.
Use el hecho de que Var(X) = EX2 − (EX)2.]
Ejemplo. (Problema 4.2 de [1]). Sea X una variable discreta aleatoria con pmf dada por:
fX (x) =

1
4
, si x = −1
1
8
, si x = 0
1
8
, si x = 1
1
2
, si x = 2
0, en caso contrario
La Fig. 3 muestra la pmf de X.
(a) Sea Y la variable aleatoria definida por Y = 2X2 + 1, i.e., si X = 2, entonces Y = 9.
Calcule la función de probabilidad de masa de Y .
13
−1.0 −0.5 0.0 0.5 1.0 1.5 2.0
0.
0
0.
1
0.
2
0.
3
0.
4
0.
5
x
P
(X
 =
 x
)
0.250
0.125 0.125
0.500
Figura 3: pmf
(b) Calcule la distribución acumulada (cdf) de Y .
(c) Calule EY , Var (Y ), y SD(y).
Solución. (a) Para determinar fY (y) necesitamos encontrar el dominio de Y . Entonces,
para cada valor de X calculamos el correspondiente valor de Y como se muestra en el
cuadro 1:
X -1 0 1 2
Y 3 1 3 9
Cuadro 1: Dominio de Y
Por lo tanto, el dominio de Y es el conjunto {1, 3, 9}. Entonces, la pmf de Y la calculamos
como:
fY (1) = P (Y = 1) = P (X = 0) = 1/8
fY (3) = P (Y = 3) = P ({X = −1} ∪ {X = 1}) = 1/4 + 1/8 = 3/8
fY (9) = P (Y = 9) = P (X = 2) = 1/2
14
2 4 6 8
0.
0
0.
1
0.
2
0.
3
0.
4
0.
5
y
P
(Y
 =
 y
)
0.125
0.375
0.500
Figura 4: Pmf de Y
La gráfica de fY (y) se muestra en la Fig. 4. Observe que fY (y) cumple todas las propieda-
des mencionadas anteriormente, especialmente que
∑
y∈{1,3,9} fY (y) = 1/8 + 3/8 + 1/2 =
1.
(b) Para calcular FY (y) = P (Y ≤ y) nos apoyamos de la pmf:
Caso y < 1: Dado que Y nunca es menor a 1, entonces en este caso FY (y) = 0.
Caso 1 ≤ y < 3: Usamos la definicion de cdf:
FY (y) =
2∑
y=1
fY (y) = fY (1) + fY (2) = 1/8 + 0 = 1/8.
Caso 3 ≤ y < 9: Usamos la definicion de cdf:
FY (y) =
8∑
y=3
fY (y) = fY (3) + . . .+ fY (8) = 3/8 + 0 = 3/8.
Caso 9 ≤ y: Dado que Y es siempre menor o igual a 9, entonces en este caso
FY (y) = 1.
15
2 4 6 8
0.
0
0.
2
0.
4
0.
6
0.
8
1.
0
y
P
(Y
 <
=
 y
)
Figura 5: cdf de Y
La Fig. 5 muestra la cdf resultante. Recuerde que la cdf es la probabilidad de que la
variable aleatoria Y sea menor que el valor leído en el eje horizontal.
(c) La media de Y :
µY = EY =
∑
y∈{1,3,9}
yfY (y) = 1
(
1
8
)
+ 3
(
3
8
)
+ 9
(
1
2
)
=
23
4
= 5,75.
También, µY se pudo haber determinado usando E [2X2 + 1] = 2E [X2] + 1. Donde
E [X2] se calcula como:
E
[
X2
]
= (−1)2 1
4
+ (0)2
1
8
+ (1)2
1
8
+ (2)2
1
2
= 2,375.
Luego, µY = 2× 2,375 + 1 = 5,75.
16
Y la varianza de Y :
σ2Y = Var (Y ) =
∑
y∈{1,3,9}
(y − µY )2 fY (y) =
= (1− 5,75)2 1
8
+ (3− 5,75)2 3
8
+ (9− 5,75)2 1
2
=
23
4
= 10,9375.
Luego, la desviación estándar sería σY = SD(y) =
√
10,9375 =3.3072.
Referencias
[1] F.M. Dekking, C. Kraaikampp, H.P. Lopuhaä, and L.E. Meester. A Modern Introduction
to Probability and Statistics: Understanding Why and How. Springer, 2005.
[2] Jay L. Devore. Probabilidad y estadistica para ingenieria y ciencias, Octava edicion.
Cengage Learning, Julio 2011.
17

Otros materiales