Logo Studenta

Distribuciones de Probabilidad Conjuntas

¡Estudia con miles de materiales!

Vista previa del material en texto

Lectura 13: Distribuciones de Probabilidad Conjuntas
Estadística
Enero 23, 2015
En lo visto hasta el momento, siempre estudiamos el caso de una sola variable aleatoria
por separado. Sin embargo, muchas situaciones cotidianas envuelven una o más variables
aleatorias y su interacción. Por ejemplo, para analizar el mercado de energía colombiano,
no sólo la demanda de electricidad es aleatoria o incierta, sino que también los factores
climáticos (o hidrología) afectan los resultados del análisis. Otra situación puede resultar en
los modelos de fallas de dos o más componentes. En esta lectura cubriremos brevemente las
distribuciones cuando dos variables aleatorias aparecen conjuntamente.
1. Distribuciones conjuntas de dos variables aleatorias
La distribución conjunta de masa (densidad) de probabilidad de dos variables aleatorias
indica la probabilidad (densidad) asociada a cada par de puntos de la forma (x, y). Es decir,
un histograma o una pdf ya no es bidimensional sino tridimensional.
Definición. La función fXY (x, y) es una distribución conjunta de probabilidad o una función
de masa de probabilidad de las variables aleatorias discretas X y Y si
1. fXY (x, y) ≥ 0 para todo (x, y),
2.
∑
x
∑
y fXY (x, y) = 1,
3. P (X = x, Y = y) = fXY (x, y).
1
Para cualquier region A en el plano x− y, P [(X, Y ) ∈ A] =
∑∑
AfXY (x, y).
En realidad, estamos expresando el evento {X = x ∩ Y = y} como {X = x, Y = y}. Es decir,
por facilidad la notación de intersección ∩ la cambiamos por una coma (,). En el caso de
variables continuas se tiene:
Definición. La función fXY (x, y) es una función de densidad conjunta de las variables alea-
torias discretas X y Y si
1. fXY (x, y) ≥ 0 para todo (x, y),
2.
∫∞
−∞
∫∞
−∞ fXY (x, y) dx dy = 1,
3. P [(X, Y ) ∈ A] =
∫ ∫
A
fXY (x, y) dx dy.
1.1. Distribuciones marginales
También, dada f(x, y) es posible encontrar la distribución de cualquiera de las dos varia-
bles aleatorias X o Y . Para encontrar la distribución de probabilidad de x se suma f(x, y)
sobre todos los valores de y dejando x fija. Un procedimiento similar se realiza para encontrar
la distribución de probabilidad de y.
Definición. Las distribuciones marginales de X y Y denotadas por fX(x) y fY (y) respecti-
vamente son
fX (x) =
∑
y
fX,Y (x, y) y fY (y) =
∑
x
fX,Y (x, y)
para el caso discreto, y
fX (x) =
∫ ∞
−∞
fX,Y (x, y) dy y fY (y) =
∫ ∞
−∞
fX,Y (x, y) dx
para el caso continuo.
2
Ejemplo 1. (Problema 3.49 de [2]). Sea X el número de veces que una máquina operará
incorrectamente: 1, 2, o 3 veces en un día cualquiera. Sea Y el número de veces que un
mecánico recibe una llamada de emergencia. La distribución de probabilidad conjunta es
dada por
fXY (x, y) x
1 2 3
y
1 0.05 0.05 0.10
3 0.05 0.10 0.35
5 0.00 0.20 0.10
(a) Encuentre P (X + Y ≤ 5).
(b) Encuentre la distribución marginal de X.
(c) Encuentre la distribución marginal de Y .
Ejemplo 2. (Problema 3.44 de [2].) Se supone que cada llanta trasera de un avión experi-
mental debe inflarse a una presión de 40 psi. Sea X la presión real de la llanta derecha y
Y la presión real de la llanta izquierda. Suponga que X y Y son variables aleatorias con la
función de densidad conjunta
fXY (x, y) =

k (x2 + y2) , 30 ≤ x < 50, 30 ≤ y < 50,
0, en caso contrario.
(a) Encuentre k.
(b) Encuentre P (30 ≤ x ≤ 40, 40 ≤ y < 50).
(c) Encuentre la probabilidad de que la llanta izquierda tenga mayor presión que la llanta
derecha.
3
1.2. Independencia estadística
Ocurren situaciones donde X y Y son dependientes, i.e., la ocurrencia de una influencia
la ocurrencia de la otra. Por ejemplo, sea X es el nivel de lluvias en una región específica,
y sea Y es el caudal de agua que llega a un embalse. Resulta claro entonces que X y Y son
variables aleatorias dependientes. Sin embargo, hay también muchas situaciones donde un
conjunto de variables aleatorias son independientes.
A continuación estudiaremos, desde el punto de vista probabilístico, cuándo dos variables
aleatorias son independientes. La independencia facilita los cálculos de probabilidades, y por
eso es frecuente asumir independencia en muchos estudios.
Definición. Sean X y Y dos variables aleatorias, discretas o continuas, con distribución
conjunta fXY (x, y). Se dice que X y Y son estadísticamente independientes si y sólo si
fXY (x, y) = fX (x)fY (y)
para todo (x, y).
En el caso de dos variables aleatorias son discretas, si para un par de valores específico
(x0, y0) se tiene que fXY (x0, y0) 6= fX(x0) fY (y0), se dice entonces que X y Y son dependien-
tes.
La anterior definición también aplica en el caso de tres o más variables aleatorias. Si
la distribución de probabilidad conjunta se puede expresar como el producto de todas las
distribuciones marginales de cada una de las variables aleatorias, entonces todas ellas son
independientes.
Ejemplo 3. (Problema 5.12 de [1].) Dos componentes de una minicomputadora tienen la
siguiente función de densidad de probabilidad conjunta de sus vidas útiles X y Y :
fXY (x, y) =

xe−x(1+y), x ≥ 0 y y ≥ 0
0, en caso contrario.
4
(a) Cuál es la probabilidad de que la vida útil X del primer componente exceda de 3?
(b) Cuáles son las funciones de densidad de probabilidad marginales de X y Y ? Son las dos
vidas útiles independientes? Explique.
(c) Cuál es la probabilidad de que la vida útil de por lo menos un componente exceda de 3?
Ejemplo 4. (Ejemplo 5.8 de [1].) Suponga que los tiempos para falla de dos componentes
eléctricos son independientes entre sí y exponencialmente distribuidos. El tiempo para falla
del componente i lo denotamos por Xi con parámetro λi con i = 1, 2.
(a) Encuentre la distribución de probabilidad conjunta.
(b) Calcule la probabilidad de que ambas duraciones sean de por lo menos 1500 horas con
λ1 = 1/1000 y λ2 = 1/1200.
1.3. Distribuciones condicionales
Anteriormente habíamos hablado de los eventos y probabilidades condicionales, aunque
de una manera no sistemática. Recordemos que el evento A|B significa que ya ha ocurrido
un evento B antes del evento A. Así, P (A|B) determina qué tan probable es la ocurrencia de
A sabiendo que ya ha ocurrido B. Por ejemplo, si preguntamos por la probabilidad de que
una calle de la ciudad se inunde, seguramente tendremos un valor relativamente pequeño.
Pero, si preguntamos por la misma probabilidad sabiendo que está lloviendo, entonces dicha
probabilidad cambia y en este caso en particular es mayor. En general, teníamos que
P (A|B) = P (A ∩B)
P (B)
, dado queP (B) > 0.
Ahora retomaremos la probabilidad condicional en el ámbito de las distribuciones tanto
discretas como continuas.
5
Definición. Sean X y Y dos variables aleatorias discretas o continuas. La probabilidad
condicional de la variable aleatoria Y dada X = x es
f(x|y) = fXY (x, y)
fY (y)
, dado que fY (y) > 0.
También,
f(y|x) = fXY (x, y)
fX(x)
, dado que fX(x) > 0.
En el caso discreto se tiene que
f(x|y) = P (X = x, Y = y)
P (Y = y)
, dado que P (Y = y) > 0.
Ejemplo 5. (Problema 3.56 de [2].) La función de densidad conjunta de las variables alea-
torias X y Y es
fXY (x, y) =

6x, 0 < x < 1, 0 < y < 1− x,
0, en caso contrario.
(a) Muestre que X y Y no son independientes.
(b) Encuentre P (X > 0,3|Y = 0,5).
2. Valores esperados, covarianza y correlación
2.1. Valor esperado de una función
El valor esperado de una variable que está conjuntamente distribuida con una o más
variables aleatorias, se determina de la manera tradicional definida en clases anteriores. Es
decir, se determina usando la distribución marginal de la variable correspondiente. En el caso
de funciones que dependen de las variables aleatorias, se usa la pdf o pmf conjunta.
Definición. Sean X y Y dos variables aleatorias conjuntamente distribuidas con pdf o pmf
6
fXY (x, y). Entonces el valor esperado de una función h(X, Y ), denotado por E [h(X, Y )], de
dos o más variables aleatorias está dado por
E [h(X, Y )] =
∑
x
∑
y
h(x, y) fXY (x, y)
para el casodiscreto. Y
E [h(X, Y )] =
∫ ∞
−∞
∫ ∞
−∞
h(x, y) fXY (x, y) dx dy
para el caso continuo.
Ejemplo 6. (Problema 27 del Capítulo 5 de [1].) Ana y Camila quedaron de encontrarse
para desayunar entre las 12:00 pm y 1:00 pm. Denote la hora de llegada de Ana por X y la
de Camila por Y , y suponga que X y Y son independientes con funciones de densidad de
probabilidad
fX (x) =

3x2, 0 ≤ x ≤ 1
0, en caso contrario
fY (y) =

2y, 0 ≤ y ≤ 1
0, en caso contrario
Cuál es la cantidad esperada de tiempo que la persona que llega primero debe esperar a la
otra?
2.2. Covarianza
La covarianza es una medida que diagnostica la relación existente entre dos variables
aleatorias.
7
Definición. La covarianza entre dos variables aleatorias X y Y , denotada por Cov(X, Y ) o
simplemente σXY es definida como
Cov (X, Y ) = E [(X − µX)] (Y − µY ) = E (XY )− µXµY .
En el caso discreto sería
σXY (X, Y ) =
∑
x
∑
y
(x− µX) (y − µY ) fXY (x, y).
Y para el caso continuo:
σXY (X, Y ) =
∫ ∞
−∞
∫ ∞
−∞
(x− µX) (y − µY ) fXY (x, y) dx dy.
En muchas ocasiones interesa el signo de la covarianza. Cuando σXY (X, Y ) > 0, es
porque—en promedio—ambas variables aleatorias aumentan (o disminuyen) al mismo tiem-
po. Cuando σXY (X, Y ) < 0, mientras una variable aumenta, la otra disminuye —en prome-
dio.
2.3. Correlación
Una de las desventajas de la covarianza es que depende de las unidades de X y Y . Por
lo tanto, la magnitud de la covarianza no dice nada acerca de la potencial relación entre X
y Y . Por esta razón, se ha definido la correlación, una cantidad adimensional que además de
su signo, importa su magnitud.
Definición. El coeficiente de correlación de X y Y está definido por
ρXY =
σXY
σX σY
.
ρXY no tiene las unidades ni de X ni de Y . Además, satisface la desigualdad −1 ≤ ρXY ≤
1.
8
Si ocurre que X y Y son independientes, entonces ρXY = 0. Lo opuesto no es necesa-
riamente cierto. ρXY mide simplemente el grado de relación lineal existente entre las dos
variables aleatorias. Por lo tanto, si ρXY = 0, se tiene entonces que no existe ninguna rela-
ción lineal entre X y Y , pero podría existir una relación no lineal1. Y ρXY = 1 implica una
relación lineal “pura” entre las dos variables aleatorias.
Según [1], se puede afirmar que hay una relación fuerte si |ρ| ≥ 0,8, moderada si 0,5 <
|ρ| < 0,8 y débil si |ρ| ≤ 0,5.
Ejemplo 7. (Problema 22 del Capítulo 5 de [1].) Un instructor aplicó un corto examen
compuesto de dos partes. Para un estudiante seleccionado al azar, sea X = el número de
puntos obtenidos en la primera parte y Y = el número de puntos obtenidos en la segunda
parte. Suponga que la función de masa de probabilidad conjunta de X y Y se da en la tabla
adjunta.
fXY (x, y) x
0 5 10 15
y
0 .02 .06 .02 .10
5 .04 .15 .20 .10
10 .01 .15 .14 .01
(a) Si la calificación anotada en la libreta de calificaciones es el número total de puntos
obtenidos en las dos partes, cuál es la calificación esperada E(X + Y )?
(b) Si se anota la máxima de las dos calificaciones, cuál es la calificación anotada esperada?
(c) Calcule la covarianza y correlación de X y Y .
Referencias
[1] Jay L. Devore. Probabilidad y estadistica para ingenieria y ciencias, Octava edicion.
Cengage Learning, Julio 2011.
1Los invito a estudiar el Ejemplo 5.18 de [1] para mejorar la comprensión en este tópico
9
[2] Ronald E. Walpole, Raymond H. Myers, Sharon L. Myers, and Keying Ye. Probability &
statistics for engineers & scientists, 9th ed. Pearson, 2011.
10

Otros materiales