Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Lectura 13: Distribuciones de Probabilidad Conjuntas Estadística Enero 23, 2015 En lo visto hasta el momento, siempre estudiamos el caso de una sola variable aleatoria por separado. Sin embargo, muchas situaciones cotidianas envuelven una o más variables aleatorias y su interacción. Por ejemplo, para analizar el mercado de energía colombiano, no sólo la demanda de electricidad es aleatoria o incierta, sino que también los factores climáticos (o hidrología) afectan los resultados del análisis. Otra situación puede resultar en los modelos de fallas de dos o más componentes. En esta lectura cubriremos brevemente las distribuciones cuando dos variables aleatorias aparecen conjuntamente. 1. Distribuciones conjuntas de dos variables aleatorias La distribución conjunta de masa (densidad) de probabilidad de dos variables aleatorias indica la probabilidad (densidad) asociada a cada par de puntos de la forma (x, y). Es decir, un histograma o una pdf ya no es bidimensional sino tridimensional. Definición. La función fXY (x, y) es una distribución conjunta de probabilidad o una función de masa de probabilidad de las variables aleatorias discretas X y Y si 1. fXY (x, y) ≥ 0 para todo (x, y), 2. ∑ x ∑ y fXY (x, y) = 1, 3. P (X = x, Y = y) = fXY (x, y). 1 Para cualquier region A en el plano x− y, P [(X, Y ) ∈ A] = ∑∑ AfXY (x, y). En realidad, estamos expresando el evento {X = x ∩ Y = y} como {X = x, Y = y}. Es decir, por facilidad la notación de intersección ∩ la cambiamos por una coma (,). En el caso de variables continuas se tiene: Definición. La función fXY (x, y) es una función de densidad conjunta de las variables alea- torias discretas X y Y si 1. fXY (x, y) ≥ 0 para todo (x, y), 2. ∫∞ −∞ ∫∞ −∞ fXY (x, y) dx dy = 1, 3. P [(X, Y ) ∈ A] = ∫ ∫ A fXY (x, y) dx dy. 1.1. Distribuciones marginales También, dada f(x, y) es posible encontrar la distribución de cualquiera de las dos varia- bles aleatorias X o Y . Para encontrar la distribución de probabilidad de x se suma f(x, y) sobre todos los valores de y dejando x fija. Un procedimiento similar se realiza para encontrar la distribución de probabilidad de y. Definición. Las distribuciones marginales de X y Y denotadas por fX(x) y fY (y) respecti- vamente son fX (x) = ∑ y fX,Y (x, y) y fY (y) = ∑ x fX,Y (x, y) para el caso discreto, y fX (x) = ∫ ∞ −∞ fX,Y (x, y) dy y fY (y) = ∫ ∞ −∞ fX,Y (x, y) dx para el caso continuo. 2 Ejemplo 1. (Problema 3.49 de [2]). Sea X el número de veces que una máquina operará incorrectamente: 1, 2, o 3 veces en un día cualquiera. Sea Y el número de veces que un mecánico recibe una llamada de emergencia. La distribución de probabilidad conjunta es dada por fXY (x, y) x 1 2 3 y 1 0.05 0.05 0.10 3 0.05 0.10 0.35 5 0.00 0.20 0.10 (a) Encuentre P (X + Y ≤ 5). (b) Encuentre la distribución marginal de X. (c) Encuentre la distribución marginal de Y . Ejemplo 2. (Problema 3.44 de [2].) Se supone que cada llanta trasera de un avión experi- mental debe inflarse a una presión de 40 psi. Sea X la presión real de la llanta derecha y Y la presión real de la llanta izquierda. Suponga que X y Y son variables aleatorias con la función de densidad conjunta fXY (x, y) = k (x2 + y2) , 30 ≤ x < 50, 30 ≤ y < 50, 0, en caso contrario. (a) Encuentre k. (b) Encuentre P (30 ≤ x ≤ 40, 40 ≤ y < 50). (c) Encuentre la probabilidad de que la llanta izquierda tenga mayor presión que la llanta derecha. 3 1.2. Independencia estadística Ocurren situaciones donde X y Y son dependientes, i.e., la ocurrencia de una influencia la ocurrencia de la otra. Por ejemplo, sea X es el nivel de lluvias en una región específica, y sea Y es el caudal de agua que llega a un embalse. Resulta claro entonces que X y Y son variables aleatorias dependientes. Sin embargo, hay también muchas situaciones donde un conjunto de variables aleatorias son independientes. A continuación estudiaremos, desde el punto de vista probabilístico, cuándo dos variables aleatorias son independientes. La independencia facilita los cálculos de probabilidades, y por eso es frecuente asumir independencia en muchos estudios. Definición. Sean X y Y dos variables aleatorias, discretas o continuas, con distribución conjunta fXY (x, y). Se dice que X y Y son estadísticamente independientes si y sólo si fXY (x, y) = fX (x)fY (y) para todo (x, y). En el caso de dos variables aleatorias son discretas, si para un par de valores específico (x0, y0) se tiene que fXY (x0, y0) 6= fX(x0) fY (y0), se dice entonces que X y Y son dependien- tes. La anterior definición también aplica en el caso de tres o más variables aleatorias. Si la distribución de probabilidad conjunta se puede expresar como el producto de todas las distribuciones marginales de cada una de las variables aleatorias, entonces todas ellas son independientes. Ejemplo 3. (Problema 5.12 de [1].) Dos componentes de una minicomputadora tienen la siguiente función de densidad de probabilidad conjunta de sus vidas útiles X y Y : fXY (x, y) = xe−x(1+y), x ≥ 0 y y ≥ 0 0, en caso contrario. 4 (a) Cuál es la probabilidad de que la vida útil X del primer componente exceda de 3? (b) Cuáles son las funciones de densidad de probabilidad marginales de X y Y ? Son las dos vidas útiles independientes? Explique. (c) Cuál es la probabilidad de que la vida útil de por lo menos un componente exceda de 3? Ejemplo 4. (Ejemplo 5.8 de [1].) Suponga que los tiempos para falla de dos componentes eléctricos son independientes entre sí y exponencialmente distribuidos. El tiempo para falla del componente i lo denotamos por Xi con parámetro λi con i = 1, 2. (a) Encuentre la distribución de probabilidad conjunta. (b) Calcule la probabilidad de que ambas duraciones sean de por lo menos 1500 horas con λ1 = 1/1000 y λ2 = 1/1200. 1.3. Distribuciones condicionales Anteriormente habíamos hablado de los eventos y probabilidades condicionales, aunque de una manera no sistemática. Recordemos que el evento A|B significa que ya ha ocurrido un evento B antes del evento A. Así, P (A|B) determina qué tan probable es la ocurrencia de A sabiendo que ya ha ocurrido B. Por ejemplo, si preguntamos por la probabilidad de que una calle de la ciudad se inunde, seguramente tendremos un valor relativamente pequeño. Pero, si preguntamos por la misma probabilidad sabiendo que está lloviendo, entonces dicha probabilidad cambia y en este caso en particular es mayor. En general, teníamos que P (A|B) = P (A ∩B) P (B) , dado queP (B) > 0. Ahora retomaremos la probabilidad condicional en el ámbito de las distribuciones tanto discretas como continuas. 5 Definición. Sean X y Y dos variables aleatorias discretas o continuas. La probabilidad condicional de la variable aleatoria Y dada X = x es f(x|y) = fXY (x, y) fY (y) , dado que fY (y) > 0. También, f(y|x) = fXY (x, y) fX(x) , dado que fX(x) > 0. En el caso discreto se tiene que f(x|y) = P (X = x, Y = y) P (Y = y) , dado que P (Y = y) > 0. Ejemplo 5. (Problema 3.56 de [2].) La función de densidad conjunta de las variables alea- torias X y Y es fXY (x, y) = 6x, 0 < x < 1, 0 < y < 1− x, 0, en caso contrario. (a) Muestre que X y Y no son independientes. (b) Encuentre P (X > 0,3|Y = 0,5). 2. Valores esperados, covarianza y correlación 2.1. Valor esperado de una función El valor esperado de una variable que está conjuntamente distribuida con una o más variables aleatorias, se determina de la manera tradicional definida en clases anteriores. Es decir, se determina usando la distribución marginal de la variable correspondiente. En el caso de funciones que dependen de las variables aleatorias, se usa la pdf o pmf conjunta. Definición. Sean X y Y dos variables aleatorias conjuntamente distribuidas con pdf o pmf 6 fXY (x, y). Entonces el valor esperado de una función h(X, Y ), denotado por E [h(X, Y )], de dos o más variables aleatorias está dado por E [h(X, Y )] = ∑ x ∑ y h(x, y) fXY (x, y) para el casodiscreto. Y E [h(X, Y )] = ∫ ∞ −∞ ∫ ∞ −∞ h(x, y) fXY (x, y) dx dy para el caso continuo. Ejemplo 6. (Problema 27 del Capítulo 5 de [1].) Ana y Camila quedaron de encontrarse para desayunar entre las 12:00 pm y 1:00 pm. Denote la hora de llegada de Ana por X y la de Camila por Y , y suponga que X y Y son independientes con funciones de densidad de probabilidad fX (x) = 3x2, 0 ≤ x ≤ 1 0, en caso contrario fY (y) = 2y, 0 ≤ y ≤ 1 0, en caso contrario Cuál es la cantidad esperada de tiempo que la persona que llega primero debe esperar a la otra? 2.2. Covarianza La covarianza es una medida que diagnostica la relación existente entre dos variables aleatorias. 7 Definición. La covarianza entre dos variables aleatorias X y Y , denotada por Cov(X, Y ) o simplemente σXY es definida como Cov (X, Y ) = E [(X − µX)] (Y − µY ) = E (XY )− µXµY . En el caso discreto sería σXY (X, Y ) = ∑ x ∑ y (x− µX) (y − µY ) fXY (x, y). Y para el caso continuo: σXY (X, Y ) = ∫ ∞ −∞ ∫ ∞ −∞ (x− µX) (y − µY ) fXY (x, y) dx dy. En muchas ocasiones interesa el signo de la covarianza. Cuando σXY (X, Y ) > 0, es porque—en promedio—ambas variables aleatorias aumentan (o disminuyen) al mismo tiem- po. Cuando σXY (X, Y ) < 0, mientras una variable aumenta, la otra disminuye —en prome- dio. 2.3. Correlación Una de las desventajas de la covarianza es que depende de las unidades de X y Y . Por lo tanto, la magnitud de la covarianza no dice nada acerca de la potencial relación entre X y Y . Por esta razón, se ha definido la correlación, una cantidad adimensional que además de su signo, importa su magnitud. Definición. El coeficiente de correlación de X y Y está definido por ρXY = σXY σX σY . ρXY no tiene las unidades ni de X ni de Y . Además, satisface la desigualdad −1 ≤ ρXY ≤ 1. 8 Si ocurre que X y Y son independientes, entonces ρXY = 0. Lo opuesto no es necesa- riamente cierto. ρXY mide simplemente el grado de relación lineal existente entre las dos variables aleatorias. Por lo tanto, si ρXY = 0, se tiene entonces que no existe ninguna rela- ción lineal entre X y Y , pero podría existir una relación no lineal1. Y ρXY = 1 implica una relación lineal “pura” entre las dos variables aleatorias. Según [1], se puede afirmar que hay una relación fuerte si |ρ| ≥ 0,8, moderada si 0,5 < |ρ| < 0,8 y débil si |ρ| ≤ 0,5. Ejemplo 7. (Problema 22 del Capítulo 5 de [1].) Un instructor aplicó un corto examen compuesto de dos partes. Para un estudiante seleccionado al azar, sea X = el número de puntos obtenidos en la primera parte y Y = el número de puntos obtenidos en la segunda parte. Suponga que la función de masa de probabilidad conjunta de X y Y se da en la tabla adjunta. fXY (x, y) x 0 5 10 15 y 0 .02 .06 .02 .10 5 .04 .15 .20 .10 10 .01 .15 .14 .01 (a) Si la calificación anotada en la libreta de calificaciones es el número total de puntos obtenidos en las dos partes, cuál es la calificación esperada E(X + Y )? (b) Si se anota la máxima de las dos calificaciones, cuál es la calificación anotada esperada? (c) Calcule la covarianza y correlación de X y Y . Referencias [1] Jay L. Devore. Probabilidad y estadistica para ingenieria y ciencias, Octava edicion. Cengage Learning, Julio 2011. 1Los invito a estudiar el Ejemplo 5.18 de [1] para mejorar la comprensión en este tópico 9 [2] Ronald E. Walpole, Raymond H. Myers, Sharon L. Myers, and Keying Ye. Probability & statistics for engineers & scientists, 9th ed. Pearson, 2011. 10
Compartir