Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
EAS200a - Probabilidad y Estad́ıstica R. Aguila - M. I Vicuña - O. Ferreiro 2o Semestre 2017 Caṕıtulo 4 : , 1 Múltiples Variables Aleatorias Múltiples Variables Aleatorias Los conceptos esenciales definidos para una variable aleatoria pueden ser extendidos a dos o más con la correspondiente distribución de probabilidades conjunta. Considere por ejemplo dos variables aleatorias: I X , Precio mensual (promedio) del Petróleo, I Y , IPC. Aśı, el evento (X = x ,Y = y) se puede definir como (X = x ∩ Y = y), digamos evento conjunto, de igual forma el evento (X < x ,Y < y) puede definirse como el evento conjunto (X < x ∩ y < y) definido para el espacio Θxy de las variables aleatorias. : , 2 Múltiples Variables Aleatorias Múltiples Variables Aleatorias Distribución de Probabilidad Conjunta y Condicional Para el par de variables aleatorias X e Y se define la función de distribución de probabilidad acumulada como FX ,Y (x , y) = P(X ≤ x , Y ≤ y) La cual satisface la axiomática fundamental de probabilidades: I FX ,Y (−∞,−∞) = 0. I FX ,Y (−∞, y) = 0. I FX ,Y (x ,−∞) = 0. I FX ,Y (x ,+∞) = FX (x). I FX ,Y (+∞, y) = FY (y). I FX ,Y (+∞,+∞) = 1. : , 3 Múltiples Variables Aleatorias Múltiples Variables Aleatorias Distribución de Probabilidad Conjunta y Condicional Si las variables aleatorias X e Y son discretas, la función de distribución de probabilidad conjunta es pX ,Y (x , y) = P(X = x ,Y = y) siendo su función de distribución de probabilidad acumulada igual a FX ,Y (x , y) = P(X ≤ x ,Y ≤ y) = ∑ xi≤x ∑ yj≤y P(X = xi ,Y = yj), con (xi , yj) ∈ ΘX ,Y . : , 4 Múltiples Variables Aleatorias Múltiples Variables Aleatorias Distribución de Probabilidad Conjunta y Condicional Ahora, si las variables aleatorias X e Y son continuas, la función de de densidad de probabilidad conjunta se define como: fX ,Y (x , y) dx dy = P(x < X ≤ x + dx , y < Y ≤ y + dy) Entonces, FX ,Y (x , y) = ∫ x −∞ ∫ y −∞ fX ,Y (u, v) dv du. Si las derivadas parciales existen, entonces fX ,Y (x , y) = ∂2 ∂x ∂y FX ,Y (x , y) : , 5 Múltiples Variables Aleatorias Múltiples Variables Aleatorias Distribución de Probabilidad Conjunta y Condicional También, se puede observar que la siguiente probabilidad puede ser obtenida como P(a < X ≤ b, c < Y ≤ d) = ∫ b a ∫ d c fX ,Y (u, v) du dv que representa el volumen bajo la superficie fX ,Y (x , y) como se muestra en la figura. : , 6 Múltiples Variables Aleatorias Múltiples Variables Aleatorias Distribuciones Marginales y Condicionales Para variables aleatorias discretas X e Y , la probabilidad de (X = x) puede depender de los valores que puede tomar Y (viceversa). Con base a lo visto en probabilidades, se define la función de distribución de probabilidad condicional como: pX |Y=y (x) = P(X = x |Y = y) = pX ,Y (x , y) pY (y) , pY (y) > 0 De manera similar, se tiene que pY |X=x(y) = P(Y = y |X = x) = pX ,Y (x , y) pX (x) , pX (X ) > 0 : , 7 Múltiples Variables Aleatorias Múltiples Variables Aleatorias Distribuciones Marginales y Condicionales La distribución marginal de una variable aleatoria se puede obtener aplicando el teorema de probabilidades totales. Para determinar la distribución marginal de X , pX (x), tenemos que pX (x) = ∑ y∈ΘY pX |Y=y (x) · pY (y) = ∑ y∈ΘY pX ,Y (x , y) De la misma forma se tiene que pY (y) = ∑ x∈ΘX pX ,Y (x , y) : , 8 Múltiples Variables Aleatorias Múltiples Variables Aleatorias Distribuciones Marginales y Condicionales En el caso que ambas sean variables aleatorias continuas se define la función de densidad condicional de X dado que Y = y como fX |Y=y (x) = fX ,Y (x , y) fY (y) fY (y) > 0 De manera similar se tiene que fY |X=x(y) = fX ,Y (x , y) fX (x) fX (x) > 0 Las respectivas marginales se obtienen como sigue: fX (x) = ∫ ∞ −∞ fX ,Y (x , y) dy fY (y) = ∫ ∞ −∞ fX ,Y (x , y) dx : , 9 Múltiples Variables Aleatorias Múltiples Variables Aleatorias Distribuciones Marginales y Condicionales En el caso mixto, supongamos X discreta e Y continua, el calculo de las respectivas marginales es pX (x) = ∫ ∞ −∞ pX |Y=y (x) · fY (y) dy fY (y) = ∑ x∈ΘX fY |X=x(y) · pX (x) Ejercicio Control 6 [2011 - 01] : , 10 Múltiples Variables Aleatorias Múltiples Variables Aleatorias Distribuciones Marginales y Condicionales Independencia Sean X1,. . . , Xn variables aleatorias con función de distribución de probabilidad acumulada conjunta FX1,...,Xn(x1, . . . , xn) y funciones de probabilidad acumulada marginal FX1 (x1),. . . , FXn(xn) respectivamente. Diremos que las variables aleatorias X1,. . . , Xn con independientes si FX1,...,Xn(x1, . . . , xn) = FX1 (x1)× · · · × FXn(xn) para todo valor x1,. . . , xn. : , 11 Múltiples Variables Aleatorias Múltiples Variables Aleatorias Distribuciones Marginales y Condicionales Proposición Si X1,. . . , Xn son variables aleatoria discretas independientes si y sólo si P(X1 = x1, . . . ,Xn = xn) = P(X1 = x1)× · · · × P(Xn = xn) Si X1,. . . , Xn son variables aleatoria continuas independientes si y sólo si fX1,...,Xn(x1, . . . , xn) = fX1 (x1)× · · · × fXn(xn) Ejercicio Control 6 [2008 - 02] : , 12 Múltiples Variables Aleatorias Múltiples Variables Aleatorias Esperanza y Varianza Condicional Si X es una variable aleatoria condicional a la realización y de otra variable aleatoria Y , entonces, la distribución de probabilidad de X dependerá del valor que tome y (es un parámetro más). Entonces, las medidas descriptivas (Esperanza, Varianza, Mediana, entre otras) también dependerán del valor que tome y . : , 13 Múltiples Variables Aleatorias Múltiples Variables Aleatorias Esperanza y Varianza Condicional Ejemplo: Considere un autopista concesionada y un portico TAG en particular. Datos históricos indica que el p × 100% de los automóviles adulteran su placa patente para no pagar TAG. Suponga que en promedio pasan en una hora ν automóviles según un proceso de Poisson. Proponga una distribución conjunta para las siguientes variables aleatorias: I X : Número de veh́ıculos que pasan en una hora por el portico. I Y : Número de veh́ıculos que pasan con patente adulterada en una hora por el portico. : , 14 Múltiples Variables Aleatorias Múltiples Variables Aleatorias Esperanza y Varianza Condicional Tenemos que X ∼ Poisson(ν) y Y |X = x ∼ Binomial(x , p) Luego pX ,Y (x , y) = pY |X=x(y) · pX (x) = ( x y ) py (1− p)x−y · ν x e−ν x! ΘX ,Y = {(x , y) | x ∈ N0, y ∈ N0, y ≤ x}. Por probabilidades totales se tiene que Y ∼ Poisson(ν p) : , 15 Múltiples Variables Aleatorias Múltiples Variables Aleatorias Esperanza y Varianza Condicional I Teorema 1: E(Y ) = E (E [Y |X ]). I Teorema 2: Var(Y ) = Var(E[Y |X ]) + E(Var[Y |X ]). Ejercicio Hacer Problema 3 [Ex-2008-02] : , 16 Múltiples Variables Aleatorias Múltiples Variables Aleatorias Covarianza y Correlación Cuando hay dos variable aleatoria X e Y , puede haber una relación entre las variables. En particular, la presencia o ausencia de relación estad́ıstica lineal se determina observando el primer momento conjunto de X e Y definido como E (X Y ) = ∫ ∞ −∞ ∫ ∞ −∞ xy · fX ,Y (x , y) dx dy Si X e Y son estad́ısticamente independientes, entonces E (X Y ) = ∫ ∞ −∞ ∫ ∞ −∞ xy · fX (x) · fY (y) dx dy = E (X ) · E (Y ) : , 17 Múltiples Variables Aleatorias Múltiples Variables Aleatorias Covarianza y Correlación La covarianza corresponde al segundo momento central y se define como: Cov(X ,Y ) = E [(X − µX )(Y − µY )] = E (X · Y )− µX · µY Si X e Y son estad́ısticamente independientes, entonces Cov(X ,Y ) = 0 : , 18 Múltiples Variables Aleatorias Múltiples Variables Aleatorias Covarianza y Correlación El significado f́ısico de la covarianza se puede inferir de la ecuación anterior: I Si Cov(X ,Y ) es grande y positiva, los valores de X e Y tienden a ser grandes (o pequeños) en relación a sus respectivos medias. I Si Cov(X ,Y ) es grande y negativo, los valores deX tienden a ser grandes con respecto a su media, mientras que los de Y tienden a ser pequeños y viceversa. I Si Cov(X ,Y ) es pequeña o cero, la relación (lineal) entre los valores de X e Y es poca o nula, o bien la relación es No lineal. : , 19 Múltiples Variables Aleatorias Múltiples Variables Aleatorias Covarianza y Correlación La covarianza mide el grado de asociación lineal entre dos variables, pero es preferible su normalización llamada correlación para poder cuantificar la magnitud de la relación. La Correlación esta definida como: Corr(X ,Y ) = Cov(X ,Y ) σX · σY Este coeficiente toma valores en el intervalo (-1, 1). : , 20 Múltiples Variables Aleatorias Múltiples Variables Aleatorias Covarianza y Correlación : , 21 Múltiples Variables Aleatorias Múltiples Variables Aleatorias Covarianza y Correlación : , 22 Momentos de funciones de Variables Aleatorias Momentos de funciones de Variables Aleatorias Esperanza matemática de una función El valor esperado de una función de variables aleatorias se denomina esperanza matemática. Si Z = g(X1, . . . ,Xn), entonces la esperanza de Z puede ser obtenida como sigue: E (Z ) = ∫ ∞ −∞ · ∫ ∞ −∞ g(x1, . . . , xn) fX1,...,Xn(x1, . . . , xn) dxn · · · dx1 en el caso de variables aleatorias discretas, se sustituyen las integrales por sumas y la función de densidad por función de distribución de probabilidad (puntual). : , 23 Momentos de funciones de Variables Aleatorias Momentos de funciones de Variables Aleatorias Esperanza matemática de una función Las transformaciones lineales tiene propiedades interesantes que se verán a continuación. Sean X1, X2, . . . , Xn, Y1, Y2, . . . , Ym variables aleatorias y a0, a1, . . . , an, b0, b1, . . . , bm constantes conocidas. Muestre que I E ( a0 + n∑ i=1 ai · Xi ) = a0 + n∑ i=1 ai · E(Xi ). I Cov a0 + n∑ i=1 ai · Xi , b0 + m∑ j=1 bj · Yj = n∑ i=1 m∑ j=1 ai ·bj ·Cov (Xi ,Yj). : , 24 Momentos de funciones de Variables Aleatorias Momentos de funciones de Variables Aleatorias Esperanza matemática de una función I Var ( a0 + n∑ i=1 ai · Xi ) = n∑ i=1 n∑ j=1 ai · aj · Cov (Xi ,Xj). I Si X1, . . . , Xn son variables aleatorias independientes, entonces Var ( a0 + n∑ i=1 ai · Xi ) = n∑ i=1 a2i · Var (Xi ) : , 25 Distribuciones Usuales Distribuciones Usuales Distribución Normal Bivariada Dos variables aleatorias X e Y tienen distribución conjunta Normal-Bivariada si su función de densidad conjunta está dada por: fX,Y (x, y) = 1 2π σX σY √ 1 − ρ2 × exp { − 1 2(1 − ρ2) [( x − µX σX )2 + ( y − µY σY )2 − 2 ρ ( x − µX σX )( y − µY σY )]} Determine: fX (x), fY (y), fX |Y=y (x), fY |X=x(y) : , 26 Distribuciones Usuales Distribuciones Usuales Distribución Multinomial Considere n repeticiones independientes de un experimento que tiene k posibles resultados. Definamos como Xk al número de veces que se observo el resultado k-ésimo. Si cada resultado ocurre con probabilidad pi , con i = 1, . . . , k. Entonces Xi ∼ Binomial(n, pi ), para i = 1, . . . , n y (X1, . . . ,Xn) ∼ Multinomial(n, p1, . . . , pk) donde P(X1 = x1, . . . ,Xk = xk) = n! x1!× · · · × xk ! · px11 × · · · × p xk k con k∑ i=1 pi = 1 y k∑ i=1 xi = n : , 27 Múltiples Variables Aleatorias Distribución de Probabilidad Conjunta y Condicional Distribuciones Marginales y Condicionales Esperanza y Varianza Condicional Covarianza y Correlación Momentos de funciones de Variables Aleatorias Distribuciones Usuales Distribución Normal Bivariada Distribución Multinomial
Compartir