Vista previa del material en texto
Consideremos un experimento aleatorio cuyo resultado es que ocurra uno y sólo uno de los eventos A1, A2, . . . , Am con probabilidades constantes pi = P(Ai), i = 1, . . . ,m y tal que p1+p2+· · ·+pm = 1. Supongamos que se realizan n repeticiones independientes del experimento. Sean por ejemplo, m = 4 y n = 10. Entonces un resultado posible al repetir 10 veces el experimento es A3, A2, A2, A4, A1, A1, A1, A3, A4, A3 La probabilidad de este resultado, siendo independientes las n repeticiones, es p31p 2 2p 3 3p 2 4. La misma probabilidad tiene cualquiera de las 10! 3!2!3!2! permutaciones de la secuencia de 10 eventos del ejemplo. Por lo tanto, la probabilidad de que al realizar 10 veces el experimento ocurra 3 veces A1, 2 veces A2, 3 veces A3 y 2 veces A4 es 10! 3!2!3!2! p31p 2 2p 3 3p 2 4. Sean las variables X1, X2, . . . , Xm tal que para i = 1, . . . ,m, Xi representa el número de veces que ocurre Ai en las n repeticiones del experimento. Entonces P(X1 = x1, X2 = x2, . . . , Xm = xm) = n! x1!x2! . . . xm! px11 p x2 2 . . . p xm m (1) con 0 ≤ xi ≤ n, i = 1, . . . ,m y tal que x1+x2+ · · ·+xm = n. Decimos que el vector (X1, X2, . . . , Xm) tiene una distribución multinomial de parámetros n, p1, p2, . . . , pm si su función de probabilidad con- junta está dada por (1). Según están definidos el experimento y las variables Xi, las distribuciones de probabilidad marginales resultan binomiales. Esto es (X1, X2, . . . , Xm) ∼ multinomial(n, p1, p2, . . . , pm) → Xi ∼ binomial(n, pi) (2) para i = 1, 2, . . . ,m. Si condicionamos al valor de una de las variables, la distribución conjunta de las restantes variables es también multinomial. Como ejemplo, tomemos nuevamente m = 4, n = 10 y consideremos la distribución de (X1, X2, X3)|X4 = 2. La condición X4 = 2 significa que el evento A4 ocurrió exactamente en 2 de las 10 realizaciones del experimento y por lo tanto en las 8 restantes sólo pueden ocurrir A1, A2 o A3. Para estos eventos, las probabilidades en cada una de las 8 repeticiones son q1 = P(A1|Ac4) = p1/(1− p4), q2 = P(A2|Ac4) = p2/(1− p4) y q3 = P(A3|Ac4) = p3/(1− p4) y por lo tanto es (X1, X2, X3)|X4 = 2 ∼ multinomial(8, q1, q2, q3). En general (X1, . . . , Xm) ∼ multinomial(n, p1, . . . , pm)→ (Xi, . . . )︸ ︷︷ ︸ i 6=j |Xj = x ∼ multinomial(n− x, qi, . . . ) (3) donde cada probabilidad qi es pi/(1 − pj). Por (2), las variables Xi condicionadas por Xj = x con i 6= j resultan binomiales: (X1, . . . , Xm) ∼ multinomial(n, p1, . . . , pm)→ Xi|Xj = x ∼ binomial ( n− x, pi 1− pj ) , i 6= j (4) 1 MULTINOMIAL - MATRIZ DE COVARIANZAS Vamos ahora a calcular la covarianza entre dos variables de una distribución multinomial. Sea por ejemplo (X1, X2, X3, X4) ∼ multinomial(n, p1, p2, p3, p4) y supongamos que se quiere calcular cov(X1, X4) = E[X1X4] − E[X1]E[X4]. De (2) sabemos que es E[X1] = np1 y E[X4] = np4. Para calcular el valor esperado del producto hacemos: E[X4X1] = E[X4E[X1|X4]] (5) Por (4) sabemos que es X1|X4 = x ∼ binomial ( n− x, p1 1−p4 ) . Por lo tanto: E[X1|X4 = x] = (n−x)p11−p4 . Resulta entonces E[X1|X4] = (n−X4)p11−p4 . Remmplazando en (5): E[X4X1] = E [(n−X4)p1X4 1− p4 ] = 1 1− p4 E[np1X4 − p1X24 ] = 1 1− p4 ( np1E[X4]− p1E[X24 ] ) (6) De (2): E[X24 ] = var(X4) + E 2[X4] = np4(1− p4) + n2p24. Reemplazando en (6) y operando: E[X1X4] = n2p1p4 − np1p4(1− p4)− n2p1p24 1− p4 = n2p1p4(1− p4)− np1p4(1− p4) 1− p4 = n2p1p4 − np1p4 Finalmente: cov(X1, X4) = −np1p4. Más generalmente: (X1, . . . , Xm) ∼ multinomial(n, p1, . . . , pm)→ cov(Xi, Xj) = −npipj para i 6= j La covarianza entre dos variables distintas en esta distribución resulta siempre negativa, resultado previsible ya que si una de las variables crece la otra en general decrece. Si i = j, se tiene que cov(Xi, Xi) = var(Xi) = npi(1− pi). La matriz de covarianzas de un vector aleatorio (X1, X2, . . . , Xm) es una matriz C = (cij) de orden m×m con elementos cij = cov(Xi, Xj). Utilizar todo lo visto aqúı para resolver el ejercicio 6.18 de la Gúıa de TP. 2 MULTINOMIAL - MATRIZ DE COVARIANZAS