Logo Studenta

Capitulo4 - Ariadna Deseusa Morales

¡Este material tiene más páginas!

Vista previa del material en texto

EAS200a - Probabilidad y Estad́ıstica
R. Aguila - M. I Vicuña - O. Ferreiro
2o Semestre 2017
Caṕıtulo 4
: , 1
Múltiples Variables Aleatorias
Múltiples Variables Aleatorias
Los conceptos esenciales definidos para una variable aleatoria pueden ser
extendidos a dos o más con la correspondiente distribución de
probabilidades conjunta.
Considere por ejemplo dos variables aleatorias:
I X , Precio mensual (promedio) del Petróleo,
I Y , IPC.
Aśı, el evento (X = x ,Y = y) se puede definir como (X = x ∩ Y = y),
digamos evento conjunto, de igual forma el evento (X < x ,Y < y) puede
definirse como el evento conjunto (X < x ∩ y < y) definido para el
espacio Θxy de las variables aleatorias.
: , 2
Múltiples Variables Aleatorias
Múltiples Variables Aleatorias
Distribución de Probabilidad Conjunta y Condicional
Para el par de variables aleatorias X e Y se define la función de
distribución de probabilidad acumulada como
FX ,Y (x , y) = P(X ≤ x , Y ≤ y)
La cual satisface la axiomática fundamental de probabilidades:
I FX ,Y (−∞,−∞) = 0.
I FX ,Y (−∞, y) = 0.
I FX ,Y (x ,−∞) = 0.
I FX ,Y (x ,+∞) = FX (x).
I FX ,Y (+∞, y) = FY (y).
I FX ,Y (+∞,+∞) = 1.
: , 3
Múltiples Variables Aleatorias
Múltiples Variables Aleatorias
Distribución de Probabilidad Conjunta y Condicional
Si las variables aleatorias X e Y son discretas, la función de distribución
de probabilidad conjunta es
pX ,Y (x , y) = P(X = x ,Y = y)
siendo su función de distribución de probabilidad acumulada igual a
FX ,Y (x , y) = P(X ≤ x ,Y ≤ y) =
∑
xi≤x
∑
yj≤y
P(X = xi ,Y = yj),
con (xi , yj) ∈ ΘX ,Y .
: , 4
Múltiples Variables Aleatorias
Múltiples Variables Aleatorias
Distribución de Probabilidad Conjunta y Condicional
Ahora, si las variables aleatorias X e Y son continuas, la función de de
densidad de probabilidad conjunta se define como:
fX ,Y (x , y) dx dy = P(x < X ≤ x + dx , y < Y ≤ y + dy)
Entonces,
FX ,Y (x , y) =
∫ x
−∞
∫ y
−∞
fX ,Y (u, v) dv du.
Si las derivadas parciales existen, entonces
fX ,Y (x , y) =
∂2
∂x ∂y
FX ,Y (x , y)
: , 5
Múltiples Variables Aleatorias
Múltiples Variables Aleatorias
Distribución de Probabilidad Conjunta y Condicional
También, se puede observar que la siguiente probabilidad puede ser
obtenida como
P(a < X ≤ b, c < Y ≤ d) =
∫ b
a
∫ d
c
fX ,Y (u, v) du dv
que representa el volumen bajo la superficie fX ,Y (x , y) como se muestra
en la figura.
: , 6
Múltiples Variables Aleatorias
Múltiples Variables Aleatorias
Distribuciones Marginales y Condicionales
Para variables aleatorias discretas X e Y , la probabilidad de (X = x)
puede depender de los valores que puede tomar Y (viceversa).
Con base a lo visto en probabilidades, se define la función de distribución
de probabilidad condicional como:
pX |Y=y (x) = P(X = x |Y = y) =
pX ,Y (x , y)
pY (y)
, pY (y) > 0
De manera similar, se tiene que
pY |X=x(y) = P(Y = y |X = x) =
pX ,Y (x , y)
pX (x)
, pX (X ) > 0
: , 7
Múltiples Variables Aleatorias
Múltiples Variables Aleatorias
Distribuciones Marginales y Condicionales
La distribución marginal de una variable aleatoria se puede obtener
aplicando el teorema de probabilidades totales.
Para determinar la distribución marginal de X , pX (x), tenemos que
pX (x) =
∑
y∈ΘY
pX |Y=y (x) · pY (y)
=
∑
y∈ΘY
pX ,Y (x , y)
De la misma forma se tiene que
pY (y) =
∑
x∈ΘX
pX ,Y (x , y)
: , 8
Múltiples Variables Aleatorias
Múltiples Variables Aleatorias
Distribuciones Marginales y Condicionales
En el caso que ambas sean variables aleatorias continuas se define la
función de densidad condicional de X dado que Y = y como
fX |Y=y (x) =
fX ,Y (x , y)
fY (y)
fY (y) > 0
De manera similar se tiene que
fY |X=x(y) =
fX ,Y (x , y)
fX (x)
fX (x) > 0
Las respectivas marginales se obtienen como sigue:
fX (x) =
∫ ∞
−∞
fX ,Y (x , y) dy
fY (y) =
∫ ∞
−∞
fX ,Y (x , y) dx
: , 9
Múltiples Variables Aleatorias
Múltiples Variables Aleatorias
Distribuciones Marginales y Condicionales
En el caso mixto, supongamos X discreta e Y continua, el calculo de las
respectivas marginales es
pX (x) =
∫ ∞
−∞
pX |Y=y (x) · fY (y) dy
fY (y) =
∑
x∈ΘX
fY |X=x(y) · pX (x)
Ejercicio Control 6 [2011 - 01]
: , 10
Múltiples Variables Aleatorias
Múltiples Variables Aleatorias
Distribuciones Marginales y Condicionales
Independencia
Sean X1,. . . , Xn variables aleatorias con función de distribución de
probabilidad acumulada conjunta FX1,...,Xn(x1, . . . , xn) y funciones de
probabilidad acumulada marginal FX1 (x1),. . . , FXn(xn) respectivamente.
Diremos que las variables aleatorias X1,. . . , Xn con independientes si
FX1,...,Xn(x1, . . . , xn) = FX1 (x1)× · · · × FXn(xn)
para todo valor x1,. . . , xn.
: , 11
Múltiples Variables Aleatorias
Múltiples Variables Aleatorias
Distribuciones Marginales y Condicionales
Proposición
Si X1,. . . , Xn son variables aleatoria discretas independientes si y sólo si
P(X1 = x1, . . . ,Xn = xn) = P(X1 = x1)× · · · × P(Xn = xn)
Si X1,. . . , Xn son variables aleatoria continuas independientes si y sólo si
fX1,...,Xn(x1, . . . , xn) = fX1 (x1)× · · · × fXn(xn)
Ejercicio Control 6 [2008 - 02]
: , 12
Múltiples Variables Aleatorias
Múltiples Variables Aleatorias
Esperanza y Varianza Condicional
Si X es una variable aleatoria condicional a la realización y de otra
variable aleatoria Y , entonces, la distribución de probabilidad de X
dependerá del valor que tome y (es un parámetro más).
Entonces, las medidas descriptivas (Esperanza, Varianza, Mediana, entre
otras) también dependerán del valor que tome y .
: , 13
Múltiples Variables Aleatorias
Múltiples Variables Aleatorias
Esperanza y Varianza Condicional
Ejemplo: Considere un autopista concesionada y un portico TAG en
particular.
Datos históricos indica que el p × 100% de los automóviles adulteran su
placa patente para no pagar TAG. Suponga que en promedio pasan en
una hora ν automóviles según un proceso de Poisson.
Proponga una distribución conjunta para las siguientes variables
aleatorias:
I X : Número de veh́ıculos que pasan en una hora por el portico.
I Y : Número de veh́ıculos que pasan con patente adulterada en una
hora por el portico.
: , 14
Múltiples Variables Aleatorias
Múltiples Variables Aleatorias
Esperanza y Varianza Condicional
Tenemos que
X ∼ Poisson(ν) y Y |X = x ∼ Binomial(x , p)
Luego
pX ,Y (x , y) = pY |X=x(y) · pX (x)
=
(
x
y
)
py (1− p)x−y · ν
x e−ν
x!
ΘX ,Y = {(x , y) | x ∈ N0, y ∈ N0, y ≤ x}.
Por probabilidades totales se tiene que
Y ∼ Poisson(ν p)
: , 15
Múltiples Variables Aleatorias
Múltiples Variables Aleatorias
Esperanza y Varianza Condicional
I Teorema 1: E(Y ) = E (E [Y |X ]).
I Teorema 2: Var(Y ) = Var(E[Y |X ]) + E(Var[Y |X ]).
Ejercicio Hacer Problema 3 [Ex-2008-02]
: , 16
Múltiples Variables Aleatorias
Múltiples Variables Aleatorias
Covarianza y Correlación
Cuando hay dos variable aleatoria X e Y , puede haber una relación entre
las variables.
En particular, la presencia o ausencia de relación estad́ıstica lineal se
determina observando el primer momento conjunto de X e Y definido
como
E (X Y ) =
∫ ∞
−∞
∫ ∞
−∞
xy · fX ,Y (x , y) dx dy
Si X e Y son estad́ısticamente independientes, entonces
E (X Y ) =
∫ ∞
−∞
∫ ∞
−∞
xy · fX (x) · fY (y) dx dy = E (X ) · E (Y )
: , 17
Múltiples Variables Aleatorias
Múltiples Variables Aleatorias
Covarianza y Correlación
La covarianza corresponde al segundo momento central y se define como:
Cov(X ,Y ) = E [(X − µX )(Y − µY )] = E (X · Y )− µX · µY
Si X e Y son estad́ısticamente independientes, entonces
Cov(X ,Y ) = 0
: , 18
Múltiples Variables Aleatorias
Múltiples Variables Aleatorias
Covarianza y Correlación
El significado f́ısico de la covarianza se puede inferir de la ecuación
anterior:
I Si Cov(X ,Y ) es grande y positiva, los valores de X e Y tienden a
ser grandes (o pequeños) en relación a sus respectivos medias.
I Si Cov(X ,Y ) es grande y negativo, los valores deX tienden a ser
grandes con respecto a su media, mientras que los de Y tienden a
ser pequeños y viceversa.
I Si Cov(X ,Y ) es pequeña o cero, la relación (lineal) entre los valores
de X e Y es poca o nula, o bien la relación es No lineal.
: , 19
Múltiples Variables Aleatorias
Múltiples Variables Aleatorias
Covarianza y Correlación
La covarianza mide el grado de asociación lineal entre dos variables, pero
es preferible su normalización llamada correlación para poder cuantificar
la magnitud de la relación.
La Correlación esta definida como:
Corr(X ,Y ) =
Cov(X ,Y )
σX · σY
Este coeficiente toma valores en el intervalo (-1, 1).
: , 20
Múltiples Variables Aleatorias
Múltiples Variables Aleatorias
Covarianza y Correlación
: , 21
Múltiples Variables Aleatorias
Múltiples Variables Aleatorias
Covarianza y Correlación
: , 22
Momentos de funciones de Variables Aleatorias
Momentos de funciones de Variables Aleatorias
Esperanza matemática de una función
El valor esperado de una función de variables aleatorias se denomina
esperanza matemática.
Si Z = g(X1, . . . ,Xn), entonces la esperanza de Z puede ser obtenida
como sigue:
E (Z ) =
∫ ∞
−∞
·
∫ ∞
−∞
g(x1, . . . , xn) fX1,...,Xn(x1, . . . , xn) dxn · · · dx1
en el caso de variables aleatorias discretas, se sustituyen las integrales por
sumas y la función de densidad por función de distribución de
probabilidad (puntual).
: , 23
Momentos de funciones de Variables Aleatorias
Momentos de funciones de Variables Aleatorias
Esperanza matemática de una función
Las transformaciones lineales tiene propiedades interesantes que se verán
a continuación.
Sean X1, X2, . . . , Xn, Y1, Y2, . . . , Ym variables aleatorias y a0, a1, . . . ,
an, b0, b1, . . . , bm constantes conocidas.
Muestre que
I E
(
a0 +
n∑
i=1
ai · Xi
)
= a0 +
n∑
i=1
ai · E(Xi ).
I Cov
a0 + n∑
i=1
ai · Xi , b0 +
m∑
j=1
bj · Yj
 = n∑
i=1
m∑
j=1
ai ·bj ·Cov (Xi ,Yj).
: , 24
Momentos de funciones de Variables Aleatorias
Momentos de funciones de Variables Aleatorias
Esperanza matemática de una función
I Var
(
a0 +
n∑
i=1
ai · Xi
)
=
n∑
i=1
n∑
j=1
ai · aj · Cov (Xi ,Xj).
I Si X1, . . . , Xn son variables aleatorias independientes, entonces
Var
(
a0 +
n∑
i=1
ai · Xi
)
=
n∑
i=1
a2i · Var (Xi )
: , 25
Distribuciones Usuales
Distribuciones Usuales
Distribución Normal Bivariada
Dos variables aleatorias X e Y tienen distribución conjunta
Normal-Bivariada si su función de densidad conjunta está dada por:
fX,Y (x, y) =
1
2π σX σY
√
1 − ρ2
×
exp
{
−
1
2(1 − ρ2)
[(
x − µX
σX
)2
+
(
y − µY
σY
)2
− 2 ρ
(
x − µX
σX
)(
y − µY
σY
)]}
Determine:
fX (x), fY (y), fX |Y=y (x), fY |X=x(y)
: , 26
Distribuciones Usuales
Distribuciones Usuales
Distribución Multinomial
Considere n repeticiones independientes de un experimento que tiene k
posibles resultados. Definamos como Xk al número de veces que se
observo el resultado k-ésimo.
Si cada resultado ocurre con probabilidad pi , con i = 1, . . . , k.
Entonces
Xi ∼ Binomial(n, pi ), para i = 1, . . . , n
y
(X1, . . . ,Xn) ∼ Multinomial(n, p1, . . . , pk)
donde
P(X1 = x1, . . . ,Xk = xk) =
n!
x1!× · · · × xk !
· px11 × · · · × p
xk
k
con
k∑
i=1
pi = 1 y
k∑
i=1
xi = n
: , 27
	Múltiples Variables Aleatorias
	Distribución de Probabilidad Conjunta y Condicional
	Distribuciones Marginales y Condicionales
	Esperanza y Varianza Condicional
	Covarianza y Correlación
	Momentos de funciones de Variables Aleatorias
	Distribuciones Usuales
	Distribución Normal Bivariada
	Distribución Multinomial

Continuar navegando