Logo Studenta

Clase 02 (Probabilidades)

¡Este material tiene más páginas!

Vista previa del material en texto

Econometŕıa I – EAE-250A
Fundamentos de Probabilidades
Jaime Casassus
Instituto de Econoḿıa
Pontificia Universidad Católica de Chile
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 1 / 44
Tabla de Contenidos
1 Variables aleatorias y distribuciones de probabilidad
2 Distribuciones conjuntas, condicionales e independencia
3 Caracterización de las FDP
4 La distribución normal y otras relacionadas
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 2 / 44
Variables aleatorias y distribuciones de probabilidad
• Una variable aleatoria es una función que toma valores reales, definida
sobre un espacio de probabilidad.
• Para cada variable aleatoria X y cada conjunto A de números reales,
se puede calcular la probabilidad de que X tome un valor en A.
• La colección de todas estas probabilidades es la distribución de X .
• Las variables aleatorias y distribuciones se pueden categorizar como
discretas o continuas.
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 3 / 44
Variables aleatorias discretas
• Las variables aleatorias discretas pueden asignar una probabilidad
positiva a un valor que esta pueda tomar.
• El ejemplo más sencillo es una variable aleatoria Bernoulli. Para
describirla basta la probabilidad de que asuma uno de los dos valores:
P[X = 1] = θ (P[X = 0] = 1− θ)
• En general, cualquier variable aleatoria discreta puede ser descrita
completamente enumerando sus posibles valores y la probabilidad
asociada a cada uno de éstos.
• Una variable aleatoria discreta puede ser caracterizada por su
distribución de probabilidad.
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 4 / 44
Distribuciones de probabilidad discretas
• Sea X una variable aleatoria discreta que puede tomar valores x1, x2, x3, . . . y
que estos se toman con probabilidades dadas por
P[X = xk ] para k = 1, 2, 3, . . .
• La Función de Distribución de Probabilidad (FDP) se define como
f (x) ≡ P[X = x ] para x = xk
y f (x) = 0 en caso contrario.
• En general, f (x) es una FDP si f (x) ≥ 0 y
∑
x f (x) = 1.
• Ejemplo: Suponga que X es el número de tiros libres logrados por un
basquetbolista en dos intentos y que la FDP de X está dada por
f (0) = 0.25, f (1) = 0.5 y f (2) = 0.25. ¿Cuál es la probabilidad de que el
jugador logre al menos uno de los dos tiros libres?
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 5 / 44
Variable aleatorias continuas y la FDA
• X es una variable aleatoria continua si toma un valor con probabilidad cero.
• No se puede establecer una relación uno a uno entre los posibles valores que
tomar una variable aleatoria continua y los números naturales.
• La Función de Distribución Acumulada (FDA) para una variable aleatoria X
está definida por
F (x) ≡ P[X ≤ x ] x ∈ R+.
• Una FDA tiene las siguientes propiedades:
◦ F (x) ≤ F (y) si x < y ,
◦ limx→−∞ F (x) = 0 y limx→+∞ F (x) = 1,
◦ limh→0+ F (x + h) = F (x) ∀x .
• ¿Puede ser F (x) una función discontinua?
• ¿Cómo es la probabilidad de que X se encuentre entre 2 valores a y b?
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 6 / 44
Tabla de Contenidos
1 Variables aleatorias y distribuciones de probabilidad
2 Distribuciones conjuntas, condicionales e independencia
3 Caracterización de las FDP
4 La distribución normal y otras relacionadas
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 7 / 44
Distribuciones conjuntas, condicionales e independencia
• En econoḿıa y en las ciencias sociales generalmente interesa la
ocurrencia de sucesos que comprenden más de una variable.
• Por ejemplo, ¿cuál es la probabilidad de permanecer en la pobreza y
de ser niño o niña? ¿Cuál es la probabilidad de permanecer en la
pobreza dado que se es niño o niña?
• La primera pregunta es un ejemplo de probabilidad conjunta, mientras
que la segunda, de probabilidad condicional.
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 8 / 44
Distribuciones conjuntas
• Sean X e Y variables aleatorias discretas.
• Su distribución conjunta queda descrita por completo por la función
de distribución de probabilidad conjunta de X e Y
fX ,Y (x , y) ≡ P(X = x ,Y = y).
• P(X = x ,Y = y) denota la probabilidad de que X = x y que Y = y .
• Si las variables aleatorias son continuas entonces
P(a ≤ X ≤ b, c ≤ Y ≤ d)
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 9 / 44
Funciones de distribución de probabilidad marginal
• Dada una función de distribución de probabilidad conjunta, las
funciones de distribución de probabilidad marginal se definen como:
fX (x) =
∑
y
fX ,Y (x , y)
fY (y) =
∑
x
fX ,Y (x , y)
• Ejemplo de retornos accionarios para los activos X e Y :
X Y
↓ -10% 1% 3% 20%
-50% 1/12 1/12 1/12 1/12
0% 1/6 1/12 0
+50% 1/6 1/12 0
• Dado que P[Y = 1%] = 1/4, determine las distribuciones de
probabilidad marginal.
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 10 / 44
Independencia
• Se dice que las variables X e Y son independientes si y sólo si
fX ,Y (x , y) = fX (x) · fY (y) ∀x , y
• Si X e Y son independientes, entonces las variables aleatorias g(X ) y
h(Y ) también lo son para toda función g y h.
• La distribución de probabilidad conjunta para variables aleatorias
discretas se escribe como f (x1, . . . , xn) = P(X1 = x1, . . . ,Xn = xn)
• Estas son independientes si y sólo si
f (x1, x2, . . . , xn) = fX1(x1) · fX2(x2) · . . . · fXn(xn).
• Esta definición también es válida para variables aleatorias continuas.
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 11 / 44
Sucesión de eventos independientes Bernoulli
• Considere el número de aciertos de una sucesión de eventos independientes
Bernoulli, por ejemplo, para la respuesta en una encuesta de hogares.
• Para cada i = 1, 2, ..., n sea Yi una variable aleatoria Bernoulli que indica si el
hogar i responde la encuesta:
Yi =
{
1 si el hogar i responde
0 en otro caso.
• La variable aleatoria de interés es el número de hogares que responden
X = Y1 + Y2 + . . .+ Yn
• Suponga que cada hogar tiene una probabilidad de responder θ y que las variables
Yi son independientes.
• Se puede demostrar que X tiene una distribución binominal dada por
f (x) =
(
n
x
)
θx(1− θ)n−x , x = 0, 1, 2, . . . , n.
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 12 / 44
Distribuciones condicionales
• La Función de Distribución de Probabilidad Condicional de una
variable aleatoria Y dado X está dada por el Teorema de Bayes
fY |X (y |x) =
fX ,Y (x , y)
fX (x)
• Si X e Y son independientes
fY |X (y |x) = fY (y), fX |Y (x |y) = fX (x).
• Determine las distribuciones condicionales para el ejemplo de retornos
accionarios.
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 13 / 44
Tabla de Contenidos
1 Variables aleatorias y distribuciones de probabilidad
2 Distribuciones conjuntas, condicionales e independencia
3 Caracterización de las FDP
4 La distribución normal y otras relacionadas
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 14 / 44
Caracterización de las FDP
• La Función de Distribución de Probabilidad (FDP) de una variable
aleatoria X contiene toda la información probabiĺıstica de X .
• Las medidas descriptivas de mayor interés de una FDP se dividen en
tres categoŕıas:
◦ Medidas de tendencia central
◦ Medidas de variabilidad o dispersión
◦ Medidas de asociación entre variables aleatorias
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 15 / 44
Medidas de tendencia central: el valor esperado
• El valor esperado o esperanza de una variable aleatoria X corresponde
al promedio ponderado de todos los posibles valores de X donde las
ponderaciones están determinadas por la FDP y se escribe
E [X ] ≡ µX
• Si X es una variable aleatoria discreta con FDP fX (x) entonces
E [X ] ≡
n∑
j=1
xj fX (xj)
• Si X es una variable aleatoria continua entonces
E [X ] ≡
∫ +∞
−∞
x fX (x)dx .
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 16 / 44
Medidas de tendencia central: el valor esperado (cont.)
• Dada una variable aleatoria X y una función g(·), podemos generar
una nueva variable aleatoriag(X ).
• El valor esperado de g(X ) también es un promedio ponderado
E [g(X )] =
n∑
j=1
g(xj)fX (xj).
• O para una variable aleatoria continua
E [g(X )] =
∫ +∞
−∞
g(x)fX (x)dx .
• Sea una variable aleatoria X que asume los valores 0, 1 y 2 con
probabilidades 0,25, 0,5 y 0,25, respectivamente. Sea g(X ) = X 2.
¿Cuál es el valor de E [X ]2? ¿Y de E [X 2]?
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 17 / 44
Medidas de tendencia central: el valor esperado (cont.)
• Si X e Y son variables aleatorias, entonces g(X ,Y ) es una variable
aleatoria para cualquier función g .
• Suponga que X e Y son v.a. discretas que toman los valores
x1, . . . , xn e y1, . . . , ym respectivamente.
• El valor esperado de g(X ,Y ) es
E [g(X ,Y )] =
n∑
i=1
m∑
j=1
g(xi , yj)fX ,Y (xi , yj),
donde fX ,Y es la FDP de (X ,Y ).
• Esta definición es extendible al caso continuo mediante integrales.
• Calcule E [X Y ] en el ejemplo de retornos accionarios.
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 18 / 44
Medidas de tendencia central: el valor esperado (cont.)
Propiedades del valor esperado
• E [c] = c ∀c ∈ R
• E [a X + b] = a E [X ] + b ∀a, b ∈ R
• E [
∑n
i=1 aiXi ] =
∑n
i=1 aiE [Xi ] ∀ai ∈ R
• En particular, si ai = 1 ∀i , E [
∑n
i=1 Xi ] =
∑n
i=1 E [Xi ]
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 19 / 44
Medidas de tendencia central: la mediana
• Otra medida de tendencia central es la mediana.
• Para una variable aleatoria X , su mediana, m, es el valor tal que una
mitad de la FDP se encuentra a la izquierda y la otra mitad a la
derecha.
• ¿Para toda FDP la mediana es única?
• ¿Qué medida de tendencia central es más informativa para la
distribución de ingresos?
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 20 / 44
Medidas de dispersión
• Aunque la media y la mediana son resúmenes útiles de una
distribución, no capturan suficiente información...
� x, y
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 21 / 44
Medidas de dispersión: la varianza
• Sea µ ≡ E [X ].
• La varianza de una variable aleatoria X se define como
Var [X ] ≡ E [(X − µ)2].
• La varianza se denota por σ2X o simplemente σ2.
• Note que σ2X = E [X 2 − 2µX + µ2] = E [X 2]− µ2.
• Var [X ] = 0 si y sólo si ∃c ∈ R tal que P(X = c) = 1.
• Var [a X + b] = a2Var [X ] ∀a, b ∈ R.
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 22 / 44
Medidas de dispersión: la desviación estándar
• La desviación estándar de una variable aleatoria es la ráız cuadrada
positiva de la varianza: σ[X ] ≡
√
Var [X ].
• La desviación estándar se denota por σX o simplemente σ.
• De las propiedades de la varianza se desprenden las dos siguientes:
◦ σ[c] = 0 ∀c ∈ R;
◦ σ[a X + b] = a σ[X ] ∀a, b ∈ R.
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 23 / 44
Estandarización de una variable aleatoria
• Suponga que, dada una variable aleatoria X , se define una nueva
variable restándole su media µ y dividiendo este resultado por su
desviación estándar σ
Z ≡ X − µ
σ
• ¿E [Z ]?
• ¿Var [Z ]?
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 24 / 44
Caracterización de las FDP conjuntas y condicionales
• Aunque la FDP conjunta de dos variables aleatorias describe
completamente la relación entre éstas, es más práctico trabajar con
medidas que resuman esta relación.
• Dos medidas de asociación básicas son la covarianza y la correlación,
que miden la asociación lineal entre dos variables.
• La esperanza condicional es una medida de asociación extendible a
relaciones no lineales entre variables aleatorias.
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 25 / 44
Medidas de asociación: la covarianza
• Sean X e Y variables aleatorias con µx ≡ E [X ] y µy ≡ E [Y ].
• Defina la variable aleatoria (X − µx)(Y − µy ).
• La covarianza entre las variables X e Y está dada por
Cov [X ,Y ] ≡ E [(X − µx)(Y − µy )], que también se denota por σXY .
• Si σXY > 0 entonces, en promedio, cuando X está por sobre su media,
también lo está Y ; por el contrario si σXY < 0, en promedio, cuando X está
por sobre su media, Y está por debajo.
• Se puede escribir escribir
Cov [X ,Y ] = E [(X − µx)(Y − µy )]
= E [(X − µx)Y ] = E [X (Y − µy )]
= E [X Y ]− µxµy
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 26 / 44
Medidas de asociación: la covarianza (cont.)
• La covarianza mide el grado de dependencia lineal entre dos variables
aleatorias.
• Propiedades de la covarianza:
• Si X e Y son independientes, entonces Cov [X ,Y ] = 0. ¿Es cierta la
relación inversa?
• Cov [a1X + b1, a2Y + b2] = a1a2Cov [X ,Y ] ∀a1, a2, b1, b2 ∈ R.
• |Cov [X ,Y ]| ≤ σ[X ]σ[Y ] (desigualdad de Cauchy-Schwartz).
• Interpretar la magnitud de la covarianza puede ser complicado.
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 27 / 44
Medidas de asociación: la correlación
• Una deficiencia de la covarianza es que depende de las unidades de
medida de las variables.
• La correlación, en cambio, es una medida adimensional
Corr(X ,Y ) ≡ Cov [X ,Y ]
σ[X ]σ[Y ]
≡ σXY
σXσY
.
• La correlación también se denota por ρXY .
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 28 / 44
Medidas de asociación: la correlación (cont.)
• Propiedades de la correlación:
◦ −1 ≤ Corr(X ,Y ) ≤ 1.
◦ Si Corr(X ,Y ) = 0 no hay una relación lineal entre X e Y y las
variables no están correlacionadas; en otro caso las variables śı están
correlacionadas.
◦ Si Corr(X ,Y ) = 1, entonces la correlación entre X e Y es perfecta.
◦ Si Corr(X ,Y ) = −1, entonces la correlación es perfecta negativa.
◦ Corr(a1X + b1, a2Y + b2) = Corr(X ,Y ) para ∀a1, a2, b1, b2 ∈ R tal
que a1a2 > 0.
◦ Corr(a1X + b1, a2Y + b2) = −Corr(X ,Y ) para ∀a1, a2, b1, b2 ∈ R tal
que a1a2 < 0.
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 29 / 44
Varianza de la suma de variables aleatorias
• A partir de la definición de covarianza, se puede enunciar las
siguientes propiedades adicionales de la varianza:
Var [a X + b Y ] = a2Var [X ] + b2Var [Y ] + 2a b Cov [X ,Y ] ∀a, b ∈ R
• Si X1,X2, ...,Xn son variables no correlacionadas en parejas
Var [
n∑
i=1
aiXi ] = a
2
i
n∑
i=1
Var [Xi ]
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 30 / 44
Momentos condicionales
• En ciencias sociales por lo general interesa explicar una variable Y
con otra X .
• Esta información se puede resumir en la esperanza condicional.
• Si Y es una variable aleatoria que asume los valores y1, y2, ..., ym
E [Y |x ] ≡
m∑
j=1
yj fY |X (yj |x).
• Esta definición es fácilmente generalizable a variables aleatorias
continuas mediante integrales.
• La varianza también puede ser condicional
Var [Y |X = x ] = E [Y 2|x ]− E [Y |x ]2
• Si X e Y son independientes, entonces Var [Y |X ] = Var [Y ].
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 31 / 44
Momentos condicionales (cont.)
Propiedades de la esperanza condicional:
• E [c(X )|X ] = c(X ) ∀ función c(X ).
• E [a(X )Y + b(X )|X ] = a(X )E [Y |X ] + b(X ).
• Si X e Y son independientes, entonces E [Y |X ] = E [Y ].
• E [E [Y |X ]] = E [Y ].
• E [E [Y |X ,Z ]|Z ] = E [Y |Z ].
• Si E [Y |X ] = E [Y ], entonces Cov [X ,Y ] = 0, y ninguna función de X
se correlaciona con Y .
• Si E [Y ]2 <∞ y E [g(X )2] <∞ para alguna función g , entonces
E [(Y − µ(X ))2|X ] ≤ E [(Y − g(X ))2|X ] y
E [(Y − µ(X ))2] ≤ E [Y − g(X )]2.
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 32 / 44
Ejemplo: cobre y tipo de cambio
Usted está interesado en estudiar la relación entre el tipo de cambio $/USD y el precio
del cobre. Considere que para el próximo periodo, la variación en el precio del cobre se
representa por la variable aleatoria X , mientras que la variación en el tipo de cambio se
representa por la variable aleatoria Y . Por simplicidad asuma una distribución Bernoulli
conjunta donde cada una de las variables aleatorias puede solamente subir o bajar 1%
con cierta probabilidad. Asuma que el cambio esperado en el precio del cobre, E [X ], es
0,2%, mientras que la variación esperada en eltipo de cambio, E [Y ], es 0%. Además,
usted sabe la probabilidad conjunta de que tanto el tipo de cambio como el cobre suban
un 1% cada uno es 20%, es decir, fX ,Y (X = 1%,Y = 1%) = 20%.
• Determine las distribuciones de probabilidad marginal para las variaciones del
precio del cobre y del tipo de cambio para el próximo periodo, fX (x) y fY (y),
respectivamente.
• Determine la distribución conjunta para las variaciones del precio del cobre y del
tipo de cambio para el próximo periodo, fX ,Y (x , y).
• Determine el valor esperado de la variación en el tipo de cambio condicional en el
cambio en el precio del cobre para el próximo periodo, E [Y |X = x ].
• Interprete los resultados obtenidos en la pregunta anterior desde un punto de vista
económico.
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 33 / 44
Tabla de Contenidos
1 Variables aleatorias y distribuciones de probabilidad
2 Distribuciones conjuntas, condicionales e independencia
3 Caracterización de las FDP
4 La distribución normal y otras relacionadas
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 34 / 44
La distribución normal
• La distribución normal y las que se derivan de ella son las más
empleadas en econometŕıa.
• Al suponer que las variables aleatorias distribuyen en forma normal
podemos simplificar mucho los cálculos probabiĺısticos.
• Una variable aleatoria normal es una variable aleatoria continua que
asume cualquier valor, siendo su FDP la conocida campana de Gauss:
� x
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 35 / 44
La distribución normal (cont.)
• Matemáticamente la FDP de X se escribe como
f (x) =
1
σ
√
2π
e
−(x−µ)2
2σ2 ,−∞ < x <∞,
donde µ = E [X ] y σ2 = Var [X ].
• Decimos que X tiene una distribución normal con media µ y varianza
σ2, y escribimos X ∼ N(µ, σ2).
• ¿Qué variables aleatorias distribuyen aproximadamente normal?
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 36 / 44
La distribución normal (cont.)
• Un caso especial de la distribución normal ocurre cuando la media es
cero y la varianza es uno.
• En este caso, la variable aleatoria, Z , tiene una distribución normal
estándar.
• Su FDP está dada por:
φ(z) =
1√
2π
e
−z2
2 ,−∞ < z <∞.
• La FDA de Z se denota por Φ(Z < z).
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 37 / 44
La distribución normal (cont.)
• Si X ∼ N(µ, σ2) entonces x−µσ ∼ N(0, 1).
• Si X ∼ N(µ, σ2) entonces a X + b ∼ N(aµ+ b, a2σ2), ∀a, b ∈ R.
• Si X e Y distribuyen normal en forma conjunta, entonces X e Y son
independientes si y solo si Cov [X ,Y ] = 0.
• Cualquier combinación lineal de variables independientes e
idénticamente distribuidas en forma normal, tiene una distribución
normal. En particular si Y1,Y2, . . . ,Yn
iid∼ N(µ, σ2) entonces
Y ∼ N(µ, σ2/n)
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 38 / 44
La distribución χ2
• La distribución χ2 se obtiene directamente de variables
independientes e idénticamente distribuidas en forma normal.
• Sean Z1,Z2, . . . ,Zn variables independientes e idénticamente
distribuidas en forma normal, y definamos
X ≡
n∑
i=1
Z 2i .
• Entonces X distribuye χ2 con n grados de libertad.
• En Estad́ıstica los grados de libertad se definen como el número de
términos libres en una sumatoria.
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 39 / 44
La distribución χ2 (cont.)
• La figura muestra la distribución χ2 para diversos grados de libertad.
x
f(x)
2
8
4
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 40 / 44
La distribución t
• Sea Z una variable aleatoria con distribución normal y X una variable
aleatoria con distribución χ2 con n grados de libertad.
• Además suponga que Z y X son independientes.
• Entonces, la variable aleatoria
T ≡ Z√
X/n
.
tiene una distribución t con n grados de libertad.
• Esto se denota como T ∼ tn.
• La distribución t hereda sus grados de libertad de la distribución χ2.
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 41 / 44
La distribución t (cont.)
• La distribución t tiene una forma similar a la de la normal, salvo por
sus colas que son más anchas (esto indica una mayor dispersión). A
medida que n→∞ la distribución t se aproxima a una normal.
24
2
1
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 42 / 44
La distribución F
• Sean X1 ∼ χ2n1 y X2 ∼ χ
2
n2 .
• Entonces la variable aleatoria
F ≡ X1/n1
X2/n2
tiene una distribución F con n1, n2 grados de libertad.
• Esto se denota como F ∼ Fn1,n2 .
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 43 / 44
La distribución F (cont.)
• La figura muestra la distribución F para tres pares de grados de
libertad.
x
f(x)
2, 8
6, 20
6, 8
Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 44 / 44
	Variables aleatorias y distribuciones de probabilidad
	Variables aleatorias y distribuciones de probabilidad
	Variables aleatorias discretas
	Distribuciones de probabilidad discretas
	Variable aleatorias continuas y la FDA
	Distribuciones conjuntas, condicionales e independencia
	Distribuciones conjuntas, condicionales e independencia
	Distribuciones conjuntas
	Funciones de distribución de probabilidad marginal
	Independencia
	Sucesión de eventos independientes Bernoulli
	Distribuciones condicionales
	Caracterización de las FDP
	Caracterización de las FDP
	Medidas de tendencia central: el valor esperado
	Medidas de tendencia central: la mediana
	Medidas de dispersión
	Medidas de dispersión: la varianza
	Medidas de dispersión: la desviación estándar
	Estandarización de una variable aleatoria
	Caracterización de las FDP conjuntas y condicionales
	Medidas de asociación: la covarianza
	Medidas de asociación: la correlación
	Varianza de la suma de variables aleatorias
	Momentos condicionales
	Ejemplo: cobre y tipo de cambio
	La distribución normal y otras relacionadas
	La distribución normal
	La distribución 2
	La distribución t
	La distribución F

Continuar navegando