Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Econometŕıa I – EAE-250A Fundamentos de Probabilidades Jaime Casassus Instituto de Econoḿıa Pontificia Universidad Católica de Chile Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 1 / 44 Tabla de Contenidos 1 Variables aleatorias y distribuciones de probabilidad 2 Distribuciones conjuntas, condicionales e independencia 3 Caracterización de las FDP 4 La distribución normal y otras relacionadas Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 2 / 44 Variables aleatorias y distribuciones de probabilidad • Una variable aleatoria es una función que toma valores reales, definida sobre un espacio de probabilidad. • Para cada variable aleatoria X y cada conjunto A de números reales, se puede calcular la probabilidad de que X tome un valor en A. • La colección de todas estas probabilidades es la distribución de X . • Las variables aleatorias y distribuciones se pueden categorizar como discretas o continuas. Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 3 / 44 Variables aleatorias discretas • Las variables aleatorias discretas pueden asignar una probabilidad positiva a un valor que esta pueda tomar. • El ejemplo más sencillo es una variable aleatoria Bernoulli. Para describirla basta la probabilidad de que asuma uno de los dos valores: P[X = 1] = θ (P[X = 0] = 1− θ) • En general, cualquier variable aleatoria discreta puede ser descrita completamente enumerando sus posibles valores y la probabilidad asociada a cada uno de éstos. • Una variable aleatoria discreta puede ser caracterizada por su distribución de probabilidad. Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 4 / 44 Distribuciones de probabilidad discretas • Sea X una variable aleatoria discreta que puede tomar valores x1, x2, x3, . . . y que estos se toman con probabilidades dadas por P[X = xk ] para k = 1, 2, 3, . . . • La Función de Distribución de Probabilidad (FDP) se define como f (x) ≡ P[X = x ] para x = xk y f (x) = 0 en caso contrario. • En general, f (x) es una FDP si f (x) ≥ 0 y ∑ x f (x) = 1. • Ejemplo: Suponga que X es el número de tiros libres logrados por un basquetbolista en dos intentos y que la FDP de X está dada por f (0) = 0.25, f (1) = 0.5 y f (2) = 0.25. ¿Cuál es la probabilidad de que el jugador logre al menos uno de los dos tiros libres? Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 5 / 44 Variable aleatorias continuas y la FDA • X es una variable aleatoria continua si toma un valor con probabilidad cero. • No se puede establecer una relación uno a uno entre los posibles valores que tomar una variable aleatoria continua y los números naturales. • La Función de Distribución Acumulada (FDA) para una variable aleatoria X está definida por F (x) ≡ P[X ≤ x ] x ∈ R+. • Una FDA tiene las siguientes propiedades: ◦ F (x) ≤ F (y) si x < y , ◦ limx→−∞ F (x) = 0 y limx→+∞ F (x) = 1, ◦ limh→0+ F (x + h) = F (x) ∀x . • ¿Puede ser F (x) una función discontinua? • ¿Cómo es la probabilidad de que X se encuentre entre 2 valores a y b? Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 6 / 44 Tabla de Contenidos 1 Variables aleatorias y distribuciones de probabilidad 2 Distribuciones conjuntas, condicionales e independencia 3 Caracterización de las FDP 4 La distribución normal y otras relacionadas Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 7 / 44 Distribuciones conjuntas, condicionales e independencia • En econoḿıa y en las ciencias sociales generalmente interesa la ocurrencia de sucesos que comprenden más de una variable. • Por ejemplo, ¿cuál es la probabilidad de permanecer en la pobreza y de ser niño o niña? ¿Cuál es la probabilidad de permanecer en la pobreza dado que se es niño o niña? • La primera pregunta es un ejemplo de probabilidad conjunta, mientras que la segunda, de probabilidad condicional. Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 8 / 44 Distribuciones conjuntas • Sean X e Y variables aleatorias discretas. • Su distribución conjunta queda descrita por completo por la función de distribución de probabilidad conjunta de X e Y fX ,Y (x , y) ≡ P(X = x ,Y = y). • P(X = x ,Y = y) denota la probabilidad de que X = x y que Y = y . • Si las variables aleatorias son continuas entonces P(a ≤ X ≤ b, c ≤ Y ≤ d) Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 9 / 44 Funciones de distribución de probabilidad marginal • Dada una función de distribución de probabilidad conjunta, las funciones de distribución de probabilidad marginal se definen como: fX (x) = ∑ y fX ,Y (x , y) fY (y) = ∑ x fX ,Y (x , y) • Ejemplo de retornos accionarios para los activos X e Y : X Y ↓ -10% 1% 3% 20% -50% 1/12 1/12 1/12 1/12 0% 1/6 1/12 0 +50% 1/6 1/12 0 • Dado que P[Y = 1%] = 1/4, determine las distribuciones de probabilidad marginal. Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 10 / 44 Independencia • Se dice que las variables X e Y son independientes si y sólo si fX ,Y (x , y) = fX (x) · fY (y) ∀x , y • Si X e Y son independientes, entonces las variables aleatorias g(X ) y h(Y ) también lo son para toda función g y h. • La distribución de probabilidad conjunta para variables aleatorias discretas se escribe como f (x1, . . . , xn) = P(X1 = x1, . . . ,Xn = xn) • Estas son independientes si y sólo si f (x1, x2, . . . , xn) = fX1(x1) · fX2(x2) · . . . · fXn(xn). • Esta definición también es válida para variables aleatorias continuas. Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 11 / 44 Sucesión de eventos independientes Bernoulli • Considere el número de aciertos de una sucesión de eventos independientes Bernoulli, por ejemplo, para la respuesta en una encuesta de hogares. • Para cada i = 1, 2, ..., n sea Yi una variable aleatoria Bernoulli que indica si el hogar i responde la encuesta: Yi = { 1 si el hogar i responde 0 en otro caso. • La variable aleatoria de interés es el número de hogares que responden X = Y1 + Y2 + . . .+ Yn • Suponga que cada hogar tiene una probabilidad de responder θ y que las variables Yi son independientes. • Se puede demostrar que X tiene una distribución binominal dada por f (x) = ( n x ) θx(1− θ)n−x , x = 0, 1, 2, . . . , n. Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 12 / 44 Distribuciones condicionales • La Función de Distribución de Probabilidad Condicional de una variable aleatoria Y dado X está dada por el Teorema de Bayes fY |X (y |x) = fX ,Y (x , y) fX (x) • Si X e Y son independientes fY |X (y |x) = fY (y), fX |Y (x |y) = fX (x). • Determine las distribuciones condicionales para el ejemplo de retornos accionarios. Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 13 / 44 Tabla de Contenidos 1 Variables aleatorias y distribuciones de probabilidad 2 Distribuciones conjuntas, condicionales e independencia 3 Caracterización de las FDP 4 La distribución normal y otras relacionadas Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 14 / 44 Caracterización de las FDP • La Función de Distribución de Probabilidad (FDP) de una variable aleatoria X contiene toda la información probabiĺıstica de X . • Las medidas descriptivas de mayor interés de una FDP se dividen en tres categoŕıas: ◦ Medidas de tendencia central ◦ Medidas de variabilidad o dispersión ◦ Medidas de asociación entre variables aleatorias Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 15 / 44 Medidas de tendencia central: el valor esperado • El valor esperado o esperanza de una variable aleatoria X corresponde al promedio ponderado de todos los posibles valores de X donde las ponderaciones están determinadas por la FDP y se escribe E [X ] ≡ µX • Si X es una variable aleatoria discreta con FDP fX (x) entonces E [X ] ≡ n∑ j=1 xj fX (xj) • Si X es una variable aleatoria continua entonces E [X ] ≡ ∫ +∞ −∞ x fX (x)dx . Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 16 / 44 Medidas de tendencia central: el valor esperado (cont.) • Dada una variable aleatoria X y una función g(·), podemos generar una nueva variable aleatoriag(X ). • El valor esperado de g(X ) también es un promedio ponderado E [g(X )] = n∑ j=1 g(xj)fX (xj). • O para una variable aleatoria continua E [g(X )] = ∫ +∞ −∞ g(x)fX (x)dx . • Sea una variable aleatoria X que asume los valores 0, 1 y 2 con probabilidades 0,25, 0,5 y 0,25, respectivamente. Sea g(X ) = X 2. ¿Cuál es el valor de E [X ]2? ¿Y de E [X 2]? Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 17 / 44 Medidas de tendencia central: el valor esperado (cont.) • Si X e Y son variables aleatorias, entonces g(X ,Y ) es una variable aleatoria para cualquier función g . • Suponga que X e Y son v.a. discretas que toman los valores x1, . . . , xn e y1, . . . , ym respectivamente. • El valor esperado de g(X ,Y ) es E [g(X ,Y )] = n∑ i=1 m∑ j=1 g(xi , yj)fX ,Y (xi , yj), donde fX ,Y es la FDP de (X ,Y ). • Esta definición es extendible al caso continuo mediante integrales. • Calcule E [X Y ] en el ejemplo de retornos accionarios. Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 18 / 44 Medidas de tendencia central: el valor esperado (cont.) Propiedades del valor esperado • E [c] = c ∀c ∈ R • E [a X + b] = a E [X ] + b ∀a, b ∈ R • E [ ∑n i=1 aiXi ] = ∑n i=1 aiE [Xi ] ∀ai ∈ R • En particular, si ai = 1 ∀i , E [ ∑n i=1 Xi ] = ∑n i=1 E [Xi ] Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 19 / 44 Medidas de tendencia central: la mediana • Otra medida de tendencia central es la mediana. • Para una variable aleatoria X , su mediana, m, es el valor tal que una mitad de la FDP se encuentra a la izquierda y la otra mitad a la derecha. • ¿Para toda FDP la mediana es única? • ¿Qué medida de tendencia central es más informativa para la distribución de ingresos? Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 20 / 44 Medidas de dispersión • Aunque la media y la mediana son resúmenes útiles de una distribución, no capturan suficiente información... � x, y Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 21 / 44 Medidas de dispersión: la varianza • Sea µ ≡ E [X ]. • La varianza de una variable aleatoria X se define como Var [X ] ≡ E [(X − µ)2]. • La varianza se denota por σ2X o simplemente σ2. • Note que σ2X = E [X 2 − 2µX + µ2] = E [X 2]− µ2. • Var [X ] = 0 si y sólo si ∃c ∈ R tal que P(X = c) = 1. • Var [a X + b] = a2Var [X ] ∀a, b ∈ R. Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 22 / 44 Medidas de dispersión: la desviación estándar • La desviación estándar de una variable aleatoria es la ráız cuadrada positiva de la varianza: σ[X ] ≡ √ Var [X ]. • La desviación estándar se denota por σX o simplemente σ. • De las propiedades de la varianza se desprenden las dos siguientes: ◦ σ[c] = 0 ∀c ∈ R; ◦ σ[a X + b] = a σ[X ] ∀a, b ∈ R. Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 23 / 44 Estandarización de una variable aleatoria • Suponga que, dada una variable aleatoria X , se define una nueva variable restándole su media µ y dividiendo este resultado por su desviación estándar σ Z ≡ X − µ σ • ¿E [Z ]? • ¿Var [Z ]? Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 24 / 44 Caracterización de las FDP conjuntas y condicionales • Aunque la FDP conjunta de dos variables aleatorias describe completamente la relación entre éstas, es más práctico trabajar con medidas que resuman esta relación. • Dos medidas de asociación básicas son la covarianza y la correlación, que miden la asociación lineal entre dos variables. • La esperanza condicional es una medida de asociación extendible a relaciones no lineales entre variables aleatorias. Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 25 / 44 Medidas de asociación: la covarianza • Sean X e Y variables aleatorias con µx ≡ E [X ] y µy ≡ E [Y ]. • Defina la variable aleatoria (X − µx)(Y − µy ). • La covarianza entre las variables X e Y está dada por Cov [X ,Y ] ≡ E [(X − µx)(Y − µy )], que también se denota por σXY . • Si σXY > 0 entonces, en promedio, cuando X está por sobre su media, también lo está Y ; por el contrario si σXY < 0, en promedio, cuando X está por sobre su media, Y está por debajo. • Se puede escribir escribir Cov [X ,Y ] = E [(X − µx)(Y − µy )] = E [(X − µx)Y ] = E [X (Y − µy )] = E [X Y ]− µxµy Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 26 / 44 Medidas de asociación: la covarianza (cont.) • La covarianza mide el grado de dependencia lineal entre dos variables aleatorias. • Propiedades de la covarianza: • Si X e Y son independientes, entonces Cov [X ,Y ] = 0. ¿Es cierta la relación inversa? • Cov [a1X + b1, a2Y + b2] = a1a2Cov [X ,Y ] ∀a1, a2, b1, b2 ∈ R. • |Cov [X ,Y ]| ≤ σ[X ]σ[Y ] (desigualdad de Cauchy-Schwartz). • Interpretar la magnitud de la covarianza puede ser complicado. Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 27 / 44 Medidas de asociación: la correlación • Una deficiencia de la covarianza es que depende de las unidades de medida de las variables. • La correlación, en cambio, es una medida adimensional Corr(X ,Y ) ≡ Cov [X ,Y ] σ[X ]σ[Y ] ≡ σXY σXσY . • La correlación también se denota por ρXY . Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 28 / 44 Medidas de asociación: la correlación (cont.) • Propiedades de la correlación: ◦ −1 ≤ Corr(X ,Y ) ≤ 1. ◦ Si Corr(X ,Y ) = 0 no hay una relación lineal entre X e Y y las variables no están correlacionadas; en otro caso las variables śı están correlacionadas. ◦ Si Corr(X ,Y ) = 1, entonces la correlación entre X e Y es perfecta. ◦ Si Corr(X ,Y ) = −1, entonces la correlación es perfecta negativa. ◦ Corr(a1X + b1, a2Y + b2) = Corr(X ,Y ) para ∀a1, a2, b1, b2 ∈ R tal que a1a2 > 0. ◦ Corr(a1X + b1, a2Y + b2) = −Corr(X ,Y ) para ∀a1, a2, b1, b2 ∈ R tal que a1a2 < 0. Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 29 / 44 Varianza de la suma de variables aleatorias • A partir de la definición de covarianza, se puede enunciar las siguientes propiedades adicionales de la varianza: Var [a X + b Y ] = a2Var [X ] + b2Var [Y ] + 2a b Cov [X ,Y ] ∀a, b ∈ R • Si X1,X2, ...,Xn son variables no correlacionadas en parejas Var [ n∑ i=1 aiXi ] = a 2 i n∑ i=1 Var [Xi ] Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 30 / 44 Momentos condicionales • En ciencias sociales por lo general interesa explicar una variable Y con otra X . • Esta información se puede resumir en la esperanza condicional. • Si Y es una variable aleatoria que asume los valores y1, y2, ..., ym E [Y |x ] ≡ m∑ j=1 yj fY |X (yj |x). • Esta definición es fácilmente generalizable a variables aleatorias continuas mediante integrales. • La varianza también puede ser condicional Var [Y |X = x ] = E [Y 2|x ]− E [Y |x ]2 • Si X e Y son independientes, entonces Var [Y |X ] = Var [Y ]. Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 31 / 44 Momentos condicionales (cont.) Propiedades de la esperanza condicional: • E [c(X )|X ] = c(X ) ∀ función c(X ). • E [a(X )Y + b(X )|X ] = a(X )E [Y |X ] + b(X ). • Si X e Y son independientes, entonces E [Y |X ] = E [Y ]. • E [E [Y |X ]] = E [Y ]. • E [E [Y |X ,Z ]|Z ] = E [Y |Z ]. • Si E [Y |X ] = E [Y ], entonces Cov [X ,Y ] = 0, y ninguna función de X se correlaciona con Y . • Si E [Y ]2 <∞ y E [g(X )2] <∞ para alguna función g , entonces E [(Y − µ(X ))2|X ] ≤ E [(Y − g(X ))2|X ] y E [(Y − µ(X ))2] ≤ E [Y − g(X )]2. Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 32 / 44 Ejemplo: cobre y tipo de cambio Usted está interesado en estudiar la relación entre el tipo de cambio $/USD y el precio del cobre. Considere que para el próximo periodo, la variación en el precio del cobre se representa por la variable aleatoria X , mientras que la variación en el tipo de cambio se representa por la variable aleatoria Y . Por simplicidad asuma una distribución Bernoulli conjunta donde cada una de las variables aleatorias puede solamente subir o bajar 1% con cierta probabilidad. Asuma que el cambio esperado en el precio del cobre, E [X ], es 0,2%, mientras que la variación esperada en eltipo de cambio, E [Y ], es 0%. Además, usted sabe la probabilidad conjunta de que tanto el tipo de cambio como el cobre suban un 1% cada uno es 20%, es decir, fX ,Y (X = 1%,Y = 1%) = 20%. • Determine las distribuciones de probabilidad marginal para las variaciones del precio del cobre y del tipo de cambio para el próximo periodo, fX (x) y fY (y), respectivamente. • Determine la distribución conjunta para las variaciones del precio del cobre y del tipo de cambio para el próximo periodo, fX ,Y (x , y). • Determine el valor esperado de la variación en el tipo de cambio condicional en el cambio en el precio del cobre para el próximo periodo, E [Y |X = x ]. • Interprete los resultados obtenidos en la pregunta anterior desde un punto de vista económico. Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 33 / 44 Tabla de Contenidos 1 Variables aleatorias y distribuciones de probabilidad 2 Distribuciones conjuntas, condicionales e independencia 3 Caracterización de las FDP 4 La distribución normal y otras relacionadas Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 34 / 44 La distribución normal • La distribución normal y las que se derivan de ella son las más empleadas en econometŕıa. • Al suponer que las variables aleatorias distribuyen en forma normal podemos simplificar mucho los cálculos probabiĺısticos. • Una variable aleatoria normal es una variable aleatoria continua que asume cualquier valor, siendo su FDP la conocida campana de Gauss: � x Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 35 / 44 La distribución normal (cont.) • Matemáticamente la FDP de X se escribe como f (x) = 1 σ √ 2π e −(x−µ)2 2σ2 ,−∞ < x <∞, donde µ = E [X ] y σ2 = Var [X ]. • Decimos que X tiene una distribución normal con media µ y varianza σ2, y escribimos X ∼ N(µ, σ2). • ¿Qué variables aleatorias distribuyen aproximadamente normal? Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 36 / 44 La distribución normal (cont.) • Un caso especial de la distribución normal ocurre cuando la media es cero y la varianza es uno. • En este caso, la variable aleatoria, Z , tiene una distribución normal estándar. • Su FDP está dada por: φ(z) = 1√ 2π e −z2 2 ,−∞ < z <∞. • La FDA de Z se denota por Φ(Z < z). Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 37 / 44 La distribución normal (cont.) • Si X ∼ N(µ, σ2) entonces x−µσ ∼ N(0, 1). • Si X ∼ N(µ, σ2) entonces a X + b ∼ N(aµ+ b, a2σ2), ∀a, b ∈ R. • Si X e Y distribuyen normal en forma conjunta, entonces X e Y son independientes si y solo si Cov [X ,Y ] = 0. • Cualquier combinación lineal de variables independientes e idénticamente distribuidas en forma normal, tiene una distribución normal. En particular si Y1,Y2, . . . ,Yn iid∼ N(µ, σ2) entonces Y ∼ N(µ, σ2/n) Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 38 / 44 La distribución χ2 • La distribución χ2 se obtiene directamente de variables independientes e idénticamente distribuidas en forma normal. • Sean Z1,Z2, . . . ,Zn variables independientes e idénticamente distribuidas en forma normal, y definamos X ≡ n∑ i=1 Z 2i . • Entonces X distribuye χ2 con n grados de libertad. • En Estad́ıstica los grados de libertad se definen como el número de términos libres en una sumatoria. Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 39 / 44 La distribución χ2 (cont.) • La figura muestra la distribución χ2 para diversos grados de libertad. x f(x) 2 8 4 Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 40 / 44 La distribución t • Sea Z una variable aleatoria con distribución normal y X una variable aleatoria con distribución χ2 con n grados de libertad. • Además suponga que Z y X son independientes. • Entonces, la variable aleatoria T ≡ Z√ X/n . tiene una distribución t con n grados de libertad. • Esto se denota como T ∼ tn. • La distribución t hereda sus grados de libertad de la distribución χ2. Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 41 / 44 La distribución t (cont.) • La distribución t tiene una forma similar a la de la normal, salvo por sus colas que son más anchas (esto indica una mayor dispersión). A medida que n→∞ la distribución t se aproxima a una normal. 24 2 1 Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 42 / 44 La distribución F • Sean X1 ∼ χ2n1 y X2 ∼ χ 2 n2 . • Entonces la variable aleatoria F ≡ X1/n1 X2/n2 tiene una distribución F con n1, n2 grados de libertad. • Esto se denota como F ∼ Fn1,n2 . Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 43 / 44 La distribución F (cont.) • La figura muestra la distribución F para tres pares de grados de libertad. x f(x) 2, 8 6, 20 6, 8 Casassus (UC) EAE-250A - Econometŕıa I 4-Mar-16 44 / 44 Variables aleatorias y distribuciones de probabilidad Variables aleatorias y distribuciones de probabilidad Variables aleatorias discretas Distribuciones de probabilidad discretas Variable aleatorias continuas y la FDA Distribuciones conjuntas, condicionales e independencia Distribuciones conjuntas, condicionales e independencia Distribuciones conjuntas Funciones de distribución de probabilidad marginal Independencia Sucesión de eventos independientes Bernoulli Distribuciones condicionales Caracterización de las FDP Caracterización de las FDP Medidas de tendencia central: el valor esperado Medidas de tendencia central: la mediana Medidas de dispersión Medidas de dispersión: la varianza Medidas de dispersión: la desviación estándar Estandarización de una variable aleatoria Caracterización de las FDP conjuntas y condicionales Medidas de asociación: la covarianza Medidas de asociación: la correlación Varianza de la suma de variables aleatorias Momentos condicionales Ejemplo: cobre y tipo de cambio La distribución normal y otras relacionadas La distribución normal La distribución 2 La distribución t La distribución F
Compartir