Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Econometŕıa I – EAE-250A Probabilidad y Estad́ıstica Jaime Casassus Instituto de Econoḿıa Pontificia Universidad Católica de Chile Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Tabla de Contenidos 1 Fundamentos de Probabilidades 2 Fundamentos de estad́ıstica Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Variables aleatorias y distribuciones de probabilidad • Una variable aleatoria es una función que toma valores reales, definida sobre un espacio de probabilidad. • Para cada variable aleatoria X y cada conjunto A de números reales, se puede calcular la probabilidad de que X tome un valor en A. • La colección de todas estas probabilidades es la distribución de X . • Sea X una variable aleatoria discreta que toma valores xk con probabilidad P[X = xk ]. Su Función de Distribución de Probabilidad (FDP) es f (x) ≡ P[X = xk ] y f (x) = 0 en caso contrario. • Sea X una variable aleatoria continua. La Función de Distribución Acumulada (FDA) se define como F (x) ≡ P[X ≤ x ] x ∈ R+. • No se puede establecer una relación uno a uno entre los posibles valores que tomar una variable aleatoria continua y los números naturales. • Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Distribuciones conjuntas, condicionales e independencia • En econoḿıa y en las ciencias sociales generalmente interesa la ocurrencia de sucesos que comprenden más de una variable. • Por ejemplo, ¿cuál es la probabilidad de permanecer en la pobreza y de ser niño o niña? ¿Cuál es la probabilidad de permanecer en la pobreza dado que se es niño o niña? • La primera pregunta es un ejemplo de probabilidad conjunta, mientras que la segunda, de probabilidad condicional. Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Distribuciones conjuntas • Sean X e Y variables aleatorias discretas. • Su distribución conjunta queda descrita por completo por la función de distribución de probabilidad conjunta de X e Y fX ,Y (x , y) ≡ P(X = x ,Y = y). • P(X = x ,Y = y) denota la probabilidad de que X = x y que Y = y . • Si las variables aleatorias son continuas entonces P(a ≤ X ≤ b, c ≤ Y ≤ d) • Se dice que las variables X e Y son independientes si y sólo si fX ,Y (x , y) = fX (x) · fY (y) ∀x , y Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Funciones de distribución de probabilidad marginal • Dada una función de distribución de probabilidad conjunta, las funciones de distribución de probabilidad marginal se definen como: fX (x) = ∑ y fX ,Y (x , y) fY (y) = ∑ x fX ,Y (x , y) • Ejemplo de retornos accionarios para los activos X e Y : X Y ↓ -10% 10% -20% 1/8 +20% 1/4 • Dado que P[Y = 10%] = 1/4, determine las distribuciones de probabilidad marginal. Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Distribuciones condicionales • La Función de Distribución de Probabilidad Condicional de una variable aleatoria Y dado X está dada por el Teorema de Bayes fY |X (y |x) = fX ,Y (x , y) fX (x) • Si X e Y son independientes fY |X (y |x) = fY (y), fX |Y (x |y) = fX (x). • Determine las distribuciones condicionales para el ejemplo de retornos accionarios. Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Caracterización de las FDP • La Función de Distribución de Probabilidad (FDP) de una variable aleatoria X contiene toda la información probabiĺıstica de X . • Las medidas descriptivas de mayor interés de una FDP se dividen en tres categoŕıas: ◦ Medidas de tendencia central: valor esperado (E [X ]), mediana ◦ Medidas de variabilidad o dispersión: varianza (Var [X ] = σ2[X ] = σ2x), desviación estándar (σ[X ] = σx) ◦ Medidas de asociación entre variables aleatorias: covarianza (Cov [X ,Y ] = σXY ), correlación (Corr [X ,Y ] = ρXY ), esperanza condicional (E [Y |X ]) Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Ejemplo: estandarización de una variable aleatoria • Suponga que, dada una variable aleatoria X , se define una nueva variable restándole su media µ y dividiendo este resultado por su desviación estándar σ Z ≡ X − µ σ • ¿E [Z ]? • ¿Var [Z ]? Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Medidas de asociación: la covarianza • Sean X e Y variables aleatorias con µx ≡ E [X ] y µy ≡ E [Y ]. • La covarianza entre las variables X e Y está dada por Cov [X ,Y ] ≡ E [(X − µx)(Y − µy )], que también se denota por σXY . • ¿Qué significa σXY > 0? ¿y σXY < 0? • Note que σXY = E [X Y ]− µxµy • Propiedades de la covarianza: • Si X e Y son independientes, entonces σXY = 0. ¿Es cierta la relación inversa? • Cov [a1X + b1, a2Y + b2] = a1a2Cov [X ,Y ] ∀a1, a2, b1, b2 ∈ R. • |σXY | ≤ σ[X ]σ[Y ] (desigualdad de Cauchy-Schwartz). Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Medidas de asociación: la correlación • Interpretar la magnitud de la covarianza puede ser complicado porque depende de las unidades de medida de las variables. • La correlación, en cambio, es una medida adimensional Corr(X ,Y ) ≡ Cov [X ,Y ] σ[X ]σ[Y ] ≡ σXY σXσY . • La correlación también se denota por ρXY . • Propiedades de la correlación: ◦ −1 ≤ Corr(X ,Y ) ≤ 1. ◦ Corr(a1X + b1, a2Y + b2) = Corr(X ,Y ) para ∀a1, a2, b1, b2 ∈ R tal que a1a2 > 0. ◦ Corr(a1X + b1, a2Y + b2) = −Corr(X ,Y ) para ∀a1, a2, b1, b2 ∈ R tal que a1a2 < 0. Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Varianza de la suma de variables aleatorias • A partir de la definición de covarianza, se puede enunciar las siguientes propiedades adicionales de la varianza: Var [a X + b Y ] = a2Var [X ] + b2Var [Y ] + 2a b Cov [X ,Y ] ∀a, b ∈ R • Si X1,X2, ...,Xn son variables no correlacionadas en parejas Var [ n∑ i=1 aiXi ] = n∑ i=1 a2i Var [Xi ] Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Momentos condicionales • En econoḿıa interesa explicar una variable Y con otra X . Esta información se puede resumir en la esperanza condicional. • Si Y es una variable aleatoria que asume los valores y1, y2, ..., ym E [Y |x ] ≡ m∑ j=1 yj fY |X (yj |x). • Esta definición es generalizable a variables aleatorias continuas. • La varianza también puede ser condicional Var [Y |X = x ] = E [Y 2|x ]− E [Y |x ]2 • Si X e Y son independientes, entonces Var [Y |X ] = Var [Y ]. Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Momentos condicionales (cont.) Propiedades de la esperanza condicional: • E [c(X )|X ] = c(X ) ∀ función c(X ). • E [a(X )Y + b(X )|X ] = a(X )E [Y |X ] + b(X ). • Si X e Y son independientes, entonces E [Y |X ] = E [Y ]. • E [E [Y |X ]] = E [Y ]. • E [E [Y |X ,Z ]|Z ] = E [Y |Z ]. • Si E [Y |X ] = E [Y ], entonces Cov [X ,Y ] = 0, y ninguna función de X se correlaciona con Y . • Si E [Y ]2 <∞ y E [g(X )2] <∞ para alguna función g , entonces E [(Y − µ(X ))2|X ] ≤ E [(Y − g(X ))2|X ] y E [(Y − µ(X ))2] ≤ E [Y − g(X )]2. Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 La distribución normal • La distribución normal y las que se derivan de ella son las más empleadas en econometŕıa (por simplicidad). • Decimos que X tiene una distribución normal con media µ y varianza σ2, y escribimos X ∼ N(µ, σ2). • Matemáticamente la FDP de X ∼ N(µ, σ2) se escribe como f (x) = 1 σ √ 2π e −(x−µ)2 2σ2 ,−∞ < x <∞ • Un caso especial es la distribución normal estándar : Z ∼ N(0, 1). • Si X ∼ N(µ, σ2) entonces a X + b ∼ N(aµ+ b, a2σ2), ∀a, b ∈ R. • Si X e Y distribuyen normal en forma conjunta, entonces X e Y son independientes si y solo si Cov [X ,Y ] = 0. • Si Y1,Y2, . . . ,Yn iid∼ N(µ, σ2) entonces Y ∼ N(µ, σ2/n) Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 La distribución χ2 • La distribución χ2 se obtiene directamente de variables independientes e idénticamente distribuidas en forma normal. • Sean Z1,Z2, . . . ,Zn variables independientes e idénticamente distribuidas en forma normal, y definamos X ≡ n∑ i=1 Z 2i . • Entonces X distribuye χ2 con n grados de libertad. • En Estad́ıstica los grados de libertad se definen como el número de términos libres en una sumatoria. Casassus (UC) EAE-250A - EconometŕıaI 11-Mar-19 La distribución t • Sea Z una variable aleatoria con distribución normal y X una variable aleatoria con distribución χ2 con n grados de libertad. • Además suponga que Z y X son independientes. • Entonces, la variable aleatoria T ≡ Z√ X/n . tiene una distribución t con n grados de libertad. • Esto se denota como T ∼ tn. • La distribución t hereda sus grados de libertad de la distribución χ2. • A medida que n→∞ la distribución t se aproxima a una normal. Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 La distribución F • Sean X1 ∼ χ2n1 y X2 ∼ χ 2 n2 . • Entonces la variable aleatoria F ≡ X1/n1 X2/n2 tiene una distribución F con n1, n2 grados de libertad. • Esto se denota como F ∼ Fn1,n2 . Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Tabla de Contenidos 1 Fundamentos de Probabilidades 2 Fundamentos de estad́ıstica Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Métodos estad́ısticos en Econometŕıa • La Estad́ıstica usa tres métodos para aprender acerca de la población: ◦ Estimación ◦ Intervalos de confianza ◦ Tests de hipótesis • La estimación consiste en obtener el valor más razonable de una caracteŕıstica desconocida de una distribución poblacional, como por ejemplo, su media. • Los intervalos de confianza emplean los datos de la muestra para construir un intervalo o rango para una caracteŕıstica poblacional desconocida. • Los tests de hipótesis consisten en formular una hipótesis espećıfica acerca de la población y, empleando la evidencia de la muestra, decidir si es que no es cierta. Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Estimadores y estimaciones • Sean Y1, . . . ,Yn variables aleatorias independientes con una FDP f (y ; θ), entonces {Y1, . . . ,Yn} es una muestra aleatoria de la población representada por f (y ; θ). • Dada una muestra aleatoria que depende de un parámetro poblacional desconocido θ, un estimador de θ es una regla que asigna a cada realización de una muestra un valor de θ. • Por ejemplo, sea {Y1, . . . ,Yn} una muestra aleatoria de una población con media µ. Un estimador natural de µ es Ȳ ≡ 1 n n∑ i=1 Yi • Una estimación es el cálculo del estimador para una realización y1, . . . , yn de la muestra. Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Estimadores y estimaciones (cont.) • Generalizando, un estimador W de un parámetro θ es una función h de las variables aleatorias Y1, . . . ,Yn W ≡ h(Y1, . . . ,Yn) • Como h(·) es función de variables aleatorias, W es una variable aleatoria. • Cuando se evalúan las cifras y1, . . . , yn en la función h, se obtiene una estimación de θ, denotada como w = h(y1, . . . , yn) • W es un estimador de θ. • w es una estimación puntual de θ. Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Propiedades de los estimadores • Algunas propiedades de los estimadores pueden depender del tamaño de la muestra. • Existen propiedades de muestra finita y propiedades asintóticas, que tienen que ver con el comportamiento de los estimadores cuando la muestra tiende a infinito. • Algunas propiedades de los estimadores independiente del tamaño son: ◦ Insesgamiento ◦ Eficiencia • Algunas propiedades válidas sólo asintóticamente son: ◦ Consistencia ◦ Normalidad asintótica Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Insesgamiento • Un estimador W de θ es un estimador insesgado si y sólo si E (W ) = θ ∀θ • Si un estimador es insesgado, entonces su distribución de probabilidad tiene un valor esperado igual al parámetro que se está estimando. • Esto no quiere decir que para cualquier muestra la estimación de θ va a ser exactamente θ o cercanamente θ. • La idea es que al seleccionar infinitas muestras y calcular el valor de W para cada selección, en promedio se obtiene θ. • Si W es un estimador de θ, su sesgo se define como Sesgo(W ) ≡ E (W )− θ Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Varianza de los estimadores • ¿Cómo se concentra la distribución de W alrededor de θ? • Sean Y1,Y2, . . . ,Yn iid∼ N(θ, 1) � t f(t) • Compare la varianza de θ̂ = Ȳ con la varianza de θ̂ = Y1. Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Eficiencia • El ejemplo anterior motiva el concepto de eficiencia relativa. • Si W1 y W2 son dos estimadores insesgados de θ, W1 es eficiente en relación a W2 si Var(W1) ≤ Var(W2) ∀θ, con desigualdad estricta al menos para un valor de θ. • En el caso anterior, Ȳ es eficiente en relación a Y1 para estimar µ. • Tarea: sean Y1, . . . ,Yn, variables aleatorias i.i.d. con media µ y varianza σ2. Demuestre que de todos los estimadores lineales insesgados de µ, Ȳ es el de varianza ḿınima. Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Propiedades asintóticas de los estimadores • Resulta razonable pedirle a los estimadores que sus propiedades mejoren a medida que el tamaño de la muestra n aumenta. • ¿Cómo cambian las propiedades de los estimadores Ȳ y Y1 a medida que n→∞? • Es posible descartar ciertos estimadores con sólo estudiar sus propiedades asintóticas o de muestra grande. • En la práctica, es dif́ıcil definir exactamente qué se entiende por muestra grande, pero se ha demostrado que las propiedades de muestra grande funcionan bien para tamaños tan pequeños como n = 20. Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Consistencia • Es importante saber qué tan probable es que el estimador del parámetro se encuentre lejos del parámetro cuando n→∞. • Matemáticamente, sea Wn un estimador de θ basado en la muestra {Y1, . . . ,Yn}. Wn es un estimador consistente de θ si ∀� > 0 P(|Wn − θ| > �)→ 0 cuando n→∞ • La definición de consistencia expresa que a medida que n crece la FDP de Wn se concentra alrededor de θ. • Cuando Wn es consistente se dice también que es el ĺımite de probabilidad de θ, y se denota por plim(Wn) = θ • Si Wn no es un estimador consistente de θ, entonces se dice que es inconsistente. • La consistencia es una condición necesaria de los estimadores. Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Normalidad asintótica • Ninguno de las propiedades anteriores dice qué forma tiene la FDP del estimador, lo que es necesario para construir estimadores de intervalo y realizar tests de hipótesis. • La mayor parte de los estimadores en Econometŕıa tienen una FDP que se aproxima a la distribución normal a medida que n→∞. • Esto motiva la definición de normalidad asintótica. Sea {Z1, . . . ,Zn} una sucesión de variables aleatorias tal que ∀z P(Zn < z)→ Φ(z) cuando n→∞ donde Φ(z) es la función de distribución normal estándar acumulada. • Se dice que Zn tiene una distribución asintótica normal estándar, y la notación es Zn a→ N(0, 1). Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Teorema Central del Ĺımite • Teorema: si {Y1, . . . ,Yn} es una muestra de variables aleatorias i.i.d. con media µ y varianza σ2. Entonces Zn = Ȳn − µ σ/ √ n tiene una distribución asintótica normal estándar. • En muestras grandes la distribución muestral de la mayoŕıa de los estimadores es aproximadamente normal. Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Estimación por método de momentos • Sea f (y ; θ) la distribución poblacional de una variable aleatoria Y . • El método consiste, primero, en probar que θ guarda una cierta relación con E (Y ), E (Y 2) u otras formas similares –los llamados momentos poblacionales. • Luego se encuentra un buen estimador para E (Y ), E (Y 2) –el momento muestral. • Se estima θ a partir de la relación probada con el momento muestral. Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Estimación por máxima verosimilitud • Sean Y1, . . . ,Yn variables aleatorias independientes correspondientes a una muestra aleatoria de la FDP poblacional f (y ; θ). • Por el supuesto de muestreo aleatorio, la probabilidad conjunta es f (y1; θ) · f (y2; θ) · . . . · f (yn; θ). • Sea la función de verosimilitud L(Y ; θ) = f (Y1; θ) · f (Y2; θ) · . . .· f (Yn; θ), (1) que también es una variable aleatoria. • El estimador de máxima verosimilitud de θ es el valor que maximiza la ecuación (1) para una selección y (también maximiza log(L(y ; θ))). • Intuitivamente, este método escoge el valor de θ que hace que la probabilidad de observar los datos sea la mayor posible. • Por lo general, el estimador de máxima verosimilitud es el más eficiente asintóticamente cuando f (y ; θ) se especifica correctamente. Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Estimación por ḿınimos cuadrados • El estimador de ḿınimos cuadrados es el valor de m que minimiza la suma de las desviaciones al cuadrado i=1∑ n (yi −m)2 • Se puede demostrar que este valor corresponde a m = Ȳ . • ¿Por qué minimizar la suma de las desviaciones al cuadrado y no el valor absoluto de las desviaciones? • Muchas veces el método de momentos, el de máxima verosimilitud y el de ḿınimos cuadrados entregan los mismos estimadores. Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Construcción de los intervalos de confianza • Sea {Y1, . . . ,Yn} una muestra aleatoria de la población representada por la distribución N(µ, 1). • Se sabe que Ȳ ∼ N(µ, 1/n), por lo tanto, P ( −1, 96 ≤ Ȳ − µ 1/ √ n ≤ 1, 96 ) = 0, 95. • Despejando µ de la expresión anterior se obtiene el intervalo de confianza para µ de [ Ȳ − 1, 96√ n , Ȳ + 1, 96√ n ] • Antes de seleccionar la muestra, el intervalo [ Ȳ − 1,96√ n , Ȳ + 1,96√ n ] contiene a µ con un 95% de probabilidad. • La interpretación correcta del intervalo es que ‘en el largo plazo, al sacar infinitas muestras y computar en cada una de éstas intervalos de confianza semejantes, un 95% de estos intervalos contendrá al parámetro poblacional’. Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Los intervalos de confianza cuando no se conoce σ • Si no se conoce el valor de σ, se usa el estimador S ≡ √∑n i=1(yi−ȳ)2 n−1 . • Se puede que Ȳ−µ S/ √ n distribuye t con n − 1 grados de libertad. • Si c es el percentil 97,5% de la distribución t, entonces[ Ȳ − c S√ n , Ȳ + c S√ n ] contiene a µ con un 95% de probabilidad. • De manera más general, el intervalo de confianza[ Ȳ − cα/2 S√ n , Ȳ + cα/2 S√ n ] contiene a µ con probabilidad 1− α. • La estimación puntual de S/ √ n se conoce como error estándar de ȳ . Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Tests de hipótesis • ¿Cómo concluir a partir del resultado de un intervalo de confianza? • ¿Los centros de capacitación aumentan la productividad de los trabajadores? • ¿Hay discriminación en contra de la mujer en el mercado laboral? • ¿Leyes más severas en contra de la conducción en estado de ebriedad reducen el número de accidentes? Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Tipos de errores y nivel de significancia • En los tests de hipótesis se puede cometer dos tipos de errores. • Error de tipo I: rechazar H0 cuando es verdadera. • Error de tipo II: “no rechazar” H0 cuando en realidad es falsa. • La tolerancia a cometer un error de tipo I es el nivel de significancia α α ≡ P(rechazar H0|H0) • En general, se usa uno de los siguientes valores: 0,1, 0,05 ó 0,01. • Si α = 0, 05, quiere decir que se está dispuesto a rechazar equivocadamente H0 un 5% de las veces. Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Tests para la media de una población normal • Dada una muestra aleatoria, usted quiere testear la media de una población N(µ, σ2): • La hipótesis nula es H0 : µ = µ0, donde µ0 es un valor que especificamos. • Y tres posibles hipótesis alternativas son H1 : µ > µ0, (2) H1 : µ < µ0, (3) H1 : µ 6= µ0. (4) • Las expresiones (2) y (3) corresponden a tests de una cola, mientras que (4) corresponde a un test de dos colas. • Intuitivamente, con (2) se rechaza H0 en favor de H1 cuando el promedio muestral ȳ es “suficientemente” mayor que µ0. Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Tests para la media de una población normal (cont.) • Primero, se estandariza el estad́ıstico ȳ para µ t = ȳ − µ0 ee(ȳ) , donde ee(ȳ) es el error estándar de ȳ . • Este estad́ıstico mide la distancia de ȳ a µ0 en relación al ee(ȳ). • Si la hipótesis alternativa es (2), la regla de rechazo es t > c . • c es el percentil 1− α de la distribución tn−1. • Si la hipótesis alternativa es (4), la regla de rechazo es |t| > c Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Test de una cola: H1 : µ > µ0 0 Zona de rechazo Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Test de una cola: H1 : µ < µ0 0 Zona de rechazo Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Test de dos colas: H1 : µ 6= µ0 0 Zona de rechazoZona de rechazo Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 La concesión de zonas empresariales y la inversión • Sea Y el cambio porcentual en la inversión en una comuna del páıs entre un año y otro. • Suponga que en el segundo año la comuna paso a ser una zona empresarial y que se quiere saber si este cambio se tradujo en una mayor inversión. • La hipótesis nula es que la concesión no tuvo efecto en la inversión, mientras que la alternativa es que tuvo un efecto positivo: H0 : µ = 0, (5) H1 : µ > 0. (6) • Suponga que quiere distinguir diferencias a un nivel del 5%, y que se tiene una muestra aleatoria de tamaño 30 en que ȳ = 10 y s = 20. • ¿Existe un efecto significativo? ¿Y a niveles de 1% y 10%? • ¿Es posible concluir que hay un efecto causal de la concesión en la inversión? Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Tests asintóticos para poblaciones no normales • De acuerdo al Teorema Central del Ĺımite, si el tamaño de la muestra es lo suficientemente grande T = Ȳ − µ0 S/ √ n a∼ N(0, 1) • Es decir, si n es lo suficientemente grande, se puede comparar el estad́ıstico t con los valores cŕıticos de una distribución normal estándar. • Recuerde que la distribución tn−1 converge a una normal estándar a medida que n crece. Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 El valor-p • Dependiendo del nivel de significancia con que se trabaje, distintos investigadores con un mismo conjunto de datos pueden llegar a conclusiones distintas. • Para sortear este problema se puede plantear la pregunta ¿cuál es el nivel de significancia más grande con el que se puede trabajar sin rechazar la hipótesis nula? Este nivel es el valor-p de un test. • El valor-p es la probabilidad de obtener un estad́ıstico al menos tan adverso como el ya obtenido en la dirección de H1, bajo el supuesto de que H0 es cierta. • El valor-p es un percentil de corte y no provee un criterio para aceptar o rechazar H0 por śı sola. • Matemáticamente, dependiendo de la hipótesis alternativa, se define valor-p = P(Tn−1 > t), valor-p = P(Tn−1 < t), valor-p = P(|Tn−1| > |t|) • Note que el valor-p depende de la hipótesis alternativa! Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19 Fundamentos de Probabilidades Variables aleatorias y distribuciones de probabilidad Distribuciones conjuntas, condicionales e independencia Distribuciones conjuntas Funciones de distribución de probabilidad marginal Distribuciones condicionales Caracterización de las FDP Ejemplo: estandarización de una variable aleatoria Medidas de asociación: la covarianza Medidas de asociación: la correlación Varianza de la suma de variables aleatorias Momentos condicionales La distribución normal La distribución 2 La distribución t La distribución F Fundamentos de estadística Métodos estadísticos en Econometría Estimadores y estimaciones Propiedades de los estimadores Insesgamiento Varianza de los estimadores Eficiencia Propiedades asintóticas de los estimadores Consistencia Normalidad asintótica Teorema Central del Límite Estimación por método de momentos Estimación por máxima verosimilitud Estimación por mínimos cuadrados Construcción de los intervalos de confianza Los intervalos de confianza cuando no se conoce Testsde hipótesis Tipos de errores y nivel de significancia Tests para la media de una población normal Test de una cola: H1: > 0 Test de una cola: H1: < 0 Test de dos colas: H1: =0 La concesión de zonas empresariales y la inversión Tests asintóticos para poblaciones no normales El valor-p
Compartir