Logo Studenta

econometria191_clase02_probabilidad_y_estadistica

¡Este material tiene más páginas!

Vista previa del material en texto

Econometŕıa I – EAE-250A
Probabilidad y Estad́ıstica
Jaime Casassus
Instituto de Econoḿıa
Pontificia Universidad Católica de Chile
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Tabla de Contenidos
1 Fundamentos de Probabilidades
2 Fundamentos de estad́ıstica
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Variables aleatorias y distribuciones de probabilidad
• Una variable aleatoria es una función que toma valores reales, definida sobre
un espacio de probabilidad.
• Para cada variable aleatoria X y cada conjunto A de números reales, se
puede calcular la probabilidad de que X tome un valor en A.
• La colección de todas estas probabilidades es la distribución de X .
• Sea X una variable aleatoria discreta que toma valores xk con probabilidad
P[X = xk ]. Su Función de Distribución de Probabilidad (FDP) es
f (x) ≡ P[X = xk ]
y f (x) = 0 en caso contrario.
• Sea X una variable aleatoria continua. La Función de Distribución
Acumulada (FDA) se define como
F (x) ≡ P[X ≤ x ] x ∈ R+.
• No se puede establecer una relación uno a uno entre los posibles valores que
tomar una variable aleatoria continua y los números naturales.
•
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Distribuciones conjuntas, condicionales e independencia
• En econoḿıa y en las ciencias sociales generalmente interesa la
ocurrencia de sucesos que comprenden más de una variable.
• Por ejemplo, ¿cuál es la probabilidad de permanecer en la pobreza y
de ser niño o niña? ¿Cuál es la probabilidad de permanecer en la
pobreza dado que se es niño o niña?
• La primera pregunta es un ejemplo de probabilidad conjunta, mientras
que la segunda, de probabilidad condicional.
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Distribuciones conjuntas
• Sean X e Y variables aleatorias discretas.
• Su distribución conjunta queda descrita por completo por la función
de distribución de probabilidad conjunta de X e Y
fX ,Y (x , y) ≡ P(X = x ,Y = y).
• P(X = x ,Y = y) denota la probabilidad de que X = x y que Y = y .
• Si las variables aleatorias son continuas entonces
P(a ≤ X ≤ b, c ≤ Y ≤ d)
• Se dice que las variables X e Y son independientes si y sólo si
fX ,Y (x , y) = fX (x) · fY (y) ∀x , y
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Funciones de distribución de probabilidad marginal
• Dada una función de distribución de probabilidad conjunta, las
funciones de distribución de probabilidad marginal se definen como:
fX (x) =
∑
y
fX ,Y (x , y)
fY (y) =
∑
x
fX ,Y (x , y)
• Ejemplo de retornos accionarios para los activos X e Y :
X Y
↓ -10% 10%
-20% 1/8
+20% 1/4
• Dado que P[Y = 10%] = 1/4, determine las distribuciones de
probabilidad marginal.
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Distribuciones condicionales
• La Función de Distribución de Probabilidad Condicional de una
variable aleatoria Y dado X está dada por el Teorema de Bayes
fY |X (y |x) =
fX ,Y (x , y)
fX (x)
• Si X e Y son independientes
fY |X (y |x) = fY (y), fX |Y (x |y) = fX (x).
• Determine las distribuciones condicionales para el ejemplo de retornos
accionarios.
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Caracterización de las FDP
• La Función de Distribución de Probabilidad (FDP) de una variable
aleatoria X contiene toda la información probabiĺıstica de X .
• Las medidas descriptivas de mayor interés de una FDP se dividen en
tres categoŕıas:
◦ Medidas de tendencia central: valor esperado (E [X ]), mediana
◦ Medidas de variabilidad o dispersión: varianza (Var [X ] = σ2[X ] = σ2x),
desviación estándar (σ[X ] = σx)
◦ Medidas de asociación entre variables aleatorias: covarianza
(Cov [X ,Y ] = σXY ), correlación (Corr [X ,Y ] = ρXY ), esperanza
condicional (E [Y |X ])
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Ejemplo: estandarización de una variable aleatoria
• Suponga que, dada una variable aleatoria X , se define una nueva
variable restándole su media µ y dividiendo este resultado por su
desviación estándar σ
Z ≡ X − µ
σ
• ¿E [Z ]?
• ¿Var [Z ]?
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Medidas de asociación: la covarianza
• Sean X e Y variables aleatorias con µx ≡ E [X ] y µy ≡ E [Y ].
• La covarianza entre las variables X e Y está dada por
Cov [X ,Y ] ≡ E [(X − µx)(Y − µy )], que también se denota por σXY .
• ¿Qué significa σXY > 0? ¿y σXY < 0?
• Note que σXY = E [X Y ]− µxµy
• Propiedades de la covarianza:
• Si X e Y son independientes, entonces σXY = 0. ¿Es cierta la relación
inversa?
• Cov [a1X + b1, a2Y + b2] = a1a2Cov [X ,Y ] ∀a1, a2, b1, b2 ∈ R.
• |σXY | ≤ σ[X ]σ[Y ] (desigualdad de Cauchy-Schwartz).
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Medidas de asociación: la correlación
• Interpretar la magnitud de la covarianza puede ser complicado porque
depende de las unidades de medida de las variables.
• La correlación, en cambio, es una medida adimensional
Corr(X ,Y ) ≡ Cov [X ,Y ]
σ[X ]σ[Y ]
≡ σXY
σXσY
.
• La correlación también se denota por ρXY .
• Propiedades de la correlación:
◦ −1 ≤ Corr(X ,Y ) ≤ 1.
◦ Corr(a1X + b1, a2Y + b2) = Corr(X ,Y ) para ∀a1, a2, b1, b2 ∈ R tal
que a1a2 > 0.
◦ Corr(a1X + b1, a2Y + b2) = −Corr(X ,Y ) para ∀a1, a2, b1, b2 ∈ R tal
que a1a2 < 0.
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Varianza de la suma de variables aleatorias
• A partir de la definición de covarianza, se puede enunciar las
siguientes propiedades adicionales de la varianza:
Var [a X + b Y ] = a2Var [X ] + b2Var [Y ] + 2a b Cov [X ,Y ] ∀a, b ∈ R
• Si X1,X2, ...,Xn son variables no correlacionadas en parejas
Var [
n∑
i=1
aiXi ] =
n∑
i=1
a2i Var [Xi ]
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Momentos condicionales
• En econoḿıa interesa explicar una variable Y con otra X . Esta
información se puede resumir en la esperanza condicional.
• Si Y es una variable aleatoria que asume los valores y1, y2, ..., ym
E [Y |x ] ≡
m∑
j=1
yj fY |X (yj |x).
• Esta definición es generalizable a variables aleatorias continuas.
• La varianza también puede ser condicional
Var [Y |X = x ] = E [Y 2|x ]− E [Y |x ]2
• Si X e Y son independientes, entonces Var [Y |X ] = Var [Y ].
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Momentos condicionales (cont.)
Propiedades de la esperanza condicional:
• E [c(X )|X ] = c(X ) ∀ función c(X ).
• E [a(X )Y + b(X )|X ] = a(X )E [Y |X ] + b(X ).
• Si X e Y son independientes, entonces E [Y |X ] = E [Y ].
• E [E [Y |X ]] = E [Y ].
• E [E [Y |X ,Z ]|Z ] = E [Y |Z ].
• Si E [Y |X ] = E [Y ], entonces Cov [X ,Y ] = 0, y ninguna función de X
se correlaciona con Y .
• Si E [Y ]2 <∞ y E [g(X )2] <∞ para alguna función g , entonces
E [(Y − µ(X ))2|X ] ≤ E [(Y − g(X ))2|X ] y
E [(Y − µ(X ))2] ≤ E [Y − g(X )]2.
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
La distribución normal
• La distribución normal y las que se derivan de ella son las más
empleadas en econometŕıa (por simplicidad).
• Decimos que X tiene una distribución normal con media µ y varianza
σ2, y escribimos X ∼ N(µ, σ2).
• Matemáticamente la FDP de X ∼ N(µ, σ2) se escribe como
f (x) =
1
σ
√
2π
e
−(x−µ)2
2σ2 ,−∞ < x <∞
• Un caso especial es la distribución normal estándar : Z ∼ N(0, 1).
• Si X ∼ N(µ, σ2) entonces a X + b ∼ N(aµ+ b, a2σ2), ∀a, b ∈ R.
• Si X e Y distribuyen normal en forma conjunta, entonces X e Y son
independientes si y solo si Cov [X ,Y ] = 0.
• Si Y1,Y2, . . . ,Yn
iid∼ N(µ, σ2) entonces Y ∼ N(µ, σ2/n)
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
La distribución χ2
• La distribución χ2 se obtiene directamente de variables
independientes e idénticamente distribuidas en forma normal.
• Sean Z1,Z2, . . . ,Zn variables independientes e idénticamente
distribuidas en forma normal, y definamos
X ≡
n∑
i=1
Z 2i .
• Entonces X distribuye χ2 con n grados de libertad.
• En Estad́ıstica los grados de libertad se definen como el número de
términos libres en una sumatoria.
Casassus (UC) EAE-250A - EconometŕıaI 11-Mar-19
La distribución t
• Sea Z una variable aleatoria con distribución normal y X una variable
aleatoria con distribución χ2 con n grados de libertad.
• Además suponga que Z y X son independientes.
• Entonces, la variable aleatoria
T ≡ Z√
X/n
.
tiene una distribución t con n grados de libertad.
• Esto se denota como T ∼ tn.
• La distribución t hereda sus grados de libertad de la distribución χ2.
• A medida que n→∞ la distribución t se aproxima a una normal.
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
La distribución F
• Sean X1 ∼ χ2n1 y X2 ∼ χ
2
n2 .
• Entonces la variable aleatoria
F ≡ X1/n1
X2/n2
tiene una distribución F con n1, n2 grados de libertad.
• Esto se denota como F ∼ Fn1,n2 .
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Tabla de Contenidos
1 Fundamentos de Probabilidades
2 Fundamentos de estad́ıstica
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Métodos estad́ısticos en Econometŕıa
• La Estad́ıstica usa tres métodos para aprender acerca de la población:
◦ Estimación
◦ Intervalos de confianza
◦ Tests de hipótesis
• La estimación consiste en obtener el valor más razonable de una
caracteŕıstica desconocida de una distribución poblacional, como por
ejemplo, su media.
• Los intervalos de confianza emplean los datos de la muestra para
construir un intervalo o rango para una caracteŕıstica poblacional
desconocida.
• Los tests de hipótesis consisten en formular una hipótesis espećıfica
acerca de la población y, empleando la evidencia de la muestra,
decidir si es que no es cierta.
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Estimadores y estimaciones
• Sean Y1, . . . ,Yn variables aleatorias independientes con una FDP
f (y ; θ), entonces {Y1, . . . ,Yn} es una muestra aleatoria de la
población representada por f (y ; θ).
• Dada una muestra aleatoria que depende de un parámetro poblacional
desconocido θ, un estimador de θ es una regla que asigna a cada
realización de una muestra un valor de θ.
• Por ejemplo, sea {Y1, . . . ,Yn} una muestra aleatoria de una
población con media µ. Un estimador natural de µ es
Ȳ ≡ 1
n
n∑
i=1
Yi
• Una estimación es el cálculo del estimador para una realización
y1, . . . , yn de la muestra.
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Estimadores y estimaciones (cont.)
• Generalizando, un estimador W de un parámetro θ es una función h
de las variables aleatorias Y1, . . . ,Yn
W ≡ h(Y1, . . . ,Yn)
• Como h(·) es función de variables aleatorias, W es una variable
aleatoria.
• Cuando se evalúan las cifras y1, . . . , yn en la función h, se obtiene una
estimación de θ, denotada como
w = h(y1, . . . , yn)
• W es un estimador de θ.
• w es una estimación puntual de θ.
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Propiedades de los estimadores
• Algunas propiedades de los estimadores pueden depender del tamaño
de la muestra.
• Existen propiedades de muestra finita y propiedades asintóticas, que
tienen que ver con el comportamiento de los estimadores cuando la
muestra tiende a infinito.
• Algunas propiedades de los estimadores independiente del tamaño
son:
◦ Insesgamiento
◦ Eficiencia
• Algunas propiedades válidas sólo asintóticamente son:
◦ Consistencia
◦ Normalidad asintótica
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Insesgamiento
• Un estimador W de θ es un estimador insesgado si y sólo si
E (W ) = θ ∀θ
• Si un estimador es insesgado, entonces su distribución de probabilidad
tiene un valor esperado igual al parámetro que se está estimando.
• Esto no quiere decir que para cualquier muestra la estimación de θ va
a ser exactamente θ o cercanamente θ.
• La idea es que al seleccionar infinitas muestras y calcular el valor de
W para cada selección, en promedio se obtiene θ.
• Si W es un estimador de θ, su sesgo se define como
Sesgo(W ) ≡ E (W )− θ
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Varianza de los estimadores
• ¿Cómo se concentra la distribución de W alrededor de θ?
• Sean Y1,Y2, . . . ,Yn
iid∼ N(θ, 1)
� t
f(t)
• Compare la varianza de θ̂ = Ȳ con la varianza de θ̂ = Y1.
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Eficiencia
• El ejemplo anterior motiva el concepto de eficiencia relativa.
• Si W1 y W2 son dos estimadores insesgados de θ, W1 es eficiente en
relación a W2 si Var(W1) ≤ Var(W2) ∀θ, con desigualdad estricta al
menos para un valor de θ.
• En el caso anterior, Ȳ es eficiente en relación a Y1 para estimar µ.
• Tarea: sean Y1, . . . ,Yn, variables aleatorias i.i.d. con media µ y
varianza σ2. Demuestre que de todos los estimadores lineales
insesgados de µ, Ȳ es el de varianza ḿınima.
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Propiedades asintóticas de los estimadores
• Resulta razonable pedirle a los estimadores que sus propiedades
mejoren a medida que el tamaño de la muestra n aumenta.
• ¿Cómo cambian las propiedades de los estimadores Ȳ y Y1 a medida
que n→∞?
• Es posible descartar ciertos estimadores con sólo estudiar sus
propiedades asintóticas o de muestra grande.
• En la práctica, es dif́ıcil definir exactamente qué se entiende por
muestra grande, pero se ha demostrado que las propiedades de
muestra grande funcionan bien para tamaños tan pequeños como
n = 20.
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Consistencia
• Es importante saber qué tan probable es que el estimador del
parámetro se encuentre lejos del parámetro cuando n→∞.
• Matemáticamente, sea Wn un estimador de θ basado en la muestra
{Y1, . . . ,Yn}. Wn es un estimador consistente de θ si ∀� > 0
P(|Wn − θ| > �)→ 0 cuando n→∞
• La definición de consistencia expresa que a medida que n crece la
FDP de Wn se concentra alrededor de θ.
• Cuando Wn es consistente se dice también que es el ĺımite de
probabilidad de θ, y se denota por
plim(Wn) = θ
• Si Wn no es un estimador consistente de θ, entonces se dice que es
inconsistente.
• La consistencia es una condición necesaria de los estimadores.
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Normalidad asintótica
• Ninguno de las propiedades anteriores dice qué forma tiene la FDP
del estimador, lo que es necesario para construir estimadores de
intervalo y realizar tests de hipótesis.
• La mayor parte de los estimadores en Econometŕıa tienen una FDP
que se aproxima a la distribución normal a medida que n→∞.
• Esto motiva la definición de normalidad asintótica. Sea {Z1, . . . ,Zn}
una sucesión de variables aleatorias tal que ∀z
P(Zn < z)→ Φ(z) cuando n→∞
donde Φ(z) es la función de distribución normal estándar acumulada.
• Se dice que Zn tiene una distribución asintótica normal estándar, y la
notación es Zn
a→ N(0, 1).
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Teorema Central del Ĺımite
• Teorema: si {Y1, . . . ,Yn} es una muestra de variables aleatorias i.i.d.
con media µ y varianza σ2. Entonces
Zn =
Ȳn − µ
σ/
√
n
tiene una distribución asintótica normal estándar.
• En muestras grandes la distribución muestral de la mayoŕıa de los
estimadores es aproximadamente normal.
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Estimación por método de momentos
• Sea f (y ; θ) la distribución poblacional de una variable aleatoria Y .
• El método consiste, primero, en probar que θ guarda una cierta
relación con E (Y ), E (Y 2) u otras formas similares –los llamados
momentos poblacionales.
• Luego se encuentra un buen estimador para E (Y ), E (Y 2) –el
momento muestral.
• Se estima θ a partir de la relación probada con el momento muestral.
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Estimación por máxima verosimilitud
• Sean Y1, . . . ,Yn variables aleatorias independientes correspondientes
a una muestra aleatoria de la FDP poblacional f (y ; θ).
• Por el supuesto de muestreo aleatorio, la probabilidad conjunta es
f (y1; θ) · f (y2; θ) · . . . · f (yn; θ).
• Sea la función de verosimilitud
L(Y ; θ) = f (Y1; θ) · f (Y2; θ) · . . .· f (Yn; θ), (1)
que también es una variable aleatoria.
• El estimador de máxima verosimilitud de θ es el valor que maximiza la
ecuación (1) para una selección y (también maximiza log(L(y ; θ))).
• Intuitivamente, este método escoge el valor de θ que hace que la
probabilidad de observar los datos sea la mayor posible.
• Por lo general, el estimador de máxima verosimilitud es el más
eficiente asintóticamente cuando f (y ; θ) se especifica correctamente.
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Estimación por ḿınimos cuadrados
• El estimador de ḿınimos cuadrados es el valor de m que minimiza la
suma de las desviaciones al cuadrado
i=1∑
n
(yi −m)2
• Se puede demostrar que este valor corresponde a m = Ȳ .
• ¿Por qué minimizar la suma de las desviaciones al cuadrado y no el
valor absoluto de las desviaciones?
• Muchas veces el método de momentos, el de máxima verosimilitud y
el de ḿınimos cuadrados entregan los mismos estimadores.
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Construcción de los intervalos de confianza
• Sea {Y1, . . . ,Yn} una muestra aleatoria de la población representada por la
distribución N(µ, 1).
• Se sabe que Ȳ ∼ N(µ, 1/n), por lo tanto,
P
(
−1, 96 ≤ Ȳ − µ
1/
√
n
≤ 1, 96
)
= 0, 95.
• Despejando µ de la expresión anterior se obtiene el intervalo de confianza
para µ de [
Ȳ − 1, 96√
n
, Ȳ +
1, 96√
n
]
• Antes de seleccionar la muestra, el intervalo
[
Ȳ − 1,96√
n
, Ȳ + 1,96√
n
]
contiene a
µ con un 95% de probabilidad.
• La interpretación correcta del intervalo es que ‘en el largo plazo, al sacar
infinitas muestras y computar en cada una de éstas intervalos de confianza
semejantes, un 95% de estos intervalos contendrá al parámetro poblacional’.
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Los intervalos de confianza cuando no se conoce σ
• Si no se conoce el valor de σ, se usa el estimador S ≡
√∑n
i=1(yi−ȳ)2
n−1 .
• Se puede que Ȳ−µ
S/
√
n
distribuye t con n − 1 grados de libertad.
• Si c es el percentil 97,5% de la distribución t, entonces[
Ȳ − c S√
n
, Ȳ + c
S√
n
]
contiene a µ con un 95% de probabilidad.
• De manera más general, el intervalo de confianza[
Ȳ − cα/2
S√
n
, Ȳ + cα/2
S√
n
]
contiene a µ con probabilidad 1− α.
• La estimación puntual de S/
√
n se conoce como error estándar de ȳ .
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Tests de hipótesis
• ¿Cómo concluir a partir del resultado de un intervalo de confianza?
• ¿Los centros de capacitación aumentan la productividad de los
trabajadores?
• ¿Hay discriminación en contra de la mujer en el mercado laboral?
• ¿Leyes más severas en contra de la conducción en estado de ebriedad
reducen el número de accidentes?
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Tipos de errores y nivel de significancia
• En los tests de hipótesis se puede cometer dos tipos de errores.
• Error de tipo I: rechazar H0 cuando es verdadera.
• Error de tipo II: “no rechazar” H0 cuando en realidad es falsa.
• La tolerancia a cometer un error de tipo I es el nivel de significancia α
α ≡ P(rechazar H0|H0)
• En general, se usa uno de los siguientes valores: 0,1, 0,05 ó 0,01.
• Si α = 0, 05, quiere decir que se está dispuesto a rechazar
equivocadamente H0 un 5% de las veces.
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Tests para la media de una población normal
• Dada una muestra aleatoria, usted quiere testear la media de una
población N(µ, σ2):
• La hipótesis nula es
H0 : µ = µ0,
donde µ0 es un valor que especificamos.
• Y tres posibles hipótesis alternativas son
H1 : µ > µ0, (2)
H1 : µ < µ0, (3)
H1 : µ 6= µ0. (4)
• Las expresiones (2) y (3) corresponden a tests de una cola, mientras
que (4) corresponde a un test de dos colas.
• Intuitivamente, con (2) se rechaza H0 en favor de H1 cuando el
promedio muestral ȳ es “suficientemente” mayor que µ0.
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Tests para la media de una población normal (cont.)
• Primero, se estandariza el estad́ıstico ȳ para µ
t =
ȳ − µ0
ee(ȳ)
,
donde ee(ȳ) es el error estándar de ȳ .
• Este estad́ıstico mide la distancia de ȳ a µ0 en relación al ee(ȳ).
• Si la hipótesis alternativa es (2), la regla de rechazo es
t > c .
• c es el percentil 1− α de la distribución tn−1.
• Si la hipótesis alternativa es (4), la regla de rechazo es
|t| > c
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Test de una cola: H1 : µ > µ0
0
Zona de rechazo
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Test de una cola: H1 : µ < µ0
0
Zona de rechazo
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Test de dos colas: H1 : µ 6= µ0
0
Zona de rechazoZona de rechazo
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
La concesión de zonas empresariales y la inversión
• Sea Y el cambio porcentual en la inversión en una comuna del páıs
entre un año y otro.
• Suponga que en el segundo año la comuna paso a ser una zona
empresarial y que se quiere saber si este cambio se tradujo en una
mayor inversión.
• La hipótesis nula es que la concesión no tuvo efecto en la inversión,
mientras que la alternativa es que tuvo un efecto positivo:
H0 : µ = 0, (5)
H1 : µ > 0. (6)
• Suponga que quiere distinguir diferencias a un nivel del 5%, y que se
tiene una muestra aleatoria de tamaño 30 en que ȳ = 10 y s = 20.
• ¿Existe un efecto significativo? ¿Y a niveles de 1% y 10%?
• ¿Es posible concluir que hay un efecto causal de la concesión en la
inversión?
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
Tests asintóticos para poblaciones no normales
• De acuerdo al Teorema Central del Ĺımite, si el tamaño de la muestra
es lo suficientemente grande
T =
Ȳ − µ0
S/
√
n
a∼ N(0, 1)
• Es decir, si n es lo suficientemente grande, se puede comparar el
estad́ıstico t con los valores cŕıticos de una distribución normal
estándar.
• Recuerde que la distribución tn−1 converge a una normal estándar a
medida que n crece.
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
El valor-p
• Dependiendo del nivel de significancia con que se trabaje, distintos
investigadores con un mismo conjunto de datos pueden llegar a conclusiones
distintas.
• Para sortear este problema se puede plantear la pregunta ¿cuál es el nivel de
significancia más grande con el que se puede trabajar sin rechazar la
hipótesis nula? Este nivel es el valor-p de un test.
• El valor-p es la probabilidad de obtener un estad́ıstico al menos tan adverso
como el ya obtenido en la dirección de H1, bajo el supuesto de que H0 es
cierta.
• El valor-p es un percentil de corte y no provee un criterio para aceptar o
rechazar H0 por śı sola.
• Matemáticamente, dependiendo de la hipótesis alternativa, se define
valor-p = P(Tn−1 > t),
valor-p = P(Tn−1 < t),
valor-p = P(|Tn−1| > |t|)
• Note que el valor-p depende de la hipótesis alternativa!
Casassus (UC) EAE-250A - Econometŕıa I 11-Mar-19
	Fundamentos de Probabilidades
	Variables aleatorias y distribuciones de probabilidad
	Distribuciones conjuntas, condicionales e independencia
	Distribuciones conjuntas
	Funciones de distribución de probabilidad marginal
	Distribuciones condicionales
	Caracterización de las FDP
	Ejemplo: estandarización de una variable aleatoria
	Medidas de asociación: la covarianza
	Medidas de asociación: la correlación
	Varianza de la suma de variables aleatorias
	Momentos condicionales
	La distribución normal
	La distribución 2
	La distribución t
	La distribución F
	Fundamentos de estadística
	Métodos estadísticos en Econometría
	Estimadores y estimaciones
	Propiedades de los estimadores
	Insesgamiento
	Varianza de los estimadores
	Eficiencia
	Propiedades asintóticas de los estimadores
	Consistencia
	Normalidad asintótica
	Teorema Central del Límite
	Estimación por método de momentos
	Estimación por máxima verosimilitud
	Estimación por mínimos cuadrados
	Construcción de los intervalos de confianza
	Los intervalos de confianza cuando no se conoce 
	Testsde hipótesis
	Tipos de errores y nivel de significancia
	Tests para la media de una población normal
	Test de una cola: H1: > 0
	Test de una cola: H1: < 0
	Test de dos colas: H1: =0
	La concesión de zonas empresariales y la inversión
	Tests asintóticos para poblaciones no normales
	El valor-p

Continuar navegando

Materiales relacionados

24 pag.
Apuntes Econometría

User badge image

Central de Apuntes

80 pag.
44 pag.
econometria151_clase03_estadistica

User badge image

Apuntes Ingeneria Civil