Logo Studenta

Ayudantia3_2005_2

¡Estudia con miles de materiales!

Vista previa del material en texto

Pontificia Universidad Católica de Chile
Instituto de Economía
Primer Semestre de 2005
Econometría de Datos de Panel y Corte Transversal
Teoría Econométrica II
Ayudantía 3: GMM
1. La distribución Gamma está dada por la función de densidad
f (x |α, γ ) =
(
βα
Γ(α)x
α−1e−βx si x > 0
0 si x ≤ 0 (1)
con α, β > 0 y Γ (α) está dada por
Γ (α) =
Z ∞
0
xα−1e−xdx (2)
a) Pruebe que para la variable X que distribuye gamma, E
£
Xk
¤
= α(α+1)...(α+k−1)
βk
,
k = 1, 2, . . . .
Suponga que X1, . . . ,Xn son una muestra de variables iid de una dis-
tribución gamma con parámetros desconocidos α y β.
b) Los primeros dos momentos muestrales son 1n
Pn
i=1Xi = 7.29 y
1
n
Pn
i=1X
2
i =
85.59. Derive el estimador de método de los momentos de
·
α
β
¸
basado en los primeros dos momentos y calcule los estimados. Derive
la distribución asintótica de los estimadores.
c) Suponga que los primeros momentos muestrales son como en b), pero
ahora también consideramos el tercer momento. Usando los esti-
madores de b), describa cómo estimar α y β usando GMM con la
matriz de ponderaciones óptima. Formule la distribución asintótica
del estimador GMM y provea un estimador consitente de la varianza
asintótica.
Solución
a) Sabemos que
E
£
Xk
¤
=
Z ∞
0
xk
βα
Γ (α)
xα−1e−βxdx =
Z ∞
0
xk+α−1
βα
Γ (α)
e−βxdx
(3)
noten que si la integral existe si k+α−1 > 0 y β > 0. Comparando (3)
con (1)vemos que si en el denominador de (3) tuvieramos Γ (α+ k)
en vez de Γ (α) , tendríamos una función que integra hasta uno. Por
eso ahora buscamos Γ (α+ k) . Para eso definimos
Definition 1 Γ (α+ k, β) =
R∞
0
xk+α−1e−βxdx
1
Integración por partes ("un día ví una vaca vestida de uniforme")Z
udv = uv −
Z
vdu
en este caso
u = xk+α−1 du = (k + α− 1)xk+α−2
v = − 1β e−βx dv = e−βx
luego
Γ (α+ k, β) =
·
−xk+α−1 1
β
e−βx
¸∞
0
+
1
β
(k + α− 1)
Z ∞
0
xk+α−2e−βxdx
(4)
el primer termino es cero (puede demostrarse con la regla de L´hoppital).
El término da cuenta de la propiedad recursiva de la distribución
gamma, tal que
Γ (α+ k, β) =
1
β
(k + α− 1)Γ (α+ k − 1, β)
Sustituyendo recursivamente
Γ (α+ k, β) =
(k + α− 1) (k + α− 2) . . . (α+ 1)α
βk
Γ (α, β) (5)
Necesitamos vincular Γ (α, β) con Γ (α) . Para esto notamos, de (4),
que
Γ (α, β) =
Z ∞
0
xα−1e−βxdx
multiplicando por βα
βαΓ (α, β) = β
Z ∞
0
(βx)α−1 e−βx
dxβ
β
y con z ≡ xβ
βαΓ (α, β) =
Z ∞
0
zα−1e−zdz (6)
= Γ (α) (7)
donde la última igualdad sigue de notar que la función
R∞
0
zα−1e−zdz
sólo es diferente a (2) en que el integrando tiene otro nombre. Pero
como ambos integrandos se integran en el mismo intervalo, es exacta-
mente lo mismo. De (??) tenemos que βα+kΓ (α+ k, β) = Γ (α+ k) .
Usando este resultado en (5) tenemos
1
βα+k
Γ (α+ k) =
(k + α− 1) (k + α− 2) . . . (α+ 1)α
βk
Γ (α, β)
Γ (α, β) = [βα (k + α− 1) (k + α− 2) . . . (α+ 1)α]−1 Γ (α+ k)(8)
2
y reemplazando βαΓ (α, β) = Γ (α)
Γ (α) = [(k + α− 1) (k + α− 2) . . . (α+ 1)α]−1 Γ (α+ k) (9)
Ahora sí, con (9) en (3) tenemos
E
£
Xk
¤
=
Z ∞
0
xk+α−1
βα
[(k + α− 1) (k + α− 2) . . . (α+ 1)α]−1 Γ (α+ k)e
−βxdx
y reordenando
E
£
Xk
¤
= (k + α− 1) (k + α− 2) . . . (α+ 1)α
Z ∞
0
xk+α−1
βα
Γ (α+ k)
βk
βk
e−βxdx
=
(k + α− 1) (k + α− 2) . . . (α+ 1)α
βk
Z ∞
0
xk+α−1
βα+k
Γ (α+ k)
e−βxdx
con n ≡ α+ k tenemos
E
£
Xk
¤
=
(k + α− 1) (k + α− 2) . . . (α+ 1)α
βk
Z ∞
0
βn
Γ (n)
xn−1e−βxdx
donde la intergral es 1 (es una densidad gamma). q.e.d.
b) La esperanza y varianza de la distribución gama son
E [X] = αβ V [X] =
α
β2 (10)
de los anteriores(o de (a)) tenemos
E
£
X2
¤
=
α (α+ 1)
β2
(11)
Sabemos que
dE [X] = 7.29 dV [X] = 85.59
Resolviendo el sistema
E [X] =
α
β
(12)
para α y β tenemos1
α =
E [X]2
E [X2]− E [X]2 (13)
β =
E [X]
E [X2]−E [X]2 (14)
1E
£
X2
¤
= α(α+1)
β2
= α
2
β2
+ α
β
1
β
= E [X]2 + E [X] 1
β
3
y reemplazando tenemos bα = 1.638 y bβ = 0.225. Por el teorema del
límite central sabemos que la típica transformación de los momentos
distribuye normal en el límite. Esto es
√
n
 1nPi xi − αβ
1
n
P
i
x2i − α(α+1)β2
 −→ N (0, V )
con
V =
·
V [xi] cov
¡
xi, x
2
i
¢
cov
¡
x2i , xi
¢
V
£
x2i
¤ ¸ = " αβ2 2α(α+1)β32α(α+1)
β3
2α(α+1)(α+3)
β4
#
2
de (13) y (14) definimos
g (z, t) =
z2
t− z2 (15)
h (z, t) =
z
t− z2 (16)
tal que ·
∂g
∂z
∂g
∂t
∂h
∂z
∂g
∂t
¸
=
 2z(t−2z2)(t−z2)2 z2(t−z2)2
t−3z2
(t−z2)2
z
(t−z2)2

Usando el método delta obtenemos las distribuciones de los parámet-
ros
√
n (bα− α) −→ N µ0, ¡ ∂g
∂z
∂g
∂t
¢
V
µ ∂g
∂z
∂g
∂t
¶¶
√
n
³bβ − β´ −→ N µ0, ¡ ∂h∂z ∂h∂t ¢V µ ∂h∂z∂h
∂t
¶¶
c) Estimación GMM3. Las condiciones de momentos son
E [m (Xi, α, β)] ≡ E
 Xi −
α
β
X2i − α(α+1)β2
X3i − α(α+1)(α+2)β3
 =

1
n
P
i
xi − αβ
1
n
P
i
x2i − α(α+1)β2
1
n
P
i
x3i − α(α+1)(α+2)β3
 = 0
2 cov
¡
xi, x2i
¢
= E
h³
xi − αβ
´ ³
x2i − α(α+1)β2
´i
= E
h
x3i − xi α(α+1)β2 − x2i αβ −
α2(α+1)
β3
i
= α(α+1)(α+2)
β3
− α2(α+1)
β3
− α2(α+1)
β3
+ α
2(α+1)
β3
= 2α(α+1)
β3
V
£
x2i
¤
= E
h³
x2i − α(α+1)β2
´ ³
x2i − α(α+1)β2
´i
= E
h
x4i − 2x2i α(α+1)β2 −
α2(α+1)2
β4
i
= α(α+1)(α+2)(α+3)
β4
− 2α2(α+1)2
β4
+
α2(α+1)2
β4
=
2α(α+1)(α+3)
β4
3Vean el capítulo 16 de los apuntes de Annette Vissing-Jorgensen para la relación entre la
matriz de ponderación óptima y la matriz de varianza covarianza.
4
La matriz de varianzas y covarianzas está dada por
Ω =
 V [Xi] cov ¡Xi,X2i ¢ cov ¡Xi,X3i ¢cov ¡X2i ,Xi¢ V £X2i ¤ cov ¡X2i ,X3i ¢
cov
¡
X3i ,Xi
¢
cov
¡
X3i ,X
2
i
¢
V
£
X3i
¤

Se calcula como cuando teníamos dos momentos (ahora se ponderan
óptimamente los tres momentos). Notar que Ω = Ω (α, β) . GMM
óptimo resuelve
min
α,β
E [m (Xi, α, β)]́ Ω E [m (Xi, α, β)]
min
α,β

1
n
P
i
xi − αβ
1
n
P
i
x2i − α(α+1)β2
1
n
P
i
x3i − α(α+1)(α+2)β3
´Ω

1
n
P
i
xi − αβ
1
n
P
i
x2i − α(α+1)β2
1
n
P
i
x3i − α(α+1)(α+2)β3

(se minimiza un escalar). Como el valor de Ω no es conocido de
antemano, comenzamos usando I3×3 en vez de Ω. Esto es lo que se
conoce como "GMM factible". Más concretamente, esto consiste en
Paso1: Obtener
³bα1, bβ1´ de
min
α,β
E [m (Xi, α, β)]́ I E [m (Xi, α, β)]
Paso 2: Construir bΩ1 = Ω³bα1, bβ1´ y obtener ³bα2, bβ2´ de
min
α,β
E [m (X,α, β)]́ bΩ1 E [m (X,α, β)]
Paso 3: Seguir iterando de la misma manera hasta que los parámet-
ros estimados cambien arbitrariamente poco.
2. Usted tiene una muestra de datos iid y1, . . . , yn sacada de la distribución
Pareto. La distribución acumulada de Yi es
F (yi) = P (Yi ≤ yi) =
½
1− y−δi si yi > 1
0 si yi ≤ 1
donde δ > 0. ¿Cómo usaría los dos primeros momentos de Yi para estimar
δ usando GMM? Formule la distribución asintótica del estimador GMM.
Solución
Los momentos poblacionales son
E [Yi] =
δ
δ−1 V [Yi] =
δ
(δ−1)2(δ−2)
5
de los anteriores(o de (a)) tenemos
E
£
Y 2i
¤
=
δ
(δ − 2)
y luego las condiciones de momentos son
E [m (Yi, δ)] ≡ E
"
Yi − δδ−1
Y 2i − δ(δ−1)2(δ−2)
#
= 0
La distribución asintótica de los momentos entonces es
√
n
Ã
1
n
X
i
m (yi, δ)
!
−→ N (0,Ω)
donde
Ω = E [m (Yi, δ)m (Yi, δ)́ ] = E
·
V [Yi] cov
¡
Yi, Y
2
i
¢
cov
¡
Y 2i , Yi
¢
V
£
Y 2i
¤ ¸
= E

³
Yi − δδ−1
´2 ³
Yi − δδ−1
´³
Yi − δδ−1
´2³
Yi − δδ−1
´2 ³
Yi − δδ−1
´ ³
Yi − δδ−1
´2 ³
Yi − δδ−1
´2

La estimación es a través de GMM factible como en el ejercicio an-
terior:
Paso 1: Obtener bδ1 de
min
δ
E [m (Yi, δ)]́ I E [m (Yi, δ)]
Paso 2: Construir bΩ1 = Ω³bδ1´ y obtener bδ2 de
min
δ
E [m (Yi, δ)]́ bΩ1E [m (Yi, δ)]
Paso 3: Seguir iterando de la misma manera hasta que el parámetro
estimado cambie arbitrariamente poco.
3. Considere el siguiente modelo:
y1i = z1iγ1 + β1 exp (y2i) + 1i (17)
y2i = z2iγ2 + β2y1i + 2i (18)
donde i = 1, . . . , n, n1 es n × k1, z2 es n × k2, k1 > 2, k2 > 2. z1 y z2 no
tienen variables en común. Estamos interesados en estimar los parámetros
de (17). Las observaciones son iid.
a) ¿Se obtienen estimadores consistentes de β1 y γ1 con el siguiente en-
foque?
6
Paso 1: Estimar (18) con 2SLS. Calcular los valores predichos by2i.
Paso 2: Usar exp (by2i) como proxypara exp (y2i) en (17) y estimar
(17) regresando y1i en z1i y exp (by2i) usando OLS (es como el
segundo paso de 2SLS en el modelo lineal).
b) ¿Se obtienen estimadores consistentes de β1 y γ1 con 2SLS en (17)
usando z1 y z2 como instrumentos?
c) Suponga que exp (y2i) en (17) fue reemplazado por yα2i donde α es
un parámetro adicional a ser estimado. Describa un procedimiento
GMM óptimo para estimar β1, γ1 y α.
Solución
a) No. No estaríamos dando cuenta de la simultaneidad.
Definition 2 bx = £ z1 exp (by2) ¤ , α = · γ1β1
¸
, z =
£
z1 z2
¤
Entonces
y1 = z1́γ1 + β1 exp (by2 +b2) + 1
= z1́γ1 + β1 exp (y2) + β1 [exp (by2 +b2)− exp (y2)] + 1
= z1́γ1 + β1 exp (y2) + u1
con u1 = β1 [exp (by2 +b2)− exp (y2)] + 1. Entonces
bα = (bx́bx)−1 (bx́y1)
= α+
µbx́bx
n
¶−1µbx́u1
n
¶
donde el segundo término no se va a cero en el límite por E [by2u1] 6= 0.
b) 2SLS en (17). Naturalmente suponemos z1, z2 ⊥ 1.Queremos aprovechar
la corrrelacion entre y2 y z2.
bα = (ẃx)−1 (ẃy1)
=
³
(x́z) (źz)−1 (źx)
´−1 ³
(x́z) (źz)−1 (źy1)
´
= (x́x)
−1
(x́y1)
= (x́x)−1 (x́ (xα+ 1))
= α+ (x́x)
−1
(x́ 1)
donde el límite de probabilidad del segundo término es cero.
c) Los momentos poblacionales son (sólo nos interesa la primera ecuación)
E [m (wi, δ)] ≡ E
·
z1i 1i
z2i 1i
¸
= E
·
z1i (y1i − z1iγ1 + β1yα2i)
z2i (y1i − z1iγ1 + β1yα2i)
¸
= 0
7
Definition 3 θ =
 γ1β1
α

Ω es la que satisface
√
n
¡
1
n
P
im (wi, δ)
¢ −→ N (0,Ω) . GMM factible
resuelve (como antes)
Paso 1: Obtener bθ1 de
min
θ
E [m (wi, δ)]́ I E [m (wi, δ)]
Paso 2: Construir bΩ1 = Ω³bθ1´ y obtener bθ2 de
min
θ
E [m (wi, δ)]́ bΩ1E [m (wi, δ)]
Paso 2: Seguir iterando de la misma manera hasta que los parámet-
ros estimados cambien arbitrariamente poco.
La distribución asintótica de los parámetros se obtiene usando el
método delta como usualmente.
8

Otros materiales

Materiales relacionados