Logo Studenta

Ayudantía4nueva

¡Este material tiene más páginas!

Vista previa del material en texto

EAS201a - Inferencia Estad́ıstica
Escuela de Administración
Material de Apoyo
Ayudant́ıa 4
: , 1
Propiedades de un Estimador
Tópicos de la Ayudant́ıa
I Insesgamiento
I Error cuadrático medio
I Consistencia
I Ejercicios Propuestos
: , 2
Propiedades de un Estimador
Tópicos de la Ayudant́ıa
I Insesgamiento
I Error cuadrático medio
I Consistencia
I Ejercicios Propuestos
: , 3
Propiedades de un Estimador
Insesgamiento
I Estimador Insesgado: Se dice que θ̂ es un Estimador Insesgado (EI)
del parámetro θ ssi
E(θ̂) = θ ∀ θ ∈ Θ,
y el sesgo es la cantidad: B(θ̂) = E(θ̂)− θ.
I Estimador Asintóticamente Insesgado: Se dice que θ̂ es un Estimador
Asintóticamente Insesgado (EAI) del parámetro θ ssi
ĺım
n→∞
E(θ̂) = θ ∀ θ ∈ Θ.
: , 4
Propiedades de un Estimador
Tópicos de la Ayudant́ıa
I Insesgamiento
Ejercicio 1
I Error cuadrático medio
I Consistencia
I Ejercicios Propuestos
: , 5
Propiedades de un Estimador
Insesgamiento: Ejercicio 1
Considere el estimador θ̂n del ejercicio 1 de estimación por método de los
momentos de la ayudant́ıa 3.
Recordatorio: En ese ejercicio Y1,Y2 . . . ,Yn es una muestra aleatoria sim-
ple iid con distribución Yi ∼ Uniforme(1, θ), y el estimador era
θ̂n = 2Y n − 1.
Calcule el valor esperado del estimador θ̂n.
¿Es insesgado el estimador θ̂n?
: , 6
Propiedades de un Estimador
Insesgamiento:Solución Ejercicio 1
Recuerde que si Y ∼ Uniforme(1, θ), entonces E(Y ) = (θ + 1)/2, por lo
tanto
E
(
θ̂n
)
= E
(
2Y n − 1
)
= 2E
(
Y n
)
− 1
=
2
n
n∑
i=1
E(Yi )− 1
iid
=
2
n
n(θ + 1)
2
− 1
= θ.
Efectivamente θ̂n es un estimador insesgado de θ.
: , 7
Propiedades de un Estimador
Tópicos de la Ayudant́ıa
I Insesgamiento
Ejercicio 2
I Error cuadrático medio
I Consistencia
I Ejercicios Propuestos
: , 8
Propiedades de un Estimador
Insesgamiento:Ejercicio 2
Considere una muestra aleatoria simple Y1,Y2, . . . ,Yn de una población
Y ∼ Uniforme(0, θ), muestre que estimador de máxima verosimilitud de θ
está dado por
θ̂n = máx{Y1,Y2, . . . ,Yn}.
Además responda las siguientes preguntas:
a) ¿Es el EMV es un estimador insesgado para θ?.
b) ¿Es el EMV es un estimador asintóticamente insesgado para θ?.
c) Construya un estimador insesgado para θ a partir del EMV.
: , 9
Propiedades de un Estimador
Insesgamiento:Solución Ejercicio 2
Se dispone de una m. a. s. de Y1,Y2, . . . ,Yn proveniente de una población
Uniforme(0, θ). Entonces la función de verosimilitud viene dada por
L(θ; Y) =
 1θn, Si 0 ≤ Y1 ≤ θ, 0 ≤ Y2 ≤ θ, . . . , 0 ≤ Yn ≤ θ,0, en otro caso.
=
 1θn, Si Y(n) ≤ θ <∞ y 0 ≤ Y(1) ≤ Y(n),0, en otro caso.
donde Y(1) = ḿın{Y1,Y2 . . . ,Yn} y Y(n) = máx{Y1,Y2, . . . ,Yn}. Note
que la función L(θ; Y) es una función estrictamente decreciente en θ, donde
θ ∈ [Y(n),∞), por lo tanto el máximo es θ̂n = Y(n).
: , 10
Propiedades de un Estimador
Insesgamiento:Solución Ejercicio 2
Para resolver a) se necesita encontrar la distribución del máx{Y1,Y2, . . . ,Yn}.
Definamos T = máx{Y1,Y2, . . . ,Yn} entonces
Pr(T ≤ t) = Pr(máx{Y1,Y2, . . . ,Yn} ≤ t)
= Pr(Y1 ≤ t,Y2 ≤ t, . . . ,Yn ≤ t)
ind
=
n∏
i=1
Pr(Yi ≤ t)
iid
= (FY (t))
n
Como Y tiene densidad, podemos derivar para encontrar la densidad de
T ,
fT (t) = n (FY (t))
n−1 fY (t), donde 0 ≤ t ≤ θ.
: , 11
Propiedades de un Estimador
Insesgamiento:Solución Ejercicio 2
Finalmente debemos reemplazar la FY (t) y fY (t) de la distribución Unif (0, θ).
fT (t) =
 n
(
t
θ
)n−1
1
θ
, donde 0 ≤ t ≤ θ,
0, en otro caso.
=
 nθn tn−1, donde 0 ≤ t ≤ θ,0, en otro caso.
Ahora se debe tomar la esperanza de T para determinar si el estimador es
insesgado.
: , 12
Propiedades de un Estimador
Insesgamiento:Solución Ejercicio 2
E(T ) =
∫ θ
0
t
n
θn
tn−1dt
=
n
θn
∫ θ
0
tndt
=
n
θn
×
tn+1
n + 1
∣∣∣∣∣
θ
0
=
n
n + 1
θ
Dado que E
(
θ̂n
)
= nn+1 θ, el estimador θ̂n = máx{Y1,Y2, . . . ,Yn} no es
insesgado para θ.
: , 13
Propiedades de un Estimador
Insesgamiento:Solución Ejercicio 2
Para responder a la pregunta b), debemos tomar el ĺımite de la esperanza
anterior,
ĺım
n→∞
E
(
θ̂n
)
= ĺım
n→∞
n
n + 1
θ = θ.
De lo anterior θ̂n = máx{Y1,Y2, . . . ,Yn} es asintóticamente insesgado
para θ.
: , 14
Propiedades de un Estimador
Insesgamiento:Solución Ejercicio 2
En c) nos piden utilizar el EMV más el valor esperado determinado en a),
aśı es fácil ver que
θ̃n =
n + 1
n
θ̂n
es un estimador insesgado para θ, donde θ̂n es el EMV. Tomando esperanza
del estimador
E
(
θ̃n
)
=
n + 1
n
E
(
θ̂n
)
a)
=
n + 1
n
n
n + 1
θ
= θ
: , 15
Propiedades de un Estimador
Tópicos de la Ayudant́ıa
I Insesgamiento
Ejercicio 3
I Error cuadrático medio
I Consistencia
I Ejercicios Propuestos
: , 16
Propiedades de un Estimador
Insesgamiento: Ejercicio 3
El departamento de Marketing de un banco está estudiando la efectivi-
dad de todas las campañas de venta de créditos de consumo realizadas
durante el año. La efectividad de cada campaña corresponde a la propor-
ción de clientes que tomaron créditos. El equipo que está realizando este
estudio determino que la efectividad de cada campaña tiene la siguiente
distribución
f (y |θ) = θyθ−1, 0 ≤ y ≤ 1, θ > 0
Suponga que el equipo de Marketing dispone de una m. a. s. de efectivi-
dades Y1,Y2, . . . ,Yn, entonces
a) Entregue el EMV de θ.
b) Es insesgado el estimador que está ofreciendo para el departamento
de Marketing.
: , 17
Propiedades de un Estimador
Insesgamiento: Solución Ejercicio 3
a) Para determina el EMV, necesitamos encontrar la función de verosimi-
litud
L(θ; Y) =
n∏
i=1
θY θ−1i
=
n∏
i=1
θe(θ−1) log(Yi )
= θne(θ−1)
∑n
i=1 log(Yi )
tomando logaritmo tenemos la log verosimilitud
`(θ) = n log(θ) + (θ − 1)
n∑
i=1
log(Yi )
: , 18
Propiedades de un Estimador
Insesgamiento: Solución Ejercicio 3
Derivando e igualando a cero
d
dθ
`(θ) =
n
θ
+
n∑
i=1
log(Yi ) = 0
luego despejamos θ para obtener el EMV
θ̂n =
n
−
∑n
i=1 log(Yi )
: , 19
Propiedades de un Estimador
Insesgamiento: Solución Ejercicio 3
b) Para verificar si el EMV es insesgado, debemos tomar la esperanza del
estimador, sin embargo, para facilitar el cálculo primero debemos encontrar
la distribución de U = − log(Y ).
Pr(U ≤ u) = Pr(− log(Y ) ≤ u)
= Pr(Y ≥ e−u)
= 1− Pr(Y < e−u)
= 1− FY (e−u)
Derivando podemos encontrar la densidad de U.
fU(u) =
d
du
(
1− FY (e−u)
)
= fY
(
e−u
)
e−u = θe−(θ−1)ue−u
= θe−θu,
: , 20
Propiedades de un Estimador
Insesgamiento: Solución Ejercicio 3
Dado que 0 ≤ X ≤ 1 implica que −∞ < log(X ) ≤ 0, entonces
fU(u) =
{
θe−θu, si u ≥ 0, θ > 0,
0, en otro caso.
Note que U = − log(Y ) ∼ Exp(θ). Pero sabemos que la suma de va-
riables exponenciales T = −
∑n
i=1 log(Yi ) =
∑n
i=1 Ui tiene distribución
Gamma(n, θ) de la forma
fT (t) =
θn
Γ(n)
tn−1e−θt , t ≥ 0, θ > 0.
: , 21
Propiedades de un Estimador
Insesgamiento: Solución Ejercicio 3
Ahora podemos estudiar el insesgamiento del estimador. Considere la va-
riable aleatoria T = −
∑n
i=1 log(Yi ) ∼ Gamma(n, θ), aśı
E(θ̂n) = E
(
n
T
)
= nE
(
1
T
)
= n
∫ ∞
0
1
t
θn
Γ(n)
tn−1e−θtdt
= n
∫ ∞
0
θn
Γ(n)
tn−1−1e−θtdt
= n
∫ ∞
0
Γ(n − 1)
Γ(n − 1)
θ
θ
θn
Γ(n)
tn−1−1e−θtdt
= n θ
Γ(n − 1)
Γ(n)
∫ ∞
0
θn−1
Γ(n − 1) t
n−1−1e−θtdt
: , 22
Propiedades de un Estimador
Insesgamiento: Solución Ejercicio 3
Para lo anterior usaremos los siguientes argumentos:
∫ ∞
0
θn−1
Γ(n − 1) t
n−1−1e−θt︸ ︷︷ ︸
Es una distribución Gamma(n − 1, θ)
dt = 1 y Γ(n) = (n − 1)Γ(n − 1)
Entonces E(θ̂n) =
n
n−1 θ, aśı concluimos que θ̂n no es un estimador inses-
gado, pero śı asintóticamente insesgado,
ĺım
n→∞
E
(
θ̂n
)
= ĺım
→∞
n
n − 1 θ = θ.
: , 23
Propiedades de un Estimador
Tópicos de la Ayudant́ıa
I Insesgamiento
I Error cuadrático medio
I Consistencia
I Ejercicios Propuestos
: , 24
Propiedades de un Estimador
Error Cuadrático Medio
Error Cuadrático Medio: El Error Cuadrático Medio (ECM) del estimador
θ̂ de θ corresponde aECM(θ̂) = E
(
θ̂ − θ
)2
= Var
(
θ̂
)
+ B2(θ̂)
Donde la cantidad B(θ̂) = E
(
θ̂
)
− θ corresponde al sesgo. Si θ̂ es un
estimador insesgado entonces
ECM(θ̂) = Var
(
θ̂
)
: , 25
Propiedades de un Estimador
Error Cuadrático Medio
El ECM la herramienta utilizada para comparar el desempeño de estima-
dores.
Se dice que el estimador θ̂1 es mejor que θ̂2, si
ECM
(
θ̂1
)
< ECM
(
θ̂2
)
: , 26
Propiedades de un Estimador
Tópicos de la Ayudant́ıa
I Insesgamiento
I Error cuadrático medio
Ejercicio 1
I Consistencia
I Ejercicios Propuestos
: , 27
Propiedades de un Estimador
Error Cuadrático Medio: Ejercicio 1
Considere una muestra aleatoria simple de Y1,Y2, . . . ,Yn de una población
Y ∼ Uniforme(0, θ). Sabemos que
� El EM está dado por θ̂em = 2Y n.
� El EMV está dado por θ̂emv = máx{Y1,Y2, . . . ,Yn}.
Entonces
a) Encuentre el ECM de ambos estimadores.
b) ¿Cual estimador preferiŕıa usted?.
: , 28
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 1
a) Para calcular el ECM del estimador de momentos debemos verificar si
es insesgado
E
(
θ̂em
)
= E
(
2Y n
)
=
2
n
n∑
i=1
E
(
Yi
)
=
2
n
n
θ
2
= θ
Efectivamente θ̂em es un estimador insesgado de θ, por lo tanto ECM será
la varianza del estimador.
ECM
(
θ̂em
)
= Var
(
θ̂em
)
= Var
(
2Y n
)
iid
=
4
n2
n∑
i=1
Var
(
Yi
)
=
4
n2
n
θ2
12
=
θ2
3n
: , 29
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 1
Para el estimador de momento, se tiene ECM
(
θ̂em
)
= θ
2
3n .
Por lo realizado en el ejercicio 2 de insesgamiento, sabemos que si se define
T = máx{Y1,Y2, . . . ,Yn} entonces su distribución es
fT (t) =
 nθn tn−1, donde 0 ≤ t ≤ θ,0, en otro caso.
y que E
(
T
)
= nn+1θ. Con estos antecedentes sabemos que el estimador
es sesgado, sólo nos falta calcular la varianza del estimador
: , 30
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 1
Dado que ya tenemos la media, necesitamos el segundo momento de la
distribución para calcular la varianza:
E
(
T 2
)
=
∫ θ
0
t2
n
θn
tn−1dt
=
n
θn
∫ θ
0
tn+1dt
=
n
θn
tn+2
n + 2
∣∣∣∣∣
t=θ
t=0
=
n
θn
θn+2
n + 2
=
n
n + 2
θ2
: , 31
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 1
Aśı la varianza
Var
(
T
)
=
n
n + 2
θ2 −
(
n
n + 1
θ
)2
= θ2
[
n
n + 2
−
n2
(n + 1)2
]
= θ2
[
n(n2 + 2n + 1)− n2(n + 2)
(n + 2)(n + 1)2
]
= θ2
[
n3 + 2n2 + n − n3 − 2n2
(n + 2)(n + 1)2
]
= θ2
n
(n + 2)(n + 1)2
: , 32
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 1
Recuerde que el ECM es Var
(
θ̂
)
+ B2
(
θ̂
)
,
ECM(θ̂emv ) = θ
2 n
(n + 2)(n + 1)2
+
(
n
n + 1
θ − θ
)2
= θ2
(
n
(n + 2)(n + 1)2
+
1
(n + 1)2
)
= θ2
2n + 2
(n + 2)(n + 1)2
= θ2
2
(n + 2)(n + 1)
: , 33
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 1
b) Aqúı se debe justificar la respuesta, para esto utilicemos los siguientes
argumentos:
I El estimador de momento θ̂em = 2Y n es insesgado mientras que el
estimador de máxima verosimilitud θ̂emv = máx{Y1,Y2, . . . ,Yn} es
asintóticamente insesgado.
I El EMV tiene un ECM mucho menor que el estimador de momento:
ECM
(
θ̂em
)
−ECM
(
θ̂emv
)
= θ2
[
1
3n
−
2
(n + 2)(n + 1)
]
= θ2
[
n2 − 3n + 2
n2 + 3n + 2
]
≥ 0
: , 34
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 1
A pesar de que el EMV es asintóticamente insesgado, es mucho más preciso
que el EM, entonces el estimador propuesto para el parámetro θ es
θ̂emv = máx{Y1,Y2, . . . ,Yn}
: , 35
Propiedades de un Estimador
Tópicos de la Ayudant́ıa
I Insesgamiento
I Error cuadrático medio
Ejercicio 2
I Consistencia
I Ejercicios Propuestos
: , 36
Propiedades de un Estimador
Error Cuadrático Medio: Ejercicio 2
Suponga que se dispone de Y1,Y2, . . . ,Yn muestra aleatoria simple de una
población con la siguiente distribución
f (y |θ) = e−(y−θ), y > θ, θ > 0,
y se proponen dos estimadores para el parámetro desconocido θ,
θ̂1 = Y n − 1 y θ̂2 = ḿın{Y1,Y2, . . . ,Yn} − 1n .
a) Muestre que ambos estimadores son insesgados.
b) calcule el ECM de cada estimador.
c) ¿Que estimador es más preciso?.
: , 37
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 2
a) Para calcular la esperanza del estimador θ̂1 necesitamos el primer mo-
mento de la distribución Y , entonces
E(Y ) =
∫ ∞
θ
ye−(y−θ)dy
=
∫ ∞
0
(x + θ)e−xdx , usando cambio variable x = y − θ
=
∫ ∞
0
xe−xdx︸ ︷︷ ︸
Es dist. Gamma(2, 1)
+θ
∫ ∞
0
e−xdx︸ ︷︷ ︸
Es dist. Exp(1)
= 1 + θ
Aśı, E
(
θ̂1
)
= E(Y n)−1 = 1n
∑n
i=1 E(Yi )−1 =
n
n (θ+ 1)−1 = θ, entonces
es un estimador insesgado.
: , 38
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 2
Para calcular la esperanza de θ̂2 se necesita la distribución del ḿınimo.
Defina T = ḿın{Y1,Y2, . . . ,Yn} entonces
Pr(T ≤ t) = Pr(ḿın{Y1,Y2, . . . ,Yn} ≤ t)
= 1− Pr(ḿın{Y1,Y2, . . . ,Yn} > t)
ind
= 1− Pr(Y1 > t) · Pr(Y2 > t) · · ·Pr(Yn > t)
iid
= 1− Pr(Y > t)n
= 1− (1− Fy (t))n
Para encontrar la densidad podemos derivar con respecto a t (aplicando
regla de la cadena)
fT (t) = n(1− FY (t))n−1fY (t), t > θ, θ > 0.
: , 39
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 2
Sólo necesitamos la función de distribución acumulada de Y ,
Fy (y) =
∫ y
θ
e−(z−θ)dz
= eθ
∫ y
θ
e−zdz
= eθ
(
−e−z
)∣∣z=y
z=θ
= eθ
(
e−θ − e−y
)
= 1− e−(y−θ)
La densidad de T = ḿın{Y1,Y2, . . . ,Yn} será
fT (t) = n
(
e−(t−θ)
)n−1
e−(t−θ) = ne−n(t−θ)
: , 40
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 2
Basta con tomar valor esperado del estimador θ̂2 = T − 1n ,
E
(
θ̂2
)
= E(T )−
1
n
=
∫ ∞
θ
nte−n(t−θ)dt −
1
n
=
∫ ∞
0
n(x + θ)e−nxdx −
1
n
, usando cambio variable x = t − θ
=
1
n
∫ ∞
0
n2xe−nxdx︸ ︷︷ ︸
Es dist. Gamma(2, n)
+θ
∫ ∞
0
ne−nxdx︸ ︷︷ ︸
Es dist. Exp(n)
−
1
n
=
1
n
+ θ −
1
n
= θ.
: , 41
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 2
Ambos estimadores son insesgados.
b) Basta calcular las varianzas (resultados de a)). Para calcular la varianza
de θ̂1 primero hay que calcular el segundo momento de Y ,
E(Y 2) =
∫ ∞
θ
y 2e−(y−θ)dy
=
∫ ∞
0
(x + θ)2e−xdx , usando cambio variable x = y − θ
=
∫ ∞
0
(x2 + 2θx + θ2)e−xdx
= 2
∫ ∞
0
1
2
x2e−xdx︸ ︷︷ ︸
Es dist. Gamma(3, 1)
+2θ
∫ ∞
0
xe−xdx︸ ︷︷ ︸
Es dist. Gamma(2, 1)
+θ2
∫ ∞
0
e−xdx︸ ︷︷ ︸
Es dist. Exp(1)
= 2 + 2θ + θ2
: , 42
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 2
Entonces la varianza de Y
Var(Y ) = E(Y 2)− E2(Y )
= 2 + 2θ + θ2 − (1 + θ)2
= 1
Aśı
Var
(
θ̂1
)
= Var(Y n − 1)
= Var(Y n)
iid
=
1
n2
n∑
i=1
Var(Yi )
=
1
n
: , 43
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 2
Para calcular la varianza del estimador θ̂2 vamos a necesitar el segundo
momento de T ,
E
(
T 2
)
=
∫ ∞
θ
nt2e−n(t−θ)dt
=
∫ ∞
0
n(x + θ)2e−nxdx , usando cambio variable x = t − θ
=
2
n2
∫ ∞
0
1
2
n3x2e−nxdx︸ ︷︷ ︸
Es dist. Gamma(3, n)
+
2θ
n
∫ ∞
0
n2xe−nxdx︸ ︷︷ ︸
Es dist. Gamma(2, n)
+θ2
∫ ∞
0
ne−nxdx︸ ︷︷ ︸
Es dist. Exp(n)
=
2
n2
+
2θ
n
+ θ2
: , 44
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 2
Ahora podemos calcular la varianza de T
Var(T ) = E(T 2)− E2(T )
=
2
n2
+
2θ
n
+ θ2 −
(
θ +
1
n
)2
=
2
n2
+
2θ
n
+ θ2 − θ2 −
2θ
n
−
1
n2
=
1
n2
Luego, la varianza del estimador θ̂2 está dada por
Var
(
θ̂2
)
= Var
(
T −
1
n
)
= Var(T ) =
1
n2
: , 45
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 2
c) Aqúı comparamos directamente los ECM para la elección del mejor
estimador, y dado los cálculos de b) sabemos que
ECM
(
θ̂2
)
=
1
n2
≤
1
n
= ECM
(
θ̂1
)
, ∀n ≥ 1,
entonces, el estimador elegido para estimar θ es
θ̂2 = ḿın{Y1,Y2, . . . ,Yn} −
1
n
: , 46
Propiedades de un Estimador
Tópicos de la Ayudant́ıa
I Insesgamiento
I Error cuadrático medio
I ConsistenciaI Ejercicios Propuestos
: , 47
Propiedades de un Estimador
Consistencia
Consistencia: Se dice que θ̂n es consistente para estimar el parámetro θ
ssi ĺımn→∞ ECM
(
θ̂n
)
= 0 Esta propiedad también se conoce como con-
vergencia en media cuadrática (MC) o consistencia fuerte o simplemente
consistencia.
Consistencia Débil: θ̂n es un estimador debilmente consistente de un paráme-
tro θ ssi
ĺım
n→∞
Pr
(∣∣θ̂ − θ∣∣ ≥ ε) = 0,∀ε > 0, o equivamentemente
ĺım
n→∞
Pr
(∣∣θ̂ − θ∣∣ ≤ ε) = 1,∀ε > 0
: , 48
Propiedades de un Estimador
Consistencia
Propiedad: Si θ̂ converge en MC entonces θ̂ converge en probabilidad a θ.
¿Para que sirve la consistencia de un estimador?
La consistencia es una propiedad de algunos estimadores, esta propiedad
nos informa que a medida que aumentamos el tamaño muestral, nuestro
estimador se vuelve más preciso. Es decir, los estimadores consistentes
logran mejores estimaciones a medida que aumenta el tamaño muestral
(un requerimiento lógico y ḿınimo).
: , 49
Propiedades de un Estimador
Tópicos de la Ayudant́ıa
I Insesgamiento
I Error cuadrático medio
I Consistencia
Ejercicio 1
I Ejercicios Propuestos
: , 50
Propiedades de un Estimador
Consistencia: Ejercicio 1
En el ejercicio 2 de insesgamiento se determinó que para una muestra
aleatoria simple Y1,Y2, . . . ,Yn de una población Y ∼ Uniforme(0, θ) el
EMV está dado por θ̂n = máx{Y1,Y2, . . . ,Yn}. En el mismo contexto del
ejercicio 2 Muestre lo siguiente:
a) La consistencia débil de θ̂n.
b) La consistencia en media cuadrática de θ̂n.
: , 51
Propiedades de un Estimador
Consistencia: Solución Ejercicio 1
a) A partir del ejercicio 2 de insesgamiento tenemos la distribución de
T = máx{Y1,Y2, . . . ,Yn},
fT (t) =
 nθn tn−1, donde 0 ≤ t ≤ θ,0, en otro caso.
Entonces, ∀ε > 0, se analiza el caso θ ≥ ε (sino es cero), se tiene
Pr
(∣∣θ̂ − θ∣∣ ≥ ε) = Pr(∣∣T − θ∣∣ ≥ ε)
= Pr ({T − θ ≥ ε} ∪ {T − θ ≤ −ε})
= Pr (T ≥ ε+ θ) + Pr (T ≤ −ε+ θ)
: , 52
Propiedades de un Estimador
Consistencia: Solución Ejercicio 1
Pero note que T ∈ (0, θ), por lo tanto Pr (T ≥ ε+ θ) = 0, aśı
Pr
(∣∣θ̂n − θ∣∣ ≥ ε) = Pr (T ≤ θ − ε)
=
∫ θ−ε
0
n
θn
tn−1dt
=
1
θn
∫ θ−ε
0
n tn−1dt
=
1
θn
tn
∣∣∣t=θ−ε
t=0
=
(
θ − ε
θ
)n
=
(
1−
ε
θ
)n
: , 53
Propiedades de un Estimador
Consistencia: Solución Ejercicio 1
Recuerde que a < 1, entonces ĺımn→∞ a
n = 0, por lo tanto
ĺım
n→∞
Pr
(∣∣θ̂n − θ∣∣ ≥ ε) = ĺım
n→∞
(
1−
ε
θ
)n
= 0
b) Para el cálculo del ECM se necesita el segundo momento de T ,
E(T 2) =
∫ θ
0
t2
n
θn
tn−1dt
=
n
θn
∫ θ
0
tn+1dt
=
n
θn
tn+2
n + 2
∣∣∣∣∣
t=θ
t=0
=
n
θn
θn+2
n + 2
=
n
n + 2
θ2
: , 54
Propiedades de un Estimador
Consistencia: Solución Ejercicio 1
Entonces el ECM es la varianza más el sesgo al cuadrado,
ECM
(
θ̂n
)
= Var
(
θ̂n
)
+ B2
(
θ̂n
)
=
n
n + 2
θ2 −
(
n
n + 1
θ
)2
+ θ2
(
1−
n
n + 1
)
= θ2
[
n(n2 + 2n + 1)− n2(n + 2)
(n + 2)(n + 1)2
]
+ θ2
1
n + 1
= θ2
[
n
(n + 2)(n + 1)2
+
1
n + 1
]
= θ2
[
n2 + 4n + 2
(n + 2)(n + 1)2
]
: , 55
Propiedades de un Estimador
Consistencia: Solución Ejercicio 1
Luego tomamos ĺımite
ĺım
n→∞
ECM
(
θ̂n
)
= ĺım
n→∞
θ2
[
n2 + 4n + 2
(n + 2)(n + 1)2
]
= ĺım
n→∞
θ2

n2
(
1 +
4
n
+
2
n2
)
n2
(
1 +
1
n
)2
(n + 2)

= ĺım
n→∞
θ2

(
1 +
4
n
+
2
n2
)
(
1 +
1
n
)2
(n + 2)

= 0
: , 56
Propiedades de un Estimador
Tópicos de la Ayudant́ıa
I Insesgamiento
I Error cuadrático medio
I Consistencia
I Ejercicios Propuestos
: , 57
Propiedades de un Estimador
Ejercicios Propuestos
1. Considere que dispone de un muestra aleatoria simple X1,X2, . . . ,Xn
de una población con la siguiente distribución.
f (x |θ) =
x
θ2
e−x/θ, x ≥ 0, θ > 0.
a) Muestre que el EMV es igual a EM.
b) Encuentre el ECM del estimador de máxima verosimilitud.
c) Muestre que el EMV es consistente en media cuadrática.
: , 58
Propiedades de un Estimador
Ejercicios Propuestos
2. Sea X1,X2, . . . ,Xn una muestra iid con distribución Normal(0, σ
2).
a) Muestre que el EMV está dado por σ̂2 =
∑n
i=1 X
2
i
n
.
b) Reporte el ECM del estimador.
c) Muestre que el estimador es cumple con la consistencia débil.
3. Sea X1,X2, . . . ,Xn una muestra iid con distribución
f (x |θ) =
 2θ
2
x3
, si θ ≤ y <∞,
0, en otro caso.
a) Muestre que el EMV está dado por θ̂ = ḿın{X1,X2, . . . ,Xn}.
b) ¿Es asintóticamente insesgado el EMV?.
c) Muestre que el estimador es cumple con la consistencia débil.
: , 59

Otros materiales