Logo Studenta

Ayudantia 4

¡Este material tiene más páginas!

Vista previa del material en texto

EAS201a - Inferencia Estad́ıstica
Escuela de Administración
Material de Apoyo
Ayudant́ıa 4
: , 1
Propiedades de un Estimador
Tópicos de la Ayudant́ıa
I
Insesgamiento
I
Error cuadrático medio
I
Consistencia
I
Ejercicios Propuestos
: , 2
Propiedades de un Estimador
Tópicos de la Ayudant́ıa
I
Insesgamiento
I
Error cuadrático medio
I
Consistencia
I
Ejercicios Propuestos
: , 3
Propiedades de un Estimador
Insesgamiento
I
Estimador Insesgado: Se dice que
ˆ✓ es un Estimador Insesgado (EI)
del parámetro ✓ ssi
E(
b✓) = ✓ 8 ✓ 2 ⇥,
y el sesgo es la cantidad: B(
b✓) = E(b✓)� ✓.
I
Estimador Asintóticamente Insesgado: Se dice que
b✓ es un Estimador
Asintóticamente Insesgado (EAI) del parámetro ✓ ssi
ĺım
n!1
E(
ˆ✓) = ✓ 8 ✓ 2 ⇥.
: , 4
Propiedades de un Estimador
Tópicos de la Ayudant́ıa
I
Insesgamiento
Ejercicio 1
I
Error cuadrático medio
I
Consistencia
I
Ejercicios Propuestos
: , 5
Propiedades de un Estimador
Insesgamiento: Ejercicio 1
Considere el estimador
b✓
n
del ejercicio 1 de estimación por método de los
momentos de la ayudant́ıa 3.
Recordatorio: En ese ejercicio Y
1
,Y
2
. . . ,Y
n
es una muestra aleatoria sim-
ple iid con distribución Y
i
⇠ Uniforme(1, ✓), y el estimador era
b✓
n
= 2Y
n
� 1.
Calcule el valor esperado del estimador
b✓
n
.
¿Es insesgado el estimador
b✓
n
?
: , 6
Propiedades de un Estimador
Insesgamiento:Solución Ejercicio 1
Recuerde que si Y ⇠ Uniforme(1, ✓), entonces E(Y ) = (✓ + 1)/2, por lo
tanto
E
�b✓
n
�
= E
�
2Y
n
� 1
�
= 2E
�
Y
n
�
� 1
=
2
n
nX
i=1
E(Y
i
)� 1
iid
=
2
n
n(✓ + 1)
2
� 1
= ✓.
Efectivamente
b✓
n
es un estimador insesgado de ✓.
: , 7
Propiedades de un Estimador
Tópicos de la Ayudant́ıa
I
Insesgamiento
Ejercicio 2
I
Error cuadrático medio
I
Consistencia
I
Ejercicios Propuestos
: , 8
Propiedades de un Estimador
Insesgamiento:Ejercicio 2
Considere una muestra aleatoria simple Y
1
,Y
2
, . . . ,Y
n
de una población
Y ⇠ Uniforme(0, ✓), muestre que estimador de máxima verosimilitud de ✓
está dado por
b✓
n
= máx{Y
1
,Y
2
, . . . ,Y
n
}.
Además responda las siguientes preguntas:
a) ¿Es el EMV es un estimador insesgado para ✓?.
b) ¿Es el EMV es un estimador asintóticamente insesgado para ✓?.
c) Construya un estimador insesgado para ✓ a partir del EMV.
: , 9
Propiedades de un Estimador
Insesgamiento:Solución Ejercicio 2
Se dispone de una m. a. s. de Y
1
,Y
2
, . . . ,Y
n
proveniente de una población
Uniforme(0, ✓). Entonces la función de verosimilitud viene dada por
L(✓;Y) =
8
<
:
1
✓n
, Si 0  Y
1
 ✓, 0  Y
2
 ✓, . . . , 0  Y
n
 ✓,
0, en otro caso.
=
8
<
:
1
✓n
, Si Y
(n)
 ✓ < 1 y 0  Y
(1)
 Y
(n)
,
0, en otro caso.
donde Y
(1)
= ḿın{Y
1
,Y
2
. . . ,Y
n
} y Y
(n)
= máx{Y
1
,Y
2
, . . . ,Y
n
}. Note
que la función L(✓;Y) es una función estrictamente decreciente en ✓, donde
✓ 2 [Y
(n)
,1), por lo tanto el máximo es b✓
n
= Y
(n)
.
: , 10
Propiedades de un Estimador
Insesgamiento:Solución Ejercicio 2
Para resolver a) se necesita encontrar la distribución del máx{Y
1
,Y
2
, . . . ,Y
n
}.
Definamos T = máx{Y
1
,Y
2
, . . . ,Y
n
} entonces
Pr(T  t) = Pr(máx{Y
1
,Y
2
, . . . ,Y
n
}  t)
= Pr(Y
1
 t,Y
2
 t, . . . ,Y
n
 t)
ind
=
nY
i=1
Pr(Y
i
 t)
iid
= (F
Y
(t))
n
Como Y tiene densidad, podemos derivar para encontrar la densidad de
T ,
f
T
(t) = n (F
Y
(t))
n�1
f
Y
(t), donde 0  t  ✓.
: , 11
Propiedades de un Estimador
Insesgamiento:Solución Ejercicio 2
Finalmente debemos reemplazar la F
Y
(t) y f
Y
(t) de la distribución Unif (0, ✓).
f
T
(t) =
8
><
>:
n
 
t
✓
!
n�1
1
✓
, donde 0  t  ✓,
0, en otro caso.
=
8
<
:
n
✓n
t
n�1, donde 0  t  ✓,
0, en otro caso.
Ahora se debe tomar la esperanza de T para determinar si el estimador es
insesgado.
: , 12
Propiedades de un Estimador
Insesgamiento:Solución Ejercicio 2
E(T ) =
Z ✓
0
t
n
✓n
t
n�1
dt
=
n
✓n
Z ✓
0
t
n
dt
=
n
✓n
⇥
t
n+1
n + 1
�����
✓
0
=
n
n + 1
✓
Dado que E
�b✓
n
�
=
n
n+1
✓, el estimador b✓
n
= máx{Y
1
,Y
2
, . . . ,Y
n
} no es
insesgado para ✓.
: , 13
Propiedades de un Estimador
Insesgamiento:Solución Ejercicio 2
Para responder a la pregunta b), debemos tomar el ĺımite de la esperanza
anterior,
ĺım
n!1
E
�b✓
n
�
= ĺım
n!1
n
n + 1
✓ = ✓.
De lo anterior
b✓
n
= máx{Y
1
,Y
2
, . . . ,Y
n
} es asintóticamente insesgado
para ✓.
: , 14
Propiedades de un Estimador
Insesgamiento:Solución Ejercicio 2
En c) nos piden utilizar el EMV más el valor esperado determinado en a),
aśı es fácil ver que
e✓
n
=
n + 1
n
b✓
n
es un estimador insesgado para ✓, donde b✓
n
es el EMV. Tomando esperanza
del estimador
E
�e✓
n
�
=
n + 1
n
E
�b✓
n
�
a)
=
n + 1
n
n
n + 1
✓
= ✓
: , 15
Propiedades de un Estimador
Tópicos de la Ayudant́ıa
I
Insesgamiento
Ejercicio 3
I
Error cuadrático medio
I
Consistencia
I
Ejercicios Propuestos
: , 16
Propiedades de un Estimador
Insesgamiento: Ejercicio 3
El departamento de Marketing de un banco está estudiando la efectivi-
dad de todas las campañas de venta de créditos de consumo realizadas
durante el año. La efectividad de cada campaña corresponde a la propor-
ción de clientes que tomaron créditos. El equipo que está realizando este
estudio determino que la efectividad de cada campaña tiene la siguiente
distribución
f (y |✓) = ✓y✓�1, 0  y  1, ✓ > 0
Suponga que el equipo de Marketing dispone de una m. a. s. de efectivi-
dades Y
1
,Y
2
, . . . ,Y
n
, entonces
a) Entregue el EMV de ✓.
b) Es insesgado el estimador que está ofreciendo para el departamento
de Marketing.
: , 17
Propiedades de un Estimador
Insesgamiento: Solución Ejercicio 3
a) Para determina el EMV, necesitamos encontrar la función de verosimi-
litud
L(✓;Y) =
nY
i=1
✓Y ✓�1
i
=
nY
i=1
✓e(✓�1) log(Yi )
= ✓ne(✓�1)
P
n
i=1
log(Y
i
)
tomando logaritmo tenemos la log verosimilitud
`(✓) = n log(✓) + (✓ � 1)
nX
i=1
log(Y
i
)
: , 18
Propiedades de un Estimador
Insesgamiento: Solución Ejercicio 3
Derivando e igualando a cero
d
d✓
`(✓) =
n
✓
+
nX
i=1
log(Y
i
) = 0
luego despejamos ✓ para obtener el EMV
b✓
n
=
n
�
P
n
i=1
log(Y
i
)
: , 19
Propiedades de un Estimador
Insesgamiento: Solución Ejercicio 3
b) Para verificar si el EMV es insesgado, debemos tomar la esperanza del
estimador, sin embargo, para facilitar el cálculo primero debemos encontrar
la distribución de U = � log(Y ).
Pr(U  u) = Pr(� log(Y )  u)
= Pr(Y � e�u)
= 1� Pr(Y < e�u)
= 1� F
Y
(e
�u
)
Derivando podemos encontrar la densidad de U.
f
U
(u) =
d
du
�
1� F
Y
(e
�u
)
�
= f
Y
�
e
�u�
e
�u
= ✓e�(✓�1)ue�u
= ✓e�✓u,
: , 20
Propiedades de un Estimador
Insesgamiento: Solución Ejercicio 3
Dado que 0  X  1 implica que �1 < log(X )  0, entonces
f
U
(u) =
⇢
✓e�✓u, si u � 0, ✓ > 0,
0, en otro caso.
Note que U = � log(Y ) ⇠ Exp(✓). Pero sabemos que la suma de va-
riables exponenciales T = �
P
n
i=1
log(Y
i
) =
P
n
i=1
U
i
tiene distribución
Gamma(n, ✓) de la forma
f
T
(t) =
✓n
�(n)
t
n�1
e
�✓t , t � 0, ✓ > 0.
: , 21
Propiedades de un Estimador
Insesgamiento: Solución Ejercicio 3
Ahora podemos estudiar el insesgamiento del estimador. Considere la va-
riable aleatoria T = �
P
n
i=1
log(Y
i
) ⇠ Gamma(n, ✓), aśı
E(
b✓
n
) = E
 
n
T
!
= nE
 
1
T
!
= n
Z 1
0
1
t
✓n
�(n)
t
n�1
e
�✓t
dt
= n
Z 1
0
✓n
�(n)
t
n�1�1
e
�✓t
dt
= n
Z 1
0
�(n � 1)
�(n � 1)
✓
✓
✓n
�(n)
t
n�1�1
e
�✓t
dt
= n ✓
�(n � 1)
�(n)
Z 1
0
✓n�1
�(n � 1) t
n�1�1
e
�✓t
dt
: , 22
Propiedades de un Estimador
Insesgamiento: Solución Ejercicio 3
Para lo anterior usaremos los siguientes argumentos:
Z 1
0
✓n�1
�(n � 1) t
n�1�1
e
�✓t
| {z }
Es una distribución Gamma(n � 1, ✓)
dt = 1 y �(n) = (n � 1)�(n � 1)
Entonces E(
b✓
n
) =
n
n�1 ✓,aśı concluimos que
b✓
n
no es un estimador inses-
gado, pero śı asintóticamente insesgado,
ĺım
n!1
E
�b✓
n
�
= ĺım
!1
n
n � 1 ✓ = ✓.
: , 23
Propiedades de un Estimador
Tópicos de la Ayudant́ıa
I
Insesgamiento
I
Error cuadrático medio
I
Consistencia
I
Ejercicios Propuestos
: , 24
Propiedades de un Estimador
Error Cuadrático Medio
Error Cuadrático Medio: El Error Cuadrático Medio (ECM) del estimador
ˆ✓ de ✓ corresponde a
ECM(
b✓) = E
�b✓ � ✓
�
2
= Var
�b✓
�
+ B
2
(
ˆ✓)
Donde la cantidad B(
ˆ✓) = E
�b✓
�
� ✓ corresponde al sesgo. Si b✓ es un
estimador insesgado entonces
ECM(
b✓) = Var
�b✓
�
: , 25
Propiedades de un Estimador
Error Cuadrático Medio
El ECM la herramienta utilizada para comparar el desempeño de estima-
dores.
Se dice que el estimador
b✓
1
es mejor que
b✓
2
, si
ECM
�b✓
1
�
< ECM
�b✓
2
�
: , 26
Propiedades de un Estimador
Tópicos de la Ayudant́ıa
I
Insesgamiento
I
Error cuadrático medio
Ejercicio 1
I
Consistencia
I
Ejercicios Propuestos
: , 27
Propiedades de un Estimador
Error Cuadrático Medio: Ejercicio 1
Considere una muestra aleatoria simple de Y
1
,Y
2
, . . . ,Y
n
de una población
Y ⇠ Uniforme(0, ✓). Sabemos que
⌅ El EM está dado por b✓
em
= 2Y
n
.
⌅ El EMV está dado por b✓
emv
= máx{Y
1
,Y
2
, . . . ,Y
n
}.
Entonces
a) Encuentre el ECM de ambos estimadores.
b) ¿Cual estimador preferiŕıa usted?.
: , 28
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 1
a) Para calcular el ECM del estimador de momentos debemos verificar si
es insesgado
E
�b✓
em
�
= E
�
2Y
n
�
=
2
n
nX
i=1
E
�
Y
i
�
=
2
n
n
✓
2
= ✓
Efectivamente
b✓
em
es un estimador insesgado de ✓, por lo tanto ECM será
la varianza del estimador.
ECM
�b✓
em
�
= Var
�b✓
em
�
= Var
�
2Y
n
�
iid
=
4
n
2
nX
i=1
Var
�
Y
i
�
=
4
n
2
n
✓2
12
=
✓2
3n
: , 29
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 1
Para el estimador de momento, se tiene ECM
�b✓
em
�
=
✓2
3n
.
Por lo realizado en el ejercicio 2 de insesgamiento, sabemos que si se define
T = máx{Y
1
,Y
2
, . . . ,Y
n
} entonces su distribución es
f
T
(t) =
8
<
:
n
✓n
t
n�1, donde 0  t  ✓,
0, en otro caso.
y que E
�
T
�
=
n
n+1
✓. Con estos antecedentes sabemos que el estimador
es sesgado, sólo nos falta calcular la varianza del estimador
: , 30
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 1
Dado que ya tenemos la media, necesitamos el segundo momento de la
distribución para calcular la varianza:
E
�
T
2
�
=
Z ✓
0
t
2
n
✓n
t
n�1
dt
=
n
✓n
Z ✓
0
t
n+1
dt
=
n
✓n
t
n+2
n + 2
�����
t=✓
t=0
=
n
✓n
✓n+2
n + 2
=
n
n + 2
✓2
: , 31
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 1
Aśı la varianza
Var
�
T
�
=
n
n + 2
✓2 �
 
n
n + 1
✓
!
2
= ✓2
"
n
n + 2
�
n
2
(n + 1)
2
#
= ✓2
"
n(n
2
+ 2n + 1)� n2(n + 2)
(n + 2)(n + 1)
2
#
= ✓2
"
n
3
+ 2n
2
+ n � n3 � 2n2
(n + 2)(n + 1)
2
#
= ✓2
n
(n + 2)(n + 1)
2
: , 32
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 1
Recuerde que el ECM es Var
�b✓
�
+ B
2
�b✓
�
,
ECM(
b✓
emv
) = ✓2
n
(n + 2)(n + 1)
2
+
 
n
n + 1
✓ � ✓
!
2
= ✓2
 
n
(n + 2)(n + 1)
2
+
1
(n + 1)
2
!
= ✓2
2n + 2
(n + 2)(n + 1)
2
= ✓2
2
(n + 2)(n + 1)
: , 33
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 1
b) Aqúı se debe justificar la respuesta, para esto utilicemos los siguientes
argumentos:
I
El estimador de momento
b✓
em
= 2Y
n
es insesgado mientras que el
estimador de máxima verosimilitud
b✓
emv
= máx{Y
1
,Y
2
, . . . ,Y
n
} es
asintóticamente insesgado.
I
El EMV tiene un ECM mucho menor que el estimador de momento:
ECM
�b✓
em
�
�ECM
�b✓
emv
�
= ✓2
"
1
3n
�
2
(n + 2)(n + 1)
#
= ✓2
"
n
2 � 3n + 2
n
2
+ 3n + 2
#
� 0
: , 34
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 1
A pesar de que el EMV es asintóticamente insesgado, es mucho más preciso
que el EM, entonces el estimador propuesto para el parámetro ✓ es
b✓
emv
= máx{Y
1
,Y
2
, . . . ,Y
n
}
: , 35
Propiedades de un Estimador
Tópicos de la Ayudant́ıa
I
Insesgamiento
I
Error cuadrático medio
Ejercicio 2
I
Consistencia
I
Ejercicios Propuestos
: , 36
Propiedades de un Estimador
Error Cuadrático Medio: Ejercicio 2
Suponga que se dispone de Y
1
,Y
2
, . . . ,Y
n
muestra aleatoria simple de una
población con la siguiente distribución
f (y |✓) = e�(y�✓), y > ✓, ✓ > 0,
y se proponen dos estimadores para el parámetro desconocido ✓,
b✓
1
= Y
n
� 1 y b✓
2
= ḿın{Y
1
,Y
2
, . . . ,Y
n
}� 1
n
.
a) Muestre que ambos estimadores son insesgados.
b) calcule el ECM de cada estimador.
c) ¿Que estimador es más preciso?.
: , 37
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 2
a) Para calcular la esperanza del estimador
b✓
1
necesitamos el primer mo-
mento de la distribución Y , entonces
E(Y ) =
Z 1
✓
ye
�(y�✓)
dy
=
Z 1
0
(x + ✓)e�xdx , usando cambio variable x = y � ✓
=
Z 1
0
xe
�x
dx
| {z }
Es dist. Gamma(2, 1)
+✓
Z 1
0
e
�x
dx
| {z }
Es dist. Exp(1)
= 1 + ✓
Aśı, E
�b✓
1
�
= E(Y
n
)�1 = 1
n
P
n
i=1
E(Y
i
)�1 = n
n
(✓+1)�1 = ✓, entonces
es un estimador insesgado.
: , 38
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 2
Para calcular la esperanza de
b✓
2
se necesita la distribución del ḿınimo.
Defina T = ḿın{Y
1
,Y
2
, . . . ,Y
n
} entonces
Pr(T  t) = Pr(ḿın{Y
1
,Y
2
, . . . ,Y
n
}  t)
= 1� Pr(ḿın{Y
1
,Y
2
, . . . ,Y
n
} > t)
ind
= 1� Pr(Y
1
> t) · Pr(Y
2
> t) · · ·Pr(Y
n
> t)
iid
= 1� Pr(Y > t)n
= 1� (1� F
y
(t))
n
Para encontrar la densidad podemos derivar con respecto a t (aplicando
regla de la cadena)
f
T
(t) = n(1� F
Y
(t))
n�1
f
Y
(t), t > ✓, ✓ > 0.
: , 39
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 2
Sólo necesitamos la función de distribución acumulada de Y ,
F
y
(y) =
Z
y
✓
e
�(z�✓)
dz
= e
✓
Z
y
✓
e
�z
dz
= e
✓ ��e�z
���z=y
z=✓
= e
✓
⇣
e
�✓ � e�y
⌘
= 1� e�(y�✓)
La densidad de T = ḿın{Y
1
,Y
2
, . . . ,Y
n
} será
f
T
(t) = n
⇣
e
�(t�✓)
⌘
n�1
e
�(t�✓)
= ne
�n(t�✓)
: , 40
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 2
Basta con tomar valor esperado del estimador
b✓
2
= T � 1
n
,
E
�b✓
2
�
= E(T )�
1
n
=
Z 1
✓
nte
�n(t�✓)
dt �
1
n
=
Z 1
0
n(x + ✓)e�nxdx �
1
n
, usando cambio variable x = t � ✓
=
1
n
Z 1
0
n
2
xe
�nx
dx
| {z }
Es dist. Gamma(2, n)
+✓
Z 1
0
ne
�nx
dx
| {z }
Es dist. Exp(n)
�
1
n
=
1
n
+ ✓ �
1
n
= ✓.
: , 41
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 2
Ambos estimadores son insesgados.
b) Basta calcular las varianzas (resultados de a)). Para calcular la varianza
de
b✓
1
primero hay que calcular el segundo momento de Y ,
E(Y
2
) =
Z 1
✓
y
2
e
�(y�✓)
dy
=
Z 1
0
(x + ✓)2e�xdx , usando cambio variable x = y � ✓
=
Z 1
0
(x
2
+ 2✓x + ✓2)e�xdx
= 2
Z 1
0
1
2
x
2
e
�x
dx
| {z }
Es dist. Gamma(3, 1)
+2✓
Z 1
0
xe
�x
dx
| {z }
Es dist. Gamma(2, 1)
+✓2
Z 1
0
e
�x
dx
| {z }
Es dist. Exp(1)
= 2 + 2✓ + ✓2
: , 42
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 2
Entonces la varianza de Y
Var(Y ) = E(Y
2
)� E2(Y )
= 2 + 2✓ + ✓2 � (1 + ✓)2
= 1
Aśı
Var
�b✓
1
�
= Var(Y
n
� 1)
= Var(Y
n
)
iid
=
1
n
2
nX
i=1
Var(Y
i
)
=
1
n
: , 43
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 2
Para calcular la varianza del estimador
b✓
2
vamos a necesitar el segundo
momento de T ,
E
�
T
2
�
=
Z 1
✓
nt
2
e
�n(t�✓)
dt
=
Z 1
0
n(x + ✓)2e�nxdx , usando cambio variable x = t � ✓
=
2
n
2
Z 1
0
1
2
n
3
x
2
e
�nx
dx
| {z }
Esdist. Gamma(3, n)
+
2✓
n
Z 1
0
n
2
xe
�nx
dx
| {z }
Es dist. Gamma(2, n)
+✓2
Z 1
0
ne
�nx
dx
| {z }
Es dist. Exp(n)
=
2
n
2
+
2✓
n
+ ✓2
: , 44
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 2
Ahora podemos calcular la varianza de T
Var(T ) = E(T
2
)� E2(T )
=
2
n
2
+
2✓
n
+ ✓2 �
 
✓ +
1
n
!
2
=
2
n
2
+
2✓
n
+ ✓2 � ✓2 �
2✓
n
�
1
n
2
=
1
n
2
Luego, la varianza del estimador
b✓
2
está dada por
Var
�b✓
2
�
= Var
 
T �
1
n
!
= Var(T ) =
1
n
2
: , 45
Propiedades de un Estimador
Error Cuadrático Medio: Solución Ejercicio 2
c) Aqúı comparamos directamente los ECM para la elección del mejor
estimador, y dado los cálculos de b) sabemos que
ECM
�b✓
2
�
=
1
n
2

1
n
= ECM
�b✓
1
�
, 8n � 1,
entonces, el estimador elegido para estimar ✓ es
b✓
2
= ḿın{Y
1
,Y
2
, . . . ,Y
n
}�
1
n
: , 46
Propiedades de un Estimador
Tópicos de la Ayudant́ıa
I
Insesgamiento
I
Error cuadrático medio
I
Consistencia
I
Ejercicios Propuestos
: , 47
Propiedades de un Estimador
Consistencia
Consistencia: Se dice que
b✓
n
es consistente para estimar el parámetro ✓
ssi ĺım
n!1 ECM
�b✓
n
�
= 0 Esta propiedad también se conoce como con-
vergencia en media cuadrática (MC) o consistencia fuerte o simplemente
consistencia.
Consistencia Débil:
b✓
n
es un estimador debilmente consistente de un paráme-
tro ✓ ssi
ĺım
n!1
Pr
���b✓ � ✓
�� � "
�
= 0, 8" > 0, o equivamentemente
ĺım
n!1
Pr
���b✓ � ✓
��  "
�
= 1, 8" > 0
: , 48
Propiedades de un Estimador
Consistencia
Propiedad: Si
b✓ converge en MC entonces b✓ converge en probabilidad a ✓.
¿Para que sirve la consistencia de un estimador?
La consistencia es una propiedad de algunos estimadores, esta propiedad
nos informa que a medida que aumentamos el tamaño muestral, nuestro
estimador se vuelve más preciso. Es decir, los estimadores consistentes
logran mejores estimaciones a medida que aumenta el tamaño muestral
(un requerimiento lógico y ḿınimo).
: , 49
Propiedades de un Estimador
Tópicos de la Ayudant́ıa
I
Insesgamiento
I
Error cuadrático medio
I
Consistencia
Ejercicio 1
I
Ejercicios Propuestos
: , 50
Propiedades de un Estimador
Consistencia: Ejercicio 1
En el ejercicio 2 de insesgamiento se determinó que para una muestra
aleatoria simple Y
1
,Y
2
, . . . ,Y
n
de una población Y ⇠ Uniforme(0, ✓) el
EMV está dado por
b✓
n
= máx{Y
1
,Y
2
, . . . ,Y
n
}. En el mismo contexto del
ejercicio 2 Muestre lo siguiente:
a) La consistencia débil de
b✓
n
.
b) La consistencia en media cuadrática de
b✓
n
.
: , 51
Propiedades de un Estimador
Consistencia: Solución Ejercicio 1
a) A partir del ejercicio 2 de insesgamiento tenemos la distribución de
T = máx{Y
1
,Y
2
, . . . ,Y
n
},
f
T
(t) =
8
<
:
n
✓n
t
n�1, donde 0  t  ✓,
0, en otro caso.
Entonces, 8" > 0, se analiza el caso ✓ � " (sino es cero), se tiene
Pr
���b✓ � ✓
�� � "
�
= Pr
���
T � ✓
�� � "
�
= Pr ({T � ✓ � "} [ {T � ✓  �"})
= Pr (T � "+ ✓) + Pr (T  �"+ ✓)
: , 52
Propiedades de un Estimador
Consistencia: Solución Ejercicio 1
Pero note que T 2 (0, ✓), por lo tanto Pr (T � "+ ✓) = 0, aśı
Pr
���b✓
n
� ✓
�� � "
�
= Pr (T  ✓ � ")
=
Z ✓�"
0
n
✓n
t
n�1
dt
=
1
✓n
Z ✓�"
0
n t
n�1
dt
=
1
✓n
t
n
���
t=✓�"
t=0
=
 
✓ � "
✓
!
n
=
 
1�
"
✓
!
n
: , 53
Propiedades de un Estimador
Consistencia: Solución Ejercicio 1
Recuerde que a < 1, entonces ĺım
n!1 a
n
= 0, por lo tanto
ĺım
n!1
Pr
���b✓
n
� ✓
�� � "
�
= ĺım
n!1
 
1�
"
✓
!
n
= 0
b) Para el cálculo del ECM se necesita el segundo momento de T ,
E(T
2
) =
Z ✓
0
t
2
n
✓n
t
n�1
dt
=
n
✓n
Z ✓
0
t
n+1
dt
=
n
✓n
t
n+2
n + 2
�����
t=✓
t=0
=
n
✓n
✓n+2
n + 2
=
n
n + 2
✓2
: , 54
Propiedades de un Estimador
Consistencia: Solución Ejercicio 1
Entonces el ECM es la varianza más el sesgo al cuadrado,
ECM
�b✓
n
�
= Var
�b✓
n
�
+ B
2
�b✓
n
�
=
n
n + 2
✓2 �
 
n
n + 1
✓
!
2
+ ✓2
 
1�
n
n + 1
!
2
=
2✓2
(n + 1)(n + 2)
: , 55
Propiedades de un Estimador
Consistencia: Solución Ejercicio 1
Luego tomamos ĺımite
ĺım
n!1
ECM
�b✓
n
�
= ĺım
n!1
2✓2
(n + 1)(n + 2)
= 0
Por lo tanto,
b✓
n
converge en media cuadrática a ✓, o equivalentemente,
b✓
n
es fuertemente consistente para ✓.
: , 56
Propiedades de un Estimador
Tópicos de la Ayudant́ıa
I
Insesgamiento
I
Error cuadrático medio
I
Consistencia
I
Ejercicios Propuestos
: , 57
Propiedades de un Estimador
Ejercicios Propuestos
1. Considere que dispone de un muestra aleatoria simple X
1
,X
2
, . . . ,X
n
de una población con la siguiente distribución.
f (x |✓) =
x
✓2
e
�x/✓, x � 0, ✓ > 0.
a) Muestre que el EMV es igual a EM.
b) Encuentre el ECM del estimador de máxima verosimilitud.
c) Muestre que el EMV es consistente en media cuadrática.
: , 58
Propiedades de un Estimador
Ejercicios Propuestos
2. Sea X
1
,X
2
, . . . ,X
n
una muestra iid con distribución Normal(0,�2).
a) Muestre que el EMV está dado por b�2 =
P
n
i=1
X
2
i
n
.
b) Reporte el ECM del estimador.
c) Muestre que el estimador es cumple con la consistencia débil.
3. Sea X
1
,X
2
, . . . ,X
n
una muestra iid con distribución
f (x |✓) =
8
<
:
2✓2
x
3
, si ✓  y < 1,
0, en otro caso.
a) Muestre que el EMV está dado por
b✓ = ḿın{X
1
,X
2
, . . . ,X
n
}.
b) ¿Es asintóticamente insesgado el EMV?.
c) Muestre que el estimador es cumple con la consistencia débil.
: , 59

Otros materiales