Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
EAS201a - Inferencia Estad́ıstica Escuela de Administración Material de Apoyo Ayudant́ıa 4 : , 1 Propiedades de un Estimador Tópicos de la Ayudant́ıa I Insesgamiento I Error cuadrático medio I Consistencia I Ejercicios Propuestos : , 2 Propiedades de un Estimador Tópicos de la Ayudant́ıa I Insesgamiento I Error cuadrático medio I Consistencia I Ejercicios Propuestos : , 3 Propiedades de un Estimador Insesgamiento I Estimador Insesgado: Se dice que ˆ✓ es un Estimador Insesgado (EI) del parámetro ✓ ssi E( b✓) = ✓ 8 ✓ 2 ⇥, y el sesgo es la cantidad: B( b✓) = E(b✓)� ✓. I Estimador Asintóticamente Insesgado: Se dice que b✓ es un Estimador Asintóticamente Insesgado (EAI) del parámetro ✓ ssi ĺım n!1 E( ˆ✓) = ✓ 8 ✓ 2 ⇥. : , 4 Propiedades de un Estimador Tópicos de la Ayudant́ıa I Insesgamiento Ejercicio 1 I Error cuadrático medio I Consistencia I Ejercicios Propuestos : , 5 Propiedades de un Estimador Insesgamiento: Ejercicio 1 Considere el estimador b✓ n del ejercicio 1 de estimación por método de los momentos de la ayudant́ıa 3. Recordatorio: En ese ejercicio Y 1 ,Y 2 . . . ,Y n es una muestra aleatoria sim- ple iid con distribución Y i ⇠ Uniforme(1, ✓), y el estimador era b✓ n = 2Y n � 1. Calcule el valor esperado del estimador b✓ n . ¿Es insesgado el estimador b✓ n ? : , 6 Propiedades de un Estimador Insesgamiento:Solución Ejercicio 1 Recuerde que si Y ⇠ Uniforme(1, ✓), entonces E(Y ) = (✓ + 1)/2, por lo tanto E �b✓ n � = E � 2Y n � 1 � = 2E � Y n � � 1 = 2 n nX i=1 E(Y i )� 1 iid = 2 n n(✓ + 1) 2 � 1 = ✓. Efectivamente b✓ n es un estimador insesgado de ✓. : , 7 Propiedades de un Estimador Tópicos de la Ayudant́ıa I Insesgamiento Ejercicio 2 I Error cuadrático medio I Consistencia I Ejercicios Propuestos : , 8 Propiedades de un Estimador Insesgamiento:Ejercicio 2 Considere una muestra aleatoria simple Y 1 ,Y 2 , . . . ,Y n de una población Y ⇠ Uniforme(0, ✓), muestre que estimador de máxima verosimilitud de ✓ está dado por b✓ n = máx{Y 1 ,Y 2 , . . . ,Y n }. Además responda las siguientes preguntas: a) ¿Es el EMV es un estimador insesgado para ✓?. b) ¿Es el EMV es un estimador asintóticamente insesgado para ✓?. c) Construya un estimador insesgado para ✓ a partir del EMV. : , 9 Propiedades de un Estimador Insesgamiento:Solución Ejercicio 2 Se dispone de una m. a. s. de Y 1 ,Y 2 , . . . ,Y n proveniente de una población Uniforme(0, ✓). Entonces la función de verosimilitud viene dada por L(✓;Y) = 8 < : 1 ✓n , Si 0 Y 1 ✓, 0 Y 2 ✓, . . . , 0 Y n ✓, 0, en otro caso. = 8 < : 1 ✓n , Si Y (n) ✓ < 1 y 0 Y (1) Y (n) , 0, en otro caso. donde Y (1) = ḿın{Y 1 ,Y 2 . . . ,Y n } y Y (n) = máx{Y 1 ,Y 2 , . . . ,Y n }. Note que la función L(✓;Y) es una función estrictamente decreciente en ✓, donde ✓ 2 [Y (n) ,1), por lo tanto el máximo es b✓ n = Y (n) . : , 10 Propiedades de un Estimador Insesgamiento:Solución Ejercicio 2 Para resolver a) se necesita encontrar la distribución del máx{Y 1 ,Y 2 , . . . ,Y n }. Definamos T = máx{Y 1 ,Y 2 , . . . ,Y n } entonces Pr(T t) = Pr(máx{Y 1 ,Y 2 , . . . ,Y n } t) = Pr(Y 1 t,Y 2 t, . . . ,Y n t) ind = nY i=1 Pr(Y i t) iid = (F Y (t)) n Como Y tiene densidad, podemos derivar para encontrar la densidad de T , f T (t) = n (F Y (t)) n�1 f Y (t), donde 0 t ✓. : , 11 Propiedades de un Estimador Insesgamiento:Solución Ejercicio 2 Finalmente debemos reemplazar la F Y (t) y f Y (t) de la distribución Unif (0, ✓). f T (t) = 8 >< >: n t ✓ ! n�1 1 ✓ , donde 0 t ✓, 0, en otro caso. = 8 < : n ✓n t n�1, donde 0 t ✓, 0, en otro caso. Ahora se debe tomar la esperanza de T para determinar si el estimador es insesgado. : , 12 Propiedades de un Estimador Insesgamiento:Solución Ejercicio 2 E(T ) = Z ✓ 0 t n ✓n t n�1 dt = n ✓n Z ✓ 0 t n dt = n ✓n ⇥ t n+1 n + 1 ����� ✓ 0 = n n + 1 ✓ Dado que E �b✓ n � = n n+1 ✓, el estimador b✓ n = máx{Y 1 ,Y 2 , . . . ,Y n } no es insesgado para ✓. : , 13 Propiedades de un Estimador Insesgamiento:Solución Ejercicio 2 Para responder a la pregunta b), debemos tomar el ĺımite de la esperanza anterior, ĺım n!1 E �b✓ n � = ĺım n!1 n n + 1 ✓ = ✓. De lo anterior b✓ n = máx{Y 1 ,Y 2 , . . . ,Y n } es asintóticamente insesgado para ✓. : , 14 Propiedades de un Estimador Insesgamiento:Solución Ejercicio 2 En c) nos piden utilizar el EMV más el valor esperado determinado en a), aśı es fácil ver que e✓ n = n + 1 n b✓ n es un estimador insesgado para ✓, donde b✓ n es el EMV. Tomando esperanza del estimador E �e✓ n � = n + 1 n E �b✓ n � a) = n + 1 n n n + 1 ✓ = ✓ : , 15 Propiedades de un Estimador Tópicos de la Ayudant́ıa I Insesgamiento Ejercicio 3 I Error cuadrático medio I Consistencia I Ejercicios Propuestos : , 16 Propiedades de un Estimador Insesgamiento: Ejercicio 3 El departamento de Marketing de un banco está estudiando la efectivi- dad de todas las campañas de venta de créditos de consumo realizadas durante el año. La efectividad de cada campaña corresponde a la propor- ción de clientes que tomaron créditos. El equipo que está realizando este estudio determino que la efectividad de cada campaña tiene la siguiente distribución f (y |✓) = ✓y✓�1, 0 y 1, ✓ > 0 Suponga que el equipo de Marketing dispone de una m. a. s. de efectivi- dades Y 1 ,Y 2 , . . . ,Y n , entonces a) Entregue el EMV de ✓. b) Es insesgado el estimador que está ofreciendo para el departamento de Marketing. : , 17 Propiedades de un Estimador Insesgamiento: Solución Ejercicio 3 a) Para determina el EMV, necesitamos encontrar la función de verosimi- litud L(✓;Y) = nY i=1 ✓Y ✓�1 i = nY i=1 ✓e(✓�1) log(Yi ) = ✓ne(✓�1) P n i=1 log(Y i ) tomando logaritmo tenemos la log verosimilitud `(✓) = n log(✓) + (✓ � 1) nX i=1 log(Y i ) : , 18 Propiedades de un Estimador Insesgamiento: Solución Ejercicio 3 Derivando e igualando a cero d d✓ `(✓) = n ✓ + nX i=1 log(Y i ) = 0 luego despejamos ✓ para obtener el EMV b✓ n = n � P n i=1 log(Y i ) : , 19 Propiedades de un Estimador Insesgamiento: Solución Ejercicio 3 b) Para verificar si el EMV es insesgado, debemos tomar la esperanza del estimador, sin embargo, para facilitar el cálculo primero debemos encontrar la distribución de U = � log(Y ). Pr(U u) = Pr(� log(Y ) u) = Pr(Y � e�u) = 1� Pr(Y < e�u) = 1� F Y (e �u ) Derivando podemos encontrar la densidad de U. f U (u) = d du � 1� F Y (e �u ) � = f Y � e �u� e �u = ✓e�(✓�1)ue�u = ✓e�✓u, : , 20 Propiedades de un Estimador Insesgamiento: Solución Ejercicio 3 Dado que 0 X 1 implica que �1 < log(X ) 0, entonces f U (u) = ⇢ ✓e�✓u, si u � 0, ✓ > 0, 0, en otro caso. Note que U = � log(Y ) ⇠ Exp(✓). Pero sabemos que la suma de va- riables exponenciales T = � P n i=1 log(Y i ) = P n i=1 U i tiene distribución Gamma(n, ✓) de la forma f T (t) = ✓n �(n) t n�1 e �✓t , t � 0, ✓ > 0. : , 21 Propiedades de un Estimador Insesgamiento: Solución Ejercicio 3 Ahora podemos estudiar el insesgamiento del estimador. Considere la va- riable aleatoria T = � P n i=1 log(Y i ) ⇠ Gamma(n, ✓), aśı E( b✓ n ) = E n T ! = nE 1 T ! = n Z 1 0 1 t ✓n �(n) t n�1 e �✓t dt = n Z 1 0 ✓n �(n) t n�1�1 e �✓t dt = n Z 1 0 �(n � 1) �(n � 1) ✓ ✓ ✓n �(n) t n�1�1 e �✓t dt = n ✓ �(n � 1) �(n) Z 1 0 ✓n�1 �(n � 1) t n�1�1 e �✓t dt : , 22 Propiedades de un Estimador Insesgamiento: Solución Ejercicio 3 Para lo anterior usaremos los siguientes argumentos: Z 1 0 ✓n�1 �(n � 1) t n�1�1 e �✓t | {z } Es una distribución Gamma(n � 1, ✓) dt = 1 y �(n) = (n � 1)�(n � 1) Entonces E( b✓ n ) = n n�1 ✓,aśı concluimos que b✓ n no es un estimador inses- gado, pero śı asintóticamente insesgado, ĺım n!1 E �b✓ n � = ĺım !1 n n � 1 ✓ = ✓. : , 23 Propiedades de un Estimador Tópicos de la Ayudant́ıa I Insesgamiento I Error cuadrático medio I Consistencia I Ejercicios Propuestos : , 24 Propiedades de un Estimador Error Cuadrático Medio Error Cuadrático Medio: El Error Cuadrático Medio (ECM) del estimador ˆ✓ de ✓ corresponde a ECM( b✓) = E �b✓ � ✓ � 2 = Var �b✓ � + B 2 ( ˆ✓) Donde la cantidad B( ˆ✓) = E �b✓ � � ✓ corresponde al sesgo. Si b✓ es un estimador insesgado entonces ECM( b✓) = Var �b✓ � : , 25 Propiedades de un Estimador Error Cuadrático Medio El ECM la herramienta utilizada para comparar el desempeño de estima- dores. Se dice que el estimador b✓ 1 es mejor que b✓ 2 , si ECM �b✓ 1 � < ECM �b✓ 2 � : , 26 Propiedades de un Estimador Tópicos de la Ayudant́ıa I Insesgamiento I Error cuadrático medio Ejercicio 1 I Consistencia I Ejercicios Propuestos : , 27 Propiedades de un Estimador Error Cuadrático Medio: Ejercicio 1 Considere una muestra aleatoria simple de Y 1 ,Y 2 , . . . ,Y n de una población Y ⇠ Uniforme(0, ✓). Sabemos que ⌅ El EM está dado por b✓ em = 2Y n . ⌅ El EMV está dado por b✓ emv = máx{Y 1 ,Y 2 , . . . ,Y n }. Entonces a) Encuentre el ECM de ambos estimadores. b) ¿Cual estimador preferiŕıa usted?. : , 28 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 1 a) Para calcular el ECM del estimador de momentos debemos verificar si es insesgado E �b✓ em � = E � 2Y n � = 2 n nX i=1 E � Y i � = 2 n n ✓ 2 = ✓ Efectivamente b✓ em es un estimador insesgado de ✓, por lo tanto ECM será la varianza del estimador. ECM �b✓ em � = Var �b✓ em � = Var � 2Y n � iid = 4 n 2 nX i=1 Var � Y i � = 4 n 2 n ✓2 12 = ✓2 3n : , 29 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 1 Para el estimador de momento, se tiene ECM �b✓ em � = ✓2 3n . Por lo realizado en el ejercicio 2 de insesgamiento, sabemos que si se define T = máx{Y 1 ,Y 2 , . . . ,Y n } entonces su distribución es f T (t) = 8 < : n ✓n t n�1, donde 0 t ✓, 0, en otro caso. y que E � T � = n n+1 ✓. Con estos antecedentes sabemos que el estimador es sesgado, sólo nos falta calcular la varianza del estimador : , 30 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 1 Dado que ya tenemos la media, necesitamos el segundo momento de la distribución para calcular la varianza: E � T 2 � = Z ✓ 0 t 2 n ✓n t n�1 dt = n ✓n Z ✓ 0 t n+1 dt = n ✓n t n+2 n + 2 ����� t=✓ t=0 = n ✓n ✓n+2 n + 2 = n n + 2 ✓2 : , 31 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 1 Aśı la varianza Var � T � = n n + 2 ✓2 � n n + 1 ✓ ! 2 = ✓2 " n n + 2 � n 2 (n + 1) 2 # = ✓2 " n(n 2 + 2n + 1)� n2(n + 2) (n + 2)(n + 1) 2 # = ✓2 " n 3 + 2n 2 + n � n3 � 2n2 (n + 2)(n + 1) 2 # = ✓2 n (n + 2)(n + 1) 2 : , 32 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 1 Recuerde que el ECM es Var �b✓ � + B 2 �b✓ � , ECM( b✓ emv ) = ✓2 n (n + 2)(n + 1) 2 + n n + 1 ✓ � ✓ ! 2 = ✓2 n (n + 2)(n + 1) 2 + 1 (n + 1) 2 ! = ✓2 2n + 2 (n + 2)(n + 1) 2 = ✓2 2 (n + 2)(n + 1) : , 33 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 1 b) Aqúı se debe justificar la respuesta, para esto utilicemos los siguientes argumentos: I El estimador de momento b✓ em = 2Y n es insesgado mientras que el estimador de máxima verosimilitud b✓ emv = máx{Y 1 ,Y 2 , . . . ,Y n } es asintóticamente insesgado. I El EMV tiene un ECM mucho menor que el estimador de momento: ECM �b✓ em � �ECM �b✓ emv � = ✓2 " 1 3n � 2 (n + 2)(n + 1) # = ✓2 " n 2 � 3n + 2 n 2 + 3n + 2 # � 0 : , 34 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 1 A pesar de que el EMV es asintóticamente insesgado, es mucho más preciso que el EM, entonces el estimador propuesto para el parámetro ✓ es b✓ emv = máx{Y 1 ,Y 2 , . . . ,Y n } : , 35 Propiedades de un Estimador Tópicos de la Ayudant́ıa I Insesgamiento I Error cuadrático medio Ejercicio 2 I Consistencia I Ejercicios Propuestos : , 36 Propiedades de un Estimador Error Cuadrático Medio: Ejercicio 2 Suponga que se dispone de Y 1 ,Y 2 , . . . ,Y n muestra aleatoria simple de una población con la siguiente distribución f (y |✓) = e�(y�✓), y > ✓, ✓ > 0, y se proponen dos estimadores para el parámetro desconocido ✓, b✓ 1 = Y n � 1 y b✓ 2 = ḿın{Y 1 ,Y 2 , . . . ,Y n }� 1 n . a) Muestre que ambos estimadores son insesgados. b) calcule el ECM de cada estimador. c) ¿Que estimador es más preciso?. : , 37 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 2 a) Para calcular la esperanza del estimador b✓ 1 necesitamos el primer mo- mento de la distribución Y , entonces E(Y ) = Z 1 ✓ ye �(y�✓) dy = Z 1 0 (x + ✓)e�xdx , usando cambio variable x = y � ✓ = Z 1 0 xe �x dx | {z } Es dist. Gamma(2, 1) +✓ Z 1 0 e �x dx | {z } Es dist. Exp(1) = 1 + ✓ Aśı, E �b✓ 1 � = E(Y n )�1 = 1 n P n i=1 E(Y i )�1 = n n (✓+1)�1 = ✓, entonces es un estimador insesgado. : , 38 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 2 Para calcular la esperanza de b✓ 2 se necesita la distribución del ḿınimo. Defina T = ḿın{Y 1 ,Y 2 , . . . ,Y n } entonces Pr(T t) = Pr(ḿın{Y 1 ,Y 2 , . . . ,Y n } t) = 1� Pr(ḿın{Y 1 ,Y 2 , . . . ,Y n } > t) ind = 1� Pr(Y 1 > t) · Pr(Y 2 > t) · · ·Pr(Y n > t) iid = 1� Pr(Y > t)n = 1� (1� F y (t)) n Para encontrar la densidad podemos derivar con respecto a t (aplicando regla de la cadena) f T (t) = n(1� F Y (t)) n�1 f Y (t), t > ✓, ✓ > 0. : , 39 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 2 Sólo necesitamos la función de distribución acumulada de Y , F y (y) = Z y ✓ e �(z�✓) dz = e ✓ Z y ✓ e �z dz = e ✓ ��e�z ���z=y z=✓ = e ✓ ⇣ e �✓ � e�y ⌘ = 1� e�(y�✓) La densidad de T = ḿın{Y 1 ,Y 2 , . . . ,Y n } será f T (t) = n ⇣ e �(t�✓) ⌘ n�1 e �(t�✓) = ne �n(t�✓) : , 40 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 2 Basta con tomar valor esperado del estimador b✓ 2 = T � 1 n , E �b✓ 2 � = E(T )� 1 n = Z 1 ✓ nte �n(t�✓) dt � 1 n = Z 1 0 n(x + ✓)e�nxdx � 1 n , usando cambio variable x = t � ✓ = 1 n Z 1 0 n 2 xe �nx dx | {z } Es dist. Gamma(2, n) +✓ Z 1 0 ne �nx dx | {z } Es dist. Exp(n) � 1 n = 1 n + ✓ � 1 n = ✓. : , 41 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 2 Ambos estimadores son insesgados. b) Basta calcular las varianzas (resultados de a)). Para calcular la varianza de b✓ 1 primero hay que calcular el segundo momento de Y , E(Y 2 ) = Z 1 ✓ y 2 e �(y�✓) dy = Z 1 0 (x + ✓)2e�xdx , usando cambio variable x = y � ✓ = Z 1 0 (x 2 + 2✓x + ✓2)e�xdx = 2 Z 1 0 1 2 x 2 e �x dx | {z } Es dist. Gamma(3, 1) +2✓ Z 1 0 xe �x dx | {z } Es dist. Gamma(2, 1) +✓2 Z 1 0 e �x dx | {z } Es dist. Exp(1) = 2 + 2✓ + ✓2 : , 42 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 2 Entonces la varianza de Y Var(Y ) = E(Y 2 )� E2(Y ) = 2 + 2✓ + ✓2 � (1 + ✓)2 = 1 Aśı Var �b✓ 1 � = Var(Y n � 1) = Var(Y n ) iid = 1 n 2 nX i=1 Var(Y i ) = 1 n : , 43 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 2 Para calcular la varianza del estimador b✓ 2 vamos a necesitar el segundo momento de T , E � T 2 � = Z 1 ✓ nt 2 e �n(t�✓) dt = Z 1 0 n(x + ✓)2e�nxdx , usando cambio variable x = t � ✓ = 2 n 2 Z 1 0 1 2 n 3 x 2 e �nx dx | {z } Esdist. Gamma(3, n) + 2✓ n Z 1 0 n 2 xe �nx dx | {z } Es dist. Gamma(2, n) +✓2 Z 1 0 ne �nx dx | {z } Es dist. Exp(n) = 2 n 2 + 2✓ n + ✓2 : , 44 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 2 Ahora podemos calcular la varianza de T Var(T ) = E(T 2 )� E2(T ) = 2 n 2 + 2✓ n + ✓2 � ✓ + 1 n ! 2 = 2 n 2 + 2✓ n + ✓2 � ✓2 � 2✓ n � 1 n 2 = 1 n 2 Luego, la varianza del estimador b✓ 2 está dada por Var �b✓ 2 � = Var T � 1 n ! = Var(T ) = 1 n 2 : , 45 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 2 c) Aqúı comparamos directamente los ECM para la elección del mejor estimador, y dado los cálculos de b) sabemos que ECM �b✓ 2 � = 1 n 2 1 n = ECM �b✓ 1 � , 8n � 1, entonces, el estimador elegido para estimar ✓ es b✓ 2 = ḿın{Y 1 ,Y 2 , . . . ,Y n }� 1 n : , 46 Propiedades de un Estimador Tópicos de la Ayudant́ıa I Insesgamiento I Error cuadrático medio I Consistencia I Ejercicios Propuestos : , 47 Propiedades de un Estimador Consistencia Consistencia: Se dice que b✓ n es consistente para estimar el parámetro ✓ ssi ĺım n!1 ECM �b✓ n � = 0 Esta propiedad también se conoce como con- vergencia en media cuadrática (MC) o consistencia fuerte o simplemente consistencia. Consistencia Débil: b✓ n es un estimador debilmente consistente de un paráme- tro ✓ ssi ĺım n!1 Pr ���b✓ � ✓ �� � " � = 0, 8" > 0, o equivamentemente ĺım n!1 Pr ���b✓ � ✓ �� " � = 1, 8" > 0 : , 48 Propiedades de un Estimador Consistencia Propiedad: Si b✓ converge en MC entonces b✓ converge en probabilidad a ✓. ¿Para que sirve la consistencia de un estimador? La consistencia es una propiedad de algunos estimadores, esta propiedad nos informa que a medida que aumentamos el tamaño muestral, nuestro estimador se vuelve más preciso. Es decir, los estimadores consistentes logran mejores estimaciones a medida que aumenta el tamaño muestral (un requerimiento lógico y ḿınimo). : , 49 Propiedades de un Estimador Tópicos de la Ayudant́ıa I Insesgamiento I Error cuadrático medio I Consistencia Ejercicio 1 I Ejercicios Propuestos : , 50 Propiedades de un Estimador Consistencia: Ejercicio 1 En el ejercicio 2 de insesgamiento se determinó que para una muestra aleatoria simple Y 1 ,Y 2 , . . . ,Y n de una población Y ⇠ Uniforme(0, ✓) el EMV está dado por b✓ n = máx{Y 1 ,Y 2 , . . . ,Y n }. En el mismo contexto del ejercicio 2 Muestre lo siguiente: a) La consistencia débil de b✓ n . b) La consistencia en media cuadrática de b✓ n . : , 51 Propiedades de un Estimador Consistencia: Solución Ejercicio 1 a) A partir del ejercicio 2 de insesgamiento tenemos la distribución de T = máx{Y 1 ,Y 2 , . . . ,Y n }, f T (t) = 8 < : n ✓n t n�1, donde 0 t ✓, 0, en otro caso. Entonces, 8" > 0, se analiza el caso ✓ � " (sino es cero), se tiene Pr ���b✓ � ✓ �� � " � = Pr ��� T � ✓ �� � " � = Pr ({T � ✓ � "} [ {T � ✓ �"}) = Pr (T � "+ ✓) + Pr (T �"+ ✓) : , 52 Propiedades de un Estimador Consistencia: Solución Ejercicio 1 Pero note que T 2 (0, ✓), por lo tanto Pr (T � "+ ✓) = 0, aśı Pr ���b✓ n � ✓ �� � " � = Pr (T ✓ � ") = Z ✓�" 0 n ✓n t n�1 dt = 1 ✓n Z ✓�" 0 n t n�1 dt = 1 ✓n t n ��� t=✓�" t=0 = ✓ � " ✓ ! n = 1� " ✓ ! n : , 53 Propiedades de un Estimador Consistencia: Solución Ejercicio 1 Recuerde que a < 1, entonces ĺım n!1 a n = 0, por lo tanto ĺım n!1 Pr ���b✓ n � ✓ �� � " � = ĺım n!1 1� " ✓ ! n = 0 b) Para el cálculo del ECM se necesita el segundo momento de T , E(T 2 ) = Z ✓ 0 t 2 n ✓n t n�1 dt = n ✓n Z ✓ 0 t n+1 dt = n ✓n t n+2 n + 2 ����� t=✓ t=0 = n ✓n ✓n+2 n + 2 = n n + 2 ✓2 : , 54 Propiedades de un Estimador Consistencia: Solución Ejercicio 1 Entonces el ECM es la varianza más el sesgo al cuadrado, ECM �b✓ n � = Var �b✓ n � + B 2 �b✓ n � = n n + 2 ✓2 � n n + 1 ✓ ! 2 + ✓2 1� n n + 1 ! 2 = 2✓2 (n + 1)(n + 2) : , 55 Propiedades de un Estimador Consistencia: Solución Ejercicio 1 Luego tomamos ĺımite ĺım n!1 ECM �b✓ n � = ĺım n!1 2✓2 (n + 1)(n + 2) = 0 Por lo tanto, b✓ n converge en media cuadrática a ✓, o equivalentemente, b✓ n es fuertemente consistente para ✓. : , 56 Propiedades de un Estimador Tópicos de la Ayudant́ıa I Insesgamiento I Error cuadrático medio I Consistencia I Ejercicios Propuestos : , 57 Propiedades de un Estimador Ejercicios Propuestos 1. Considere que dispone de un muestra aleatoria simple X 1 ,X 2 , . . . ,X n de una población con la siguiente distribución. f (x |✓) = x ✓2 e �x/✓, x � 0, ✓ > 0. a) Muestre que el EMV es igual a EM. b) Encuentre el ECM del estimador de máxima verosimilitud. c) Muestre que el EMV es consistente en media cuadrática. : , 58 Propiedades de un Estimador Ejercicios Propuestos 2. Sea X 1 ,X 2 , . . . ,X n una muestra iid con distribución Normal(0,�2). a) Muestre que el EMV está dado por b�2 = P n i=1 X 2 i n . b) Reporte el ECM del estimador. c) Muestre que el estimador es cumple con la consistencia débil. 3. Sea X 1 ,X 2 , . . . ,X n una muestra iid con distribución f (x |✓) = 8 < : 2✓2 x 3 , si ✓ y < 1, 0, en otro caso. a) Muestre que el EMV está dado por b✓ = ḿın{X 1 ,X 2 , . . . ,X n }. b) ¿Es asintóticamente insesgado el EMV?. c) Muestre que el estimador es cumple con la consistencia débil. : , 59
Compartir