Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
EAS201a - Inferencia Estad́ıstica Escuela de Administración Material de Apoyo Ayudant́ıa 4 : , 1 Propiedades de un Estimador Tópicos de la Ayudant́ıa I Insesgamiento I Error cuadrático medio I Consistencia I Ejercicios Propuestos : , 2 Propiedades de un Estimador Tópicos de la Ayudant́ıa I Insesgamiento I Error cuadrático medio I Consistencia I Ejercicios Propuestos : , 3 Propiedades de un Estimador Insesgamiento I Estimador Insesgado: Se dice que θ̂ es un Estimador Insesgado (EI) del parámetro θ ssi E(θ̂) = θ ∀ θ ∈ Θ, y el sesgo es la cantidad: B(θ̂) = E(θ̂)− θ. I Estimador Asintóticamente Insesgado: Se dice que θ̂ es un Estimador Asintóticamente Insesgado (EAI) del parámetro θ ssi ĺım n→∞ E(θ̂) = θ ∀ θ ∈ Θ. : , 4 Propiedades de un Estimador Tópicos de la Ayudant́ıa I Insesgamiento Ejercicio 1 I Error cuadrático medio I Consistencia I Ejercicios Propuestos : , 5 Propiedades de un Estimador Insesgamiento: Ejercicio 1 Considere el estimador θ̂n del ejercicio 1 de estimación por método de los momentos de la ayudant́ıa 3. Recordatorio: En ese ejercicio Y1,Y2 . . . ,Yn es una muestra aleatoria sim- ple iid con distribución Yi ∼ Uniforme(1, θ), y el estimador era θ̂n = 2Y n − 1. Calcule el valor esperado del estimador θ̂n. ¿Es insesgado el estimador θ̂n? : , 6 Propiedades de un Estimador Insesgamiento:Solución Ejercicio 1 Recuerde que si Y ∼ Uniforme(1, θ), entonces E(Y ) = (θ + 1)/2, por lo tanto E ( θ̂n ) = E ( 2Y n − 1 ) = 2E ( Y n ) − 1 = 2 n n∑ i=1 E(Yi )− 1 iid = 2 n n(θ + 1) 2 − 1 = θ. Efectivamente θ̂n es un estimador insesgado de θ. : , 7 Propiedades de un Estimador Tópicos de la Ayudant́ıa I Insesgamiento Ejercicio 2 I Error cuadrático medio I Consistencia I Ejercicios Propuestos : , 8 Propiedades de un Estimador Insesgamiento:Ejercicio 2 Considere una muestra aleatoria simple Y1,Y2, . . . ,Yn de una población Y ∼ Uniforme(0, θ), muestre que estimador de máxima verosimilitud de θ está dado por θ̂n = máx{Y1,Y2, . . . ,Yn}. Además responda las siguientes preguntas: a) ¿Es el EMV es un estimador insesgado para θ?. b) ¿Es el EMV es un estimador asintóticamente insesgado para θ?. c) Construya un estimador insesgado para θ a partir del EMV. : , 9 Propiedades de un Estimador Insesgamiento:Solución Ejercicio 2 Se dispone de una m. a. s. de Y1,Y2, . . . ,Yn proveniente de una población Uniforme(0, θ). Entonces la función de verosimilitud viene dada por L(θ; Y) = 1θn, Si 0 ≤ Y1 ≤ θ, 0 ≤ Y2 ≤ θ, . . . , 0 ≤ Yn ≤ θ,0, en otro caso. = 1θn, Si Y(n) ≤ θ <∞ y 0 ≤ Y(1) ≤ Y(n),0, en otro caso. donde Y(1) = ḿın{Y1,Y2 . . . ,Yn} y Y(n) = máx{Y1,Y2, . . . ,Yn}. Note que la función L(θ; Y) es una función estrictamente decreciente en θ, donde θ ∈ [Y(n),∞), por lo tanto el máximo es θ̂n = Y(n). : , 10 Propiedades de un Estimador Insesgamiento:Solución Ejercicio 2 Para resolver a) se necesita encontrar la distribución del máx{Y1,Y2, . . . ,Yn}. Definamos T = máx{Y1,Y2, . . . ,Yn} entonces Pr(T ≤ t) = Pr(máx{Y1,Y2, . . . ,Yn} ≤ t) = Pr(Y1 ≤ t,Y2 ≤ t, . . . ,Yn ≤ t) ind = n∏ i=1 Pr(Yi ≤ t) iid = (FY (t)) n Como Y tiene densidad, podemos derivar para encontrar la densidad de T , fT (t) = n (FY (t)) n−1 fY (t), donde 0 ≤ t ≤ θ. : , 11 Propiedades de un Estimador Insesgamiento:Solución Ejercicio 2 Finalmente debemos reemplazar la FY (t) y fY (t) de la distribución Unif (0, θ). fT (t) = n ( t θ )n−1 1 θ , donde 0 ≤ t ≤ θ, 0, en otro caso. = nθn tn−1, donde 0 ≤ t ≤ θ,0, en otro caso. Ahora se debe tomar la esperanza de T para determinar si el estimador es insesgado. : , 12 Propiedades de un Estimador Insesgamiento:Solución Ejercicio 2 E(T ) = ∫ θ 0 t n θn tn−1dt = n θn ∫ θ 0 tndt = n θn × tn+1 n + 1 ∣∣∣∣∣ θ 0 = n n + 1 θ Dado que E ( θ̂n ) = nn+1 θ, el estimador θ̂n = máx{Y1,Y2, . . . ,Yn} no es insesgado para θ. : , 13 Propiedades de un Estimador Insesgamiento:Solución Ejercicio 2 Para responder a la pregunta b), debemos tomar el ĺımite de la esperanza anterior, ĺım n→∞ E ( θ̂n ) = ĺım n→∞ n n + 1 θ = θ. De lo anterior θ̂n = máx{Y1,Y2, . . . ,Yn} es asintóticamente insesgado para θ. : , 14 Propiedades de un Estimador Insesgamiento:Solución Ejercicio 2 En c) nos piden utilizar el EMV más el valor esperado determinado en a), aśı es fácil ver que θ̃n = n + 1 n θ̂n es un estimador insesgado para θ, donde θ̂n es el EMV. Tomando esperanza del estimador E ( θ̃n ) = n + 1 n E ( θ̂n ) a) = n + 1 n n n + 1 θ = θ : , 15 Propiedades de un Estimador Tópicos de la Ayudant́ıa I Insesgamiento Ejercicio 3 I Error cuadrático medio I Consistencia I Ejercicios Propuestos : , 16 Propiedades de un Estimador Insesgamiento: Ejercicio 3 El departamento de Marketing de un banco está estudiando la efectivi- dad de todas las campañas de venta de créditos de consumo realizadas durante el año. La efectividad de cada campaña corresponde a la propor- ción de clientes que tomaron créditos. El equipo que está realizando este estudio determino que la efectividad de cada campaña tiene la siguiente distribución f (y |θ) = θyθ−1, 0 ≤ y ≤ 1, θ > 0 Suponga que el equipo de Marketing dispone de una m. a. s. de efectivi- dades Y1,Y2, . . . ,Yn, entonces a) Entregue el EMV de θ. b) Es insesgado el estimador que está ofreciendo para el departamento de Marketing. : , 17 Propiedades de un Estimador Insesgamiento: Solución Ejercicio 3 a) Para determina el EMV, necesitamos encontrar la función de verosimi- litud L(θ; Y) = n∏ i=1 θY θ−1i = n∏ i=1 θe(θ−1) log(Yi ) = θne(θ−1) ∑n i=1 log(Yi ) tomando logaritmo tenemos la log verosimilitud `(θ) = n log(θ) + (θ − 1) n∑ i=1 log(Yi ) : , 18 Propiedades de un Estimador Insesgamiento: Solución Ejercicio 3 Derivando e igualando a cero d dθ `(θ) = n θ + n∑ i=1 log(Yi ) = 0 luego despejamos θ para obtener el EMV θ̂n = n − ∑n i=1 log(Yi ) : , 19 Propiedades de un Estimador Insesgamiento: Solución Ejercicio 3 b) Para verificar si el EMV es insesgado, debemos tomar la esperanza del estimador, sin embargo, para facilitar el cálculo primero debemos encontrar la distribución de U = − log(Y ). Pr(U ≤ u) = Pr(− log(Y ) ≤ u) = Pr(Y ≥ e−u) = 1− Pr(Y < e−u) = 1− FY (e−u) Derivando podemos encontrar la densidad de U. fU(u) = d du ( 1− FY (e−u) ) = fY ( e−u ) e−u = θe−(θ−1)ue−u = θe−θu, : , 20 Propiedades de un Estimador Insesgamiento: Solución Ejercicio 3 Dado que 0 ≤ X ≤ 1 implica que −∞ < log(X ) ≤ 0, entonces fU(u) = { θe−θu, si u ≥ 0, θ > 0, 0, en otro caso. Note que U = − log(Y ) ∼ Exp(θ). Pero sabemos que la suma de va- riables exponenciales T = − ∑n i=1 log(Yi ) = ∑n i=1 Ui tiene distribución Gamma(n, θ) de la forma fT (t) = θn Γ(n) tn−1e−θt , t ≥ 0, θ > 0. : , 21 Propiedades de un Estimador Insesgamiento: Solución Ejercicio 3 Ahora podemos estudiar el insesgamiento del estimador. Considere la va- riable aleatoria T = − ∑n i=1 log(Yi ) ∼ Gamma(n, θ), aśı E(θ̂n) = E ( n T ) = nE ( 1 T ) = n ∫ ∞ 0 1 t θn Γ(n) tn−1e−θtdt = n ∫ ∞ 0 θn Γ(n) tn−1−1e−θtdt = n ∫ ∞ 0 Γ(n − 1) Γ(n − 1) θ θ θn Γ(n) tn−1−1e−θtdt = n θ Γ(n − 1) Γ(n) ∫ ∞ 0 θn−1 Γ(n − 1) t n−1−1e−θtdt : , 22 Propiedades de un Estimador Insesgamiento: Solución Ejercicio 3 Para lo anterior usaremos los siguientes argumentos: ∫ ∞ 0 θn−1 Γ(n − 1) t n−1−1e−θt︸ ︷︷ ︸ Es una distribución Gamma(n − 1, θ) dt = 1 y Γ(n) = (n − 1)Γ(n − 1) Entonces E(θ̂n) = n n−1 θ, aśı concluimos que θ̂n no es un estimador inses- gado, pero śı asintóticamente insesgado, ĺım n→∞ E ( θ̂n ) = ĺım →∞ n n − 1 θ = θ. : , 23 Propiedades de un Estimador Tópicos de la Ayudant́ıa I Insesgamiento I Error cuadrático medio I Consistencia I Ejercicios Propuestos : , 24 Propiedades de un Estimador Error Cuadrático Medio Error Cuadrático Medio: El Error Cuadrático Medio (ECM) del estimador θ̂ de θ corresponde aECM(θ̂) = E ( θ̂ − θ )2 = Var ( θ̂ ) + B2(θ̂) Donde la cantidad B(θ̂) = E ( θ̂ ) − θ corresponde al sesgo. Si θ̂ es un estimador insesgado entonces ECM(θ̂) = Var ( θ̂ ) : , 25 Propiedades de un Estimador Error Cuadrático Medio El ECM la herramienta utilizada para comparar el desempeño de estima- dores. Se dice que el estimador θ̂1 es mejor que θ̂2, si ECM ( θ̂1 ) < ECM ( θ̂2 ) : , 26 Propiedades de un Estimador Tópicos de la Ayudant́ıa I Insesgamiento I Error cuadrático medio Ejercicio 1 I Consistencia I Ejercicios Propuestos : , 27 Propiedades de un Estimador Error Cuadrático Medio: Ejercicio 1 Considere una muestra aleatoria simple de Y1,Y2, . . . ,Yn de una población Y ∼ Uniforme(0, θ). Sabemos que � El EM está dado por θ̂em = 2Y n. � El EMV está dado por θ̂emv = máx{Y1,Y2, . . . ,Yn}. Entonces a) Encuentre el ECM de ambos estimadores. b) ¿Cual estimador preferiŕıa usted?. : , 28 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 1 a) Para calcular el ECM del estimador de momentos debemos verificar si es insesgado E ( θ̂em ) = E ( 2Y n ) = 2 n n∑ i=1 E ( Yi ) = 2 n n θ 2 = θ Efectivamente θ̂em es un estimador insesgado de θ, por lo tanto ECM será la varianza del estimador. ECM ( θ̂em ) = Var ( θ̂em ) = Var ( 2Y n ) iid = 4 n2 n∑ i=1 Var ( Yi ) = 4 n2 n θ2 12 = θ2 3n : , 29 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 1 Para el estimador de momento, se tiene ECM ( θ̂em ) = θ 2 3n . Por lo realizado en el ejercicio 2 de insesgamiento, sabemos que si se define T = máx{Y1,Y2, . . . ,Yn} entonces su distribución es fT (t) = nθn tn−1, donde 0 ≤ t ≤ θ,0, en otro caso. y que E ( T ) = nn+1θ. Con estos antecedentes sabemos que el estimador es sesgado, sólo nos falta calcular la varianza del estimador : , 30 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 1 Dado que ya tenemos la media, necesitamos el segundo momento de la distribución para calcular la varianza: E ( T 2 ) = ∫ θ 0 t2 n θn tn−1dt = n θn ∫ θ 0 tn+1dt = n θn tn+2 n + 2 ∣∣∣∣∣ t=θ t=0 = n θn θn+2 n + 2 = n n + 2 θ2 : , 31 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 1 Aśı la varianza Var ( T ) = n n + 2 θ2 − ( n n + 1 θ )2 = θ2 [ n n + 2 − n2 (n + 1)2 ] = θ2 [ n(n2 + 2n + 1)− n2(n + 2) (n + 2)(n + 1)2 ] = θ2 [ n3 + 2n2 + n − n3 − 2n2 (n + 2)(n + 1)2 ] = θ2 n (n + 2)(n + 1)2 : , 32 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 1 Recuerde que el ECM es Var ( θ̂ ) + B2 ( θ̂ ) , ECM(θ̂emv ) = θ 2 n (n + 2)(n + 1)2 + ( n n + 1 θ − θ )2 = θ2 ( n (n + 2)(n + 1)2 + 1 (n + 1)2 ) = θ2 2n + 2 (n + 2)(n + 1)2 = θ2 2 (n + 2)(n + 1) : , 33 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 1 b) Aqúı se debe justificar la respuesta, para esto utilicemos los siguientes argumentos: I El estimador de momento θ̂em = 2Y n es insesgado mientras que el estimador de máxima verosimilitud θ̂emv = máx{Y1,Y2, . . . ,Yn} es asintóticamente insesgado. I El EMV tiene un ECM mucho menor que el estimador de momento: ECM ( θ̂em ) −ECM ( θ̂emv ) = θ2 [ 1 3n − 2 (n + 2)(n + 1) ] = θ2 [ n2 − 3n + 2 n2 + 3n + 2 ] ≥ 0 : , 34 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 1 A pesar de que el EMV es asintóticamente insesgado, es mucho más preciso que el EM, entonces el estimador propuesto para el parámetro θ es θ̂emv = máx{Y1,Y2, . . . ,Yn} : , 35 Propiedades de un Estimador Tópicos de la Ayudant́ıa I Insesgamiento I Error cuadrático medio Ejercicio 2 I Consistencia I Ejercicios Propuestos : , 36 Propiedades de un Estimador Error Cuadrático Medio: Ejercicio 2 Suponga que se dispone de Y1,Y2, . . . ,Yn muestra aleatoria simple de una población con la siguiente distribución f (y |θ) = e−(y−θ), y > θ, θ > 0, y se proponen dos estimadores para el parámetro desconocido θ, θ̂1 = Y n − 1 y θ̂2 = ḿın{Y1,Y2, . . . ,Yn} − 1n . a) Muestre que ambos estimadores son insesgados. b) calcule el ECM de cada estimador. c) ¿Que estimador es más preciso?. : , 37 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 2 a) Para calcular la esperanza del estimador θ̂1 necesitamos el primer mo- mento de la distribución Y , entonces E(Y ) = ∫ ∞ θ ye−(y−θ)dy = ∫ ∞ 0 (x + θ)e−xdx , usando cambio variable x = y − θ = ∫ ∞ 0 xe−xdx︸ ︷︷ ︸ Es dist. Gamma(2, 1) +θ ∫ ∞ 0 e−xdx︸ ︷︷ ︸ Es dist. Exp(1) = 1 + θ Aśı, E ( θ̂1 ) = E(Y n)−1 = 1n ∑n i=1 E(Yi )−1 = n n (θ+ 1)−1 = θ, entonces es un estimador insesgado. : , 38 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 2 Para calcular la esperanza de θ̂2 se necesita la distribución del ḿınimo. Defina T = ḿın{Y1,Y2, . . . ,Yn} entonces Pr(T ≤ t) = Pr(ḿın{Y1,Y2, . . . ,Yn} ≤ t) = 1− Pr(ḿın{Y1,Y2, . . . ,Yn} > t) ind = 1− Pr(Y1 > t) · Pr(Y2 > t) · · ·Pr(Yn > t) iid = 1− Pr(Y > t)n = 1− (1− Fy (t))n Para encontrar la densidad podemos derivar con respecto a t (aplicando regla de la cadena) fT (t) = n(1− FY (t))n−1fY (t), t > θ, θ > 0. : , 39 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 2 Sólo necesitamos la función de distribución acumulada de Y , Fy (y) = ∫ y θ e−(z−θ)dz = eθ ∫ y θ e−zdz = eθ ( −e−z )∣∣z=y z=θ = eθ ( e−θ − e−y ) = 1− e−(y−θ) La densidad de T = ḿın{Y1,Y2, . . . ,Yn} será fT (t) = n ( e−(t−θ) )n−1 e−(t−θ) = ne−n(t−θ) : , 40 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 2 Basta con tomar valor esperado del estimador θ̂2 = T − 1n , E ( θ̂2 ) = E(T )− 1 n = ∫ ∞ θ nte−n(t−θ)dt − 1 n = ∫ ∞ 0 n(x + θ)e−nxdx − 1 n , usando cambio variable x = t − θ = 1 n ∫ ∞ 0 n2xe−nxdx︸ ︷︷ ︸ Es dist. Gamma(2, n) +θ ∫ ∞ 0 ne−nxdx︸ ︷︷ ︸ Es dist. Exp(n) − 1 n = 1 n + θ − 1 n = θ. : , 41 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 2 Ambos estimadores son insesgados. b) Basta calcular las varianzas (resultados de a)). Para calcular la varianza de θ̂1 primero hay que calcular el segundo momento de Y , E(Y 2) = ∫ ∞ θ y 2e−(y−θ)dy = ∫ ∞ 0 (x + θ)2e−xdx , usando cambio variable x = y − θ = ∫ ∞ 0 (x2 + 2θx + θ2)e−xdx = 2 ∫ ∞ 0 1 2 x2e−xdx︸ ︷︷ ︸ Es dist. Gamma(3, 1) +2θ ∫ ∞ 0 xe−xdx︸ ︷︷ ︸ Es dist. Gamma(2, 1) +θ2 ∫ ∞ 0 e−xdx︸ ︷︷ ︸ Es dist. Exp(1) = 2 + 2θ + θ2 : , 42 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 2 Entonces la varianza de Y Var(Y ) = E(Y 2)− E2(Y ) = 2 + 2θ + θ2 − (1 + θ)2 = 1 Aśı Var ( θ̂1 ) = Var(Y n − 1) = Var(Y n) iid = 1 n2 n∑ i=1 Var(Yi ) = 1 n : , 43 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 2 Para calcular la varianza del estimador θ̂2 vamos a necesitar el segundo momento de T , E ( T 2 ) = ∫ ∞ θ nt2e−n(t−θ)dt = ∫ ∞ 0 n(x + θ)2e−nxdx , usando cambio variable x = t − θ = 2 n2 ∫ ∞ 0 1 2 n3x2e−nxdx︸ ︷︷ ︸ Es dist. Gamma(3, n) + 2θ n ∫ ∞ 0 n2xe−nxdx︸ ︷︷ ︸ Es dist. Gamma(2, n) +θ2 ∫ ∞ 0 ne−nxdx︸ ︷︷ ︸ Es dist. Exp(n) = 2 n2 + 2θ n + θ2 : , 44 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 2 Ahora podemos calcular la varianza de T Var(T ) = E(T 2)− E2(T ) = 2 n2 + 2θ n + θ2 − ( θ + 1 n )2 = 2 n2 + 2θ n + θ2 − θ2 − 2θ n − 1 n2 = 1 n2 Luego, la varianza del estimador θ̂2 está dada por Var ( θ̂2 ) = Var ( T − 1 n ) = Var(T ) = 1 n2 : , 45 Propiedades de un Estimador Error Cuadrático Medio: Solución Ejercicio 2 c) Aqúı comparamos directamente los ECM para la elección del mejor estimador, y dado los cálculos de b) sabemos que ECM ( θ̂2 ) = 1 n2 ≤ 1 n = ECM ( θ̂1 ) , ∀n ≥ 1, entonces, el estimador elegido para estimar θ es θ̂2 = ḿın{Y1,Y2, . . . ,Yn} − 1 n : , 46 Propiedades de un Estimador Tópicos de la Ayudant́ıa I Insesgamiento I Error cuadrático medio I ConsistenciaI Ejercicios Propuestos : , 47 Propiedades de un Estimador Consistencia Consistencia: Se dice que θ̂n es consistente para estimar el parámetro θ ssi ĺımn→∞ ECM ( θ̂n ) = 0 Esta propiedad también se conoce como con- vergencia en media cuadrática (MC) o consistencia fuerte o simplemente consistencia. Consistencia Débil: θ̂n es un estimador debilmente consistente de un paráme- tro θ ssi ĺım n→∞ Pr (∣∣θ̂ − θ∣∣ ≥ ε) = 0,∀ε > 0, o equivamentemente ĺım n→∞ Pr (∣∣θ̂ − θ∣∣ ≤ ε) = 1,∀ε > 0 : , 48 Propiedades de un Estimador Consistencia Propiedad: Si θ̂ converge en MC entonces θ̂ converge en probabilidad a θ. ¿Para que sirve la consistencia de un estimador? La consistencia es una propiedad de algunos estimadores, esta propiedad nos informa que a medida que aumentamos el tamaño muestral, nuestro estimador se vuelve más preciso. Es decir, los estimadores consistentes logran mejores estimaciones a medida que aumenta el tamaño muestral (un requerimiento lógico y ḿınimo). : , 49 Propiedades de un Estimador Tópicos de la Ayudant́ıa I Insesgamiento I Error cuadrático medio I Consistencia Ejercicio 1 I Ejercicios Propuestos : , 50 Propiedades de un Estimador Consistencia: Ejercicio 1 En el ejercicio 2 de insesgamiento se determinó que para una muestra aleatoria simple Y1,Y2, . . . ,Yn de una población Y ∼ Uniforme(0, θ) el EMV está dado por θ̂n = máx{Y1,Y2, . . . ,Yn}. En el mismo contexto del ejercicio 2 Muestre lo siguiente: a) La consistencia débil de θ̂n. b) La consistencia en media cuadrática de θ̂n. : , 51 Propiedades de un Estimador Consistencia: Solución Ejercicio 1 a) A partir del ejercicio 2 de insesgamiento tenemos la distribución de T = máx{Y1,Y2, . . . ,Yn}, fT (t) = nθn tn−1, donde 0 ≤ t ≤ θ,0, en otro caso. Entonces, ∀ε > 0, se analiza el caso θ ≥ ε (sino es cero), se tiene Pr (∣∣θ̂ − θ∣∣ ≥ ε) = Pr(∣∣T − θ∣∣ ≥ ε) = Pr ({T − θ ≥ ε} ∪ {T − θ ≤ −ε}) = Pr (T ≥ ε+ θ) + Pr (T ≤ −ε+ θ) : , 52 Propiedades de un Estimador Consistencia: Solución Ejercicio 1 Pero note que T ∈ (0, θ), por lo tanto Pr (T ≥ ε+ θ) = 0, aśı Pr (∣∣θ̂n − θ∣∣ ≥ ε) = Pr (T ≤ θ − ε) = ∫ θ−ε 0 n θn tn−1dt = 1 θn ∫ θ−ε 0 n tn−1dt = 1 θn tn ∣∣∣t=θ−ε t=0 = ( θ − ε θ )n = ( 1− ε θ )n : , 53 Propiedades de un Estimador Consistencia: Solución Ejercicio 1 Recuerde que a < 1, entonces ĺımn→∞ a n = 0, por lo tanto ĺım n→∞ Pr (∣∣θ̂n − θ∣∣ ≥ ε) = ĺım n→∞ ( 1− ε θ )n = 0 b) Para el cálculo del ECM se necesita el segundo momento de T , E(T 2) = ∫ θ 0 t2 n θn tn−1dt = n θn ∫ θ 0 tn+1dt = n θn tn+2 n + 2 ∣∣∣∣∣ t=θ t=0 = n θn θn+2 n + 2 = n n + 2 θ2 : , 54 Propiedades de un Estimador Consistencia: Solución Ejercicio 1 Entonces el ECM es la varianza más el sesgo al cuadrado, ECM ( θ̂n ) = Var ( θ̂n ) + B2 ( θ̂n ) = n n + 2 θ2 − ( n n + 1 θ )2 + θ2 ( 1− n n + 1 ) = θ2 [ n(n2 + 2n + 1)− n2(n + 2) (n + 2)(n + 1)2 ] + θ2 1 n + 1 = θ2 [ n (n + 2)(n + 1)2 + 1 n + 1 ] = θ2 [ n2 + 4n + 2 (n + 2)(n + 1)2 ] : , 55 Propiedades de un Estimador Consistencia: Solución Ejercicio 1 Luego tomamos ĺımite ĺım n→∞ ECM ( θ̂n ) = ĺım n→∞ θ2 [ n2 + 4n + 2 (n + 2)(n + 1)2 ] = ĺım n→∞ θ2 n2 ( 1 + 4 n + 2 n2 ) n2 ( 1 + 1 n )2 (n + 2) = ĺım n→∞ θ2 ( 1 + 4 n + 2 n2 ) ( 1 + 1 n )2 (n + 2) = 0 : , 56 Propiedades de un Estimador Tópicos de la Ayudant́ıa I Insesgamiento I Error cuadrático medio I Consistencia I Ejercicios Propuestos : , 57 Propiedades de un Estimador Ejercicios Propuestos 1. Considere que dispone de un muestra aleatoria simple X1,X2, . . . ,Xn de una población con la siguiente distribución. f (x |θ) = x θ2 e−x/θ, x ≥ 0, θ > 0. a) Muestre que el EMV es igual a EM. b) Encuentre el ECM del estimador de máxima verosimilitud. c) Muestre que el EMV es consistente en media cuadrática. : , 58 Propiedades de un Estimador Ejercicios Propuestos 2. Sea X1,X2, . . . ,Xn una muestra iid con distribución Normal(0, σ 2). a) Muestre que el EMV está dado por σ̂2 = ∑n i=1 X 2 i n . b) Reporte el ECM del estimador. c) Muestre que el estimador es cumple con la consistencia débil. 3. Sea X1,X2, . . . ,Xn una muestra iid con distribución f (x |θ) = 2θ 2 x3 , si θ ≤ y <∞, 0, en otro caso. a) Muestre que el EMV está dado por θ̂ = ḿın{X1,X2, . . . ,Xn}. b) ¿Es asintóticamente insesgado el EMV?. c) Muestre que el estimador es cumple con la consistencia débil. : , 59
Compartir