Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Inferencia estadística Estimación puntual División del campo de la inferencia estadística La inferencia estadística está relacionada con los métodos para obtener conclusiones o generalizaciones acerca de una población. Estas conclusiones sobre la población pueden estar relacionadas ó con la forma de la distribución de una variable aleatoria, ó con los valores de uno o varios parámetros de la misma. • Estimación de los parámetros de una distribución • Pruebas de hipótesis. En el problema de estimación se trata de elegir el valor de un parámetro de la población, mientras que en las pruebas de hipótesis se trata de decidir entre aceptar o rechazar un valor especificado. • La estimación puntual • La estimación por intervalos de confianza. División de la estimación en áreas • Pruebas de hipótesis sobre parámetros, para determinar si un parámetro de una distribución toma o no un determinado valor • Pruebas de Bondad de Ajuste, para definir si un conjunto de datos se puede modelar mediante una determinada distribución. División de las pruebas de hipótesis en áreas Una "estimación puntual" de algún parámetro de una población θ es un solo valor obtenido a partir de un estadístico. Inferencia estadística y estimación puntual Estimación puntual Estimación Estimación puntual En el problema de estimación se trata de elegir el valor de un parámetro de la población, según una estrategia de la naturaleza. La estimación puntual consiste en utilizar el valor de una estadística o un valor estadístico para calcular el parámetro de una población. Por ejemplo, cuando usamos la media muestral para estimar la media de una población (µ), o la proporción de una muestra P para estimar el parámetro de una distribución binomial θ. Estimación puntual y estimador Estimación puntual Estimador Se denomina "estimador" de un parámetro θ a un estadístico T = t(X1, X2, ..., Xn) que es usado para estimar el valor del parámetro θ de una población. Al valor observado del estadístico t = t(x1, x2, ..., xn) se le denomina "estimativo" de θ. Cuando hablamos del parámetro θ nos podemos estar refiriendo a un solo parámetro, o a un conjunto de parámetros desconocidos. Si el parámetro θ es estimado, lo representamos como θ = t(X1, X2, ..., Xn) Los estimadores son variables aleatorias, y por lo tanto tienen una función de densidad, correspondiente a las distribuciones muestrales. No hay ningún estimador perfecto, ya que siempre habrá algún error en el proceso de estimación. Deben estudiarse distintas propiedades estadísticas de los estimadores para decidir cual es el más apropiado. Algunas de las propiedades a estudiar corresponden al sesgo, mínima varianza, consistencia, eficiencia relativa y suficiencia. Estimador Estimación puntual Para tratar de responder intuitivamente qué es un buen estimador, considere tres productos A, B y C para los cuales se hacen proyecciones de demanda. Suponga que al analizar la información histórica de cada producto, se calcula la diferencia entre el pronóstico y el valor real para cada producto, y sus distribuciones resultantes son las siguientes: A: El método usado para pronosticar la demanda de A es el que mejor hace su trabajo, ya que queda más cerca del valor real y tiene una menor varianza. B: Su pronóstico es aproximadamente igual al valor real, pero tiene una mayor varianza. C: Peor proyección ya que sobrestima la demanda. En conclusión, si se desea estimar una parámetro θ, entonces el estimador debe estar distribuido alrededor de θ, y tener mínima varianza. Estimador y propiedades de los estimadores Estimación puntual Estimadores insesgados Sea X1, X2, ..., Xn una muestra aleatoria proveniente de una población cuya función de densidad es f(x, θ). Sea T = t(X1, X2, ..., Xn) un estadístico usado para estimar el parámetro θ. Nuestro problema consiste en encontrar la "función t" que proporcione la "mejor estimación" del parámetro θ. Definición de estimador Como no hay ningún estimador perfecto que de siempre la respuesta correcta, debería hacerlo por lo menos en promedio. El valor esperado del estimador debería ser igual al parámetro que trata de estimar. En caso de que lo sea, se dice que el estimador es "insesgado", en caso contrario se diría que es sesgado. Definición. Un estadístico T es un estimador insesgado del parámetro θ si y solo si E(T) = θ para todo θ ЄΘ. En caso contrario decimos que es un "estimador sesgado". Sesgo. Si T es un estimador sesgado, la diferencia E(T) - θ recibe el nombre de sesgo. T=X1 es un estimador insesgado de µ ya que E(X1)=µ Propiedades de los estimadores Estimación puntual Estimadores insesgados Ejemplo. La media muestral es un estimador insesgado de la media poblacional µ ya que E( ) = µ. Tenemos que nXE =)( Ejemplo. Si X es Binomial (n, θ), demostrar que X/n es un estimador insesgado del parámetro θ . Sea P = Propiedades de los estimadores Estimación puntual Estimadores insesgados Ejemplo. Sea X1, X2,..., Xn una muestra aleatoria con E(Xi) = µ. Demostrar que si entonces T = a1X1 + a2X2 +...+anXn es un estimador insesgado de µ. )...()( 2211 nn XaXaXaETE +++= )(...)()()( 2211 nn XEaXEaXEaTE +++= naaaTE +++= ...)( 21 = n iaTE 1*)( Propiedades de los estimadores Estimación puntual Estimadores insesgados Si )(TE entonces se dice que T es sesgado y a la diferencia se le conoce como sesgo −)(gE El insesgamiento es una propiedad deseable, pero no a toda costa. Suponga que se tienen dos estimadores T1 y T2 y que el primero puede tomar valores mucho más separados de θ en tanto que T2 siempre se encuentra más próximo pero su media esta poco más separada de θ Ejemplo: Se tiene Se puede demostrar que es un estimador insesgado de σ ² Propiedades de los estimadores Estimación puntual Estimadores insesgados Entonces se preferiría T2 a T1 debido a que tiene una varianza mas pequeña, aun cuando este es sesgado. Si la varianza del estimador es grande, es posible obtener algunas muestras desafortunadas en las que el estimado esta lejos del valor verdadero. Así la segunda propiedad que se desea en los estimadores es que tengan una varianza pequeña. Un criterio que muchas veces se sugiere es el del error cuadrático medio, que se define como: MSE = (sesgo)2 + varianza El criterio del error cuadrático medio da pesos iguales a estos componentes. En lugar de eso, es posible considerar un promedio ponderado ianzaWsesgoW var)1()( 2 −+ Hablando estrictamente, en vez de hacerlo ad hoc , se debería especificar la función de perdida que represente la perdida al utilizar T1 como estimador de θ y elegir a T2 para reducir al mínimo la pérdida estimada V( ) = σ²/n < V(X1) = σ². Propiedades de los estimadores Estimación puntual Estimadores de mínima varianza (eficiencia) Si T1 y T2 son dos estimadores insesgados con varianzas V(T1)y V(T2), respectivamente, y V(T1) < V(T2), se dice que T1 es más eficiente que T2. como X1 son estimadores La media es más eficiente que X1 para estimar µ Sea X1, X2, ..., Xn una muestra aleatoria de tamaño n. Sabemos que tanto insesgados de µ. Sin embargo La propiedad de la eficiencia se ocupa de la varianza de los estimadores. Obviamente, se trata de un concepto relativo y que es preciso limitar a una clase especifica. Si T es un estimador insesgado y tiene varianza mínima en la clase de los estimadores insesgados, se dice que T es un estimador eficiente y un estimador insesgado de varianza mínima. Si nos limitamos a los estimadores lineales, es decir, nn ycycycT +++= 2211 donde c son las constantes las cuales se eligen de modo que T sea insesgada y tenga varianza mínima , T se conoce como el mejor estimador lineal e insesgado. Propiedades de los estimadores Estimación puntual Estimadores de mínima varianza (eficiencia relativa) Los estimadores insesgados suelen compararse en términos de sus respectivas varianzas. Si T1 y T2 son dos estimadoresinsesgados de un parámetro θ y la varianza de T1 es menor que la varianza de T2, se dice que T1 es más eficiente que T2. También se puede usar la siguiente relación para medir la eficiencia relativa de T2 con respecto a T1. Ejemplo. Al calcular la media de una población normal sobre la base de una muestra de tamaño 2n+1, ¿cuál es la eficiencia de la mediana con relación a la media? Se sabe que la varianza de la media está dada por σ²/(2n+1). Para una muestra aleatoria de tamaño 2n+1 de una población normal se sabe que el valor esperado y la varianza de la mediana están dados por: Propiedades de los estimadores Estimación puntual Estimadores de mínima varianza (eficiencia relativa) La eficiencia relativa está dada por: La eficiencia asintótica de la mediana con respecto a la media está dada por: → la media muestral es un estimador más eficiente de la media poblacional que la mediana muestral. La media requiere sólo el 64% de las observaciones que requiere la mediana para estimar la media poblacional µ con la misma confiabilidad. Propiedades de los estimadores Estimación puntual Estimadores insesgados de mínima varianza Para saber si un estimador insesgado es de mínima varianza o con sesgo mínimo, se usa la desigualdad de Crámer-Rao, dada en el siguiente teorema. Teorema. Si T es un estimador insesgado de θ y entonces T es el estimador insesgado de mínima varianza de θ. La cantidad en el denominador se denomina la "información " que da la muestra acerca del parámetro θ. Ejemplo. Demuestre que la media es el estimador insesgado de mínima varianza de la media µ de una población normal. T = = Propiedades de los estimadores Estimación puntual Estimadores insesgados de mínima varianza Por lo tanto se tiene que Como sabemos que la media es un estimador insesgado y su varianza es igual σ²/n entonces es el estimador insesgado de mínima varianza de µ. Teorema. Sea X1, X2, ..., Xn una muestra aleatoria de tamaño n de una población normal con media µ y varianza σ ². Entonces el estimador es el "estimador insesgado de mínima varianza" de µ, también denominado estimador MVUE (Minimum Variance Unbiased Estimator). Propiedades de los estimadores Estimación puntual Estimadores insesgados de mínima varianza (error cuadrático medio) ECM(T) = E{(T - θ)²} = E(T² - 2T θ + θ ²) = E(T²) - 2 θ E(T) + θ ² Sumando y restando [E(T)]² a ambos lados de la ecuación se tiene que: ECM(T) = {E(T²) - [E(T)]²}+ {[E(T)]² - 2 θ E(T) + θ ²} ECM(T) = V(T) + [θ - E(T)]² Si T es un estimador sesgado de un parámetro θ es preferible juzgar sus méritos y realizar las comparaciones de eficiencia sobre la base del "error cuadrático medio". Definición. Sea T cualquier estimador de un parámetro θ. Se define el error cuadrático medio como el valor esperado del cuadrado de la diferencia entre el estimador T y el parámetro θ que trata de estimar. ECM(T) = E{(T - θ)2} Para saber por qué es tan importante el error cuadrático medio ECM, veamos cómo se puede expresar: De lo anterior se concluye que el ECM está compuesto por dos cantidades no negativas, que son: · La varianza del estimador T. · El cuadrado del sesgo del estimador. El ECM involucra las dos propiedades más importantes de un estimador → la varianza del estimador debe ser lo más pequeña posible, y la distribución de muestreo del estimador debe concentrarse alrededor del parámetro. Propiedades de los estimadores Estimación puntual Estimadores insesgados de mínima varianza (error estándar) Es un indicador de la precisión de un estimador (reporte de una estimación puntual). Definición. El error estándar de un estimador T es su desviación estándar Para la media el error estándar sería Aunque en el cálculo del error estándar intervienen parámetros desconocidos cuyos valores se pueden estimar, la sustitución de estas estimaciones en el cálculo produce el "error estándar estimado" del estimador. El error estándar estimado se puede denotar por Propiedades de los estimadores Estimación puntual Estimadores insesgados de mínima varianza (error estándar) Si estamos estimando una proporción θ, entonces su mejor estimativo será la proporción muestral y el error estándar será El error máximo ocurre cuando θ = 0.5, y será Si n = 50 el error máximo será Propiedades de los estimadores Estimación puntual Estimadores consistentes Muchas veces no es posible encontrar estimadores que tengan todas las propiedades deseables de muestras pequeñas, como insesgamiento y eficiencia. Es razonable esperar que un estimador mejore a medida que se aumenta el tamaño de la muestra. Cuando el tamaño de la muestra es muy grande los estimadores tomarán, por lo general, valores muy próximos a los parámetros respectivos. En tales casos la costumbre es observar las propiedades deseables en muestras grandes. Estas se conocen como propiedades asintóticas. Tres de dichas propiedades que se mencionan con frecuencia son consistencia, insesgamiento asintótico y eficiencia asintótica. Definición. El estadístico T es un "estimador consistente" del parámetro θ si y solo si para cualquier constante positiva c se cumple que o en forma equivalente Prob −− 1nT para todo 0nn Es decir, al incrementar el tamaño de la muestra n, es posible hacer que el estimador Tn quede arbitrariamente cercano al valor verdadero de θ con una probabilidad arbitrariamente próxima a 1. Propiedades de los estimadores Estimación puntual Estimadores consistentes Este enunciado se escribe: ( ) 1lim =−→ nn TP ( ) 0lim =→ pnp TpoT (plim es el limite en probabilidad) Se dice que T converge en probabilidad a θ . En la práctica, se estima el subíndice n de T y así mismo se omiten las palabras “sucesión de estimadores” y solo se dice que T es un estimador consistente de θ Una condición suficiente para que T sea consistente es que el sesgo y la varianza deberá tender a 0 a medida que aumenta el tamaño de la muestra. Con frecuencia es bueno verificar esta condición en la práctica. Pero debe observarse que no es una condición necesaria. Un estimador puede ser consistente aun si el sesgo no tiene cero. Existen asimismo algunas relaciones en los límites de probabilidad que son útiles para demostrar la consistencia, y son: 22112211 ylimpcylimpc)ycyclim(p +=+ donde c1 y c2 son constantes )lim)(lim()lim( 2121 ypypyyp = )ylimp/()ylimp()y/ylim(p 2121 = suponiendo que 012 ylimp 1.S i cylimp = y )y(g es una función continua de y, entonces )c(glimp)y(glimp = Propiedades de los estimadores Estimación puntual Estimadores consistentes La consistencia es una propiedad asintótica (propiedad límite). Ejemplo. La media muestral es un estimador consistente de μ, y la proporción muestral P = X/n es a su vez un estimador consistente de la proporción poblacional μ. Teorema. El estadístico T es un "estimador consistente" del parámetro θ si: 1) T es un estimador insesgado. 2) V(T) → 0 cuando n→ ∞. Las dos condiciones anteriores son suficientes, pero no son necesarias. Es decir, si un estimador cumple las dos condiciones, entonces ese estimador es consistente, pero el hecho de no cumplirlas, no quiere decir que no lo sea. Un estimador sesgado puede ser consistente solo si es asintóticamente insesgado, es decir, que se vuelve insesgado cuando n→ ∞. Ejemplo. Es T=X1 un estimador consistente de la media poblacional μ? Tenemos que E(T) =E( X1) = X1, es decir es insesgado, y V(T) = V(X1) = c2. Como la varianza del estimador no tiende a cero, entonces no es consistente, lo cual se puede verificar al aplicar la desigualdad de Chevyshef, que expresa lo siguiente: la cual no tiende a cero cuando n→ ∞, es decir, que X1 no tiende a μ cuando n es grande. Propiedades de los estimadores Estimación puntual Estimadores consistentes (otras propiedades asintóticas) Además de la consistencia, existen otros dos conceptos, insesgamiento asintótico y eficiencia asintónica, que muchas vecesse emplea en econometría. Para explicar estos conceptos primero es necesario definir el concepto de distribución limite, que es, si se considera una sucesión de variables aleatorias Y1, Y2,… Yn con las correspondientes funciones de distribución F1, F2,… Fn , se dice que esta sucesión converge en distribución a una variable aleatoria y con función de distribución F si →n)x(Fn cuando para todos los puntos de continuidad de F. Es importante observar que los momentos de F no son necesariamente los momentos de Fn . De hecho en econometría muchas veces se da el caso de que Fn no tiene momentos, pero F sí. Ejemplo: Suponga que x es una variable aleatoria con: 0 media varianza 2 0)0( == cxP Suponga que se tiene una muestra aleatoria de tamaño nx,x,x,x:n 321 Propiedades de los estimadores Estimación puntual Estimadores consistentes (otras propiedades asintóticas) Sea nx la media de la muestra aleatoria. El subíndice n denota el tamaño de la muestra. Defina la variable aleatoria nn x/y 1= Entonces )y(E n no existe, porque hay una probabilidad positiva de que 021 === nxxx 0 si == nn xy Sin embargo en este caso es posible demostrar que − 11 nx n tiene una distribución límite que es normal con media 0 y varianza 42 / Ejemplo: Propiedades de los estimadores Estimación puntual Estimadores consistentes (otras propiedades asintóticas) Ejemplo: Aun así, si la distribución de Yn no tiene una media y una varianza, su distribución límite tienen /1=media 42 /var nianza = Cuando se consideran las distribuciones asintóticas, se considera n veces que el estimador, porque de otra manera la varianza es de orden →→ nn/ que medida a 0 que 1 Por tanto, cuando se comparan dos estimadores T1 y T2, las varianzas de las dos distribuciones asintóticas 0→ a medida que →n Cuando se analiza la eficiencia, se comparan las varianzas de las distribuciones de 21 y TnTn Propiedades de los estimadores Estimación puntual Estimadores consistentes (otras propiedades asintóticas) Insesgamiento asintótico El estimador n̂ que se basa en una muestra de tamaño n, es un estimador asintóticamente insesgado de θ si la media de la distribución limite de 0 es )ˆ( −nn Esto se denota al escribir s)asintótica asexpectariv == AE()ˆ(AE n A veces se utiliza una definición alterna: n̂ es un estimador asintóticamente insesgado de θ si =→ )ˆ(Elim n El problema con esta definición es que tal vez no exista )nvar( Propiedades de los estimadores Estimación puntual Estimadores consistentes (otras propiedades asintóticas) Insesgamiento asintótico Las dos definiciones son: límite.ón distribuci la de varianzala considera se si 2)ˆ(nAE n − 2)ˆ(nElim nn −→ La consistencia y el insesgamiento asintónico son diferentes, y los dos conceptos de insesgamiento son asimismo diferentes; es decir, )ˆ(Elim)ˆ(AE),ˆlim(p nnn y no siempre son lo mismo. Ejemplo: Suponga que se tiene una muestra de tamaño n a partir de una distribución normal ),(N 1 Considere xˆ n = como un estimador de θ. Entonces: === )ˆ(Elim)ˆ(AE)ˆlim(p nnn Propiedades de los estimadores Estimación puntual Estimadores consistentes (otras propiedades asintóticas) Insesgamiento asintótico Ejemplo Pero suponga que se define += n in x n xˆ 2 1 2 1 2 1 Entonces = − += → ) ˆ(Elim n n )ˆ(E nnn y 2 1 2 1 Pero += 2121 1 /x/) ˆlim(p n Entonces )ˆ(Elim)ˆlim(p nn Por lo tanto se tiene un estimador asintóticamente insesgado de θ que no es consistente. Propiedades de los estimadores Estimación puntual Estimadores Suficientes Definición Se dice que un estimador T es suficiente si utiliza toda la información relevante de la muestra para estimar el parámetro θ de la población. Es decir, un estimador T es suficiente si todo el conocimiento que se obtiene acerca del parámetro θ es mediante la especificación real de todos los valores de la muestra. Ejemplo. Se tiene una muestra aleatoria (X1, X2, ..., Xn) de tamaño 30 tomada de una población exponencial f(x, θ), donde θ es un parámetro desconocido. Considere las dos estadísticos siguientes: El estadístico T1 no es un estimador suficiente del parámetro θ mientras que T2 sí lo es. Se dice que un estadístico T = t(X1, X2, ..., Xn) es "suficiente" para un parámetro θ si la distribución conjunta de X1, X2, ..., Xn dado T se encuentra libre de θ, es decir, si se afirma T, entonces X1, X2, ..., Xn no tienen nada más que decir acerca de θ. Formalmente esto puede expresarse en términos de la distribución condicional de los valores de la muestra, dado que θ = T. Esta cantidad está dada por: Propiedades de los estimadores Estimación puntual Estimadores Suficientes Utilidad. Si un estimador insesgado T de un parámetro θ es una función de un estadístico suficiente, entonces tendrá la varianza más pequeña entre todos los estimadores insesgados de θ. Además, si existe el estimador más eficiente de θ, éste será un estadístico suficiente. Teorema de factorización de Neyman Sea X1, X2, ..., Xn una muestra aleatoria de una distribución con función de densidad f(x, θ). Se dice que el estadístico T = t(X1, X2, ..., Xn) es un estadístico suficiente para θ si y solo si la función de verosimilitud se puede factorizar de la siguiente manera: L(X, θ) = h(t, θ) g(x1, x2, ..., xn) para cualquier valor t(x1, x2, ..., xn) de T y donde g(x1, x2, ..., xn) no contiene el parámetro θ. Ejemplo. Sea X1, X2, ..., Xn una muestra aleatoria de tamaño n de una distribución gama, cuya función de densidad está dada por: La función de verosimilitud está dada por: L(X, θ) = Propiedades de los estimadores Estimación puntual Estimadores Suficientes Ejemplo. Sea X1, X2, ..., Xn una muestra aleatoria de tamaño n de una distribución de Poisson con parámetro λ cuya función de densidad está dada por: Demostrar que el estimador eficiente para λ es a su vez un estimador suficiente. La función de verosimilitud está dada por: donde Diapositiva 1 Diapositiva 2 Diapositiva 3 Diapositiva 4 Diapositiva 5 Diapositiva 6 Diapositiva 7 Diapositiva 8 Diapositiva 9 Diapositiva 10 Diapositiva 11 Diapositiva 12 Diapositiva 13 Diapositiva 14 Diapositiva 15 Diapositiva 16 Diapositiva 17 Diapositiva 18 Diapositiva 19 Diapositiva 20 Diapositiva 21 Diapositiva 22 Diapositiva 23 Diapositiva 24 Diapositiva 25 Diapositiva 26 Diapositiva 27 Diapositiva 28 Diapositiva 29
Compartir