Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Métodos de estimación Métodos de estimación Método de los momentos Para la estimación de parámetros de distribuciones de probabilidad los métodos empleados son los dos primeros, mientras que MC se usa principalmente en los estudios de regresión. Los principales métodos de estimación de parámetros son los siguientes • Método de los momentos • Método de máxima verosimilitud • Mínimos cuadrados Los momentos sirven para caracterizar una distribución de probabilidad, y si dos variables aleatorias tienen los mismos momentos, entonces dichas variables tienen o siguen la misma función de densidad. Por lo tanto, los podemos emplear para estimar sus respectivos parámetros. El método consiste en igualar los primeros momentos de una población a los momentos correspondientes de una muestra. Definición. Se define el k-ésimo momento (absoluto) de una variable aleatoria discreta como Si la variable aleatoria es continua su k-ésimo momento (absoluto) está dado por: El k-ésimo momento mk de una muestra aleatoria X1, X2, ..., Xn es la media de sus k-ésimas potencias y está dado por: Métodos de los momentos Métodos de estimación Ejemplo. Si una variable aleatoria sigue una distribución exponencial con parámetro λ, encontrar el estimador del parámetro usando el método de los momentos. f(X) = λ e-λx, x > 0 Como sólo existe un parámetro, bastará con usar el primer momento, es decir, m1 El primer momento de la distribución exponencial es 1/λ, por lo cual se tiene que Ejemplo. Si una variable aleatoria tiene una distribución gama, con parámetros λ y k desconocidos, se tiene lo siguiente: Se puede demostrar que el j-ésimo momento absoluto está dado por: Métodos de los momentos Métodos de estimación Ejemplo. Por lo tanto los dos primeros momentos poblacionales están dados por: Igualando estos dos momentos poblacionales a los respectivos momentos muestrales se tiene: De (1) se tiene que y reemplazando en la ecuación (2) obtenemos: Métodos de los momentos Métodos de estimación Ejemplo. Por lo tanto Ejemplo. Estimar por el método de los momentos los parámetros μ y σ² de una distribución normal. Como son dos parámetros los que necesitamos estimar, usaremos los dos primeros momentos de la distribución normal, que están dados por: Igualando los dos primeros momentos poblacionales con sus respectivos momentos muestrales tenemos que: De lo anterior se concluye que el estimativo de la media poblacional μ es la media muestrales un estimativo insesgado, mientras que el estimativo de la varianza poblacional σ² no es la varianza muestral S², sino la cuasivarianza, y es un estimativo sesgado. Métodos de los momentos Métodos de estimación Ejemplo. Estimar por el método de los momentos el parámetro λ de una distribución de Poisson. Métodos de máxima verosimilitud Métodos de estimación La función de verosimilitud de una muestra o conjunto de variables aleatorias X1, X2, ..., Xn se define como la función conjunta de densidad de dichas variables. Si representamos por L(X,θ) la función de verosimilitud, entonces está dada por: Como las variables son independientes, entonces la función de verosimilitud puede expresarse como: Ahora, como las variables son idénticamente distribuidas, la función de densidad conjunta puede expresarse como: Dado que se toma la muestra aleatoria y se obtienen los resultados X1 = x1, X2 =x2, ..., Xn = xn, y como la función de verosimilitud es una función de densidad, entonces el objetivo que se pretende con el método de estimación es encontrar aquellos valores de los parámetros que maximicen la probabilidad de obtener los valores que se dieron en la muestra. Por lo tanto, para encontrar estos estimativos se debe derivar la función de verosimilitud con respecto a cada uno de los parámetros a estimar, igualar a cero y despejar el respectivo valor. Es decir Métodos de máxima verosimilitud Métodos de estimación Como generalmente la función de verosimilitud es compleja y difícil de evaluar, y dado que existe una relación biunívoca entre una función y su logaritmo, entonces se prefiere encontrar la derivada del logaritmo de la función de verosimilitud, a saber: La condición necesaria para obtener un máximo o un mínimo es que la primera derivada sea cero. La condición suficiente para obtener una máximo cuando sólo se trata de un parámetro es que la segunda derivada, evaluada en el valor encontrado al realizar la primera derivada sea menor de cero. Es decir Si el parámetro solamente puede tomar algunos valores específicos (discretos), no se puede usar el cálculo diferencial, sino que se deben analizar varios valores posibles del parámetro, y se escoge aquel valor para el cual la probabilidad de ocurrencia es máxima. Métodos de máxima verosimilitud Métodos de estimación Por ejemplo, se lanza al aire una moneda 10 veces, y se observan 6 caras, y necesitamos estimar la probabilidad de que la moneda caiga en cara. Si q representa la probabilidad de que una moneda caiga en cara, entonces la probabilidad de obtener x caras en n lanzamientos de una moneda está dada por la distribución binomial, a saber: Si el parámetro θ puede tomar los valores 0.30, 0.35, 0.40, 0.45, 0.50, 0.55, 0.60, 0.65, 0.70, las probabilidades de obtener 6 caras en 10 lanzamientos de la moneda están dadas en la tabla siguiente, para los valores del parámetro θ arriba mencionado. De la tabla se observa que el valor que maximiza la probabilidad de ocurrencia es Métodos de máxima verosimilitud Métodos de estimación Ejemplo. Si una variable aleatoria sigue una distribución exponencial con parámetro λ, encontrar el estimador del parámetro usando el método de máxima verosimilitud. f(X) = λ e-λx, x > 0 La función de verosimilitud está dada por: Considerando el logaritmo tenemos que: Derivando el logaritmo de la función de verosimilitud con respecto al parámetro λ se tiene: Métodos de máxima verosimilitud Métodos de estimación Ejemplo. De nuevo, el estadístico usado para estimar el parámetro λ es el inverso de la media muestral. Si el parámetro que estuviéramos estimando fuera el valor esperado μ = 1/ λ, entonces el estadístico será la media muestral. Este estimador es insesgado. Suponga que la variable aleatoria se refiere a tiempos de servicio de clientes, y toma los siguientes valores: 2.7, 1.8, 2.6, 10.5, 4.8, 1.2, 0.5, 2.8, 3.9, 18.7.La media muestral sería = 4.92 minutos y el estimativo del parámetro λ sería Ejemplo. Consideremos la estimación de los parámetros μ y σ² de una distribución normal por el método de máxima verosimilitud. La función de verosimilitud está dada por Si X~ N(μ, σ²) Métodos de máxima verosimilitud Métodos de estimación Ejemplo. El logaritmo de la función de verosimilitud está dado por: Derivando inicialmente con respecto al parámetro μ se tiene Derivando con respecto al parámetro σ se tiene: Métodos de máxima verosimilitud Métodos de estimación Ejemplo. En resumen tenemos que: De nuevo se concluye que el estimativo de la media poblacional μ es la media muestral y es un estimativo insesgado, mientras que el estimativo de la varianza poblacional σ² no es la varianza muestral S², sino la cuasivarianza, y es un estimativo sesgado. Ejemplo. Estimar por el método de máxima verosimilitud el parámetro λ de una distribución de Poisson. Ejemplo. Si una variable aleatoria tiene una distribución gama, con parámetros λ y k desconocidos, se tiene lo siguiente: Formule las ecuaciones para estimar por el método de máxima verosimilitud los parámetros de esta distribución. Características de los métodos de estimación Métodos de estimación Método de los momentos • Es una alternativa razonable para obtener estimadores cuando no se pueden emplear estimadores máximo verosímiles. • Este método produce estimadores que son funciones de estadísticos suficientes, si el estimador máximo verosímil es único. • Proporciona estimadores eficientes, es decir,de varianza mínima. • Los estimadores generalmente son sesgados, pero son asintóticamente insesgados. Método de máxima verosimilitud Diapositiva 1 Diapositiva 2 Diapositiva 3 Diapositiva 4 Diapositiva 5 Diapositiva 6 Diapositiva 7 Diapositiva 8 Diapositiva 9 Diapositiva 10 Diapositiva 11 Diapositiva 12 Diapositiva 13
Compartir