Logo Studenta

Estimación (Resumen)

¡Este material tiene más páginas!

Vista previa del material en texto

Métodos de estimación
Métodos de estimación
Método de los momentos
Para la estimación de parámetros de distribuciones de probabilidad los métodos empleados son los 
dos primeros, mientras que MC se usa principalmente en los estudios de regresión.
Los principales métodos de estimación de parámetros son los siguientes
• Método de los momentos
• Método de máxima verosimilitud
• Mínimos cuadrados
Los momentos sirven para caracterizar una distribución de probabilidad, y si dos variables aleatorias 
tienen los mismos momentos, entonces dichas variables tienen o siguen la misma función de densidad. 
Por lo tanto, los podemos emplear para estimar sus respectivos parámetros.
El método consiste en igualar los primeros momentos de una población a los momentos 
correspondientes de una muestra.
Definición. Se define el k-ésimo momento (absoluto) de una variable aleatoria discreta como 
Si la variable aleatoria es continua su k-ésimo momento (absoluto) está dado por: 
El k-ésimo momento mk de una muestra aleatoria X1, X2, ..., Xn es la media de sus k-ésimas potencias y 
está dado por:
Métodos de los momentos
Métodos de estimación
Ejemplo. Si una variable aleatoria sigue una distribución exponencial con parámetro λ, encontrar el 
estimador del parámetro usando el método de los momentos.
f(X) = λ e-λx, x > 0
Como sólo existe un parámetro, bastará con usar el primer momento, es decir, m1
El primer momento de la distribución exponencial es 1/λ, por lo cual se tiene que
Ejemplo. Si una variable aleatoria tiene una distribución gama, con parámetros λ y k desconocidos, se 
tiene lo siguiente:
Se puede demostrar que el j-ésimo momento absoluto está dado por:
Métodos de los momentos
Métodos de estimación
Ejemplo. 
Por lo tanto los dos primeros momentos poblacionales están dados por:
Igualando estos dos momentos poblacionales a los respectivos momentos muestrales se tiene:
De (1) se tiene que 
y reemplazando en la ecuación (2) obtenemos:
Métodos de los momentos
Métodos de estimación
Ejemplo. 
Por lo tanto
Ejemplo. Estimar por el método de los momentos los parámetros μ y σ² de una distribución normal.
Como son dos parámetros los que necesitamos estimar, usaremos los dos primeros momentos de la 
distribución normal, que están dados por:
Igualando los dos primeros momentos poblacionales con sus respectivos momentos muestrales 
tenemos que:
De lo anterior se concluye que el estimativo de la media poblacional μ es la media muestrales un 
estimativo insesgado, mientras que el estimativo de la varianza poblacional σ² no es la varianza 
muestral S², sino la cuasivarianza, y es un estimativo sesgado. 
Métodos de los momentos
Métodos de estimación
Ejemplo. 
Estimar por el método de los momentos el parámetro λ de una distribución de Poisson.
Métodos de máxima verosimilitud
Métodos de estimación
La función de verosimilitud de una muestra o conjunto de variables aleatorias X1, X2, ..., Xn se 
define como la función conjunta de densidad de dichas variables. Si representamos por L(X,θ) la 
función de verosimilitud, entonces está dada por:
Como las variables son independientes, entonces la función de verosimilitud puede expresarse 
como:
Ahora, como las variables son idénticamente distribuidas, la función de densidad conjunta puede 
expresarse como:
Dado que se toma la muestra aleatoria y se obtienen los resultados X1 = x1, X2 =x2, ..., Xn = xn, y 
como la función de verosimilitud es una función de densidad, entonces el objetivo que se pretende 
con el método de estimación es encontrar aquellos valores de los parámetros que maximicen la 
probabilidad de obtener los valores que se dieron en la muestra. Por lo tanto, para encontrar estos 
estimativos se debe derivar la función de verosimilitud con respecto a cada uno de los parámetros 
a estimar, igualar a cero y despejar el respectivo valor. Es decir
Métodos de máxima verosimilitud
Métodos de estimación
Como generalmente la función de verosimilitud es compleja y difícil de evaluar, y dado que existe 
una relación biunívoca entre una función y su logaritmo, entonces se prefiere encontrar la derivada 
del logaritmo de la función de verosimilitud, a saber:
La condición necesaria para obtener un máximo o un mínimo es que la primera derivada sea cero. 
La condición suficiente para obtener una máximo cuando sólo se trata de un parámetro es que la 
segunda derivada, evaluada en el valor encontrado al realizar la primera derivada sea menor de cero. 
Es decir
Si el parámetro solamente puede tomar algunos valores específicos (discretos), no se puede usar el 
cálculo diferencial, sino que se deben analizar varios valores posibles del parámetro, y se escoge 
aquel valor para el cual la probabilidad de ocurrencia es máxima.
Métodos de máxima verosimilitud
Métodos de estimación
Por ejemplo, se lanza al aire una moneda 10 veces, y se observan 6 caras, y necesitamos estimar la 
probabilidad de que la moneda caiga en cara. Si q representa la probabilidad de que una moneda caiga 
en cara, entonces la probabilidad de obtener x caras en n lanzamientos de una moneda está dada por la 
distribución binomial, a saber:
Si el parámetro θ puede tomar los valores 0.30, 0.35, 0.40, 0.45, 0.50, 0.55, 0.60, 0.65, 0.70, las 
probabilidades de obtener 6 caras en 10 lanzamientos de la moneda están dadas en la tabla siguiente, 
para los valores del parámetro θ arriba mencionado.
De la tabla se observa que el valor que maximiza la probabilidad de ocurrencia es 
Métodos de máxima verosimilitud
Métodos de estimación
Ejemplo. Si una variable aleatoria sigue una distribución exponencial con parámetro λ, encontrar el 
estimador del parámetro usando el método de máxima verosimilitud.
f(X) = λ e-λx, x > 0
La función de verosimilitud está dada por:
Considerando el logaritmo tenemos que:
Derivando el logaritmo de la función de verosimilitud con respecto al parámetro λ se tiene:
Métodos de máxima verosimilitud
Métodos de estimación
Ejemplo. 
De nuevo, el estadístico usado para estimar el parámetro λ es el inverso de la media muestral. Si el 
parámetro que estuviéramos estimando fuera el valor esperado μ = 1/ λ, entonces el estadístico será 
la media muestral. Este estimador es insesgado.
Suponga que la variable aleatoria se refiere a tiempos de servicio de clientes, y toma los siguientes 
valores: 2.7, 1.8, 2.6, 10.5, 4.8, 1.2, 0.5, 2.8, 3.9, 18.7.La media muestral sería 
= 4.92 minutos y el estimativo del parámetro λ sería
Ejemplo. Consideremos la estimación de los parámetros μ y σ² de una distribución normal por el 
método de máxima verosimilitud. 
La función de verosimilitud está dada por
Si X~ N(μ, σ²)
Métodos de máxima verosimilitud
Métodos de estimación
Ejemplo. 
El logaritmo de la función de verosimilitud está dado por:
Derivando inicialmente con respecto al parámetro μ se tiene
Derivando con respecto al parámetro σ se tiene:
Métodos de máxima verosimilitud
Métodos de estimación
Ejemplo. 
En resumen tenemos que:
De nuevo se concluye que el estimativo de la media poblacional μ es la media muestral 
y es un estimativo insesgado, mientras que el estimativo de la varianza poblacional σ² no es la 
varianza muestral S², sino la cuasivarianza, y es un estimativo sesgado.
Ejemplo. Estimar por el método de máxima verosimilitud el parámetro λ de una distribución de Poisson.
Ejemplo. Si una variable aleatoria tiene una distribución gama, con parámetros λ y k desconocidos, 
se tiene lo siguiente:
Formule las ecuaciones para estimar por el método de máxima verosimilitud los parámetros de esta 
distribución. 
Características de los métodos de estimación
Métodos de estimación
Método de los momentos
• Es una alternativa razonable para obtener estimadores cuando no se pueden emplear 
estimadores máximo verosímiles.
• Este método produce estimadores que son funciones de estadísticos suficientes, si el estimador 
máximo verosímil es único. 
• Proporciona estimadores eficientes, es decir,de varianza mínima. 
• Los estimadores generalmente son sesgados, pero son asintóticamente insesgados.
Método de máxima verosimilitud

Continuar navegando