Logo Studenta

SESGO Y VARRIANZA - MOMENTOS

¡Este material tiene más páginas!

Vista previa del material en texto

Análisis Estad́ıstico
Estimación
UTDT
15 de abril de 2020
Estimación
Problema de estimación
Dada una muestra aleatoria X1, . . . ,Xn queremos estimar un
parámetro θ asociado a la distribución de la muestra.
Definition (Estimador)
Dadas variables aleatorias X1, . . . ,Xn, para un parámetro
cualquiera θ, un estimador es una función de X1, . . . ,Xn.
Notación
Llamaremos θ̂n a un estimador del parámetro θ basado en una
muestra de tamanõ n.
Estimación
Objetivo
Para distintos estimadores nos interesa responder:
¿Qué propiedades tiene la distribución muestral del estimador?
¿Cómo medimos si un estimador es mejor que otro? ¿Cúal es la
manera óptima de estimar un parámetro?
¿Podemos garantizar que, con probabilidad alta, el estimador va a
estar cerca del valor verdadero (fijo y desconocido) que queremos
estimar?
¿Cuántas (y qué tipo de) observaciones necesitamos para garantizar
cierto margen de error con probabilidad alta?
Ya vimos una propiedad asintótica indispensable de un estimador: la
consistencia. A continuación, estudiaremos algunas propiedades para
muestras finitas (no asintóticas) de estimadores.
Medir la calidad de un estimador
Estimar el parámetro de una Bernoulli
Dada una muestra aleatoria X1, . . . ,Xn ∼ Ber(p), llamemos
T =
n∑
i=1
Xi
Proponemos tres estimadores de p:
La media muestral:
p̂1 = T/n = X n .
La media muestral agregando 2 fracasos y 2 éxitos “artificiales” a la
muestra:
p̂2 =
T + 2
n + 4
.
La media muestral de solo dos observaciones:
p̂3 =
X1 + X2
2
.
Medir la calidad de un estimador
Estimar el parámetro de una Bernoulli
p̂1 sabemos que es consistente por LGN.
p̂2 también es consistente (¿por qué?).
p̂3 no es consistente (¿por qué?) y es intuitivamente un
desastre porque está tirando información.
Ya podemos descartar al estimador p3, pero ¿cómo determinamos si es
mejor p̂1 o p̂2?
Error cuadrático medio
Para un estimador cualquiera θ̂n de θ, su error de estimación
θ̂n − θ
es una variable aleatoria. Si queremos medir únicamente el tamaño del
error de estimación podemos considerar
|θ̂n − θ| o (θ̂n − θ)2,
que también son variables aleatorias. Idealmente, queremos que estas
variables aleatorias sean chicas, que tengan su centro de masa en cero.
Definition (Error cuadrático medio)
Dado θ̂n, un estimador de θ, definimos su error cuadrático medio
(ECM) como
E
[(
θ̂n − θ
)2]
Error cuadrático medio
Observación
¿Por qué E
[(
θ̂n − θ
)2]
y no E
(∣∣∣θ̂n − θ∣∣∣)?
Por conveniencia matemática.
Error cuadrático medio
Theorem (Descomposición del ECM)
E
[(
θ̂n − θ
)2]
= Var(θ̂n)︸ ︷︷ ︸
varianza
+
(
E (θ̂n)− θ
)2
︸ ︷︷ ︸
sesgo al cuadrado
.
Demostración.
Si llamamos e = θ̂n − θ. Sabemos que
Var(e) = E
(
e2
)
− [E (e)]2 .
Luego
E
(
e2
)
= Var(e) + [E (e)]2 .
Además, como θ es constante, Var(e) = Var(θ̂n) .
Error cuadrático medio
Estimar el parámetro de una Bernoulli
Volviendo al ejemplo, queremos comparar p̂1 y p̂2:
p̂1 la media muestral:
p̂1 = X n .
p̂2 agregar 2 fracasos y 2 éxitos artificiales a la muestra y despues
calcular la media muestral:
p̂2 =
T + 2
n + 4
.
Calculemos el ECM de cada uno.
Error cuadrático medio
Estimar el parámetro de una Bernoulli
Sabemos que
Sesgo
E (p̂1) = p
Varianza
Var(p̂1) =
p(1− p)
n
Entonces el ECM de p̂1 es
E
[
(p̂1 − p)2
]
=
p(1− p)
n
.
Error cuadrático medio
Estimar el parámetro de una Bernoulli
Calculemos ahora el sesgo y la varianza de p̂2. Notemos que que
T ∼ Bin(n, p).
E
(
T + 2
n + 4
)
− p = E (T + 2)
n + 4
− p = np + 2
n + 4
− p = 2/n − 4p/n
1 + 4/n
.
El sesgo no es cero, salvo cuando p = 0,5. Sin embargo el sesgo
converge a cero cuando n→∞.
Var
(
T + 2
n + 4
)
=
Var(T + 2)
(n + 4)2
=
Var(T )
(n + 4)2
=
np(1− p)
(n + 4)2
.
Entonces
E
(
(p̂2 − p)2
)
=
(
2/n − 4p/n
1 + 4/n
)2
+
np(1− p)
(n + 4)2
.
Error cuadrático medio
Estimar el parámetro de una Bernoulli
Tenemos
ECM(p̂1) = E
(
(p̂1 − p)2
)
=
p(1− p)
n
.
ECM(p̂2) = E
(
(p̂2 − p)2
)
=
(
2/n − 4p/n
1 + 4/n
)2
+
np(1− p)
(n + 4)2
.
¿Cuál es mejor?
Si uno de los dos ECM es más bajo para todos los valores de n y
de p, ese seŕıa el estimador deseable.
En la siguiente figura veremos que eso no pasa.
Error cuadrático medio
0.0 0.2 0.4 0.6 0.8 1.0
0.
00
0
0.
00
5
0.
01
0
0.
01
5
0.
02
0
0.
02
5
n=10
p
E
C
M
0.0 0.2 0.4 0.6 0.8 1.0
0.
00
00
0.
00
05
0.
00
10
0.
00
15
0.
00
20
0.
00
25
n=100
p
E
C
M
Figura: Error cuadrático medio para p̂1 (naranja) y p̂2 (azul).
Error cuadrático medio
Buscar un estimador que tenga un ECM que es menor que el
de cualquier otro estimador, para cualquier valor posible del
parámetro a estimar, es demasiado ambicioso.
Una manera de solucionar este dilema es restringir la clase de
estimadores competidores. Una restricción usual es la de
quedarse únicamente con los estimadores insesgados.
Sesgo
Definition (Estimador insesgado)
Un estimador θ̂n de θ se dice insesgado si
E (θ̂n) = θ
para todos los valores posibles de θ. En general, la diferencia
E (θ̂n)− θ
se llama el sesgo del estimador.
Idea
Un estimador es insesgado si, cualquiera sea el valor de θ, la
distribución muestral del estimador está centrada en θ. La
propiedad de insesgadez, a diferencia de la de consistencia,
no es un concepto asintótico.
Sesgo
Ejemplo
Si X1, . . . ,Xn es una muestra aleatoria con
µ = E (X1) = · · · = E (Xn)
entonces X n es un estimador insesgado de µ.
Ejemplo
En el ejemplo que hicimos antes, p̂2 resultó ser un estimador
sesgado de µ.
Sesgo
Sesgo
Que un estimador sea insesgado no quiere decir que
necesariamente este cerca del parámetro verdadero. El ECM
en cambio śı mide en cierto sentido que un estimador esté
cerca o lejos del parámetro que queremos estimar.
¡El sesgo no es necesariamente malo! Ya vimos un ejemplo de
un estimador sesgado que puede ser mejor que otro insesgado,
en el sentido de que tiene menor ECM.
Toda una área de la estad́ıstica moderna estudia maneras
inteligentes de balancear sesgo y varianza para tener un ECM
bajo.
Sesgo
Ejemplo
Dada una muestra aleatoria X1, . . . ,Xn con esperanza µ y varianza σ
2 y
queremos estimar σ2. Vimos que el estimador
σ̂2 =
1
n
n∑
i=1
X 2i − (X n)2
es consistente. ¿Será insesgado? Calculemos
E
[
1
n
n∑
i=1
X 2i
]
y E
[
(X n)
2
]
.
La primera es fácil:
E
[
1
n
n∑
i=1
X 2i
]
=
1
n
n∑
i=1
E (X 2i ) = E (X
2
1 ) = σ
2 + µ2.
Sesgo
Ejemplo
Ahora
E
[
(X n)
2
]
= Var(X n) + (E (X n))
2 =
σ2
n
+ µ2.
Luego
E (σ̂2) = σ2 + µ2 − σ
2
n
− µ2 =
(
1− 1
n
)
σ2
y
E (σ̂2)− σ2 = −σ
2
n
.
Por lo tanto, el estimador es sesgado: subestima el valor real.
Sesgo
Ejemplo
Si consideramos ahora
S2 =
n
n − 1
σ̂2 =
1
n − 1
n∑
i=1
(Xi − X n)2
es fácil ver que S2 es insesgado para σ2.
Sesgo
Comentarios
Que S2 sea insesgado para σ2 no implica que S sea insesgado
para σ, de hecho no lo es. En general no es cierto que si θ̂n es
insesgado para θ entonces f (θ̂n) es insesgado para f (θ).
Un estimador puede ser sesgado y consistente a la vez (σ̂2).
Un estimador puede ser insesgado y no ser consistente
también (¿por ejemplo?).
¿Cúal debeŕıamos usar? S2 (insesgado) o σ̂2 (sesgado). En la
práctica no importa mucho. . .
Ejemplos
Ejemplo 1
Tenemos una muestra aleatoria X1, . . . ,Xn con densidad
f (x) =
1
2
(1 + θx) I(−1,1)(x) .
Muestre que 3X n es un estimador insesgado y consistente de θ.
Sesgo
Ejemplo
Vimos que si X ∼ Unif (0, θ), dada una muestra aleatoria X1, . . . ,Xn, un
estimador consistente de θ es
θ̂n = máx(X1, . . . ,Xn).
Vimos que
E
(
θ̂n
)
=
n
n + 1
θ,
aśı que θ̂n no es insesgado.
¿Cómo lo corregimos para que sea insesgado? Es fácil ver que
θ̃n =
n + 1
n
θ̂n
es insesgado. Tambien es fácil ver que 2X n es insesgado. ¿Con cuál nos
quedamos?
Ḿınima varianza
Definition (Eficiencia relativa)
Dados dos estimadores insesgados θ̂n y θ̃n, decimos que θ̂n es más
eficiente que θ̃n si
Var(θ̂n) ≤ Var(θ̃n).Idea
Si θ̂n es más eficiente que θ̃n, θ̂n usa mejor la información en la
muestra que θ̃n.
Ḿınima varianza
Ejemplo (uniforme)
Ya vimos que 2X n y
n+1
n θ̂n son insesgados. Notemos que
Var
(
n + 1
n
θ̂n
)
=
(
n + 1
n
)2
Var(θ̂n) =
θ2
n(n + 2)
.
Por otro lado,
Var
(
2X n
)
= 4Var(X n) =
4
n
Var(X1) =
4
n
θ2
12
=
θ2
3n
Para todo n > 1 y para todo θ
θ2
n(n + 2)
≤ θ
2
3n
.
Ḿınima varianza
Ejemplo
Entonces concluimos que
θ̃n =
n + 1
n
θ̂n
es más eficiente que 2X n. Luego, preferimos θ̃n.
Notemos que para valores de n grande, la varianza de θ̃n es mucho más
chica que la de 2X n. De hecho
Var(θ̃n)
Var(2X n)
→
n→∞
0.
Ḿınima varianza
Definition (IMV)
Entre todos los estimadores de θ que son insesgados, el que tiene ḿınima
varianza se denomina estimador insesgado de ḿınima varianza
(IMV).
Idea
El IMV es, de todos los insesgados, el que tiene una distribución muestral
con menor dispersión alrededor de θ. Entonces, como sabemos que el
ECM es la suma de la varianza del estimador y de su sesgo al cuadrado,
el estimador IMV es el que minimiza el ECM entre los insesgados.
Ḿınima varianza
Proposición
Sea X1, . . . ,Xn una muestra aleatoria de una distribución normal con
parámetros µ y σ2. Entonces X n es el estimador IMV de µ.
Ojo
Es clave en esta proposición la hipótesis de normalidad. Si los datos no
son normales, X n no tiene porqué ser el IMV para estimar la esperanza.
Ejemplo (uniforme)
Para la uniforme, se puede mostrar que
θ̃n =
n + 1
n
máx(X1, . . . ,Xn)
es el estimador IMV (antes solo hab́ıamos mostrado que es más eficiente
que 2X n).
Ḿınima varianza
No vamos a ver en el curso como obtener estimadores IMV en general.
Más adelante estudiaremos una familia de estimadores que tienen ḿınima
varianza asintótica, que es el tipo de ‘optimalidad’ relevante para
construir intervalos de confianza y tests de hipótesis.
Error estándar
Además de reportar la estimación debemos indicar su precisión.
Definition (Error estándar)
El error estándar de un estimador θ̂n es otro nombre para el desv́ıo
estándar de su distribución:
√
Var(θ̂n).
Idea
El error estándar mide la variabilidad del estimador. Si repetimos el
experimento, cambia la muestra y posiblemente cambie el valor
estimado. Necesitamos una idea de qué tan estable es el estimador.
En algunos casos podremos calcularlo exactamente y en otros, la
mayoŕıa, tendremos que estimarlo.
Error estándar
Ejemplo
El error estándar de X n es√
Var
(
X n
)
=
√
Var(X )√
n
.
Un estimador consistente de
√
Var(X ) es
σ̂ =
√√√√1
n
n∑
i=1
X 2i −
(
X n
)2
otro es
S = σ̂
√
n
n − 1
.
Luego, podemos estimar el error estándar de X n con
σ̂√
n
.
Error estándar
Ejemplo
Vimos además, usando el TCL y el Lema de Slutzky, que
X n − µ ≈ N
(
0,
σ̂2
n
)
y
√
n
(X n − µ)
σ̂
≈ N (0, 1) .
Por lo tanto, si Z ∼ N(0, 1).
P
(∣∣X n − µ∣∣ ≤ 2σ̂√
n
)
≈ P (|Z | ≤ 2) ≈ 0,95.
Es decir, si n es grande y repetimos muchas veces el experimento,
aproximadamente en el 95 % de las repeticiones, el valor de X n estará a
una distancia menor o igual que dos desv́ıos estándar estimados del
parámetro verdadero µ.
¡Esto habla sobre ninguna realización particular del experimento!
Error estándar
Ejemplo
En el proceso de ensamblaje de celulares en una fábrica se cometen
errores. El número de rayaduras en la pantalla de un celular elegido al
azar de la ĺınea de montaje es una variable aleatoria X con distribución
Poisson de parámetro λ. Se toma una muestra aleatoria de 150 celulares
y se registran los siguientes resultados:
número de rayaduras 0 1 2 3 4 5 6 7
ocurrencias en la muestra 18 37 42 30 13 7 2 1
Proponga un estimador consistente e insesgado para λ. Calcule el
valor estimado obtenido para esta muestra.
Proponga un estimador consistente para la varianza de X . Proponga
un estimador para el error estándar del estimador propuesto en el
item anterior. ¿Cúal es el error estándar estimado para esta muestra?
Modelos paramétricos
Notación
A continuación usaremos la palabra densidad para referirnos tanto
a la densidad de variables/vectores aleatorios continuos como a la
función de probabilidad puntual de variables/vectores aleatorios
discretos.
Modelos paramétricos
Definition (Modelo paramétrico)
Supongamos que tenemos una muestra aleatoria X1, . . . ,Xn con
cierta función de densidad f . Un modelo parámetrico para la
distribución de la muestra aleatoria es postular que f pertenece un
conjunto de funciones de densidad que depende de un parámetro
desconocido θ:
f ∈ {f (x) = f (x ; θ) para cierto θ} ,
donde la forma de las funciones f (x ; θ) es completamente
conocida, excepto por θ.
Idea
Suponer un modelo paramétrico para una muestra aleatoria es
suponer que conocemos enteremante la distribución de los datos,
excepto por una cantidad finita de parámetros.
Modelos paramétricos
Ya vimos mucho modelos paramétricos (sin haberlos llamado aśı)
Ejemplo 1
Tenemos una muestra aleatoria X1, . . . ,Xn con densidad
f (x) = 1/2(1 + θx)I(−1,1)(x)
Ejemplo 2
Supongamos que el tiempo de reacción de una persona intoxicada a
cierto est́ımulo es una variable aleatoria X , que tiene distribución
uniforme en el intervalo (0, θ) para un valor de θ desconocido. Tenemos
una muestra aleatoria X1, . . . ,Xn y queremos estimar θ.
Ejemplo 3
Suponer que los datos provienen de una normal con parámetros
desconocidos, o de una Poisson con parámetro desconocido también son
modelos paramétricos.
Modelos paramétricos
Los modelos no paramétricos son aquellos que no ponen
restricciones parámetricas a la distribución que suponemos tienen
los datos.
El siguiente es un ejemplo de un modelo no-paramétrico, pero solo
nos interesa estimar ciertos parámetros de la distribución.
Ejemplo
Nos interesa estudiar el estado de salud de la población Argentina,
en particular su peso. Supongamos que el peso de una persona
elegida al azar es una variable aleatoria con esperanza µ y varianza
σ2 desconocidos. A partir de una muestra aleatoria de pesos
X1, . . . ,Xn queremos estimar E (X ) y Var(X ).
Modelos paramétricos
Los siguientes ejemplos son modelos no paramétrico, nos interesa
estimar una función entera que depende de la distribución más que
una única caracteŕıstica numérica.
Ejemplo
Estimar toda la función de distribución acumulada del ingreso
anual de una población. A partir de la estimación podemos
obtener estimaciones de diferentes cuantiles.
Modelos paramétricos
Modelos paramétricos
Los modelos parámetricos hacen suposiciones muy fuertes. Suponen que
conocemos prácticamente todo sobre cómo se generan los datos.
¿Cúando es razonable un modelo parámetrico?
Depende. . .
En algunos problemas f́ısicos o de ingenieŕıa, hay experimentos
duros que validan el modelado de ciertas cantidades aleatorias de
manera paramétrica. Un ejemplo: como emite radiación un átomo
inestable sigue una distribución Poisson.
En problemas socioeconómicos, es más d́ıficil creerse que valga
exactamente un modelo paramétrico.
Modelos paramétricos
George P. Box: “All models are wrong, but some are useful.”
Modelos paramétricos
Aunque un modelo paramétrico no valga exactamente, si vale
“aproximadamente” puede ser útil para aprender de los datos.
¿Cómo sabemos si un modelo parámetrico es razonable?
Esto escapa al alcance de esta materia, pero veamos algunas ideas
en un ejemplo simple:
Ejemplo: Containers pérdidos
Soldados prusianos
Tenemos información sobre el número de containers que pierde cada año
una empresa de loǵıstica internacional en cada uno de sus 16 centros de
distribución.
Año C0 C1 C2 C3 C4 C5 C6 C7 C8 C9 C10 C11 C14 C15
1975 0 0 0 0 0 0 0 1 1 0 0 0 1 0
1976 2 0 0 0 1 0 0 0 0 0 0 0 1 1
1977 2 0 0 0 0 0 1 1 0 0 1 0 2 0
1978 1 2 2 1 1 0 0 0 0 0 1 0 1 0
1979 0 0 0 1 1 2 2 0 1 0 0 2 1 0
1980 0 3 2 1 1 1 0 0 0 2 1 4 3 0
1981 1 0 0 2 1 0 0 1 0 1 0 0 0 0
1982 1 2 0 0 0 0 1 0 1 1 2 1 4 1
1983 0 0 1 2 0 12 1 0 1 0 3 0 0
1984 3 0 1 0 0 0 0 1 0 0 2 0 1 1
1985 0 0 0 0 0 0 1 0 0 2 0 1 0 1
1986 2 1 0 0 1 1 1 0 0 1 0 1 3 0
1987 1 1 2 1 0 0 3 2 1 1 0 1 2 0
1988 0 1 1 0 0 1 1 0 0 0 0 1 1 0
1989 0 0 1 1 0 1 1 0 0 1 2 2 0 2
1990 1 2 0 2 0 1 1 2 0 2 1 1 2 2
1991 0 0 0 1 1 1 0 1 1 0 3 3 1 0
1992 1 3 2 0 1 1 3 0 1 1 0 1 1 0
1993 0 1 0 0 0 1 0 2 0 0 1 3 0 0
1994 1 0 0 0 0 0 0 0 1 0 1 1 0 0
Ejemplo: Containers pérdidos
Número de containers pérdidos
F
re
qu
en
cy
0 1 2 3 4 5 6 7
0
50
10
0
15
0 Veamos la distribución del
número de containers pérdidos
por centro de distribución, por
año.
0 144
1 91
2 32
3 11
4 2
5 0
6 0
7 0
Ejemplo: Containers pérdidos
Número de containers pérdidos
F
re
qu
en
cy
0 1 2 3 4 5 6 7
0
20
40
60
80
10
0
12
0
14
0
●
●
●
●
● ● ●
● Predicho
Ajustamos una distribución
Poisson de parámetro λ = 0,7.
Métodos de estimación
Métodos de estimación
Hasta ahora hemos obtenido estimadores a través de argumentos
intuitivos. A continuación, estudiaremos métodos para construir
estimadores en problemas generales: dada una muestra X1, . . . ,Xn y un
parámetro θ asociado a la distribución de la muestra, ¿cómo podemos
estimar θ?
método de los momentos
método de máxima verosimilitud
Método de los momentos
Definition (Momento poblacional)
Para k ∈ N, se define el k-ésimo momento poblacional de la variable
aleatoria X como E
(
X k
)
.
Definition (Momento muestral)
Dada una muestra aleatoria con la misma distribución que X . Se define
el k-ésimo momento muestral de X1, . . . ,Xn como
1
n
∑n
i=1 X
k
i .
El primer momento poblacional es E (X ).
El primer momento muestral es X n, la media muestral.
El segundo momento poblacional es E (X 2).
El segundo momento muestral es 1n
∑n
i=1 X
2
i .
Notar que los momentos poblacionales son números fijos, y los
muestrales son variables aleatorias.
Método de los momentos
Definition (Método de los momentos)
Sea X1, . . . ,Xn una muestra aleatoria con densidad f (x ; θ) donde
θ = (θ1, . . . , θm) son parámetros desconocidos. Supongamos que los
primeros m momentos poblacionales son funciones de θ1, . . . , θm, es decir
que para k = 1, . . . ,m
E
(
X k
)
= gk(θ1, . . . , θm).
Los estimadores del método de los momentos θ̂
(1)
MM , . . . , θ̂
(m)
MM son los que
se obtienen de igualar los primeros m momentos muestrales a los
poblaciones y despejar θ1, . . . , θm. Es decir, de resolver conjuntamente
para k = 1, . . . ,m.
gk
(
θ̂
(1)
MM , . . . , θ̂
(m)
MM
)
=
1
n
n∑
i=1
X ki
Método de los momentos
Notación
En θ̂MM omitimos el sub́ındice n que indica el tamaño de muestra
para no sobrecargar la notación.
Método de los momentos
Estimador de momentos para la Bernoulli
Sea X1, . . . ,Xn una muestra aleatoria con distribución Ber(p). El
estimador de momentos de θ = p se obtiene de la siguiente
manera. El primer momento de una Ber(p) (su esperanza) es igual
a p. Luego el estimador es
θ̂MM =
1
n
n∑
i=1
Xi .
Es decir, el estimador es la media muestral.
Método de los momentos
Ejemplo
Sea X1, . . . ,Xn una muestra aleatoria con distribución Ber(p).
Calcular el estimador de momentos de las odds, p/(1− p).
Método de los momentos
Estimador de momentos para la normal
Sea X1, . . . ,Xn una muestra aleatoria con distribución N(µ, σ
2).
Calculemos el estimador de momentos de θ = (µ, σ2). Tenemos
que resolver
E (X1) =
1
n
n∑
i=1
Xi
E
(
X 21
)
=
1
n
n∑
i=1
X 2i .
Sabemos que E (X1) = µ y E (X
2
1 ) = σ
2 + µ2.
Método de los momentos
Estimador de momentos para la normal
Luego
µ̂MM =
1
n
n∑
i=1
Xi
σ̂2MM + µ̂
2
MM =
1
n
n∑
i=1
X 2i .
y por lo tanto el estimador de momentos de µ, µ̂MM , es igual a X n
y el estimador de momentos de σ2 es
σ̂2MM =
1
n
n∑
i=1
X 2i − (X n)2,
que es el estimador σ̂2 que ya hab́ıamos estudiado antes.
Método de los momentos
Ejemplo
Sea X el tiempo que dedica un alumno a estudiar para un examen.
Supongamos que la densidad de X es
f (x ; θ) = (θ + 1)xθI(0,1)(x)
y que sabemos que θ > −1.
Calcule el estimador de momentos de θ y dar el valor estimado
para la siguiente muestra:
x1 = 0,92, x2 = 0,79, x3 = 0,90, x4 = 0,65, x5 = 0,86,
x6 = 0,47, x7 = 0,73, x8 = 0,97, x9 = 0,94, x10 = 0,77
Variable aleatoria exponencial
Definition (Variable exponencial)
Decimos que una variable aleatoria continua X tiene distribución
exponencial de parámetro λ > 0 si su función de densidad es
f (x ;λ) = λe−λx I(0,+∞)(x) .
Notación
Usaremos la notación X ∼ Exp(λ).
Variable aleatoria exponencial
0 2 4 6 8 10
0.
0
0.
5
1.
0
1.
5
λ=0.5
λ=1
λ=5
λ=10
Figura: Densidad de la distribución exponencial para diferentes λ.
Variable aleatoria exponencial
Las variables exponenciales se suelen usar para modelar tiempos de
espera entre ‘eventos’, por ejemplo:
el tiempo que pasa entre que llegan dos llamadas a un call–center.
el tiempo que pasa entre que llegan dos clientes a un local.
Se usan variables exponenciales para modelar este tipo de problemas,
parte por el siguiente resultado
Proposición (Conexión con la distribución Poisson)
Supongamos que el número de eventos que ocurren en cualquier intervalo
de longitud t tiene distribución Poisson con parámetro λt y que además
el número de eventos que ocurren en intervalos de tiempo disjuntos son
independientes. Entonces el tiempo que pasa entre dos eventos es una
variable aleatoria exponencial de parámetro λ.
Variable aleatoria exponencial
Otro uso de las variables exponenciales es para modelar el tiempo de vida
de partes de un sistema, por ejemplo, el tiempo hasta que se quema una
lamparita. Esto se debe en parte a la siguiente propiedad de la
exponencial.
Proposición (Pérdida de memoria)
Sea X ∼ Exp(λ). Entonces, si t, t0 > 0
P (X ≥ t + t0 | X ≥ t0) = P (X ≥ t) = e−λt .
Idea
Si ya sabemos que la lamparita duró t0 d́ıas, la probabilidad de que dure
al menos t d́ıas más es igual a la probabilidad (incondicional) de que la
lamparita dure al menos t d́ıas. El tiempo que le queda de funcionamiento
a la lamparita es independiente de cuando tiempo de uso lleva.
Variable aleatoria exponencial
Demostración.
Si t > 0
P (X ≤ t) =
∫ t
0
λe−λx dx = −e−λx |t0 = 1− e−λt .
Luego,
P (X ≥ t) = 1− P (X < t) = 1−
(
1− e−λt
)
= e−λt .
Entonces,
P (X ≥ t + t0 | X ≥ t0) =
P ({X ≥ t + t0} ∩ {X ≥ t0})
P (X ≥ t0)
=
P ({X ≥ t + t0})
P (X ≥ t0)
=
e−λ(t+t0)
e−λt0
= e−λt .
Variable aleatoria exponencial
Ejemplo
Supongamos que el tiempo, en minutos, que pasa entre que llegan
pedidos a un centro de distribución de una compañ́ıa alimenticia es una
variable X ∼ Exp(λ).
1 Dada una muestra aleatoria X1, . . . ,Xn, calcular el estimador de
momentos de λ y mostrar que es consistente.
2 Dada la siguiente muestra:
2,63 1,96 0,13 1,83 0,44 0,23 0,11 0,06 0,31 0,44
Obtenga el valor estimado para esta muestra. Para ese valor
estimado, ¿cúal es la probabilidad de que pase más de un minuto
entre dos pedidos?
Método de los momentos
Ventajas
Es una idea intuitiva.
Los estimadores son fáciles de calcular.
Desventajas
No está guiado por ningún principio teórico (es un poco
ad-hoc).
La teoŕıa asintótica (que veremos superficialmente) muestra
que no en general no es óptimo.
Por estas razones nos enfocaremos más en el método de máxima
verosimilitud que estudiaremos con más profundidad.

Continuar navegando