Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Análisis Estad́ıstico Estimación UTDT 15 de abril de 2020 Estimación Problema de estimación Dada una muestra aleatoria X1, . . . ,Xn queremos estimar un parámetro θ asociado a la distribución de la muestra. Definition (Estimador) Dadas variables aleatorias X1, . . . ,Xn, para un parámetro cualquiera θ, un estimador es una función de X1, . . . ,Xn. Notación Llamaremos θ̂n a un estimador del parámetro θ basado en una muestra de tamanõ n. Estimación Objetivo Para distintos estimadores nos interesa responder: ¿Qué propiedades tiene la distribución muestral del estimador? ¿Cómo medimos si un estimador es mejor que otro? ¿Cúal es la manera óptima de estimar un parámetro? ¿Podemos garantizar que, con probabilidad alta, el estimador va a estar cerca del valor verdadero (fijo y desconocido) que queremos estimar? ¿Cuántas (y qué tipo de) observaciones necesitamos para garantizar cierto margen de error con probabilidad alta? Ya vimos una propiedad asintótica indispensable de un estimador: la consistencia. A continuación, estudiaremos algunas propiedades para muestras finitas (no asintóticas) de estimadores. Medir la calidad de un estimador Estimar el parámetro de una Bernoulli Dada una muestra aleatoria X1, . . . ,Xn ∼ Ber(p), llamemos T = n∑ i=1 Xi Proponemos tres estimadores de p: La media muestral: p̂1 = T/n = X n . La media muestral agregando 2 fracasos y 2 éxitos “artificiales” a la muestra: p̂2 = T + 2 n + 4 . La media muestral de solo dos observaciones: p̂3 = X1 + X2 2 . Medir la calidad de un estimador Estimar el parámetro de una Bernoulli p̂1 sabemos que es consistente por LGN. p̂2 también es consistente (¿por qué?). p̂3 no es consistente (¿por qué?) y es intuitivamente un desastre porque está tirando información. Ya podemos descartar al estimador p3, pero ¿cómo determinamos si es mejor p̂1 o p̂2? Error cuadrático medio Para un estimador cualquiera θ̂n de θ, su error de estimación θ̂n − θ es una variable aleatoria. Si queremos medir únicamente el tamaño del error de estimación podemos considerar |θ̂n − θ| o (θ̂n − θ)2, que también son variables aleatorias. Idealmente, queremos que estas variables aleatorias sean chicas, que tengan su centro de masa en cero. Definition (Error cuadrático medio) Dado θ̂n, un estimador de θ, definimos su error cuadrático medio (ECM) como E [( θ̂n − θ )2] Error cuadrático medio Observación ¿Por qué E [( θ̂n − θ )2] y no E (∣∣∣θ̂n − θ∣∣∣)? Por conveniencia matemática. Error cuadrático medio Theorem (Descomposición del ECM) E [( θ̂n − θ )2] = Var(θ̂n)︸ ︷︷ ︸ varianza + ( E (θ̂n)− θ )2 ︸ ︷︷ ︸ sesgo al cuadrado . Demostración. Si llamamos e = θ̂n − θ. Sabemos que Var(e) = E ( e2 ) − [E (e)]2 . Luego E ( e2 ) = Var(e) + [E (e)]2 . Además, como θ es constante, Var(e) = Var(θ̂n) . Error cuadrático medio Estimar el parámetro de una Bernoulli Volviendo al ejemplo, queremos comparar p̂1 y p̂2: p̂1 la media muestral: p̂1 = X n . p̂2 agregar 2 fracasos y 2 éxitos artificiales a la muestra y despues calcular la media muestral: p̂2 = T + 2 n + 4 . Calculemos el ECM de cada uno. Error cuadrático medio Estimar el parámetro de una Bernoulli Sabemos que Sesgo E (p̂1) = p Varianza Var(p̂1) = p(1− p) n Entonces el ECM de p̂1 es E [ (p̂1 − p)2 ] = p(1− p) n . Error cuadrático medio Estimar el parámetro de una Bernoulli Calculemos ahora el sesgo y la varianza de p̂2. Notemos que que T ∼ Bin(n, p). E ( T + 2 n + 4 ) − p = E (T + 2) n + 4 − p = np + 2 n + 4 − p = 2/n − 4p/n 1 + 4/n . El sesgo no es cero, salvo cuando p = 0,5. Sin embargo el sesgo converge a cero cuando n→∞. Var ( T + 2 n + 4 ) = Var(T + 2) (n + 4)2 = Var(T ) (n + 4)2 = np(1− p) (n + 4)2 . Entonces E ( (p̂2 − p)2 ) = ( 2/n − 4p/n 1 + 4/n )2 + np(1− p) (n + 4)2 . Error cuadrático medio Estimar el parámetro de una Bernoulli Tenemos ECM(p̂1) = E ( (p̂1 − p)2 ) = p(1− p) n . ECM(p̂2) = E ( (p̂2 − p)2 ) = ( 2/n − 4p/n 1 + 4/n )2 + np(1− p) (n + 4)2 . ¿Cuál es mejor? Si uno de los dos ECM es más bajo para todos los valores de n y de p, ese seŕıa el estimador deseable. En la siguiente figura veremos que eso no pasa. Error cuadrático medio 0.0 0.2 0.4 0.6 0.8 1.0 0. 00 0 0. 00 5 0. 01 0 0. 01 5 0. 02 0 0. 02 5 n=10 p E C M 0.0 0.2 0.4 0.6 0.8 1.0 0. 00 00 0. 00 05 0. 00 10 0. 00 15 0. 00 20 0. 00 25 n=100 p E C M Figura: Error cuadrático medio para p̂1 (naranja) y p̂2 (azul). Error cuadrático medio Buscar un estimador que tenga un ECM que es menor que el de cualquier otro estimador, para cualquier valor posible del parámetro a estimar, es demasiado ambicioso. Una manera de solucionar este dilema es restringir la clase de estimadores competidores. Una restricción usual es la de quedarse únicamente con los estimadores insesgados. Sesgo Definition (Estimador insesgado) Un estimador θ̂n de θ se dice insesgado si E (θ̂n) = θ para todos los valores posibles de θ. En general, la diferencia E (θ̂n)− θ se llama el sesgo del estimador. Idea Un estimador es insesgado si, cualquiera sea el valor de θ, la distribución muestral del estimador está centrada en θ. La propiedad de insesgadez, a diferencia de la de consistencia, no es un concepto asintótico. Sesgo Ejemplo Si X1, . . . ,Xn es una muestra aleatoria con µ = E (X1) = · · · = E (Xn) entonces X n es un estimador insesgado de µ. Ejemplo En el ejemplo que hicimos antes, p̂2 resultó ser un estimador sesgado de µ. Sesgo Sesgo Que un estimador sea insesgado no quiere decir que necesariamente este cerca del parámetro verdadero. El ECM en cambio śı mide en cierto sentido que un estimador esté cerca o lejos del parámetro que queremos estimar. ¡El sesgo no es necesariamente malo! Ya vimos un ejemplo de un estimador sesgado que puede ser mejor que otro insesgado, en el sentido de que tiene menor ECM. Toda una área de la estad́ıstica moderna estudia maneras inteligentes de balancear sesgo y varianza para tener un ECM bajo. Sesgo Ejemplo Dada una muestra aleatoria X1, . . . ,Xn con esperanza µ y varianza σ 2 y queremos estimar σ2. Vimos que el estimador σ̂2 = 1 n n∑ i=1 X 2i − (X n)2 es consistente. ¿Será insesgado? Calculemos E [ 1 n n∑ i=1 X 2i ] y E [ (X n) 2 ] . La primera es fácil: E [ 1 n n∑ i=1 X 2i ] = 1 n n∑ i=1 E (X 2i ) = E (X 2 1 ) = σ 2 + µ2. Sesgo Ejemplo Ahora E [ (X n) 2 ] = Var(X n) + (E (X n)) 2 = σ2 n + µ2. Luego E (σ̂2) = σ2 + µ2 − σ 2 n − µ2 = ( 1− 1 n ) σ2 y E (σ̂2)− σ2 = −σ 2 n . Por lo tanto, el estimador es sesgado: subestima el valor real. Sesgo Ejemplo Si consideramos ahora S2 = n n − 1 σ̂2 = 1 n − 1 n∑ i=1 (Xi − X n)2 es fácil ver que S2 es insesgado para σ2. Sesgo Comentarios Que S2 sea insesgado para σ2 no implica que S sea insesgado para σ, de hecho no lo es. En general no es cierto que si θ̂n es insesgado para θ entonces f (θ̂n) es insesgado para f (θ). Un estimador puede ser sesgado y consistente a la vez (σ̂2). Un estimador puede ser insesgado y no ser consistente también (¿por ejemplo?). ¿Cúal debeŕıamos usar? S2 (insesgado) o σ̂2 (sesgado). En la práctica no importa mucho. . . Ejemplos Ejemplo 1 Tenemos una muestra aleatoria X1, . . . ,Xn con densidad f (x) = 1 2 (1 + θx) I(−1,1)(x) . Muestre que 3X n es un estimador insesgado y consistente de θ. Sesgo Ejemplo Vimos que si X ∼ Unif (0, θ), dada una muestra aleatoria X1, . . . ,Xn, un estimador consistente de θ es θ̂n = máx(X1, . . . ,Xn). Vimos que E ( θ̂n ) = n n + 1 θ, aśı que θ̂n no es insesgado. ¿Cómo lo corregimos para que sea insesgado? Es fácil ver que θ̃n = n + 1 n θ̂n es insesgado. Tambien es fácil ver que 2X n es insesgado. ¿Con cuál nos quedamos? Ḿınima varianza Definition (Eficiencia relativa) Dados dos estimadores insesgados θ̂n y θ̃n, decimos que θ̂n es más eficiente que θ̃n si Var(θ̂n) ≤ Var(θ̃n).Idea Si θ̂n es más eficiente que θ̃n, θ̂n usa mejor la información en la muestra que θ̃n. Ḿınima varianza Ejemplo (uniforme) Ya vimos que 2X n y n+1 n θ̂n son insesgados. Notemos que Var ( n + 1 n θ̂n ) = ( n + 1 n )2 Var(θ̂n) = θ2 n(n + 2) . Por otro lado, Var ( 2X n ) = 4Var(X n) = 4 n Var(X1) = 4 n θ2 12 = θ2 3n Para todo n > 1 y para todo θ θ2 n(n + 2) ≤ θ 2 3n . Ḿınima varianza Ejemplo Entonces concluimos que θ̃n = n + 1 n θ̂n es más eficiente que 2X n. Luego, preferimos θ̃n. Notemos que para valores de n grande, la varianza de θ̃n es mucho más chica que la de 2X n. De hecho Var(θ̃n) Var(2X n) → n→∞ 0. Ḿınima varianza Definition (IMV) Entre todos los estimadores de θ que son insesgados, el que tiene ḿınima varianza se denomina estimador insesgado de ḿınima varianza (IMV). Idea El IMV es, de todos los insesgados, el que tiene una distribución muestral con menor dispersión alrededor de θ. Entonces, como sabemos que el ECM es la suma de la varianza del estimador y de su sesgo al cuadrado, el estimador IMV es el que minimiza el ECM entre los insesgados. Ḿınima varianza Proposición Sea X1, . . . ,Xn una muestra aleatoria de una distribución normal con parámetros µ y σ2. Entonces X n es el estimador IMV de µ. Ojo Es clave en esta proposición la hipótesis de normalidad. Si los datos no son normales, X n no tiene porqué ser el IMV para estimar la esperanza. Ejemplo (uniforme) Para la uniforme, se puede mostrar que θ̃n = n + 1 n máx(X1, . . . ,Xn) es el estimador IMV (antes solo hab́ıamos mostrado que es más eficiente que 2X n). Ḿınima varianza No vamos a ver en el curso como obtener estimadores IMV en general. Más adelante estudiaremos una familia de estimadores que tienen ḿınima varianza asintótica, que es el tipo de ‘optimalidad’ relevante para construir intervalos de confianza y tests de hipótesis. Error estándar Además de reportar la estimación debemos indicar su precisión. Definition (Error estándar) El error estándar de un estimador θ̂n es otro nombre para el desv́ıo estándar de su distribución: √ Var(θ̂n). Idea El error estándar mide la variabilidad del estimador. Si repetimos el experimento, cambia la muestra y posiblemente cambie el valor estimado. Necesitamos una idea de qué tan estable es el estimador. En algunos casos podremos calcularlo exactamente y en otros, la mayoŕıa, tendremos que estimarlo. Error estándar Ejemplo El error estándar de X n es√ Var ( X n ) = √ Var(X )√ n . Un estimador consistente de √ Var(X ) es σ̂ = √√√√1 n n∑ i=1 X 2i − ( X n )2 otro es S = σ̂ √ n n − 1 . Luego, podemos estimar el error estándar de X n con σ̂√ n . Error estándar Ejemplo Vimos además, usando el TCL y el Lema de Slutzky, que X n − µ ≈ N ( 0, σ̂2 n ) y √ n (X n − µ) σ̂ ≈ N (0, 1) . Por lo tanto, si Z ∼ N(0, 1). P (∣∣X n − µ∣∣ ≤ 2σ̂√ n ) ≈ P (|Z | ≤ 2) ≈ 0,95. Es decir, si n es grande y repetimos muchas veces el experimento, aproximadamente en el 95 % de las repeticiones, el valor de X n estará a una distancia menor o igual que dos desv́ıos estándar estimados del parámetro verdadero µ. ¡Esto habla sobre ninguna realización particular del experimento! Error estándar Ejemplo En el proceso de ensamblaje de celulares en una fábrica se cometen errores. El número de rayaduras en la pantalla de un celular elegido al azar de la ĺınea de montaje es una variable aleatoria X con distribución Poisson de parámetro λ. Se toma una muestra aleatoria de 150 celulares y se registran los siguientes resultados: número de rayaduras 0 1 2 3 4 5 6 7 ocurrencias en la muestra 18 37 42 30 13 7 2 1 Proponga un estimador consistente e insesgado para λ. Calcule el valor estimado obtenido para esta muestra. Proponga un estimador consistente para la varianza de X . Proponga un estimador para el error estándar del estimador propuesto en el item anterior. ¿Cúal es el error estándar estimado para esta muestra? Modelos paramétricos Notación A continuación usaremos la palabra densidad para referirnos tanto a la densidad de variables/vectores aleatorios continuos como a la función de probabilidad puntual de variables/vectores aleatorios discretos. Modelos paramétricos Definition (Modelo paramétrico) Supongamos que tenemos una muestra aleatoria X1, . . . ,Xn con cierta función de densidad f . Un modelo parámetrico para la distribución de la muestra aleatoria es postular que f pertenece un conjunto de funciones de densidad que depende de un parámetro desconocido θ: f ∈ {f (x) = f (x ; θ) para cierto θ} , donde la forma de las funciones f (x ; θ) es completamente conocida, excepto por θ. Idea Suponer un modelo paramétrico para una muestra aleatoria es suponer que conocemos enteremante la distribución de los datos, excepto por una cantidad finita de parámetros. Modelos paramétricos Ya vimos mucho modelos paramétricos (sin haberlos llamado aśı) Ejemplo 1 Tenemos una muestra aleatoria X1, . . . ,Xn con densidad f (x) = 1/2(1 + θx)I(−1,1)(x) Ejemplo 2 Supongamos que el tiempo de reacción de una persona intoxicada a cierto est́ımulo es una variable aleatoria X , que tiene distribución uniforme en el intervalo (0, θ) para un valor de θ desconocido. Tenemos una muestra aleatoria X1, . . . ,Xn y queremos estimar θ. Ejemplo 3 Suponer que los datos provienen de una normal con parámetros desconocidos, o de una Poisson con parámetro desconocido también son modelos paramétricos. Modelos paramétricos Los modelos no paramétricos son aquellos que no ponen restricciones parámetricas a la distribución que suponemos tienen los datos. El siguiente es un ejemplo de un modelo no-paramétrico, pero solo nos interesa estimar ciertos parámetros de la distribución. Ejemplo Nos interesa estudiar el estado de salud de la población Argentina, en particular su peso. Supongamos que el peso de una persona elegida al azar es una variable aleatoria con esperanza µ y varianza σ2 desconocidos. A partir de una muestra aleatoria de pesos X1, . . . ,Xn queremos estimar E (X ) y Var(X ). Modelos paramétricos Los siguientes ejemplos son modelos no paramétrico, nos interesa estimar una función entera que depende de la distribución más que una única caracteŕıstica numérica. Ejemplo Estimar toda la función de distribución acumulada del ingreso anual de una población. A partir de la estimación podemos obtener estimaciones de diferentes cuantiles. Modelos paramétricos Modelos paramétricos Los modelos parámetricos hacen suposiciones muy fuertes. Suponen que conocemos prácticamente todo sobre cómo se generan los datos. ¿Cúando es razonable un modelo parámetrico? Depende. . . En algunos problemas f́ısicos o de ingenieŕıa, hay experimentos duros que validan el modelado de ciertas cantidades aleatorias de manera paramétrica. Un ejemplo: como emite radiación un átomo inestable sigue una distribución Poisson. En problemas socioeconómicos, es más d́ıficil creerse que valga exactamente un modelo paramétrico. Modelos paramétricos George P. Box: “All models are wrong, but some are useful.” Modelos paramétricos Aunque un modelo paramétrico no valga exactamente, si vale “aproximadamente” puede ser útil para aprender de los datos. ¿Cómo sabemos si un modelo parámetrico es razonable? Esto escapa al alcance de esta materia, pero veamos algunas ideas en un ejemplo simple: Ejemplo: Containers pérdidos Soldados prusianos Tenemos información sobre el número de containers que pierde cada año una empresa de loǵıstica internacional en cada uno de sus 16 centros de distribución. Año C0 C1 C2 C3 C4 C5 C6 C7 C8 C9 C10 C11 C14 C15 1975 0 0 0 0 0 0 0 1 1 0 0 0 1 0 1976 2 0 0 0 1 0 0 0 0 0 0 0 1 1 1977 2 0 0 0 0 0 1 1 0 0 1 0 2 0 1978 1 2 2 1 1 0 0 0 0 0 1 0 1 0 1979 0 0 0 1 1 2 2 0 1 0 0 2 1 0 1980 0 3 2 1 1 1 0 0 0 2 1 4 3 0 1981 1 0 0 2 1 0 0 1 0 1 0 0 0 0 1982 1 2 0 0 0 0 1 0 1 1 2 1 4 1 1983 0 0 1 2 0 12 1 0 1 0 3 0 0 1984 3 0 1 0 0 0 0 1 0 0 2 0 1 1 1985 0 0 0 0 0 0 1 0 0 2 0 1 0 1 1986 2 1 0 0 1 1 1 0 0 1 0 1 3 0 1987 1 1 2 1 0 0 3 2 1 1 0 1 2 0 1988 0 1 1 0 0 1 1 0 0 0 0 1 1 0 1989 0 0 1 1 0 1 1 0 0 1 2 2 0 2 1990 1 2 0 2 0 1 1 2 0 2 1 1 2 2 1991 0 0 0 1 1 1 0 1 1 0 3 3 1 0 1992 1 3 2 0 1 1 3 0 1 1 0 1 1 0 1993 0 1 0 0 0 1 0 2 0 0 1 3 0 0 1994 1 0 0 0 0 0 0 0 1 0 1 1 0 0 Ejemplo: Containers pérdidos Número de containers pérdidos F re qu en cy 0 1 2 3 4 5 6 7 0 50 10 0 15 0 Veamos la distribución del número de containers pérdidos por centro de distribución, por año. 0 144 1 91 2 32 3 11 4 2 5 0 6 0 7 0 Ejemplo: Containers pérdidos Número de containers pérdidos F re qu en cy 0 1 2 3 4 5 6 7 0 20 40 60 80 10 0 12 0 14 0 ● ● ● ● ● ● ● ● Predicho Ajustamos una distribución Poisson de parámetro λ = 0,7. Métodos de estimación Métodos de estimación Hasta ahora hemos obtenido estimadores a través de argumentos intuitivos. A continuación, estudiaremos métodos para construir estimadores en problemas generales: dada una muestra X1, . . . ,Xn y un parámetro θ asociado a la distribución de la muestra, ¿cómo podemos estimar θ? método de los momentos método de máxima verosimilitud Método de los momentos Definition (Momento poblacional) Para k ∈ N, se define el k-ésimo momento poblacional de la variable aleatoria X como E ( X k ) . Definition (Momento muestral) Dada una muestra aleatoria con la misma distribución que X . Se define el k-ésimo momento muestral de X1, . . . ,Xn como 1 n ∑n i=1 X k i . El primer momento poblacional es E (X ). El primer momento muestral es X n, la media muestral. El segundo momento poblacional es E (X 2). El segundo momento muestral es 1n ∑n i=1 X 2 i . Notar que los momentos poblacionales son números fijos, y los muestrales son variables aleatorias. Método de los momentos Definition (Método de los momentos) Sea X1, . . . ,Xn una muestra aleatoria con densidad f (x ; θ) donde θ = (θ1, . . . , θm) son parámetros desconocidos. Supongamos que los primeros m momentos poblacionales son funciones de θ1, . . . , θm, es decir que para k = 1, . . . ,m E ( X k ) = gk(θ1, . . . , θm). Los estimadores del método de los momentos θ̂ (1) MM , . . . , θ̂ (m) MM son los que se obtienen de igualar los primeros m momentos muestrales a los poblaciones y despejar θ1, . . . , θm. Es decir, de resolver conjuntamente para k = 1, . . . ,m. gk ( θ̂ (1) MM , . . . , θ̂ (m) MM ) = 1 n n∑ i=1 X ki Método de los momentos Notación En θ̂MM omitimos el sub́ındice n que indica el tamaño de muestra para no sobrecargar la notación. Método de los momentos Estimador de momentos para la Bernoulli Sea X1, . . . ,Xn una muestra aleatoria con distribución Ber(p). El estimador de momentos de θ = p se obtiene de la siguiente manera. El primer momento de una Ber(p) (su esperanza) es igual a p. Luego el estimador es θ̂MM = 1 n n∑ i=1 Xi . Es decir, el estimador es la media muestral. Método de los momentos Ejemplo Sea X1, . . . ,Xn una muestra aleatoria con distribución Ber(p). Calcular el estimador de momentos de las odds, p/(1− p). Método de los momentos Estimador de momentos para la normal Sea X1, . . . ,Xn una muestra aleatoria con distribución N(µ, σ 2). Calculemos el estimador de momentos de θ = (µ, σ2). Tenemos que resolver E (X1) = 1 n n∑ i=1 Xi E ( X 21 ) = 1 n n∑ i=1 X 2i . Sabemos que E (X1) = µ y E (X 2 1 ) = σ 2 + µ2. Método de los momentos Estimador de momentos para la normal Luego µ̂MM = 1 n n∑ i=1 Xi σ̂2MM + µ̂ 2 MM = 1 n n∑ i=1 X 2i . y por lo tanto el estimador de momentos de µ, µ̂MM , es igual a X n y el estimador de momentos de σ2 es σ̂2MM = 1 n n∑ i=1 X 2i − (X n)2, que es el estimador σ̂2 que ya hab́ıamos estudiado antes. Método de los momentos Ejemplo Sea X el tiempo que dedica un alumno a estudiar para un examen. Supongamos que la densidad de X es f (x ; θ) = (θ + 1)xθI(0,1)(x) y que sabemos que θ > −1. Calcule el estimador de momentos de θ y dar el valor estimado para la siguiente muestra: x1 = 0,92, x2 = 0,79, x3 = 0,90, x4 = 0,65, x5 = 0,86, x6 = 0,47, x7 = 0,73, x8 = 0,97, x9 = 0,94, x10 = 0,77 Variable aleatoria exponencial Definition (Variable exponencial) Decimos que una variable aleatoria continua X tiene distribución exponencial de parámetro λ > 0 si su función de densidad es f (x ;λ) = λe−λx I(0,+∞)(x) . Notación Usaremos la notación X ∼ Exp(λ). Variable aleatoria exponencial 0 2 4 6 8 10 0. 0 0. 5 1. 0 1. 5 λ=0.5 λ=1 λ=5 λ=10 Figura: Densidad de la distribución exponencial para diferentes λ. Variable aleatoria exponencial Las variables exponenciales se suelen usar para modelar tiempos de espera entre ‘eventos’, por ejemplo: el tiempo que pasa entre que llegan dos llamadas a un call–center. el tiempo que pasa entre que llegan dos clientes a un local. Se usan variables exponenciales para modelar este tipo de problemas, parte por el siguiente resultado Proposición (Conexión con la distribución Poisson) Supongamos que el número de eventos que ocurren en cualquier intervalo de longitud t tiene distribución Poisson con parámetro λt y que además el número de eventos que ocurren en intervalos de tiempo disjuntos son independientes. Entonces el tiempo que pasa entre dos eventos es una variable aleatoria exponencial de parámetro λ. Variable aleatoria exponencial Otro uso de las variables exponenciales es para modelar el tiempo de vida de partes de un sistema, por ejemplo, el tiempo hasta que se quema una lamparita. Esto se debe en parte a la siguiente propiedad de la exponencial. Proposición (Pérdida de memoria) Sea X ∼ Exp(λ). Entonces, si t, t0 > 0 P (X ≥ t + t0 | X ≥ t0) = P (X ≥ t) = e−λt . Idea Si ya sabemos que la lamparita duró t0 d́ıas, la probabilidad de que dure al menos t d́ıas más es igual a la probabilidad (incondicional) de que la lamparita dure al menos t d́ıas. El tiempo que le queda de funcionamiento a la lamparita es independiente de cuando tiempo de uso lleva. Variable aleatoria exponencial Demostración. Si t > 0 P (X ≤ t) = ∫ t 0 λe−λx dx = −e−λx |t0 = 1− e−λt . Luego, P (X ≥ t) = 1− P (X < t) = 1− ( 1− e−λt ) = e−λt . Entonces, P (X ≥ t + t0 | X ≥ t0) = P ({X ≥ t + t0} ∩ {X ≥ t0}) P (X ≥ t0) = P ({X ≥ t + t0}) P (X ≥ t0) = e−λ(t+t0) e−λt0 = e−λt . Variable aleatoria exponencial Ejemplo Supongamos que el tiempo, en minutos, que pasa entre que llegan pedidos a un centro de distribución de una compañ́ıa alimenticia es una variable X ∼ Exp(λ). 1 Dada una muestra aleatoria X1, . . . ,Xn, calcular el estimador de momentos de λ y mostrar que es consistente. 2 Dada la siguiente muestra: 2,63 1,96 0,13 1,83 0,44 0,23 0,11 0,06 0,31 0,44 Obtenga el valor estimado para esta muestra. Para ese valor estimado, ¿cúal es la probabilidad de que pase más de un minuto entre dos pedidos? Método de los momentos Ventajas Es una idea intuitiva. Los estimadores son fáciles de calcular. Desventajas No está guiado por ningún principio teórico (es un poco ad-hoc). La teoŕıa asintótica (que veremos superficialmente) muestra que no en general no es óptimo. Por estas razones nos enfocaremos más en el método de máxima verosimilitud que estudiaremos con más profundidad.
Compartir