Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
EAS201a - Inferencia Estad́ıstica Escuela de Administración Material de Apoyo Ayudant́ıa 3 : , 1 Estimación Puntual: Momentos y Máxima Verosimilitud Tópicos de la Ayudant́ıa I Estimador de Momentos I Aplicaciones EM I Estimador de Máxima Verosimilitud I Aplicaciones EMV I Ejercicios Propuestos : , 2 Estimación Puntual: Momentos Estimador de Momentos I Momento Poblacional de orden “k”: Sea Y una v.a se define el momento poblacional de orden “k” como E(Y k ) = ⇢ P y y k p Y (y) si Y es v.a discretaR1 �1 y k f Y (y) dy si Y es v.a continua I Momento Muestral de orden “k”: Sea Y 1 ,Y 2 , ...,Y n una m.a.s de una población Y con f.d.p f (y , ✓), se llama momento muestral de orden “k” a la v.a Y k = P n i=1 Y k i n : , 3 Estimación Puntual: Momentos Estimador de Momentos Estimador de Momentos Si Y 1 ,Y 2 , ...,Y n es una m.a.s de una población Y con función de distri- bución f (y , ✓) = f (y , ✓ 1 , ✓ 2 , ..., ✓ p ). Se eligen como estimación aquellos valores de los parámetros que sean soluciones de las ecuaciones E(Y k ) = Y k 8 k = 1, 2, . . . , p donde p es el número de parámetros a estimar. : , 4 Estimación Puntual: Momentos Estimador de Momentos I ¿Cuales son las ventajas del EM? Es un procedimiento muy secillo y muy rápido, que se basa en la idea de que los momentos muestrales debeŕıa proporcionar buenas estimaciones de los momentos poblacionales. I ¿Cuales son las desventajas del EM? Dependiendo de la distribución de la población, pueden ser ineficiente y sesgados (otros mecanismos de estimación son más precisos). : , 5 Estimación Puntual: Momentos Estimador de Momentos I ¿Cuales son las ventajas del EM? Es un procedimiento muy secillo y muy rápido, que se basa en la idea de que los momentos muestrales debeŕıa proporcionar buenas estimaciones de los momentos poblacionales. I ¿Cuales son las desventajas del EM? Dependiendo de la distribución de la población, pueden ser ineficiente y sesgados (otros mecanismos de estimación son más precisos). : , 5 Estimación Puntual: Momentos Estimador de Momentos I ¿Cuales son las ventajas del EM? Es un procedimiento muy secillo y muy rápido, que se basa en la idea de que los momentos muestrales debeŕıa proporcionar buenas estimaciones de los momentos poblacionales. I ¿Cuales son las desventajas del EM? Dependiendo de la distribución de la población, pueden ser ineficiente y sesgados (otros mecanismos de estimación son más precisos). : , 5 Estimación Puntual: Momentos Estimador de Momentos I ¿Cuales son las ventajas del EM? Es un procedimiento muy secillo y muy rápido, que se basa en la idea de que los momentos muestrales debeŕıa proporcionar buenas estimaciones de los momentos poblacionales. I ¿Cuales son las desventajas del EM? Dependiendo de la distribución de la población, pueden ser ineficiente y sesgados (otros mecanismos de estimación son más precisos). : , 5 Estimación Puntual: Momentos Ejercicio 1 El tiempo de respuesta que tiene el equipo de soporte de internet de una compañ́ıa de telecomunicaciones frente a los reclamos de sus clientes por los inconvenientes de su servicio es de al menos una hora. El equipo de soporte tiene que entregar una respuesta entre el reclamo realizado y un determinado tiempo transcurrido (especificado por la compañ́ıa). Si los tiempos se distribuyen Uniforme y se dispone de una muestra de tamaño n de tiempos de respuesta, encuentre el estimador de momento del parámetro desconocido. : , 6 Estimación Puntual: Momentos Solución Ejercicio 1 Según el contexto del problema, los tiempos de respuesta se distribuyen Uniforme(a, ✓), ah́ı se indica que el tiempo es de al menos una hora, por lo tanto el parámetro a es conocido (a = 1). Entonces I Se dispone de una muestra Y 1 , . . . ,Y n de una población de tiempos Y ⇠ Uniforme(1, ✓), donde ✓ > 1. I Recuerde que si Y ⇠ Uniforme(a, b) entonces el valor esperado es E(Y ) = (a+ b)/2. Entonces para nuestro caso E(Y ) = 1 + ✓ 2 : , 7 Estimación Puntual: Momentos Solución Ejercicio 1 I Sólo un parámetro de la distribución Uniforme es desconocido (✓), entonces debemos resolver un sistema de ecuación simple 1 + b✓ 2 = Y n , Por lo tanto b✓ = 2Y n � 1. : , 8 Estimación Puntual: Momentos Ejercicio 2 El call center de un Banco está tratando de contactar a un grupo de pros- pectos (potenciales clientes) para una campaña de crecimiento en créditos hipotecarios, para esto dispone de una tabla de contactabilidad entregada por el equipo de Inteligencia Comercial del Banco, donde se encuentra el rut del prospecto y el teléfono. El call center realiza llamadas consecutivas hasta que el cliente responda por primera vez (supondremos que los pros- pectos responden alguna vez). El call center informa que todos los clientes tienen la misma probabilidad de contestar la llamada telefónica (paráme- tro p) y cada llamada es independiente de la anterior. Si usted dispone de una muestra de tamaño n donde cada observación representa el número de veces que se necesitó llamar hasta contactar al cliente, encuentre el estimador de momento del parámetro p. : , 9 Estimación Puntual: Momentos Solución Ejercicio 2 Los antecedentes que nos entrega el enunciado son los siguientes: I Cada llamada es independiente de la anterior y la probabilidad de contestar una llamada es p, por lo tanto podemos definir la variable aleatoria X ij ⇠ Bernoulli(p) donde X ij = ⇢ 1, śı el i-ésimo cliente contesta la j-ésima llamada; 0, en otro caso. I Sea Y i el número de llamadas hasta contactar al i-ésimo cliente, entonces [Y i = k] = [X i1 = 0] \ · · · \ [X i,k�1 = 0] \ [Xik = 1] : , 10 Estimación Puntual: Momentos Solución Ejercicio 2 I Por independencia llegamos al modelo geométrico Pr(Y i = k) = (1� p)k�1p, k = 1, 2, 3, . . . I Suponga una muestra (Y 1 , . . . ,Y n ) de la distribución geométrica Y ⇠ Geometrica(p), donde E(Y ) = 1/p. Entonces como se tiene un parámetro desconocido igualamos la media muestra con la media poblacional y despejamos b p = 1 Y n : , 11 Estimación Puntual: Máxima Verosimilitud Estimador de Máxima Verosimilitud Estimador de Máxima Verosimilitud Sean Y 1 , ...,Y n v.a. con función de densidad (o función de probabilidad discreta) conjunta dada por f (y 1 , y 2 , . . . , y n ; ✓). Dadas las observaciones Y i = y i i = 1, . . . , n; se define la función de verosimilitud de ✓ por: L(✓) = f (y 1 , ..., y n ; ✓) Note que L(✓) es la distribución conjunta como función de ✓ y no de los y i . El estimador máximo verośımil de ✓ (EMV) es el valor de ✓ que maximiza la verosimilitud, es decir, ˆ✓ = argmáx ✓ L(✓) : , 12 Estimación Puntual: Máxima Verosimilitud Ejercicio 3 El siguiente ejercicio es para evaluar la comprensión del estimador de máxi- ma verosimilitud. Suponga que se observa una realización de una variable aleatoria discreta X con función de probabilidad f (x |✓), donde ✓ 2 {1, 2, 3}. Determine el EMV de ✓ a partir de la siguiente tabla x f (x |1) f (x |2) f (x |3) 0 1 3 1 4 0 1 1 3 1 4 0 2 0 1 4 1 4 3 1 6 1 4 1 2 4 1 6 0 1 4 : , 13 Estimación Puntual: Máxima Verosimilitud Solución Ejercicio 3 Dependiendo del valor observado se obtendran diferentes EMV de ✓. Se observa x = b✓ 0 1 1 1 2 2 o 3 3 3 4 3 : , 14 Estimación Puntual: Máxima Verosimilitud Ejercicio 4 Suponga que se dispone de X 1 , . . . ,X n una muestra aleatoria iid con la siguiente función de distribución f (x |✓) = e�(x�✓), x � ✓, ✓ > 0. Encuentre el estimador de máxima verosimilitud de ✓. : , 15 Estimación Puntual: Máxima Verosimilitud Solución Ejercicio 4 La función de verosimilitud de ✓ viene dado por la siguiente expresión f (X 1 , . . . ,X n ; ✓) = nY i=1 e �(X i �✓) = e � P n i=1 X i +n✓, 8X i � ✓ Note que lafunción de densidad conjunta es distinta de 0 siempre que X 1 > ✓,X 2 > ✓, . . . ,X n > ✓. Por lo tanto para ✓ > 0 L(✓) = ⇢ e � P n i=1 X i +n✓ si X 1 � ✓,X 2 � ✓, . . . ,X n � ✓ 0 en otro caso : , 16 Estimación Puntual: Máxima Verosimilitud Solución Ejercicio 4 Para maximizar L(✓), se debe analizar el caso distinto de 0. Note que X 1 � ✓,X 2 � ✓, . . . ,X n � ✓, entonces el ḿın{X 1 , ...,X n } � ✓ , por lo tanto L(✓) = ⇢ e � P n i=1 X i +n✓ si 0 < ✓ ḿın{X 1 , ...,X n } 0 en otro caso. Si se toma log, entonces `(✓) = n✓� P n i=1 X i es una función creciente en ✓, como se aprecia en el siguiente gráfico: : , 17 Estimación Puntual: Máxima Verosimilitud Solución Ejercicio 4 -4000 -3500 -3000 -2500 -2000 l(θ) = nθ −∑xi θ l(θ ) 0 minXi θ̂ Finalmente el estimador de máxima verosimilitud es b✓ = ḿın{X 1 , . . . ,X n } : , 18 Estimación Puntual: Máxima Verosimilitud Ejercicio 5 El tiempo de vida útil de un servidor de base de datos de una empresa de retail se distribuye X ⇠ Exp(�), una vez que el servidor falla, el equipo de soporte tecnológico procede a reparar para el servidor para que nuevamente se ponga en funcionamiento. Cuando el sistema es reparado, el nuevo tiempo de vida del servidor es independiente del tiempo de vida anterior. Suponga que se dispone de una muestra aleatoria de tamaño n, donde se registra la parte entera de los tiempo de vida el servidor (funcionamiento). Encuentre el EMV del parámetro � bajo este escenario muestral. : , 19 Estimación Puntual: Máxima Verosimilitud Solución Ejercicio 5 I Los tiempos de vida se distribuyen X i ⇠ Exp(�), además son independientes entre ellos. I Las variables aleatorias que se están analizando son Y i = [X i ] (donde se denota a [ · ] como la parte entera), que también son independientes. I Primero se debe obtener la ley de distribución de Y = [X ], para esto vamos a utilizar la siguiente relación {Y = k} = � [X ] = k = � k X < k + 1 . : , 20 Estimación Puntual: Máxima Verosimilitud Solución Ejercicio 5 Con lo anterior podemos determinar la ley de probabilidad de Y . Pr(Y = k) = Pr � [X ] = k � = Pr(k X < k + 1) = Z k+1 k �e��xdx = e �k� � e�(k+1)� = � e ���k� 1� e�� � Finalmente, la distribución de Y (similar a la geométrica) es Pr(Y = y) = � e ���y� 1� e�� � , y = 0, 1, 2, . . . . : , 21 Estimación Puntual: Máxima Verosimilitud Solución Ejercicio 5 Dado que se tiene una muestra (Y 1 ,Y 2 , . . . ,Y n ) se puede calcular la función de verosimilitud. L(�) = nY i=1 (e ���Yi � 1� e�� � = e �� P n i=1 Y i � 1� e�� � n Aplicando log, tenemos la función de log verosimilitud `(�) = �� nX i=1 Y i + n log � 1� e�� � : , 22 Estimación Puntual: Máxima Verosimilitud Solución Ejercicio 5 Entonces derivando `(�) con respecto a � e igualando a 0 se tiene � nX i=1 Y i + n e �� 1� e�� = 0 Lo que se reduce a resolver e �� 1� e�� = Y n. Aśı el EMV está dado por b� = log Y n + 1 Y n ! : , 23 Estimación Puntual: Máxima Verosimilitud Ejercicio 6 Sea X 1 ,X 2 , . . . ,X n una muestra aleatoria de una población X ⇠ N(µ x ,�2) e Y 1 ,Y 2 , . . . ,Y m otra muestra aleatoria de Y ⇠ N(µ y ,�2), ambas mues- tras independientes entre śı. Encuentre el EMV de los parámetros (µ x , µ y ,�2). : , 24 Estimación Puntual: Máxima Verosimilitud Solución Ejercicio 6 Note que X i ?? Y j . Entonces, sea ✓ = (µ x , µ y ,�2) el vector de parámetros desconocido del modelo, por independencia la función de verosimilitud se puede escribir como la multiplicación L(✓;X,Y) = f (X 1 ,X 2 . . . ,X n ; ✓)⇥ f (Y 1 ,Y 2 . . . ,Y n ; ✓) = nY i=1 1 p 2⇡�2 e � (Xi�µx ) 2 2�2 ⇥ mY j=1 1 p 2⇡�2 e � (Y j �µ y ) 2 2�2 = 1 p 2⇡�2 ! n e � P n i=1 (X i �µ x ) 2 2�2 1 p 2⇡�2 ! m e � P m j=1 (Y j �µ y ) 2 2�2 = 1 p 2⇡�2 ! n+m e � P n i=1 (X i �µ x ) 2 2�2 � P m j=1 (Y j �µ y ) 2 2�2 : , 25 Estimación Puntual: Máxima Verosimilitud Solución Ejercicio 6 La función de logVerosimilitud está dada por `(✓;X,Y) = � (n +m) 2 log � 2⇡�2 � � P n i=1 (X i � µ x ) 2 2�2 � P m j=1 (Y j � µ y ) 2 2�2 Derivando e igualando a cero resolvemos los siguientes ecuaciones @`(✓;X,Y) @µ x = 1 �2 nX i=1 (X i � µ x ) = 0 @`(✓;X,Y) @µ y = 1 �2 mX j=1 (Y j � µ y ) = 0 @`(✓;X,Y) @�2 = � (n +m) 2 1 �2 + 1 2�4 0 @ nX i=1 (X i � µ x ) 2 + mX j=1 (Y j � µ y ) 2 1 A = 0 : , 26 Estimación Puntual: Máxima Verosimilitud Solución Ejercicio 6 Finalmente, los estimadores de los parámetros desconocidos son: bµ x = X n bµ y = Y m b�2 = P n i=1 (X i � X n ) 2 + P m j=1 (Y j � Y m ) 2 n +m : , 27 Estimación Puntual: Máxima Verosimilitud Ejercicios propuestos 1. Suponga que se dispone de una muestra aleatoria de tamaño n de pares (X 1 ,Y 1 ), . . . , (X n ,Y n ) de una población Normal Bivariada, de- notada por ✓ X Y ◆ ⇠ N 2 ✓✓ µ x µ y ◆ , ✓ �2 x ⇢� x � y ⇢� x � y �2 y ◆◆ con densidad f (x , y |✓) = ��1 x ��1 yp 2⇡(1� ⇢2) e � 1 2(1�⇢2) " (x�µ x ) 2 �2 x � 2⇢� x � y (x�µ x )(y�µ y )+ (y�µ y ) 2 �2 y # Encuentre los EMV del vector ✓ = (µ x , µ y ,�2 x ,�2 y , ⇢). : , 28 Estimación Puntual: Máxima Verosimilitud Ejercicios propuestos 2. Sea Y 1 ,Y 2 , . . . ,Y n una muestra aleatoria independiente con función de densidad Y i ⇠ N(↵ + �x i ,�2), donde x i es conocido para todo i = 1, 2, . . . , n. Encuentre el EMV del vector ✓ = (↵,�,�2). 3. Sea X 1 ,X 2 . . . ,X n una muestra aleatoria independiente de tamaño n con distribución X ⇠ Uniforme(✓� 1/2, ✓+ 1/2). Encuentre el EMV de ✓. : , 29
Compartir