Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Inferencia Estad́ıstica Lućıa Babino Universidad Torcuato Di Tella 1 / 37 Bibliograf́ıa para esta clase Lock - Cap. 3.2 (subido al campus en esta clase) Apuntes Bianco y Mart́ınez (subido al campus en Recursos generales) - secciones Introducción IC para los parámetros de una distribución normal IC para la media de una distribución normal con varianza conocida IC para la media de una distribución normal con varianza desconocida Determinación del tamaño de muestra 2 / 37 Repaso 3 / 37 Ejemplo La tienda de colchones “DormiTown” está considerando lanzar una nueva versión de su página web. Antes de tomar la decisión le gustaŕıa saber si este cambio será conveniente de acuerdo a alguna de las siguientes métricas: Tiempo de permanencia medio en la página por sesión Tasa de conversión (proporción de sesiones que terminan en una transacción) 4 / 37 Tiempo de permanencia Parámetros de interés: µ1 = tiempo de permanencia medio (poblacional) con la versión actual µ2 = tiempo de permanencia medio (poblacional) con la versión nueva Pregunta: ¿µ2 > µ1? 5 / 37 Tiempo de permanencia Parámetros de interés: µ1 = tiempo de permanencia medio (poblacional) con la versión actual µ2 = tiempo de permanencia medio (poblacional) con la versión nueva Pregunta: ¿µ2 > µ1? 5 / 37 Test AB Pasos del análisis: 1 estimar µ1 y µ2 2 tomar una decisión 6 / 37 Test AB Pasos del análisis: 1 estimar µ1 y µ2 2 tomar una decisión 6 / 37 Test AB Pasos del análisis: 1 estimar µ1 y µ2 2 tomar una decisión 6 / 37 Test AB Pasos del análisis: 1 estimar µ1 y µ2 2 tomar una decisión 6 / 37 Tiempo de permanencia: problema simplificado Suponemos... µ0 = tiempo de permanencia medio con la versión actual = 60 seg −→ conocido Parámetro de interés: µ = tiempo de permanencia medio con la versión nueva Pregunta: ¿µ > µ0? Experimento: TestAB simplificado (“TestB”) Pasos del análisis: 1 estimar µ 2 tomar una decisión 7 / 37 Tiempo de permanencia: problema simplificado Suponemos... µ0 = tiempo de permanencia medio con la versión actual = 60 seg −→ conocido Parámetro de interés: µ = tiempo de permanencia medio con la versión nueva Pregunta: ¿µ > µ0? Experimento: TestAB simplificado (“TestB”) Pasos del análisis: 1 estimar µ 2 tomar una decisión 7 / 37 Tiempo de permanencia: problema simplificado Suponemos... µ0 = tiempo de permanencia medio con la versión actual = 60 seg −→ conocido Parámetro de interés: µ = tiempo de permanencia medio con la versión nueva Pregunta: ¿µ > µ0? Experimento: TestAB simplificado (“TestB”) Pasos del análisis: 1 estimar µ 2 tomar una decisión 7 / 37 Tiempo de permanencia: problema simplificado Suponemos... µ0 = tiempo de permanencia medio con la versión actual = 60 seg −→ conocido Parámetro de interés: µ = tiempo de permanencia medio con la versión nueva Pregunta: ¿µ > µ0? Experimento: TestAB simplificado (“TestB”) Pasos del análisis: 1 estimar µ 2 tomar una decisión 7 / 37 Tiempo de permanencia: problema simplificado Suponemos... µ0 = tiempo de permanencia medio con la versión actual = 60 seg −→ conocido Parámetro de interés: µ = tiempo de permanencia medio con la versión nueva Pregunta: ¿µ > µ0? Experimento: TestAB simplificado (“TestB”) Pasos del análisis: 1 estimar µ 2 tomar una decisión 7 / 37 Tiempo de permanencia: problema simplificado Suponemos... µ0 = tiempo de permanencia medio con la versión actual = 60 seg −→ conocido Parámetro de interés: µ = tiempo de permanencia medio con la versión nueva Pregunta: ¿µ > µ0? Experimento: TestAB simplificado (“TestB”) Pasos del análisis: 1 estimar µ 2 tomar una decisión 7 / 37 Tiempo de permanencia: problema simplificado Suponemos... µ0 = tiempo de permanencia medio con la versión actual = 60 seg −→ conocido Parámetro de interés: µ = tiempo de permanencia medio con la versión nueva Pregunta: ¿µ > µ0? Experimento: TestAB simplificado (“TestB”) Pasos del análisis: 1 estimar µ 2 tomar una decisión 7 / 37 Ejemplo Datos observados (n = 10) de tiempos de permanencia: 72.69 63.36 58.63 70.91 61.38 54.81 54.47 61.20 58.48 60.00 Estimación: µ̂obs = x = 61.593 ¿Diŕıamos que µ > 60? 8 / 37 Ejemplo Datos observados (n = 10) de tiempos de permanencia: 72.69 63.36 58.63 70.91 61.38 54.81 54.47 61.20 58.48 60.00 Estimación: µ̂obs = x = 61.593 ¿Diŕıamos que µ > 60? 8 / 37 Ejemplo Datos observados (n = 10) de tiempos de permanencia: 72.69 63.36 58.63 70.91 61.38 54.81 54.47 61.20 58.48 60.00 Estimación: µ̂obs = x = 61.593 ¿Diŕıamos que µ > 60? 8 / 37 Intervalos de confianza Dados... parámetro de interés: θ = θ(F ) muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. 0 < α < 1 diremos que ... (a(X1, . . . , Xn), b(X1, . . . , Xn)) es un Intervalo de confianza (IC) de nivel 1− α para θ si P (a(X1, . . . , Xn) < θ < b(X1, . . . , Xn)) = 1− α Ej. α = 0.05 ⇒ 1− α = 0.95 9 / 37 Intervalos de confianza Dados... parámetro de interés: θ = θ(F ) muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. 0 < α < 1 diremos que ... (a(X1, . . . , Xn), b(X1, . . . , Xn)) es un Intervalo de confianza (IC) de nivel 1− α para θ si P (a(X1, . . . , Xn) < θ < b(X1, . . . , Xn)) = 1− α Ej. α = 0.05 ⇒ 1− α = 0.95 9 / 37 Intervalos de confianza Dados... parámetro de interés: θ = θ(F ) muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. 0 < α < 1 diremos que ... (a(X1, . . . , Xn), b(X1, . . . , Xn)) es un Intervalo de confianza (IC) de nivel 1− α para θ si P (a(X1, . . . , Xn) < θ < b(X1, . . . , Xn)) = 1− α Ej. α = 0.05 ⇒ 1− α = 0.95 9 / 37 Clase de hoy 10 / 37 IC de nivel 0.95 para µ en el ejemplo Parámetro de interés: µ = “tiempo de permanencia medio con la versión nueva” Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10 Definición (con palabras): dado 1 ≤ i ≤ 10 Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind. de la muestra” ¿Qué sabemos de su distribución? µ = EF (X1) Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5 11 / 37 IC de nivel 0.95 para µ en el ejemplo Parámetro de interés: µ = “tiempo de permanencia medio con la versión nueva” Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10 Definición (con palabras): dado 1 ≤ i ≤ 10 Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind. de la muestra” ¿Qué sabemos de su distribución? µ = EF (X1) Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5 11 / 37 IC de nivel 0.95 para µ en el ejemplo Parámetro de interés: µ = “tiempo de permanencia medio con la versión nueva” Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10 Definición (con palabras): dado 1 ≤ i ≤ 10 Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind. de la muestra” ¿Qué sabemos de su distribución? µ = EF (X1) Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5 11 / 37 IC de nivel 0.95 para µ en el ejemplo Parámetro de interés: µ = “tiempo de permanencia medio con la versión nueva” Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10 Definición (con palabras): dado 1 ≤ i ≤ 10 Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind. de la muestra” ¿Qué sabemos de su distribución? µ = EF (X1) Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5 11 / 37 IC de nivel 0.95 para µ en el ejemplo Parámetro de interés: µ = “tiempo de permanencia medio con la versión nueva” Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10 Definición (con palabras): dado 1 ≤ i ≤ 10 Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind. de la muestra” ¿Qué sabemos de su distribución? µ = EF (X1) Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5 11 / 37 IC de nivel 0.95 para µ en el ejemplo Parámetro de interés: µ = “tiempo de permanencia medio con la versión nueva” Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10 Definición (con palabras): dado 1 ≤ i ≤ 10 Xi= “tiempo de permanencia (c/nueva versión) de i-ésimo ind. de la muestra” ¿Qué sabemos de su distribución? µ = EF (X1) Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5 11 / 37 IC de nivel 0.95 para µ en el ejemplo Parámetro de interés: µ = “tiempo de permanencia medio con la versión nueva” Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10 Definición (con palabras): dado 1 ≤ i ≤ 10 Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind. de la muestra” ¿Qué sabemos de su distribución? µ = EF (X1) Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5 11 / 37 IC de nivel 0.95 para µ en el ejemplo Parámetro de interés: µ = “tiempo de permanencia medio con la versión nueva” Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10 Definición (con palabras): dado 1 ≤ i ≤ 10 Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind. de la muestra” ¿Qué sabemos de su distribución? µ = EF (X1) Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5 11 / 37 Análisis exploratorio de los datos 12 / 37 Análisis exploratorio de los datos 12 / 37 IC de nivel 0.95 para µ en el ejemplo Muestra aleatoria: X1, . . . , Xn ∼ N (µ, σ20) i.i.d. σ0 = 5. Queremos (a(X1, . . . , Xn), b(X1, . . . , Xn)) tal que P (a(X1, . . . , Xn) < µ < b(X1, . . . , Xn)) = 0.95 13 / 37 IC de nivel 0.95 para µ en el ejemplo Muestra aleatoria: X1, . . . , Xn ∼ N (µ, σ20) i.i.d. σ0 = 5. Queremos (a(X1, . . . , Xn), b(X1, . . . , Xn)) tal que P (a(X1, . . . , Xn) < µ < b(X1, . . . , Xn)) = 0.95 13 / 37 Regla normal: X ∼ N (µ, σ2) P (|X − µ| < σ) ≈ 0.68 P (|X − µ| < 2σ) ≈ 0.95 P (|X − µ| < 3σ) ≈ 0.997 14 / 37 IC de nivel 0.95 para µ en el ejemplo IC = (X10 − 1.96 √ 25 10 , X10 + 1.96 √ 25 10 ) = (X10 − 3.10, X10 + 3.10) ICobs = (61.593− 3.10, 61.593 + 3.10) = (58.49, 64.69) Obs: ME (margen de error) = 3.10 En base al ICobs, ¿cambiaŕıan la versión? 15 / 37 IC de nivel 0.95 para µ en el ejemplo IC = (X10 − 1.96 √ 25 10 , X10 + 1.96 √ 25 10 ) = (X10 − 3.10, X10 + 3.10) ICobs = (61.593− 3.10, 61.593 + 3.10) = (58.49, 64.69) Obs: ME (margen de error) = 3.10 En base al ICobs, ¿cambiaŕıan la versión? 15 / 37 IC de nivel 0.95 para µ en el ejemplo IC = (X10 − 1.96 √ 25 10 , X10 + 1.96 √ 25 10 ) = (X10 − 3.10, X10 + 3.10) ICobs = (61.593− 3.10, 61.593 + 3.10) = (58.49, 64.69) Obs: ME (margen de error) = 3.10 En base al ICobs, ¿cambiaŕıan la versión? 15 / 37 IC de nivel 0.95 para µ en el ejemplo IC = (X10 − 1.96 √ 25 10 , X10 + 1.96 √ 25 10 ) = (X10 − 3.10, X10 + 3.10) ICobs = (61.593− 3.10, 61.593 + 3.10) = (58.49, 64.69) Obs: ME (margen de error) = 3.10 En base al ICobs, ¿cambiaŕıan la versión? 15 / 37 Estimador vs. Estimación Estimador Procedimiento que haremos con las variables de la muestra aleatoria Se define antes de extraer la muestra Es una variable aleatoria Lo notamos... θ̂n = θ̂n(X1, . . . , Xn) Estimación Resultado de aplicar el procedimiento a los datos de la muestra observada Se calcula luego de extraer la muestra Es un número Lo notamos... θ̂obs = θ̂n(x1, . . . , xn) 16 / 37 Estimador vs. Estimación Estimador Procedimiento que haremos con las variables de la muestra aleatoria Se define antes de extraer la muestra Es una variable aleatoria Lo notamos... θ̂n = θ̂n(X1, . . . , Xn) Estimación Resultado de aplicar el procedimiento a los datos de la muestra observada Se calcula luego de extraer la muestra Es un número Lo notamos... θ̂obs = θ̂n(x1, . . . , xn) 16 / 37 Estimador vs. Estimación Estimador Procedimiento que haremos con las variables de la muestra aleatoria Se define antes de extraer la muestra Es una variable aleatoria Lo notamos... θ̂n = θ̂n(X1, . . . , Xn) Estimación Resultado de aplicar el procedimiento a los datos de la muestra observada Se calcula luego de extraer la muestra Es un número Lo notamos... θ̂obs = θ̂n(x1, . . . , xn) 16 / 37 Estimador vs. Estimación Estimador Procedimiento que haremos con las variables de la muestra aleatoria Se define antes de extraer la muestra Es una variable aleatoria Lo notamos... θ̂n = θ̂n(X1, . . . , Xn) Estimación Resultado de aplicar el procedimiento a los datos de la muestra observada Se calcula luego de extraer la muestra Es un número Lo notamos... θ̂obs = θ̂n(x1, . . . , xn) 16 / 37 Estimador vs. Estimación Estimador Procedimiento que haremos con las variables de la muestra aleatoria Se define antes de extraer la muestra Es una variable aleatoria Lo notamos... θ̂n = θ̂n(X1, . . . , Xn) Estimación Resultado de aplicar el procedimiento a los datos de la muestra observada Se calcula luego de extraer la muestra Es un número Lo notamos... θ̂obs = θ̂n(x1, . . . , xn) 16 / 37 Estimador vs. Estimación Estimador Procedimiento que haremos con las variables de la muestra aleatoria Se define antes de extraer la muestra Es una variable aleatoria Lo notamos... θ̂n = θ̂n(X1, . . . , Xn) Estimación Resultado de aplicar el procedimiento a los datos de la muestra observada Se calcula luego de extraer la muestra Es un número Lo notamos... θ̂obs = θ̂n(x1, . . . , xn) 16 / 37 Estimador vs. Estimación Estimador Procedimiento que haremos con las variables de la muestra aleatoria Se define antes de extraer la muestra Es una variable aleatoria Lo notamos... θ̂n = θ̂n(X1, . . . , Xn) Estimación Resultado de aplicar el procedimiento a los datos de la muestra observada Se calcula luego de extraer la muestra Es un número Lo notamos... θ̂obs = θ̂n(x1, . . . , xn) 16 / 37 Estimador vs. Estimación Estimador Procedimiento que haremos con las variables de la muestra aleatoria Se define antes de extraer la muestra Es una variable aleatoria Lo notamos... θ̂n = θ̂n(X1, . . . , Xn) Estimación Resultado de aplicar el procedimiento a los datos de la muestra observada Se calcula luego de extraer la muestra Es un número Lo notamos... θ̂obs = θ̂n(x1, . . . , xn) 16 / 37 IC vs. IC observado Intervalo de confianza Procedimiento que haremos con las variables de la muestra aleatoria Se define antes de extraer la muestra Sus extremos son variables aleatorias Lo notamos... IC = IC(X1, . . . , Xn) Intervalo de confianza obs. Resultado de aplicar el procedimiento a los datos de la muestra observada Se calcula luego de extraer la muestra Sus extremos son números Lo notamos... ICobs = IC(x1, . . . , xn) 17 / 37 IC vs. IC observado Intervalo de confianza Procedimiento que haremos con las variables de la muestra aleatoria Se define antes de extraer la muestra Sus extremos son variables aleatorias Lo notamos... IC = IC(X1, . . . , Xn) Intervalo de confianza obs. Resultado de aplicar el procedimiento a los datos de la muestra observada Se calcula luego de extraer la muestra Sus extremos son números Lo notamos... ICobs = IC(x1, . . . , xn) 17 / 37 IC vs. IC observado Intervalo de confianza Procedimiento que haremos con las variables de la muestra aleatoria Se define antes de extraer la muestra Sus extremos son variables aleatorias Lo notamos... IC = IC(X1, . . . , Xn) Intervalo de confianza obs. Resultado de aplicar el procedimiento a los datos de la muestra observada Se calcula luego de extraer la muestra Sus extremos son números Lo notamos... ICobs = IC(x1, . . . , xn) 17 / 37 IC vs. IC observado Intervalo de confianza Procedimiento que haremos con las variables de la muestra aleatoria Se define antes de extraer la muestra Sus extremos son variables aleatorias Lo notamos... IC = IC(X1, . . . , Xn) Intervalo de confianza obs. Resultado de aplicar el procedimiento a los datos de la muestra observada Se calcula luego de extraer la muestra Sus extremos son números Lo notamos... ICobs = IC(x1, . . . , xn) 17 / 37 IC vs. IC observado Intervalo de confianza Procedimiento que haremos con las variables de la muestra aleatoria Se define antes de extraer la muestraSus extremos son variables aleatorias Lo notamos... IC = IC(X1, . . . , Xn) Intervalo de confianza obs. Resultado de aplicar el procedimiento a los datos de la muestra observada Se calcula luego de extraer la muestra Sus extremos son números Lo notamos... ICobs = IC(x1, . . . , xn) 17 / 37 IC vs. IC observado Intervalo de confianza Procedimiento que haremos con las variables de la muestra aleatoria Se define antes de extraer la muestra Sus extremos son variables aleatorias Lo notamos... IC = IC(X1, . . . , Xn) Intervalo de confianza obs. Resultado de aplicar el procedimiento a los datos de la muestra observada Se calcula luego de extraer la muestra Sus extremos son números Lo notamos... ICobs = IC(x1, . . . , xn) 17 / 37 IC vs. IC observado Intervalo de confianza Procedimiento que haremos con las variables de la muestra aleatoria Se define antes de extraer la muestra Sus extremos son variables aleatorias Lo notamos... IC = IC(X1, . . . , Xn) Intervalo de confianza obs. Resultado de aplicar el procedimiento a los datos de la muestra observada Se calcula luego de extraer la muestra Sus extremos son números Lo notamos... ICobs = IC(x1, . . . , xn) 17 / 37 IC vs. IC observado Intervalo de confianza Procedimiento que haremos con las variables de la muestra aleatoria Se define antes de extraer la muestra Sus extremos son variables aleatorias Lo notamos... IC = IC(X1, . . . , Xn) Intervalo de confianza obs. Resultado de aplicar el procedimiento a los datos de la muestra observada Se calcula luego de extraer la muestra Sus extremos son números Lo notamos... ICobs = IC(x1, . . . , xn) 17 / 37 Interpretación del nivel ¿Podemos decir que P (58.49 < µ < 64.69) = 0.95 ? Recordemos que IC = (a(X1, . . . , Xn), b(X1, . . . , Xn)) es un Intervalo de confianza (IC) de nivel 0.95 para µ si P (a(X1, . . . , Xn) < µ < b(X1, . . . , Xn)) = 0.95 En nuestro ejemplo, IC = (X10 − 3.10, X10 + 3.10) ICobs = (58.49, 64.69) Entonces, lo que podemos decir es que P ( X10 − 3.10 < µ < X10 + 3.10 ) = 0.95 18 / 37 Interpretación del nivel ¿Podemos decir que P (58.49 < µ < 64.69) = 0.95 ? Recordemos que IC = (a(X1, . . . , Xn), b(X1, . . . , Xn)) es un Intervalo de confianza (IC) de nivel 0.95 para µ si P (a(X1, . . . , Xn) < µ < b(X1, . . . , Xn)) = 0.95 En nuestro ejemplo, IC = (X10 − 3.10, X10 + 3.10) ICobs = (58.49, 64.69) Entonces, lo que podemos decir es que P ( X10 − 3.10 < µ < X10 + 3.10 ) = 0.95 18 / 37 Interpretación del nivel ¿Podemos decir que P (58.49 < µ < 64.69) = 0.95 ? Recordemos que IC = (a(X1, . . . , Xn), b(X1, . . . , Xn)) es un Intervalo de confianza (IC) de nivel 0.95 para µ si P (a(X1, . . . , Xn) < µ < b(X1, . . . , Xn)) = 0.95 En nuestro ejemplo, IC = (X10 − 3.10, X10 + 3.10) ICobs = (58.49, 64.69) Entonces, lo que podemos decir es que P ( X10 − 3.10 < µ < X10 + 3.10 ) = 0.95 18 / 37 Interpretación del nivel ¿Podemos decir que P (58.49 < µ < 64.69) = 0.95 ? Recordemos que IC = (a(X1, . . . , Xn), b(X1, . . . , Xn)) es un Intervalo de confianza (IC) de nivel 0.95 para µ si P (a(X1, . . . , Xn) < µ < b(X1, . . . , Xn)) = 0.95 En nuestro ejemplo, IC = (X10 − 3.10, X10 + 3.10) ICobs = (58.49, 64.69) Entonces, lo que podemos decir es que P ( X10 − 3.10 < µ < X10 + 3.10 ) = 0.95 18 / 37 Muchos intervalos y la verdad 19 / 37 Muchos intervalos 20 / 37 Mi intervalo y yo 21 / 37 IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95) Recordemos lo que hicimos: 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) ↑ Estad́ıstico (función de la m.a.) que... depende del parámetro de interés (µ) no depende de ningún otro parámetro desconocido tiene distribución totalmente conocida ↑ Pivote 22 / 37 IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95) Recordemos lo que hicimos: 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) ↑ Estad́ıstico (función de la m.a.) que... depende del parámetro de interés (µ) no depende de ningún otro parámetro desconocido tiene distribución totalmente conocida ↑ Pivote 22 / 37 IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95) Recordemos lo que hicimos: 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) ↑ Estad́ıstico (función de la m.a.) que... depende del parámetro de interés (µ) no depende de ningún otro parámetro desconocido tiene distribución totalmente conocida ↑ Pivote 22 / 37 IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95) Recordemos lo que hicimos: 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) ↑ Estad́ıstico (función de la m.a.) que... depende del parámetro de interés (µ) no depende de ningún otro parámetro desconocido tiene distribución totalmente conocida ↑ Pivote 22 / 37 IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95) Recordemos lo que hicimos: 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) ↑ Estad́ıstico (función de la m.a.) que... depende del parámetro de interés (µ) no depende de ningún otro parámetro desconocido tiene distribución totalmente conocida ↑ Pivote 22 / 37 IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95) Recordemos lo que hicimos: 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) ↑ Estad́ıstico (función de la m.a.) que... depende del parámetro de interés (µ) no depende de ningún otro parámetro desconocido tiene distribución totalmente conocida ↑ Pivote 22 / 37 IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95) Recordemos lo que hicimos: 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) ↑ Estad́ıstico (función de la m.a.) que... depende del parámetro de interés (µ) no depende de ningún otro parámetro desconocido tiene distribución totalmente conocida ↑ Pivote 22 / 37 IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95) Recordemos lo que hicimos: 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) ↑ Estad́ıstico (función de la m.a.) que... depende del parámetro de interés (µ) no depende de ningún otro parámetro desconocido tiene distribución totalmente conocida ↑ Pivote 22 / 37 IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95) Recordemos lo que hicimos: 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) ↑ Estad́ıstico (función de la m.a.) que... depende del parámetro de interés (µ) no depende de ningún otro parámetro desconocido tiene distribución totalmente conocida ↑ Pivote 22 / 37 IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95) Recordemos lo que hicimos: 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) ↑ Estad́ıstico (función de la m.a.) que... depende del parámetro de interés (µ) no depende de ningún otro parámetro desconocido tiene distribución totalmente conocida ↑ Pivote 22 / 37 IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95) Recordemos lo que hicimos: 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) ↑ Estad́ıstico (función dela m.a.) que... depende del parámetro de interés (µ) no depende de ningún otro parámetro desconocido tiene distribución totalmente conocida ↑ Pivote 22 / 37 IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95) Recordemos lo que hicimos: 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) ↑ Estad́ıstico (función de la m.a.) que... depende del parámetro de interés (µ) no depende de ningún otro parámetro desconocido tiene distribución totalmente conocida ↑ Pivote 22 / 37 IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95) Recordemos lo que hicimos: 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) 4 Hallamos z = 1.96 tal que P (∣∣∣∣ Xn−µ√σ20/n ∣∣∣∣ < z) = 0.95 5 Despejamos µ y concluimos que... P ( Xn − 1.96 √ σ20 n < µ < Xn + 1.96 √ σ20 n ) = 0.95 y, por lo tanto, IC = ( Xn − 1.96 √ σ20 n , Xn + 1.96 √ σ20 n ) es un IC de nivel 0.95 para µ. 23 / 37 IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95) Recordemos lo que hicimos: 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) 4 Hallamos z = 1.96 tal que P (∣∣∣∣ Xn−µ√σ20/n ∣∣∣∣ < z) = 0.95 5 Despejamos µ y concluimos que... P ( Xn − 1.96 √ σ20 n < µ < Xn + 1.96 √ σ20 n ) = 0.95 y, por lo tanto, IC = ( Xn − 1.96 √ σ20 n , Xn + 1.96 √ σ20 n ) es un IC de nivel 0.95 para µ. 23 / 37 IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95) Recordemos lo que hicimos: 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) 4 Hallamos z = 1.96 tal que P (∣∣∣∣ Xn−µ√σ20/n ∣∣∣∣ < z) = 0.95 5 Despejamos µ y concluimos que... P ( Xn − 1.96 √ σ20 n < µ < Xn + 1.96 √ σ20 n ) = 0.95 y, por lo tanto, IC = ( Xn − 1.96 √ σ20 n , Xn + 1.96 √ σ20 n ) es un IC de nivel 0.95 para µ. 23 / 37 IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95) Recordemos lo que hicimos: 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) 4 Hallamos z = 1.96 tal que P (∣∣∣∣ Xn−µ√σ20/n ∣∣∣∣ < z) = 0.95 5 Despejamos µ y concluimos que... P ( Xn − 1.96 √ σ20 n < µ < Xn + 1.96 √ σ20 n ) = 0.95 y, por lo tanto, IC = ( Xn − 1.96 √ σ20 n , Xn + 1.96 √ σ20 n ) es un IC de nivel 0.95 para µ. 23 / 37 IC para µ de N (µ, σ20) con σ0 conocida (de nivel 1− α) 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) 4 Queremos z tal que P (∣∣∣∣ Xn−µ√σ20/n ∣∣∣∣ < z) = 1− α 24 / 37 IC para µ de N (µ, σ20) con σ0 conocida (de nivel 1− α) 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) 4 Queremos z tal que P (∣∣∣∣ Xn−µ√σ20/n ∣∣∣∣ < z) = 1− α 24 / 37 IC para µ de N (µ, σ20) con σ0 conocida (de nivel 1− α) 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) 4 Queremos z tal que P (∣∣∣∣ Xn−µ√σ20/n ∣∣∣∣ < z) = 1− α 24 / 37 IC para µ de N (µ, σ20) con σ0 conocida (de nivel 1− α) 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) 4 Queremos z tal que P (∣∣∣∣ Xn−µ√σ20/n ∣∣∣∣ < z) = 1− α 24 / 37 IC para µ de N (µ, σ20) con σ0 conocida (de nivel 1− α) 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) 4 Queremos z tal que P (∣∣∣∣ Xn−µ√σ20/n ∣∣∣∣ < z) = 1− α 24 / 37 IC para µ de N (µ, σ20) con σ0 conocida (de nivel 1− α) 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) 4 Queremos z tal que P (∣∣∣∣ Xn−µ√σ20/n ∣∣∣∣ < z) = 1− α 24 / 37 IC para µ de N (µ, σ20) con σ0 conocida (de nivel 1− α) 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) 4 Queremos z tal que P (∣∣∣∣ Xn−µ√σ20/n ∣∣∣∣ < z) = 1− α 24 / 37 IC para µ de N (µ, σ20) con σ0 conocida (de nivel 1− α) 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) 4 Queremos z tal que P (∣∣∣∣ Xn−µ√σ20/n ∣∣∣∣ < z) = 1− α 24 / 37 Notación Dado 0 < α < 1, llamamos zα al percentil de la N (0, 1) que deja área α a derecha, es decir.. P(Z > zα) = α, Z ∼ N (0, 1) Obs.: zα es el percentil 1− α de la N (0, 1) 25 / 37 Notación Dado 0 < α < 1, llamamos zα al percentil de la N (0, 1) que deja área α a derecha, es decir.. P(Z > zα) = α, Z ∼ N (0, 1) Obs.: zα es el percentil 1− α de la N (0, 1) 25 / 37 IC para µ de N (µ, σ20) con σ0 conocida (de nivel 1− α) 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) 4 Hallamos zα/2 y planteamos P (∣∣∣∣ Xn−µ√σ20/n ∣∣∣∣ < zα/2) = 1− α 5 Despejamos µ y concluimos que... P ( Xn − zα/2 √ σ20 n < µ < Xn + zα/2 √ σ20 n ) = 1− α ⇒ IC = ( Xn − zα/2 √ σ20 n , Xn + zα/2 √ σ20 n ) = ( Xn ± zα/2 √ σ20 n ) es un IC de nivel 1− α para µ. 26 / 37 IC para µ de N (µ, σ20) con σ0 conocida (de nivel 1− α) 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) 4 Hallamos zα/2 y planteamos P (∣∣∣∣ Xn−µ√σ20/n ∣∣∣∣ < zα/2) = 1− α 5 Despejamos µ y concluimos que... P ( Xn − zα/2 √ σ20 n < µ < Xn + zα/2 √ σ20 n ) = 1− α ⇒ IC = ( Xn − zα/2 √ σ20 n , Xn + zα/2 √ σ20 n ) = ( Xn ± zα/2 √ σ20 n ) es un IC de nivel 1− α para µ. 26 / 37 IC para µ de N (µ, σ20) con σ0 conocida (de nivel 1− α) 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) 4 Hallamos zα/2 y planteamos P (∣∣∣∣ Xn−µ√σ20/n ∣∣∣∣ < zα/2) = 1− α 5 Despejamos µ y concluimos que... P ( Xn − zα/2 √ σ20 n < µ < Xn + zα/2 √ σ20 n ) = 1− α ⇒ IC = ( Xn − zα/2 √ σ20 n , Xn + zα/2 √ σ20 n ) = ( Xn ± zα/2 √ σ20 n ) es un IC de nivel 1− α para µ. 26 / 37 Margen de error IC = ( Xn ± zα/2 √ σ20 n ) √ σ20 n = √ V (Xn) = se(Xn) ⇒ IC = (Xn ± zα/2se(Xn)) ME (margen de error)= zα/2 √ σ20 n = zα/2se(Xn) depende de... n (a mayor n, menor ME) nivel (1− α) (a mayor nivel, mayor ME) σ20 (a mayor σ 2 0 , mayor ME) 27 / 37 Margen de error IC = ( Xn ± zα/2 √ σ20 n ) √ σ20 n = √ V (Xn) = se(Xn) ⇒ IC = (Xn ± zα/2se(Xn)) ME (margen de error)= zα/2 √ σ20 n = zα/2se(Xn) depende de... n (a mayor n, menor ME) nivel (1− α) (a mayor nivel, mayor ME) σ20 (a mayor σ 2 0 , mayor ME) 27 / 37 Margen de error IC = ( Xn ± zα/2 √ σ20 n ) √ σ20 n = √ V (Xn) = se(Xn) ⇒ IC = (Xn ± zα/2se(Xn)) ME (margen de error)= zα/2 √ σ20 n = zα/2se(Xn) depende de... n (a mayor n, menor ME) nivel (1− α) (a mayor nivel, mayor ME) σ20 (a mayor σ 2 0 , mayor ME) 27 / 37 Margen de error IC = ( Xn ± zα/2 √ σ20 n ) √ σ20 n = √ V (Xn) = se(Xn) ⇒ IC = (Xn ± zα/2se(Xn)) ME (margen de error)= zα/2 √ σ20 n = zα/2se(Xn) depende de... n (a mayor n, menor ME) nivel (1− α) (a mayor nivel, mayor ME) σ20 (a mayor σ 2 0 , mayor ME) 27 / 37 Margen de error IC = ( Xn ± zα/2 √ σ20 n ) √ σ20 n = √ V (Xn) = se(Xn) ⇒ IC = (Xn ± zα/2se(Xn)) ME (margen de error)= zα/2 √ σ20 n = zα/2se(Xn) depende de... n (a mayor n,menor ME) nivel (1− α) (a mayor nivel, mayor ME) σ20 (a mayor σ 2 0 , mayor ME) 27 / 37 Margen de error IC = ( Xn ± zα/2 √ σ20 n ) √ σ20 n = √ V (Xn) = se(Xn) ⇒ IC = (Xn ± zα/2se(Xn)) ME (margen de error) = zα/2 √ σ20 n = zα/2se(Xn) depende de... n (a mayor n, menor ME) nivel (1− α) (a mayor nivel, mayor ME) σ20 (a mayor σ 2 0 , mayor ME) 27 / 37 Margen de error IC = ( Xn ± zα/2 √ σ20 n ) √ σ20 n = √ V (Xn) = se(Xn) ⇒ IC = (Xn ± zα/2se(Xn)) ME (margen de error)= zα/2 √ σ20 n = zα/2se(Xn) depende de... n (a mayor n, menor ME) nivel (1− α) (a mayor nivel, mayor ME) σ20 (a mayor σ 2 0 , mayor ME) 27 / 37 Margen de error IC = ( Xn ± zα/2 √ σ20 n ) √ σ20 n = √ V (Xn) = se(Xn) ⇒ IC = (Xn ± zα/2se(Xn)) ME (margen de error)= zα/2 √ σ20 n = zα/2se(Xn) depende de... n (a mayor n, menor ME) nivel (1− α) (a mayor nivel, mayor ME) σ20 (a mayor σ 2 0 , mayor ME) 27 / 37 Margen de error IC = ( Xn ± zα/2 √ σ20 n ) √ σ20 n = √ V (Xn) = se(Xn) ⇒ IC = (Xn ± zα/2se(Xn)) ME (margen de error)= zα/2 √ σ20 n = zα/2se(Xn) depende de... n (a mayor n, menor ME) nivel (1− α) (a mayor nivel, mayor ME) σ20 (a mayor σ 2 0 , mayor ME) 27 / 37 Margen de error IC = ( Xn ± zα/2 √ σ20 n ) √ σ20 n = √ V (Xn) = se(Xn) ⇒ IC = (Xn ± zα/2se(Xn)) ME (margen de error)= zα/2 √ σ20 n = zα/2se(Xn) depende de... n (a mayor n, menor ME) nivel (1− α) (a mayor nivel, mayor ME) σ20 (a mayor σ 2 0 , mayor ME) 27 / 37 Margen de error IC = ( Xn ± zα/2 √ σ20 n ) √ σ20 n = √ V (Xn) = se(Xn) ⇒ IC = (Xn ± zα/2se(Xn)) ME (margen de error)= zα/2 √ σ20 n = zα/2se(Xn) depende de... n (a mayor n, menor ME) nivel (1− α) (a mayor nivel, mayor ME) σ20 (a mayor σ 2 0 , mayor ME) 27 / 37 Margen de error IC = ( Xn ± zα/2 √ σ20 n ) √ σ20 n = √ V (Xn) = se(Xn) ⇒ IC = (Xn ± zα/2se(Xn)) ME (margen de error)= zα/2 √ σ20 n = zα/2se(Xn) depende de... n (a mayor n, menor ME) nivel (1− α) (a mayor nivel, mayor ME) σ20 (a mayor σ 2 0 , mayor ME) 27 / 37 Margen de error IC = ( Xn ± zα/2 √ σ20 n ) √ σ20 n = √ V (Xn) = se(Xn) ⇒ IC = (Xn ± zα/2se(Xn)) ME (margen de error)= zα/2 √ σ20 n = zα/2se(Xn) depende de... n (a mayor n, menor ME) nivel (1− α) (a mayor nivel, mayor ME) σ20 (a mayor σ 2 0 , mayor ME) 27 / 37 Margen de error IC = ( Xn ± zα/2 √ σ20 n ) √ σ20 n = √ V (Xn) = se(Xn) ⇒ IC = (Xn ± zα/2se(Xn)) ME (margen de error)= zα/2 √ σ20 n = zα/2se(Xn) depende de... n (a mayor n, menor ME) nivel (1− α) (a mayor nivel, mayor ME) σ20 (a mayor σ20 , mayor ME) 27 / 37 Margen de error IC = ( Xn ± zα/2 √ σ20 n ) √ σ20 n = √ V (Xn) = se(Xn) ⇒ IC = (Xn ± zα/2se(Xn)) ME (margen de error)= zα/2 √ σ20 n = zα/2se(Xn) depende de... n (a mayor n, menor ME) nivel (1− α) (a mayor nivel, mayor ME) σ20 (a mayor σ 2 0 , mayor ME) 27 / 37 Ejemplo con nivel = 0.90 IC(90%) = (X10 ± 2.60) IC(90%)obs = (61.593± 2.60) = (58.99, 64.19) Recordemos que... IC(95%) = (X10 ± 3.10) IC(95%)obs = (61.593± 3.10) = (58.49, 64.69) Conclusión: IC(90%) es más preciso pero menos confiable que IC(95%). 28 / 37 Ejemplo con nivel = 0.90 IC(90%) = (X10 ± 2.60) IC(90%)obs = (61.593± 2.60) = (58.99, 64.19) Recordemos que... IC(95%) = (X10 ± 3.10) IC(95%)obs = (61.593± 3.10) = (58.49, 64.69) Conclusión: IC(90%) es más preciso pero menos confiable que IC(95%). 28 / 37 Ejemplo con nivel = 0.90 IC(90%) = (X10 ± 2.60) IC(90%)obs = (61.593± 2.60) = (58.99, 64.19) Recordemos que... IC(95%) = (X10 ± 3.10) IC(95%)obs = (61.593± 3.10) = (58.49, 64.69) Conclusión: IC(90%) es más preciso pero menos confiable que IC(95%). 28 / 37 Ejemplo con nivel = 0.90 IC(90%) = (X10 ± 2.60) IC(90%)obs = (61.593± 2.60) = (58.99, 64.19) Recordemos que... IC(95%) = (X10 ± 3.10) IC(95%)obs = (61.593± 3.10) = (58.49, 64.69) Conclusión: IC(90%) es más preciso pero menos confiable que IC(95%). 28 / 37 Ejemplo con nivel = 0.90 IC(90%) = (X10 ± 2.60) IC(90%)obs = (61.593± 2.60) = (58.99, 64.19) Recordemos que... IC(95%) = (X10 ± 3.10) IC(95%)obs = (61.593± 3.10) = (58.49, 64.69) Conclusión: IC(90%) es más preciso pero menos confiable que IC(95%). 28 / 37 Ejemplo con nivel = 0.90 IC(90%) = (X10 ± 2.60) IC(90%)obs = (61.593± 2.60) = (58.99, 64.19) Recordemos que... IC(95%) = (X10 ± 3.10) IC(95%)obs = (61.593± 3.10) = (58.49, 64.69) Conclusión: IC(90%) es más preciso pero menos confiable que IC(95%). 28 / 37 IC para µ de N (µ, σ2) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) ↑ ¿Sirve como Pivote? 29 / 37 IC para µ de N (µ, σ2) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) ↑ ¿Sirve como Pivote? 29 / 37 IC para µ de N (µ, σ2) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) ↑ ¿Sirve como Pivote? 29 / 37 IC para µ de N (µ, σ2) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) ↑ ¿Sirve como Pivote? 29 / 37 IC para µ de N (µ, σ2) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) ↑ ¿Sirve como Pivote? 29 / 37 IC para µ de N (µ, σ2) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) ↑ ¿Sirve como Pivote? 29 / 37 IC para µ de N (µ, σ2) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) ↑ ¿Sirve como Pivote? 29 / 37 IC para µ de N (µ, σ2) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) 4 Reemplazamos σ2 por s2 = 1 n− 1 n∑ i=1 (Xi −Xn)2 y obtenemos Xn − µ√ s2/n ↑ ¿Sirve como Pivote? 30 / 37 IC para µ de N (µ, σ2) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) 4 Reemplazamos σ2 por s2 = 1 n− 1 n∑ i=1 (Xi −Xn)2 y obtenemos Xn − µ√ s2/n ↑ ¿Sirve como Pivote? 30 / 37 IC para µ de N (µ, σ2) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) 4 Reemplazamos σ2 por s2 = 1 n− 1 n∑ i=1 (Xi −Xn)2 y obtenemos Xn − µ√ s2/n ↑ ¿Sirve como Pivote? 30 / 37 IC para µ de N (µ, σ2) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) 4 Reemplazamos σ2 por s2 = 1 n− 1 n∑ i=1 (Xi −Xn)2 y obtenemos Xn − µ√ s2/n ↑ ¿Sirve como Pivote? 30 / 37 Distribución t de Student Sean X1, . . . , Xn ∼ N (µ, σ2) i.i.d. Xn − µ√ s2/n ∼ tn−1 tn−1 se dice “distribución t de Student” con n− 1 grados de libertad 31 / 37 N (0, 1) y t2 32 / 37 N (0, 1) y tn−1 33 / 37 IC para µ de N (µ, σ2) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) 4 Reemplazamos σ2 por s2 y obtenemos Xn − µ√ s2/n ∼ tn−1 5 Queremos t tal que P (∣∣∣∣ Xn−µ√s2/n ∣∣∣∣ < t) = 1− α 34 / 37 IC para µ de N (µ, σ2) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) 4 Reemplazamosσ2 por s2 y obtenemos Xn − µ√ s2/n ∼ tn−1 5 Queremos t tal que P (∣∣∣∣ Xn−µ√s2/n ∣∣∣∣ < t) = 1− α 34 / 37 Notación Dado 0 < α < 1, llamamos tn−1,α al percentil de la tn−1 que deja área α a derecha, es decir.. P(Tn−1 > tn−1,α) = α, Tn−1 ∼ tn−1 Obs.: tn−1,α es el percentil 1− α de la tn−1 35 / 37 Notación Dado 0 < α < 1, llamamos tn−1,α al percentil de la tn−1 que deja área α a derecha, es decir.. P(Tn−1 > tn−1,α) = α, Tn−1 ∼ tn−1 Obs.: tn−1,α es el percentil 1− α de la tn−1 35 / 37 IC para µ de N (µ, σ2) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) 4 Reemplazamos σ2 por s2 y obtenemos Xn−µ√ s2/n ∼ tn−1 5 Hallamos tn−1,α/2 y planteamos P (∣∣∣∣ Xn−µ√s2/n ∣∣∣∣ < tn−1,α/2) = 1− α 6 Despejamos µ y concluimos que... P ( Xn − tn−1,α/2 √ s2 n < µ < Xn + tn−1,α/2 √ s2 n ) = 1−α ⇒ IC = ( Xn ± tn−1,α/2 √ s2 n ) es un IC de nivel 1− α para µ. 36 / 37 IC para µ de N (µ, σ2) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) 4 Reemplazamos σ2 por s2 y obtenemos Xn−µ√ s2/n ∼ tn−1 5 Hallamos tn−1,α/2 y planteamos P (∣∣∣∣ Xn−µ√s2/n ∣∣∣∣ < tn−1,α/2) = 1− α 6 Despejamos µ y concluimos que... P ( Xn − tn−1,α/2 √ s2 n < µ < Xn + tn−1,α/2 √ s2 n ) = 1−α ⇒ IC = ( Xn ± tn−1,α/2 √ s2 n ) es un IC de nivel 1− α para µ. 36 / 37 IC para µ de N (µ, σ2) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, √ σ2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) 4 Reemplazamos σ2 por s2 y obtenemos Xn−µ√ s2/n ∼ tn−1 5 Hallamos tn−1,α/2 y planteamos P (∣∣∣∣ Xn−µ√s2/n ∣∣∣∣ < tn−1,α/2) = 1− α 6 Despejamos µ y concluimos que... P ( Xn − tn−1,α/2 √ s2 n < µ < Xn + tn−1,α/2 √ s2 n ) = 1−α ⇒ IC = ( Xn ± tn−1,α/2 √ s2 n ) es un IC de nivel 1− α para µ. 36 / 37 Ejemplo con σ desconocida En el ejemplo del test AB ahora supongamos X1, . . . , Xn ∼ N (µ, σ2) i.i.d. con σ desconocida. IC = (X10 ± 2.26 √ s2 10 ) ICobs = (61.593± 2.26 √ 6.062 10 ) = (61.593± 4.34) = (57.26, 65.93) 37 / 37 Ejemplo con σ desconocida En el ejemplo del test AB ahora supongamos X1, . . . , Xn ∼ N (µ, σ2) i.i.d. con σ desconocida. IC = (X10 ± 2.26 √ s2 10 ) ICobs = (61.593± 2.26 √ 6.062 10 ) = (61.593± 4.34) = (57.26, 65.93) 37 / 37 Ejemplo con σ desconocida En el ejemplo del test AB ahora supongamos X1, . . . , Xn ∼ N (µ, σ2) i.i.d. con σ desconocida. IC = (X10 ± 2.26 √ s2 10 ) ICobs = (61.593± 2.26 √ 6.062 10 ) = (61.593± 4.34) = (57.26, 65.93) 37 / 37
Compartir