Logo Studenta

Clase 9 - Inferencia Estadística

¡Este material tiene más páginas!

Vista previa del material en texto

Inferencia Estad́ıstica
Lućıa Babino
Universidad Torcuato Di Tella
1 / 37
Bibliograf́ıa para esta clase
Lock - Cap. 3.2 (subido al campus en esta clase)
Apuntes Bianco y Mart́ınez (subido al campus en Recursos
generales) - secciones
Introducción
IC para los parámetros de una distribución normal
IC para la media de una distribución normal con varianza
conocida
IC para la media de una distribución normal con varianza
desconocida
Determinación del tamaño de muestra
2 / 37
Repaso
3 / 37
Ejemplo
La tienda de colchones “DormiTown” está considerando lanzar una
nueva versión de su página web. Antes de tomar la decisión le
gustaŕıa saber si este cambio será conveniente de acuerdo a alguna
de las siguientes métricas:
Tiempo de permanencia medio en la página por sesión
Tasa de conversión (proporción de sesiones que terminan en
una transacción)
4 / 37
Tiempo de permanencia
Parámetros de interés:
µ1 = tiempo de permanencia medio (poblacional) con la
versión actual
µ2 = tiempo de permanencia medio (poblacional) con la
versión nueva
Pregunta: ¿µ2 > µ1?
5 / 37
Tiempo de permanencia
Parámetros de interés:
µ1 = tiempo de permanencia medio (poblacional) con la
versión actual
µ2 = tiempo de permanencia medio (poblacional) con la
versión nueva
Pregunta: ¿µ2 > µ1?
5 / 37
Test AB
Pasos del análisis:
1 estimar µ1 y µ2
2 tomar una decisión
6 / 37
Test AB
Pasos del análisis:
1 estimar µ1 y µ2
2 tomar una decisión
6 / 37
Test AB
Pasos del análisis:
1 estimar µ1 y µ2
2 tomar una decisión
6 / 37
Test AB
Pasos del análisis:
1 estimar µ1 y µ2
2 tomar una decisión
6 / 37
Tiempo de permanencia: problema simplificado
Suponemos...
µ0 = tiempo de permanencia medio con la versión actual
= 60 seg −→ conocido
Parámetro de interés:
µ = tiempo de permanencia medio con la versión nueva
Pregunta: ¿µ > µ0?
Experimento: TestAB simplificado (“TestB”)
Pasos del análisis:
1 estimar µ
2 tomar una decisión
7 / 37
Tiempo de permanencia: problema simplificado
Suponemos...
µ0 = tiempo de permanencia medio con la versión actual
= 60 seg −→ conocido
Parámetro de interés:
µ = tiempo de permanencia medio con la versión nueva
Pregunta: ¿µ > µ0?
Experimento: TestAB simplificado (“TestB”)
Pasos del análisis:
1 estimar µ
2 tomar una decisión
7 / 37
Tiempo de permanencia: problema simplificado
Suponemos...
µ0 = tiempo de permanencia medio con la versión actual
= 60 seg −→ conocido
Parámetro de interés:
µ = tiempo de permanencia medio con la versión nueva
Pregunta: ¿µ > µ0?
Experimento: TestAB simplificado (“TestB”)
Pasos del análisis:
1 estimar µ
2 tomar una decisión
7 / 37
Tiempo de permanencia: problema simplificado
Suponemos...
µ0 = tiempo de permanencia medio con la versión actual
= 60 seg −→ conocido
Parámetro de interés:
µ = tiempo de permanencia medio con la versión nueva
Pregunta: ¿µ > µ0?
Experimento: TestAB simplificado (“TestB”)
Pasos del análisis:
1 estimar µ
2 tomar una decisión
7 / 37
Tiempo de permanencia: problema simplificado
Suponemos...
µ0 = tiempo de permanencia medio con la versión actual
= 60 seg −→ conocido
Parámetro de interés:
µ = tiempo de permanencia medio con la versión nueva
Pregunta: ¿µ > µ0?
Experimento: TestAB simplificado (“TestB”)
Pasos del análisis:
1 estimar µ
2 tomar una decisión
7 / 37
Tiempo de permanencia: problema simplificado
Suponemos...
µ0 = tiempo de permanencia medio con la versión actual
= 60 seg −→ conocido
Parámetro de interés:
µ = tiempo de permanencia medio con la versión nueva
Pregunta: ¿µ > µ0?
Experimento: TestAB simplificado (“TestB”)
Pasos del análisis:
1 estimar µ
2 tomar una decisión
7 / 37
Tiempo de permanencia: problema simplificado
Suponemos...
µ0 = tiempo de permanencia medio con la versión actual
= 60 seg −→ conocido
Parámetro de interés:
µ = tiempo de permanencia medio con la versión nueva
Pregunta: ¿µ > µ0?
Experimento: TestAB simplificado (“TestB”)
Pasos del análisis:
1 estimar µ
2 tomar una decisión
7 / 37
Ejemplo
Datos observados (n = 10) de tiempos de permanencia:
72.69 63.36 58.63 70.91 61.38
54.81 54.47 61.20 58.48 60.00
Estimación: µ̂obs = x = 61.593
¿Diŕıamos que µ > 60?
8 / 37
Ejemplo
Datos observados (n = 10) de tiempos de permanencia:
72.69 63.36 58.63 70.91 61.38
54.81 54.47 61.20 58.48 60.00
Estimación: µ̂obs = x = 61.593
¿Diŕıamos que µ > 60?
8 / 37
Ejemplo
Datos observados (n = 10) de tiempos de permanencia:
72.69 63.36 58.63 70.91 61.38
54.81 54.47 61.20 58.48 60.00
Estimación: µ̂obs = x = 61.593
¿Diŕıamos que µ > 60?
8 / 37
Intervalos de confianza
Dados...
parámetro de interés: θ = θ(F )
muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
0 < α < 1
diremos que ...
(a(X1, . . . , Xn), b(X1, . . . , Xn)) es un Intervalo de confianza
(IC) de nivel 1− α para θ si
P (a(X1, . . . , Xn) < θ < b(X1, . . . , Xn)) = 1− α
Ej. α = 0.05 ⇒ 1− α = 0.95
9 / 37
Intervalos de confianza
Dados...
parámetro de interés: θ = θ(F )
muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
0 < α < 1
diremos que ...
(a(X1, . . . , Xn), b(X1, . . . , Xn)) es un Intervalo de confianza
(IC) de nivel 1− α para θ si
P (a(X1, . . . , Xn) < θ < b(X1, . . . , Xn)) = 1− α
Ej. α = 0.05 ⇒ 1− α = 0.95
9 / 37
Intervalos de confianza
Dados...
parámetro de interés: θ = θ(F )
muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
0 < α < 1
diremos que ...
(a(X1, . . . , Xn), b(X1, . . . , Xn)) es un Intervalo de confianza
(IC) de nivel 1− α para θ si
P (a(X1, . . . , Xn) < θ < b(X1, . . . , Xn)) = 1− α
Ej. α = 0.05 ⇒ 1− α = 0.95
9 / 37
Clase de hoy
10 / 37
IC de nivel 0.95 para µ en el ejemplo
Parámetro de interés:
µ = “tiempo de permanencia medio con la versión nueva”
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10
Definición (con palabras): dado 1 ≤ i ≤ 10
Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind.
de la muestra”
¿Qué sabemos de su distribución?
µ = EF (X1)
Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5
11 / 37
IC de nivel 0.95 para µ en el ejemplo
Parámetro de interés:
µ = “tiempo de permanencia medio con la versión nueva”
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10
Definición (con palabras): dado 1 ≤ i ≤ 10
Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind.
de la muestra”
¿Qué sabemos de su distribución?
µ = EF (X1)
Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5
11 / 37
IC de nivel 0.95 para µ en el ejemplo
Parámetro de interés:
µ = “tiempo de permanencia medio con la versión nueva”
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10
Definición (con palabras): dado 1 ≤ i ≤ 10
Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind.
de la muestra”
¿Qué sabemos de su distribución?
µ = EF (X1)
Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5
11 / 37
IC de nivel 0.95 para µ en el ejemplo
Parámetro de interés:
µ = “tiempo de permanencia medio con la versión nueva”
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10
Definición (con palabras):
dado 1 ≤ i ≤ 10
Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind.
de la muestra”
¿Qué sabemos de su distribución?
µ = EF (X1)
Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5
11 / 37
IC de nivel 0.95 para µ en el ejemplo
Parámetro de interés:
µ = “tiempo de permanencia medio con la versión nueva”
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10
Definición (con palabras): dado 1 ≤ i ≤ 10
Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind.
de la muestra”
¿Qué sabemos de su distribución?
µ = EF (X1)
Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5
11 / 37
IC de nivel 0.95 para µ en el ejemplo
Parámetro de interés:
µ = “tiempo de permanencia medio con la versión nueva”
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10
Definición (con palabras): dado 1 ≤ i ≤ 10
Xi= “tiempo de permanencia (c/nueva versión) de i-ésimo ind.
de la muestra”
¿Qué sabemos de su distribución?
µ = EF (X1)
Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5
11 / 37
IC de nivel 0.95 para µ en el ejemplo
Parámetro de interés:
µ = “tiempo de permanencia medio con la versión nueva”
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10
Definición (con palabras): dado 1 ≤ i ≤ 10
Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind.
de la muestra”
¿Qué sabemos de su distribución?
µ = EF (X1)
Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5
11 / 37
IC de nivel 0.95 para µ en el ejemplo
Parámetro de interés:
µ = “tiempo de permanencia medio con la versión nueva”
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10
Definición (con palabras): dado 1 ≤ i ≤ 10
Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind.
de la muestra”
¿Qué sabemos de su distribución?
µ = EF (X1)
Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5
11 / 37
Análisis exploratorio de los datos
12 / 37
Análisis exploratorio de los datos
12 / 37
IC de nivel 0.95 para µ en el ejemplo
Muestra aleatoria: X1, . . . , Xn ∼ N (µ, σ20) i.i.d. σ0 = 5.
Queremos (a(X1, . . . , Xn), b(X1, . . . , Xn)) tal que
P (a(X1, . . . , Xn) < µ < b(X1, . . . , Xn)) = 0.95
13 / 37
IC de nivel 0.95 para µ en el ejemplo
Muestra aleatoria: X1, . . . , Xn ∼ N (µ, σ20) i.i.d. σ0 = 5.
Queremos (a(X1, . . . , Xn), b(X1, . . . , Xn)) tal que
P (a(X1, . . . , Xn) < µ < b(X1, . . . , Xn)) = 0.95
13 / 37
Regla normal: X ∼ N (µ, σ2)
P (|X − µ| < σ) ≈ 0.68
P (|X − µ| < 2σ) ≈ 0.95
P (|X − µ| < 3σ) ≈ 0.997
14 / 37
IC de nivel 0.95 para µ en el ejemplo
IC = (X10 − 1.96
√
25
10
, X10 + 1.96
√
25
10
)
= (X10 − 3.10, X10 + 3.10)
ICobs = (61.593− 3.10, 61.593 + 3.10)
= (58.49, 64.69)
Obs:
ME (margen de error) = 3.10
En base al ICobs, ¿cambiaŕıan la versión?
15 / 37
IC de nivel 0.95 para µ en el ejemplo
IC = (X10 − 1.96
√
25
10
, X10 + 1.96
√
25
10
)
= (X10 − 3.10, X10 + 3.10)
ICobs = (61.593− 3.10, 61.593 + 3.10)
= (58.49, 64.69)
Obs:
ME (margen de error) = 3.10
En base al ICobs, ¿cambiaŕıan la versión?
15 / 37
IC de nivel 0.95 para µ en el ejemplo
IC = (X10 − 1.96
√
25
10
, X10 + 1.96
√
25
10
)
= (X10 − 3.10, X10 + 3.10)
ICobs = (61.593− 3.10, 61.593 + 3.10)
= (58.49, 64.69)
Obs:
ME (margen de error) = 3.10
En base al ICobs, ¿cambiaŕıan la versión?
15 / 37
IC de nivel 0.95 para µ en el ejemplo
IC = (X10 − 1.96
√
25
10
, X10 + 1.96
√
25
10
)
= (X10 − 3.10, X10 + 3.10)
ICobs = (61.593− 3.10, 61.593 + 3.10)
= (58.49, 64.69)
Obs:
ME (margen de error) = 3.10
En base al ICobs, ¿cambiaŕıan la versión?
15 / 37
Estimador vs. Estimación
Estimador
Procedimiento que haremos
con las variables de la
muestra aleatoria
Se define antes de extraer la
muestra
Es una variable aleatoria
Lo notamos...
θ̂n = θ̂n(X1, . . . , Xn)
Estimación
Resultado de aplicar el
procedimiento a los datos de
la muestra observada
Se calcula luego de extraer
la muestra
Es un número
Lo notamos...
θ̂obs = θ̂n(x1, . . . , xn)
16 / 37
Estimador vs. Estimación
Estimador
Procedimiento que haremos
con las variables de la
muestra aleatoria
Se define antes de extraer la
muestra
Es una variable aleatoria
Lo notamos...
θ̂n = θ̂n(X1, . . . , Xn)
Estimación
Resultado de aplicar el
procedimiento a los datos de
la muestra observada
Se calcula luego de extraer
la muestra
Es un número
Lo notamos...
θ̂obs = θ̂n(x1, . . . , xn)
16 / 37
Estimador vs. Estimación
Estimador
Procedimiento que haremos
con las variables de la
muestra aleatoria
Se define antes de extraer la
muestra
Es una variable aleatoria
Lo notamos...
θ̂n = θ̂n(X1, . . . , Xn)
Estimación
Resultado de aplicar el
procedimiento a los datos de
la muestra observada
Se calcula luego de extraer
la muestra
Es un número
Lo notamos...
θ̂obs = θ̂n(x1, . . . , xn)
16 / 37
Estimador vs. Estimación
Estimador
Procedimiento que haremos
con las variables de la
muestra aleatoria
Se define antes de extraer la
muestra
Es una variable aleatoria
Lo notamos...
θ̂n = θ̂n(X1, . . . , Xn)
Estimación
Resultado de aplicar el
procedimiento a los datos de
la muestra observada
Se calcula luego de extraer
la muestra
Es un número
Lo notamos...
θ̂obs = θ̂n(x1, . . . , xn)
16 / 37
Estimador vs. Estimación
Estimador
Procedimiento que haremos
con las variables de la
muestra aleatoria
Se define antes de extraer la
muestra
Es una variable aleatoria
Lo notamos...
θ̂n = θ̂n(X1, . . . , Xn)
Estimación
Resultado de aplicar el
procedimiento a los datos de
la muestra observada
Se calcula luego de extraer
la muestra
Es un número
Lo notamos...
θ̂obs = θ̂n(x1, . . . , xn)
16 / 37
Estimador vs. Estimación
Estimador
Procedimiento que haremos
con las variables de la
muestra aleatoria
Se define antes de extraer la
muestra
Es una variable aleatoria
Lo notamos...
θ̂n = θ̂n(X1, . . . , Xn)
Estimación
Resultado de aplicar el
procedimiento a los datos de
la muestra observada
Se calcula luego de extraer
la muestra
Es un número
Lo notamos...
θ̂obs = θ̂n(x1, . . . , xn)
16 / 37
Estimador vs. Estimación
Estimador
Procedimiento que haremos
con las variables de la
muestra aleatoria
Se define antes de extraer la
muestra
Es una variable aleatoria
Lo notamos...
θ̂n = θ̂n(X1, . . . , Xn)
Estimación
Resultado de aplicar el
procedimiento a los datos de
la muestra observada
Se calcula luego de extraer
la muestra
Es un número
Lo notamos...
θ̂obs = θ̂n(x1, . . . , xn)
16 / 37
Estimador vs. Estimación
Estimador
Procedimiento que haremos
con las variables de la
muestra aleatoria
Se define antes de extraer la
muestra
Es una variable aleatoria
Lo notamos...
θ̂n = θ̂n(X1, . . . , Xn)
Estimación
Resultado de aplicar el
procedimiento a los datos de
la muestra observada
Se calcula luego de extraer
la muestra
Es un número
Lo notamos...
θ̂obs = θ̂n(x1, . . . , xn)
16 / 37
IC vs. IC observado
Intervalo de confianza
Procedimiento que haremos
con las variables de la
muestra aleatoria
Se define antes de extraer la
muestra
Sus extremos son variables
aleatorias
Lo notamos...
IC = IC(X1, . . . , Xn)
Intervalo de confianza obs.
Resultado de aplicar el
procedimiento a los datos de
la muestra observada
Se calcula luego de extraer
la muestra
Sus extremos son números
Lo notamos...
ICobs = IC(x1, . . . , xn)
17 / 37
IC vs. IC observado
Intervalo de confianza
Procedimiento que haremos
con las variables de la
muestra aleatoria
Se define antes de extraer la
muestra
Sus extremos son variables
aleatorias
Lo notamos...
IC = IC(X1, . . . , Xn)
Intervalo de confianza obs.
Resultado de aplicar el
procedimiento a los datos de
la muestra observada
Se calcula luego de extraer
la muestra
Sus extremos son números
Lo notamos...
ICobs = IC(x1, . . . , xn)
17 / 37
IC vs. IC observado
Intervalo de confianza
Procedimiento que haremos
con las variables de la
muestra aleatoria
Se define antes de extraer la
muestra
Sus extremos son variables
aleatorias
Lo notamos...
IC = IC(X1, . . . , Xn)
Intervalo de confianza obs.
Resultado de aplicar el
procedimiento a los datos de
la muestra observada
Se calcula luego de extraer
la muestra
Sus extremos son números
Lo notamos...
ICobs = IC(x1, . . . , xn)
17 / 37
IC vs. IC observado
Intervalo de confianza
Procedimiento que haremos
con las variables de la
muestra aleatoria
Se define antes de extraer la
muestra
Sus extremos son variables
aleatorias
Lo notamos...
IC = IC(X1, . . . , Xn)
Intervalo de confianza obs.
Resultado de aplicar el
procedimiento a los datos de
la muestra observada
Se calcula luego de extraer
la muestra
Sus extremos son números
Lo notamos...
ICobs = IC(x1, . . . , xn)
17 / 37
IC vs. IC observado
Intervalo de confianza
Procedimiento que haremos
con las variables de la
muestra aleatoria
Se define antes de extraer la
muestraSus extremos son variables
aleatorias
Lo notamos...
IC = IC(X1, . . . , Xn)
Intervalo de confianza obs.
Resultado de aplicar el
procedimiento a los datos de
la muestra observada
Se calcula luego de extraer
la muestra
Sus extremos son números
Lo notamos...
ICobs = IC(x1, . . . , xn)
17 / 37
IC vs. IC observado
Intervalo de confianza
Procedimiento que haremos
con las variables de la
muestra aleatoria
Se define antes de extraer la
muestra
Sus extremos son variables
aleatorias
Lo notamos...
IC = IC(X1, . . . , Xn)
Intervalo de confianza obs.
Resultado de aplicar el
procedimiento a los datos de
la muestra observada
Se calcula luego de extraer
la muestra
Sus extremos son números
Lo notamos...
ICobs = IC(x1, . . . , xn)
17 / 37
IC vs. IC observado
Intervalo de confianza
Procedimiento que haremos
con las variables de la
muestra aleatoria
Se define antes de extraer la
muestra
Sus extremos son variables
aleatorias
Lo notamos...
IC = IC(X1, . . . , Xn)
Intervalo de confianza obs.
Resultado de aplicar el
procedimiento a los datos de
la muestra observada
Se calcula luego de extraer
la muestra
Sus extremos son números
Lo notamos...
ICobs = IC(x1, . . . , xn)
17 / 37
IC vs. IC observado
Intervalo de confianza
Procedimiento que haremos
con las variables de la
muestra aleatoria
Se define antes de extraer la
muestra
Sus extremos son variables
aleatorias
Lo notamos...
IC = IC(X1, . . . , Xn)
Intervalo de confianza obs.
Resultado de aplicar el
procedimiento a los datos de
la muestra observada
Se calcula luego de extraer
la muestra
Sus extremos son números
Lo notamos...
ICobs = IC(x1, . . . , xn)
17 / 37
Interpretación del nivel
¿Podemos decir que P (58.49 < µ < 64.69) = 0.95 ?
Recordemos que IC = (a(X1, . . . , Xn), b(X1, . . . , Xn)) es un
Intervalo de confianza (IC) de nivel 0.95 para µ si
P (a(X1, . . . , Xn) < µ < b(X1, . . . , Xn)) = 0.95
En nuestro ejemplo,
IC = (X10 − 3.10, X10 + 3.10)
ICobs = (58.49, 64.69)
Entonces, lo que podemos decir es que
P
(
X10 − 3.10 < µ < X10 + 3.10
)
= 0.95
18 / 37
Interpretación del nivel
¿Podemos decir que P (58.49 < µ < 64.69) = 0.95 ?
Recordemos que IC = (a(X1, . . . , Xn), b(X1, . . . , Xn)) es un
Intervalo de confianza (IC) de nivel 0.95 para µ si
P (a(X1, . . . , Xn) < µ < b(X1, . . . , Xn)) = 0.95
En nuestro ejemplo,
IC = (X10 − 3.10, X10 + 3.10)
ICobs = (58.49, 64.69)
Entonces, lo que podemos decir es que
P
(
X10 − 3.10 < µ < X10 + 3.10
)
= 0.95
18 / 37
Interpretación del nivel
¿Podemos decir que P (58.49 < µ < 64.69) = 0.95 ?
Recordemos que IC = (a(X1, . . . , Xn), b(X1, . . . , Xn)) es un
Intervalo de confianza (IC) de nivel 0.95 para µ si
P (a(X1, . . . , Xn) < µ < b(X1, . . . , Xn)) = 0.95
En nuestro ejemplo,
IC = (X10 − 3.10, X10 + 3.10)
ICobs = (58.49, 64.69)
Entonces, lo que podemos decir es que
P
(
X10 − 3.10 < µ < X10 + 3.10
)
= 0.95
18 / 37
Interpretación del nivel
¿Podemos decir que P (58.49 < µ < 64.69) = 0.95 ?
Recordemos que IC = (a(X1, . . . , Xn), b(X1, . . . , Xn)) es un
Intervalo de confianza (IC) de nivel 0.95 para µ si
P (a(X1, . . . , Xn) < µ < b(X1, . . . , Xn)) = 0.95
En nuestro ejemplo,
IC = (X10 − 3.10, X10 + 3.10)
ICobs = (58.49, 64.69)
Entonces, lo que podemos decir es que
P
(
X10 − 3.10 < µ < X10 + 3.10
)
= 0.95
18 / 37
Muchos intervalos y la verdad
19 / 37
Muchos intervalos
20 / 37
Mi intervalo y yo
21 / 37
IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95)
Recordemos lo que hicimos:
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
↑
Estad́ıstico (función de la m.a.) que...
depende del parámetro de interés (µ)
no depende de ningún otro parámetro desconocido
tiene distribución totalmente conocida
↑
Pivote
22 / 37
IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95)
Recordemos lo que hicimos:
1 Buscamos un estimador del parámetro (µ):
µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
↑
Estad́ıstico (función de la m.a.) que...
depende del parámetro de interés (µ)
no depende de ningún otro parámetro desconocido
tiene distribución totalmente conocida
↑
Pivote
22 / 37
IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95)
Recordemos lo que hicimos:
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
↑
Estad́ıstico (función de la m.a.) que...
depende del parámetro de interés (µ)
no depende de ningún otro parámetro desconocido
tiene distribución totalmente conocida
↑
Pivote
22 / 37
IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95)
Recordemos lo que hicimos:
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución:
Xn ∼ N (µ,
√
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
↑
Estad́ıstico (función de la m.a.) que...
depende del parámetro de interés (µ)
no depende de ningún otro parámetro desconocido
tiene distribución totalmente conocida
↑
Pivote
22 / 37
IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95)
Recordemos lo que hicimos:
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
↑
Estad́ıstico (función de la m.a.) que...
depende del parámetro de interés (µ)
no depende de ningún otro parámetro desconocido
tiene distribución totalmente conocida
↑
Pivote
22 / 37
IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95)
Recordemos lo que hicimos:
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ20
n )
3 Lo estandarizamos:
Xn−µ√
σ20/n
∼ N (0, 1)
↑
Estad́ıstico (función de la m.a.) que...
depende del parámetro de interés (µ)
no depende de ningún otro parámetro desconocido
tiene distribución totalmente conocida
↑
Pivote
22 / 37
IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95)
Recordemos lo que hicimos:
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
↑
Estad́ıstico (función de la m.a.) que...
depende del parámetro de interés (µ)
no depende de ningún otro parámetro desconocido
tiene distribución totalmente conocida
↑
Pivote
22 / 37
IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95)
Recordemos lo que hicimos:
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
↑
Estad́ıstico (función de la m.a.) que...
depende del parámetro de interés (µ)
no depende de ningún otro parámetro desconocido
tiene distribución totalmente conocida
↑
Pivote
22 / 37
IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95)
Recordemos lo que hicimos:
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
↑
Estad́ıstico (función de la m.a.) que...
depende del parámetro de interés (µ)
no depende de ningún otro parámetro desconocido
tiene distribución totalmente conocida
↑
Pivote
22 / 37
IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95)
Recordemos lo que hicimos:
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
↑
Estad́ıstico (función de la m.a.) que...
depende del parámetro de interés (µ)
no depende de ningún otro parámetro desconocido
tiene distribución totalmente conocida
↑
Pivote
22 / 37
IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95)
Recordemos lo que hicimos:
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
↑
Estad́ıstico (función dela m.a.) que...
depende del parámetro de interés (µ)
no depende de ningún otro parámetro desconocido
tiene distribución totalmente conocida
↑
Pivote
22 / 37
IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95)
Recordemos lo que hicimos:
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
↑
Estad́ıstico (función de la m.a.) que...
depende del parámetro de interés (µ)
no depende de ningún otro parámetro desconocido
tiene distribución totalmente conocida
↑
Pivote
22 / 37
IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95)
Recordemos lo que hicimos:
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
4 Hallamos z = 1.96 tal que P
(∣∣∣∣ Xn−µ√σ20/n
∣∣∣∣ < z) = 0.95
5 Despejamos µ y concluimos que...
P
(
Xn − 1.96
√
σ20
n
< µ < Xn + 1.96
√
σ20
n
)
= 0.95
y, por lo tanto,
IC =
(
Xn − 1.96
√
σ20
n
, Xn + 1.96
√
σ20
n
)
es un IC de nivel 0.95 para µ.
23 / 37
IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95)
Recordemos lo que hicimos:
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
4 Hallamos z = 1.96 tal que P
(∣∣∣∣ Xn−µ√σ20/n
∣∣∣∣ < z) = 0.95
5 Despejamos µ y concluimos que...
P
(
Xn − 1.96
√
σ20
n
< µ < Xn + 1.96
√
σ20
n
)
= 0.95
y, por lo tanto,
IC =
(
Xn − 1.96
√
σ20
n
, Xn + 1.96
√
σ20
n
)
es un IC de nivel 0.95 para µ.
23 / 37
IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95)
Recordemos lo que hicimos:
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
4 Hallamos z = 1.96 tal que P
(∣∣∣∣ Xn−µ√σ20/n
∣∣∣∣ < z) = 0.95
5 Despejamos µ y concluimos que...
P
(
Xn − 1.96
√
σ20
n
< µ < Xn + 1.96
√
σ20
n
)
= 0.95
y, por lo tanto,
IC =
(
Xn − 1.96
√
σ20
n
, Xn + 1.96
√
σ20
n
)
es un IC de nivel 0.95 para µ.
23 / 37
IC para µ de N (µ, σ20) con σ0 conocida (de nivel 0.95)
Recordemos lo que hicimos:
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
4 Hallamos z = 1.96 tal que P
(∣∣∣∣ Xn−µ√σ20/n
∣∣∣∣ < z) = 0.95
5 Despejamos µ y concluimos que...
P
(
Xn − 1.96
√
σ20
n
< µ < Xn + 1.96
√
σ20
n
)
= 0.95
y, por lo tanto,
IC =
(
Xn − 1.96
√
σ20
n
, Xn + 1.96
√
σ20
n
)
es un IC de nivel 0.95 para µ.
23 / 37
IC para µ de N (µ, σ20) con σ0 conocida (de nivel 1− α)
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
4 Queremos z tal que P
(∣∣∣∣ Xn−µ√σ20/n
∣∣∣∣ < z) = 1− α
24 / 37
IC para µ de N (µ, σ20) con σ0 conocida (de nivel 1− α)
1 Buscamos un estimador del parámetro (µ):
µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
4 Queremos z tal que P
(∣∣∣∣ Xn−µ√σ20/n
∣∣∣∣ < z) = 1− α
24 / 37
IC para µ de N (µ, σ20) con σ0 conocida (de nivel 1− α)
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
4 Queremos z tal que P
(∣∣∣∣ Xn−µ√σ20/n
∣∣∣∣ < z) = 1− α
24 / 37
IC para µ de N (µ, σ20) con σ0 conocida (de nivel 1− α)
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución:
Xn ∼ N (µ,
√
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
4 Queremos z tal que P
(∣∣∣∣ Xn−µ√σ20/n
∣∣∣∣ < z) = 1− α
24 / 37
IC para µ de N (µ, σ20) con σ0 conocida (de nivel 1− α)
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
4 Queremos z tal que P
(∣∣∣∣ Xn−µ√σ20/n
∣∣∣∣ < z) = 1− α
24 / 37
IC para µ de N (µ, σ20) con σ0 conocida (de nivel 1− α)
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ20
n )
3 Lo estandarizamos:
Xn−µ√
σ20/n
∼ N (0, 1)
4 Queremos z tal que P
(∣∣∣∣ Xn−µ√σ20/n
∣∣∣∣ < z) = 1− α
24 / 37
IC para µ de N (µ, σ20) con σ0 conocida (de nivel 1− α)
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
4 Queremos z tal que P
(∣∣∣∣ Xn−µ√σ20/n
∣∣∣∣ < z) = 1− α
24 / 37
IC para µ de N (µ, σ20) con σ0 conocida (de nivel 1− α)
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
4 Queremos z tal que P
(∣∣∣∣ Xn−µ√σ20/n
∣∣∣∣ < z) = 1− α
24 / 37
Notación
Dado 0 < α < 1, llamamos zα al percentil de la N (0, 1) que deja
área α a derecha, es decir..
P(Z > zα) = α, Z ∼ N (0, 1)
Obs.: zα es el percentil 1− α de la N (0, 1)
25 / 37
Notación
Dado 0 < α < 1, llamamos zα al percentil de la N (0, 1) que deja
área α a derecha, es decir..
P(Z > zα) = α, Z ∼ N (0, 1)
Obs.: zα es el percentil 1− α de la N (0, 1)
25 / 37
IC para µ de N (µ, σ20) con σ0 conocida (de nivel 1− α)
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
4 Hallamos zα/2 y planteamos P
(∣∣∣∣ Xn−µ√σ20/n
∣∣∣∣ < zα/2) = 1− α
5 Despejamos µ y concluimos que...
P
(
Xn − zα/2
√
σ20
n
< µ < Xn + zα/2
√
σ20
n
)
= 1− α ⇒
IC =
(
Xn − zα/2
√
σ20
n
, Xn + zα/2
√
σ20
n
)
=
(
Xn ± zα/2
√
σ20
n
)
es un IC de nivel 1− α para µ.
26 / 37
IC para µ de N (µ, σ20) con σ0 conocida (de nivel 1− α)
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
4 Hallamos zα/2 y planteamos P
(∣∣∣∣ Xn−µ√σ20/n
∣∣∣∣ < zα/2) = 1− α
5 Despejamos µ y concluimos que...
P
(
Xn − zα/2
√
σ20
n
< µ < Xn + zα/2
√
σ20
n
)
= 1− α
⇒
IC =
(
Xn − zα/2
√
σ20
n
, Xn + zα/2
√
σ20
n
)
=
(
Xn ± zα/2
√
σ20
n
)
es un IC de nivel 1− α para µ.
26 / 37
IC para µ de N (µ, σ20) con σ0 conocida (de nivel 1− α)
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
4 Hallamos zα/2 y planteamos P
(∣∣∣∣ Xn−µ√σ20/n
∣∣∣∣ < zα/2) = 1− α
5 Despejamos µ y concluimos que...
P
(
Xn − zα/2
√
σ20
n
< µ < Xn + zα/2
√
σ20
n
)
= 1− α ⇒
IC =
(
Xn − zα/2
√
σ20
n
, Xn + zα/2
√
σ20
n
)
=
(
Xn ± zα/2
√
σ20
n
)
es un IC de nivel 1− α para µ.
26 / 37
Margen de error
IC =
(
Xn ± zα/2
√
σ20
n
)
√
σ20
n =
√
V (Xn) = se(Xn) ⇒ IC = (Xn ± zα/2se(Xn))
ME (margen de error)= zα/2
√
σ20
n = zα/2se(Xn)
depende de...
n (a mayor n, menor ME)
nivel (1− α) (a mayor nivel, mayor ME)
σ20 (a mayor σ
2
0 , mayor ME)
27 / 37
Margen de error
IC =
(
Xn ± zα/2
√
σ20
n
)
√
σ20
n =
√
V (Xn) = se(Xn) ⇒ IC = (Xn ± zα/2se(Xn))
ME (margen de error)= zα/2
√
σ20
n = zα/2se(Xn)
depende de...
n (a mayor n, menor ME)
nivel (1− α) (a mayor nivel, mayor ME)
σ20 (a mayor σ
2
0 , mayor ME)
27 / 37
Margen de error
IC =
(
Xn ± zα/2
√
σ20
n
)
√
σ20
n =
√
V (Xn) =
se(Xn) ⇒ IC = (Xn ± zα/2se(Xn))
ME (margen de error)= zα/2
√
σ20
n = zα/2se(Xn)
depende de...
n (a mayor n, menor ME)
nivel (1− α) (a mayor nivel, mayor ME)
σ20 (a mayor σ
2
0 , mayor ME)
27 / 37
Margen de error
IC =
(
Xn ± zα/2
√
σ20
n
)
√
σ20
n =
√
V (Xn) = se(Xn)
⇒ IC = (Xn ± zα/2se(Xn))
ME (margen de error)= zα/2
√
σ20
n = zα/2se(Xn)
depende de...
n (a mayor n, menor ME)
nivel (1− α) (a mayor nivel, mayor ME)
σ20 (a mayor σ
2
0 , mayor ME)
27 / 37
Margen de error
IC =
(
Xn ± zα/2
√
σ20
n
)
√
σ20
n =
√
V (Xn) = se(Xn) ⇒ IC = (Xn ± zα/2se(Xn))
ME (margen de error)= zα/2
√
σ20
n = zα/2se(Xn)
depende de...
n (a mayor n,menor ME)
nivel (1− α) (a mayor nivel, mayor ME)
σ20 (a mayor σ
2
0 , mayor ME)
27 / 37
Margen de error
IC =
(
Xn ± zα/2
√
σ20
n
)
√
σ20
n =
√
V (Xn) = se(Xn) ⇒ IC = (Xn ± zα/2se(Xn))
ME (margen de error)
= zα/2
√
σ20
n = zα/2se(Xn)
depende de...
n (a mayor n, menor ME)
nivel (1− α) (a mayor nivel, mayor ME)
σ20 (a mayor σ
2
0 , mayor ME)
27 / 37
Margen de error
IC =
(
Xn ± zα/2
√
σ20
n
)
√
σ20
n =
√
V (Xn) = se(Xn) ⇒ IC = (Xn ± zα/2se(Xn))
ME (margen de error)= zα/2
√
σ20
n
= zα/2se(Xn)
depende de...
n (a mayor n, menor ME)
nivel (1− α) (a mayor nivel, mayor ME)
σ20 (a mayor σ
2
0 , mayor ME)
27 / 37
Margen de error
IC =
(
Xn ± zα/2
√
σ20
n
)
√
σ20
n =
√
V (Xn) = se(Xn) ⇒ IC = (Xn ± zα/2se(Xn))
ME (margen de error)= zα/2
√
σ20
n = zα/2se(Xn)
depende de...
n (a mayor n, menor ME)
nivel (1− α) (a mayor nivel, mayor ME)
σ20 (a mayor σ
2
0 , mayor ME)
27 / 37
Margen de error
IC =
(
Xn ± zα/2
√
σ20
n
)
√
σ20
n =
√
V (Xn) = se(Xn) ⇒ IC = (Xn ± zα/2se(Xn))
ME (margen de error)= zα/2
√
σ20
n = zα/2se(Xn)
depende de...
n (a mayor n, menor ME)
nivel (1− α) (a mayor nivel, mayor ME)
σ20 (a mayor σ
2
0 , mayor ME)
27 / 37
Margen de error
IC =
(
Xn ± zα/2
√
σ20
n
)
√
σ20
n =
√
V (Xn) = se(Xn) ⇒ IC = (Xn ± zα/2se(Xn))
ME (margen de error)= zα/2
√
σ20
n = zα/2se(Xn)
depende de...
n
(a mayor n, menor ME)
nivel (1− α) (a mayor nivel, mayor ME)
σ20 (a mayor σ
2
0 , mayor ME)
27 / 37
Margen de error
IC =
(
Xn ± zα/2
√
σ20
n
)
√
σ20
n =
√
V (Xn) = se(Xn) ⇒ IC = (Xn ± zα/2se(Xn))
ME (margen de error)= zα/2
√
σ20
n = zα/2se(Xn)
depende de...
n (a mayor n, menor ME)
nivel (1− α) (a mayor nivel, mayor ME)
σ20 (a mayor σ
2
0 , mayor ME)
27 / 37
Margen de error
IC =
(
Xn ± zα/2
√
σ20
n
)
√
σ20
n =
√
V (Xn) = se(Xn) ⇒ IC = (Xn ± zα/2se(Xn))
ME (margen de error)= zα/2
√
σ20
n = zα/2se(Xn)
depende de...
n (a mayor n, menor ME)
nivel (1− α)
(a mayor nivel, mayor ME)
σ20 (a mayor σ
2
0 , mayor ME)
27 / 37
Margen de error
IC =
(
Xn ± zα/2
√
σ20
n
)
√
σ20
n =
√
V (Xn) = se(Xn) ⇒ IC = (Xn ± zα/2se(Xn))
ME (margen de error)= zα/2
√
σ20
n = zα/2se(Xn)
depende de...
n (a mayor n, menor ME)
nivel (1− α) (a mayor nivel, mayor ME)
σ20 (a mayor σ
2
0 , mayor ME)
27 / 37
Margen de error
IC =
(
Xn ± zα/2
√
σ20
n
)
√
σ20
n =
√
V (Xn) = se(Xn) ⇒ IC = (Xn ± zα/2se(Xn))
ME (margen de error)= zα/2
√
σ20
n = zα/2se(Xn)
depende de...
n (a mayor n, menor ME)
nivel (1− α) (a mayor nivel, mayor ME)
σ20
(a mayor σ20 , mayor ME)
27 / 37
Margen de error
IC =
(
Xn ± zα/2
√
σ20
n
)
√
σ20
n =
√
V (Xn) = se(Xn) ⇒ IC = (Xn ± zα/2se(Xn))
ME (margen de error)= zα/2
√
σ20
n = zα/2se(Xn)
depende de...
n (a mayor n, menor ME)
nivel (1− α) (a mayor nivel, mayor ME)
σ20 (a mayor σ
2
0 , mayor ME)
27 / 37
Ejemplo con nivel = 0.90
IC(90%) = (X10 ± 2.60)
IC(90%)obs = (61.593± 2.60)
= (58.99, 64.19)
Recordemos que...
IC(95%) = (X10 ± 3.10)
IC(95%)obs = (61.593± 3.10)
= (58.49, 64.69)
Conclusión: IC(90%) es más preciso pero menos confiable que
IC(95%).
28 / 37
Ejemplo con nivel = 0.90
IC(90%) = (X10 ± 2.60)
IC(90%)obs = (61.593± 2.60)
= (58.99, 64.19)
Recordemos que...
IC(95%) = (X10 ± 3.10)
IC(95%)obs = (61.593± 3.10)
= (58.49, 64.69)
Conclusión: IC(90%) es más preciso pero menos confiable que
IC(95%).
28 / 37
Ejemplo con nivel = 0.90
IC(90%) = (X10 ± 2.60)
IC(90%)obs = (61.593± 2.60)
= (58.99, 64.19)
Recordemos que...
IC(95%) = (X10 ± 3.10)
IC(95%)obs = (61.593± 3.10)
= (58.49, 64.69)
Conclusión: IC(90%) es más preciso pero menos confiable que
IC(95%).
28 / 37
Ejemplo con nivel = 0.90
IC(90%) = (X10 ± 2.60)
IC(90%)obs = (61.593± 2.60)
= (58.99, 64.19)
Recordemos que...
IC(95%) = (X10 ± 3.10)
IC(95%)obs = (61.593± 3.10)
= (58.49, 64.69)
Conclusión: IC(90%) es más preciso pero menos confiable que
IC(95%).
28 / 37
Ejemplo con nivel = 0.90
IC(90%) = (X10 ± 2.60)
IC(90%)obs = (61.593± 2.60)
= (58.99, 64.19)
Recordemos que...
IC(95%) = (X10 ± 3.10)
IC(95%)obs = (61.593± 3.10)
= (58.49, 64.69)
Conclusión: IC(90%) es más preciso pero menos confiable que
IC(95%).
28 / 37
Ejemplo con nivel = 0.90
IC(90%) = (X10 ± 2.60)
IC(90%)obs = (61.593± 2.60)
= (58.99, 64.19)
Recordemos que...
IC(95%) = (X10 ± 3.10)
IC(95%)obs = (61.593± 3.10)
= (58.49, 64.69)
Conclusión: IC(90%) es más preciso pero menos confiable que
IC(95%).
28 / 37
IC para µ de N (µ, σ2) con σ desconocida
1 Buscamos un estimador del parámetro (µ):
µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
↑
¿Sirve como Pivote?
29 / 37
IC para µ de N (µ, σ2) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
↑
¿Sirve como Pivote?
29 / 37
IC para µ de N (µ, σ2) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución:
Xn ∼ N (µ,
√
σ2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
↑
¿Sirve como Pivote?
29 / 37
IC para µ de N (µ, σ2) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
↑
¿Sirve como Pivote?
29 / 37
IC para µ de N (µ, σ2) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ2
n )
3 Lo estandarizamos:
Xn−µ√
σ2/n
∼ N (0, 1)
↑
¿Sirve como Pivote?
29 / 37
IC para µ de N (µ, σ2) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
↑
¿Sirve como Pivote?
29 / 37
IC para µ de N (µ, σ2) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
↑
¿Sirve como Pivote?
29 / 37
IC para µ de N (µ, σ2) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
4 Reemplazamos σ2 por s2 =
1
n− 1
n∑
i=1
(Xi −Xn)2 y
obtenemos
Xn − µ√
s2/n
↑
¿Sirve como Pivote?
30 / 37
IC para µ de N (µ, σ2) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
4 Reemplazamos σ2 por s2 =
1
n− 1
n∑
i=1
(Xi −Xn)2
y
obtenemos
Xn − µ√
s2/n
↑
¿Sirve como Pivote?
30 / 37
IC para µ de N (µ, σ2) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
4 Reemplazamos σ2 por s2 =
1
n− 1
n∑
i=1
(Xi −Xn)2 y
obtenemos
Xn − µ√
s2/n
↑
¿Sirve como Pivote?
30 / 37
IC para µ de N (µ, σ2) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
4 Reemplazamos σ2 por s2 =
1
n− 1
n∑
i=1
(Xi −Xn)2 y
obtenemos
Xn − µ√
s2/n
↑
¿Sirve como Pivote?
30 / 37
Distribución t de Student
Sean X1, . . . , Xn ∼ N (µ, σ2) i.i.d.
Xn − µ√
s2/n
∼ tn−1
tn−1 se dice “distribución t de Student” con n− 1 grados de
libertad
31 / 37
N (0, 1) y t2
32 / 37
N (0, 1) y tn−1
33 / 37
IC para µ de N (µ, σ2) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
4 Reemplazamos σ2 por s2 y obtenemos
Xn − µ√
s2/n
∼ tn−1
5 Queremos t tal que P
(∣∣∣∣ Xn−µ√s2/n
∣∣∣∣ < t) = 1− α
34 / 37
IC para µ de N (µ, σ2) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
4 Reemplazamosσ2 por s2 y obtenemos
Xn − µ√
s2/n
∼ tn−1
5 Queremos t tal que P
(∣∣∣∣ Xn−µ√s2/n
∣∣∣∣ < t) = 1− α
34 / 37
Notación
Dado 0 < α < 1, llamamos tn−1,α al percentil de la tn−1 que deja
área α a derecha, es decir..
P(Tn−1 > tn−1,α) = α, Tn−1 ∼ tn−1
Obs.: tn−1,α es el percentil 1− α de la tn−1
35 / 37
Notación
Dado 0 < α < 1, llamamos tn−1,α al percentil de la tn−1 que deja
área α a derecha, es decir..
P(Tn−1 > tn−1,α) = α, Tn−1 ∼ tn−1
Obs.: tn−1,α es el percentil 1− α de la tn−1
35 / 37
IC para µ de N (µ, σ2) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
4 Reemplazamos σ2 por s2 y obtenemos Xn−µ√
s2/n
∼ tn−1
5 Hallamos tn−1,α/2 y planteamos
P
(∣∣∣∣ Xn−µ√s2/n
∣∣∣∣ < tn−1,α/2) = 1− α
6 Despejamos µ y concluimos que...
P
(
Xn − tn−1,α/2
√
s2
n
< µ < Xn + tn−1,α/2
√
s2
n
)
= 1−α ⇒
IC =
(
Xn ± tn−1,α/2
√
s2
n
)
es un IC de nivel 1− α para µ.
36 / 37
IC para µ de N (µ, σ2) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
4 Reemplazamos σ2 por s2 y obtenemos Xn−µ√
s2/n
∼ tn−1
5 Hallamos tn−1,α/2 y planteamos
P
(∣∣∣∣ Xn−µ√s2/n
∣∣∣∣ < tn−1,α/2) = 1− α
6 Despejamos µ y concluimos que...
P
(
Xn − tn−1,α/2
√
s2
n
< µ < Xn + tn−1,α/2
√
s2
n
)
= 1−α
⇒
IC =
(
Xn ± tn−1,α/2
√
s2
n
)
es un IC de nivel 1− α para µ.
36 / 37
IC para µ de N (µ, σ2) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
√
σ2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
4 Reemplazamos σ2 por s2 y obtenemos Xn−µ√
s2/n
∼ tn−1
5 Hallamos tn−1,α/2 y planteamos
P
(∣∣∣∣ Xn−µ√s2/n
∣∣∣∣ < tn−1,α/2) = 1− α
6 Despejamos µ y concluimos que...
P
(
Xn − tn−1,α/2
√
s2
n
< µ < Xn + tn−1,α/2
√
s2
n
)
= 1−α ⇒
IC =
(
Xn ± tn−1,α/2
√
s2
n
)
es un IC de nivel 1− α para µ.
36 / 37
Ejemplo con σ desconocida
En el ejemplo del test AB ahora supongamos
X1, . . . , Xn ∼ N (µ, σ2) i.i.d. con σ desconocida.
IC = (X10 ± 2.26
√
s2
10
)
ICobs = (61.593± 2.26
√
6.062
10
)
= (61.593± 4.34)
= (57.26, 65.93)
37 / 37
Ejemplo con σ desconocida
En el ejemplo del test AB ahora supongamos
X1, . . . , Xn ∼ N (µ, σ2) i.i.d. con σ desconocida.
IC = (X10 ± 2.26
√
s2
10
)
ICobs = (61.593± 2.26
√
6.062
10
)
= (61.593± 4.34)
= (57.26, 65.93)
37 / 37
Ejemplo con σ desconocida
En el ejemplo del test AB ahora supongamos
X1, . . . , Xn ∼ N (µ, σ2) i.i.d. con σ desconocida.
IC = (X10 ± 2.26
√
s2
10
)
ICobs = (61.593± 2.26
√
6.062
10
)
= (61.593± 4.34)
= (57.26, 65.93)
37 / 37

Otros materiales