Logo Studenta

Clase 10 - Inferencia Estadística

¡Este material tiene más páginas!

Vista previa del material en texto

Inferencia Estad́ıstica
Lućıa Babino
Universidad Torcuato Di Tella
1 / 35
Bibliograf́ıa para esta clase
Wasserman, cap 6.3.2
Lock: cap 6.5 (salvo bootstrap)
2 / 35
Repaso
3 / 35
Intervalo de confianza
Definición
Dadas X1, . . . , Xn ∼ F i.i.d. y un parámetro θ = θ(F ) diremos
que
(a(X1, . . . , Xn), b(X1, . . . , Xn))
es un intervalo de confianza (IC) de nivel 1− α para θ si
P (a(X1, . . . , Xn) < θ < b(X1, . . . , Xn)) = 1− α
4 / 35
IC para µ en el ejemplo
Parámetro de interés:
µ = “tiempo de permanencia medio (pobl.) con la versión nueva”
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10
Definición (con palabras): dado 1 ≤ i ≤ 10
Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind.
de la muestra”
¿Qué sabemos de su distribución?
µ = EF (X1)
Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5
5 / 35
IC para µ en el ejemplo
Parámetro de interés:
µ = “tiempo de permanencia medio (pobl.) con la versión nueva”
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10
Definición (con palabras): dado 1 ≤ i ≤ 10
Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind.
de la muestra”
¿Qué sabemos de su distribución?
µ = EF (X1)
Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5
5 / 35
IC para µ en el ejemplo
Parámetro de interés:
µ = “tiempo de permanencia medio (pobl.) con la versión nueva”
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10
Definición (con palabras): dado 1 ≤ i ≤ 10
Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind.
de la muestra”
¿Qué sabemos de su distribución?
µ = EF (X1)
Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5
5 / 35
IC para µ en el ejemplo
Parámetro de interés:
µ = “tiempo de permanencia medio (pobl.) con la versión nueva”
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10
Definición (con palabras):
dado 1 ≤ i ≤ 10
Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind.
de la muestra”
¿Qué sabemos de su distribución?
µ = EF (X1)
Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5
5 / 35
IC para µ en el ejemplo
Parámetro de interés:
µ = “tiempo de permanencia medio (pobl.) con la versión nueva”
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10
Definición (con palabras): dado 1 ≤ i ≤ 10
Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind.
de la muestra”
¿Qué sabemos de su distribución?
µ = EF (X1)
Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5
5 / 35
IC para µ en el ejemplo
Parámetro de interés:
µ = “tiempo de permanencia medio (pobl.) con la versión nueva”
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10
Definición (con palabras): dado 1 ≤ i ≤ 10
Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind.
de la muestra”
¿Qué sabemos de su distribución?
µ = EF (X1)
Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5
5 / 35
IC para µ en el ejemplo
Parámetro de interés:
µ = “tiempo de permanencia medio (pobl.) con la versión nueva”
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10
Definición (con palabras): dado 1 ≤ i ≤ 10
Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind.
de la muestra”
¿Qué sabemos de su distribución?
µ = EF (X1)
Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5
5 / 35
IC para µ en el ejemplo
Parámetro de interés:
µ = “tiempo de permanencia medio (pobl.) con la versión nueva”
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10
Definición (con palabras): dado 1 ≤ i ≤ 10
Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind.
de la muestra”
¿Qué sabemos de su distribución?
µ = EF (X1)
Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5
5 / 35
IC para µ asumiendo Xi ∼ N (µ, σ20) con σ0 conocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
↑
Pivote
6 / 35
IC para µ asumiendo Xi ∼ N (µ, σ20) con σ0 conocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
↑
Pivote
6 / 35
IC para µ asumiendo Xi ∼ N (µ, σ20) con σ0 conocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
↑
Pivote
6 / 35
IC para µ asumiendo Xi ∼ N (µ, σ20) con σ0 conocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
↑
Pivote
6 / 35
IC para µ asumiendo Xi ∼ N (µ, σ20) con σ0 conocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
4 Hallamos zα/2 y planteamos P
(∣∣∣∣ Xn−µ√σ20/n
∣∣∣∣ < zα/2) = 1− α
5 Despejamos µ y concluimos que...
P
(
Xn − zα/2
√
σ20
n
< µ < Xn + zα/2
√
σ20
n
)
= 1− α ⇒
IC =
(
Xn ± zα/2
√
σ20
n
)
es un IC de nivel 1− α para µ.
7 / 35
IC para µ asumiendo Xi ∼ N (µ, σ20) con σ0 conocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
4 Hallamos zα/2 y planteamos P
(∣∣∣∣ Xn−µ√σ20/n
∣∣∣∣ < zα/2) = 1− α
5 Despejamos µ y concluimos que...
P
(
Xn − zα/2
√
σ20
n
< µ < Xn + zα/2
√
σ20
n
)
= 1− α ⇒
IC =
(
Xn ± zα/2
√
σ20
n
)
es un IC de nivel 1− α para µ.
7 / 35
IC para µ asumiendo Xi ∼ N (µ, σ20) con σ0 conocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
4 Hallamos zα/2 y planteamos P
(∣∣∣∣ Xn−µ√σ20/n
∣∣∣∣ < zα/2) = 1− α
5 Despejamos µ y concluimos que...
P
(
Xn − zα/2
√
σ20
n
< µ < Xn + zα/2
√
σ20
n
)
= 1− α
⇒
IC =
(
Xn ± zα/2
√
σ20
n
)
es un IC de nivel 1− α para µ.
7 / 35
IC para µ asumiendo Xi ∼ N (µ, σ20) con σ0 conocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ,
σ20
n )
3 Lo estandarizamos: Xn−µ√
σ20/n
∼ N (0, 1)
4 Hallamos zα/2 y planteamos P
(∣∣∣∣ Xn−µ√σ20/n
∣∣∣∣ < zα/2) = 1− α
5 Despejamos µ y concluimos que...
P
(
Xn − zα/2
√
σ20
n
< µ < Xn + zα/2
√
σ20
n
)
= 1− α ⇒
IC =
(
Xn ± zα/2
√
σ20
n
)
es un IC de nivel 1− α para µ.
7 / 35
Clase de hoy
8 / 35
IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida
1 Buscamos un estimador del parámetro (µ):
µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ, σ
2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
↑
¿Sirve como Pivote?
9 / 35
IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ, σ
2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
↑
¿Sirve como Pivote?
9 / 35
IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución:
Xn ∼ N (µ, σ
2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
↑
¿Sirve como Pivote?
9 / 35
IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ, σ
2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
↑
¿Sirve como Pivote?
9 / 35
IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ, σ
2
n )
3 Lo estandarizamos:
Xn−µ√
σ2/n
∼ N (0, 1)
↑
¿Sirve como Pivote?
9 / 35
IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ, σ
2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
↑
¿Sirve como Pivote?
9 / 35
IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ, σ
2n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
↑
¿Sirve como Pivote?
9 / 35
IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ, σ
2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
4 Reemplazamos σ2 por s2 =
1
n− 1
n∑
i=1
(Xi −Xn)2 y
obtenemos
Xn − µ√
s2/n
↑
¿Sirve como Pivote?
10 / 35
IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ, σ
2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
4 Reemplazamos σ2 por s2 =
1
n− 1
n∑
i=1
(Xi −Xn)2
y
obtenemos
Xn − µ√
s2/n
↑
¿Sirve como Pivote?
10 / 35
IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ, σ
2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
4 Reemplazamos σ2 por s2 =
1
n− 1
n∑
i=1
(Xi −Xn)2 y
obtenemos
Xn − µ√
s2/n
↑
¿Sirve como Pivote?
10 / 35
IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ, σ
2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
4 Reemplazamos σ2 por s2 =
1
n− 1
n∑
i=1
(Xi −Xn)2 y
obtenemos
Xn − µ√
s2/n
↑
¿Sirve como Pivote?
10 / 35
Distribución t de Student
Propiedad
Sean X1, . . . , Xn ∼ N (µ, σ2) i.i.d.
Xn − µ√
s2/n
∼ tn−1
tn−1 se dice “distribución t de Student” con n− 1 grados de
libertad.
No veremos su expresión análitica, sólo usaremos la tabla.
Su densidad es parecida a la normal estándar pero más achatada
(tiene más dispersión) y se puede ver que tn−1 −→
n→∞
N (0, 1)
11 / 35
Distribución t de Student
Propiedad
Sean X1, . . . , Xn ∼ N (µ, σ2) i.i.d.
Xn − µ√
s2/n
∼ tn−1
tn−1 se dice “distribución t de Student” con n− 1 grados de
libertad.
No veremos su expresión análitica, sólo usaremos la tabla.
Su densidad es parecida a la normal estándar pero más achatada
(tiene más dispersión) y se puede ver que tn−1 −→
n→∞
N (0, 1)
11 / 35
Distribución t de Student
Propiedad
Sean X1, . . . , Xn ∼ N (µ, σ2) i.i.d.
Xn − µ√
s2/n
∼ tn−1
tn−1 se dice “distribución t de Student” con n− 1 grados de
libertad.
No veremos su expresión análitica, sólo usaremos la tabla.
Su densidad es parecida a la normal estándar pero más achatada
(tiene más dispersión) y se puede ver que tn−1 −→
n→∞
N (0, 1)
11 / 35
N (0, 1) y t2
12 / 35
N (0, 1) y tn−1
13 / 35
IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ, σ
2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
4 Reemplazamos σ2 por s2 y obtenemos
Xn − µ√
s2/n
∼ tn−1
5 Queremos t tal que P
(∣∣∣∣ Xn−µ√s2/n
∣∣∣∣ < t) = 1− α
14 / 35
IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ, σ
2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
4 Reemplazamos σ2 por s2 y obtenemos
Xn − µ√
s2/n
∼ tn−1
5 Queremos t tal que P
(∣∣∣∣ Xn−µ√s2/n
∣∣∣∣ < t) = 1− α
14 / 35
Notación
Dado 0 < α < 1, llamamos tn−1,α al percentil de la tn−1 que deja
área α a derecha, es decir..
P(Tn−1 > tn−1,α) = α, Tn−1 ∼ tn−1
Obs.: tn−1,α es el percentil 1− α de la tn−1
15 / 35
Notación
Dado 0 < α < 1, llamamos tn−1,α al percentil de la tn−1 que deja
área α a derecha, es decir..
P(Tn−1 > tn−1,α) = α, Tn−1 ∼ tn−1
Obs.: tn−1,α es el percentil 1− α de la tn−1
15 / 35
IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ, σ
2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
4 Reemplazamos σ2 por s2 y obtenemos
Xn − µ√
s2/n
∼ tn−1
5 Queremos t tal que P
(∣∣∣∣ Xn−µ√s2/n
∣∣∣∣ < t) = 1− α
16 / 35
IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ, σ
2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
4 Reemplazamos σ2 por s2 y obtenemos Xn−µ√
s2/n
∼ tn−1
5 Hallamos tn−1,α/2 y planteamos
P
(∣∣∣∣ Xn−µ√s2/n
∣∣∣∣ < tn−1,α/2) = 1− α
6 Despejamos µ y concluimos que...
P
(
Xn − tn−1,α/2
√
s2
n
< µ < Xn + tn−1,α/2
√
s2
n
)
= 1−α ⇒
IC =
(
Xn ± tn−1,α/2
√
s2
n
)
es un IC de nivel 1− α para µ.
17 / 35
IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ, σ
2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
4 Reemplazamos σ2 por s2 y obtenemos Xn−µ√
s2/n
∼ tn−1
5 Hallamos tn−1,α/2 y planteamos
P
(∣∣∣∣ Xn−µ√s2/n
∣∣∣∣ < tn−1,α/2) = 1− α
6 Despejamos µ y concluimos que...
P
(
Xn − tn−1,α/2
√
s2
n
< µ < Xn + tn−1,α/2
√
s2
n
)
= 1−α
⇒
IC =
(
Xn ± tn−1,α/2
√
s2
n
)
es un IC de nivel 1− α para µ.
17 / 35
IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn ∼ N (µ, σ
2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
∼ N (0, 1)
4 Reemplazamos σ2 por s2 y obtenemos Xn−µ√
s2/n
∼ tn−1
5 Hallamos tn−1,α/2 y planteamos
P
(∣∣∣∣ Xn−µ√s2/n
∣∣∣∣ < tn−1,α/2) = 1− α
6 Despejamos µ y concluimos que...
P
(
Xn − tn−1,α/2
√
s2
n
< µ < Xn + tn−1,α/2
√
s2
n
)
= 1−α ⇒
IC =
(
Xn ± tn−1,α/2
√
s2
n
)
es un IC de nivel 1− α para µ.
17 / 35
IC para µ asumiendo Xi ∼ N (µ, σ2)
σ = σ0 conocida σ desconocida
IC =
(
Xn ± zα/2
√
σ20/n
)
=
(
Xn ± zα/2se(Xn)
) IC =
(
Xn ± tn−1,α/2
√
s2/n
)
=
(
Xn ± tn−1,α/2ŝe(Xn)
)
18 / 35
IC para µ asumiendo Xi ∼ N (µ, σ2)
σ = σ0 conocida σ desconocida
IC =
(
Xn ± zα/2
√
σ20/n
)
=
(
Xn ± zα/2se(Xn)
) IC =
(
Xn ± tn−1,α/2
√
s2/n
)
=
(
Xn ± tn−1,α/2ŝe(Xn)
)
18 / 35
IC para µ asumiendo Xi ∼ N (µ, σ2)
σ = σ0 conocida σ desconocida
IC =
(
Xn ± zα/2
√
σ20/n
)
=
(
Xn ± zα/2se(Xn)
)
IC =
(
Xn ± tn−1,α/2
√
s2/n
)
=
(
Xn ± tn−1,α/2ŝe(Xn)
)
18 / 35
IC para µ asumiendo Xi ∼ N (µ, σ2)
σ = σ0 conocida σ desconocida
IC =
(
Xn ± zα/2
√
σ20/n
)
=
(
Xn ± zα/2se(Xn)
) IC =
(
Xn ± tn−1,α/2
√
s2/n
)
=
(
Xn ± tn−1,α/2ŝe(Xn)
)
18 / 35
IC para µ asumiendo Xi ∼ N (µ, σ2)
σ = σ0 conocida σ desconocida
IC =
(
Xn ± zα/2
√
σ20/n
)
=
(
Xn ± zα/2se(Xn)
) IC =
(
Xn ± tn−1,α/2
√
s2/n
)
=
(
Xn ± tn−1,α/2ŝe(Xn)
)
18 / 35
IC para µ asumiendo Xi ∼ N (µ, σ2)
σ = σ0 conocida σ desconocida
IC =
(
Xn ± zα/2
√
σ20/n
)
=
(
Xn ± zα/2se(Xn)
) IC =
(
Xn ± tn−1,α/2
√
s2/n
)
=
(
Xn ± tn−1,α/2ŝe(Xn)
)
19 / 35
IC para µ asumiendo Xi ∼ N (µ, σ2)
σ = σ0 conocida σ desconocida
IC =
(
Xn ± zα/2
√
σ20/n
)
ME = zα/2
√
σ20/n
↑
fijo
depende de
n
α
σ0
IC =
(
Xn ± tn−1,α/2
√
s2/n
)
ME = tn−1,α/2
√
s2/n
↑
aleatorio
depende de
n
α
s
20 / 35
IC para µ asumiendo Xi ∼ N (µ, σ2)
σ = σ0 conocida σ desconocida
IC =
(
Xn ± zα/2
√
σ20/n
)
ME = zα/2
√
σ20/n
↑
fijo
depende de
n
α
σ0
IC =
(
Xn ± tn−1,α/2
√
s2/n
)
ME = tn−1,α/2
√
s2/n
↑
aleatorio
depende de
n
α
s
20 / 35
IC para µ asumiendo Xi ∼ N (µ, σ2)
σ = σ0 conocida σ desconocida
IC =
(
Xn ± zα/2
√
σ20/n
)
ME = zα/2
√
σ20/n
↑
fijo
depende de
n
α
σ0
IC =
(
Xn ± tn−1,α/2
√
s2/n
)
ME = tn−1,α/2
√
s2/n
↑
aleatorio
depende de
n
α
s
20 / 35
IC para µ asumiendo Xi ∼ N (µ, σ2)
σ = σ0 conocida σ desconocida
IC =
(
Xn ± zα/2
√
σ20/n
)
ME = zα/2
√
σ20/n
↑
fijo
depende de
n
α
σ0
IC =
(
Xn ± tn−1,α/2
√
s2/n
)
ME = tn−1,α/2
√
s2/n
↑
aleatorio
depende de
n
α
s
20 / 35
IC para µ asumiendo Xi ∼ N (µ, σ2)
σ = σ0 conocida σ desconocida
IC =
(
Xn ± zα/2
√
σ20/n
)
ME = zα/2
√
σ20/n
↑
fijo
depende de
n
α
σ0
IC =
(
Xn ± tn−1,α/2
√
s2/n
)
ME = tn−1,α/2
√
s2/n
↑
aleatorio
depende de
n
α
s
20 / 35
IC para µ asumiendo Xi ∼ N (µ, σ2)
σ = σ0 conocida σ desconocida
IC =
(
Xn ± zα/2
√
σ20/n
)
ME = zα/2
√
σ20/n
↑
fijo
depende de
n
α
σ0
IC=
(
Xn ± tn−1,α/2
√
s2/n
)
ME = tn−1,α/2
√
s2/n
↑
aleatorio
depende de
n
α
s
20 / 35
IC para µ asumiendo Xi ∼ N (µ, σ2)
σ = σ0 conocida σ desconocida
IC =
(
Xn ± zα/2
√
σ20/n
)
ME = zα/2
√
σ20/n
↑
fijo
depende de
n
α
σ0
IC =
(
Xn ± tn−1,α/2
√
s2/n
)
ME = tn−1,α/2
√
s2/n
↑
aleatorio
depende de
n
α
s
20 / 35
IC para µ cuando Xi ∼ F con F desconocida
Sean X1, . . . , Xn i.i.d., E(X1) = µ con n “grande”
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución (asintótica):
Xn≈N (µ,
σ2
n
)
x TCL, pues n es grande
3 Lo estandarizamos: Xn−µ√
σ2/n
≈N (0, 1)
↑
¿Sirve como Pivote?
21 / 35
IC para µ cuando Xi ∼ F con F desconocida
Sean X1, . . . , Xn i.i.d., E(X1) = µ con n “grande”
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución (asintótica):
Xn≈N (µ,
σ2
n
)
x TCL, pues n es grande
3 Lo estandarizamos: Xn−µ√
σ2/n
≈N (0, 1)
↑
¿Sirve como Pivote?
21 / 35
IC para µ cuando Xi ∼ F con F desconocida
Sean X1, . . . , Xn i.i.d., E(X1) = µ con n “grande”
1 Buscamos un estimador del parámetro (µ):
µ̂n = Xn
2 Hallamos su distribución (asintótica):
Xn≈N (µ,
σ2
n
)
x TCL, pues n es grande
3 Lo estandarizamos: Xn−µ√
σ2/n
≈N (0, 1)
↑
¿Sirve como Pivote?
21 / 35
IC para µ cuando Xi ∼ F con F desconocida
Sean X1, . . . , Xn i.i.d., E(X1) = µ con n “grande”
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución (asintótica):
Xn≈N (µ,
σ2
n
)
x TCL, pues n es grande
3 Lo estandarizamos: Xn−µ√
σ2/n
≈N (0, 1)
↑
¿Sirve como Pivote?
21 / 35
IC para µ cuando Xi ∼ F con F desconocida
Sean X1, . . . , Xn i.i.d., E(X1) = µ con n “grande”
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución
(asintótica):
Xn≈N (µ,
σ2
n
)
x TCL, pues n es grande
3 Lo estandarizamos: Xn−µ√
σ2/n
≈N (0, 1)
↑
¿Sirve como Pivote?
21 / 35
IC para µ cuando Xi ∼ F con F desconocida
Sean X1, . . . , Xn i.i.d., E(X1) = µ con n “grande”
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución (asintótica):
Xn≈N (µ,
σ2
n
)
x TCL, pues n es grande
3 Lo estandarizamos: Xn−µ√
σ2/n
≈N (0, 1)
↑
¿Sirve como Pivote?
21 / 35
IC para µ cuando Xi ∼ F con F desconocida
Sean X1, . . . , Xn i.i.d., E(X1) = µ con n “grande”
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución (asintótica):
Xn≈N (µ,
σ2
n
)
x TCL, pues n es grande
3 Lo estandarizamos:
Xn−µ√
σ2/n
≈N (0, 1)
↑
¿Sirve como Pivote?
21 / 35
IC para µ cuando Xi ∼ F con F desconocida
Sean X1, . . . , Xn i.i.d., E(X1) = µ con n “grande”
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución (asintótica):
Xn≈N (µ,
σ2
n
)
x TCL, pues n es grande
3 Lo estandarizamos: Xn−µ√
σ2/n
≈N (0, 1)
↑
¿Sirve como Pivote?
21 / 35
IC para µ cuando Xi ∼ F con F desconocida
Sean X1, . . . , Xn i.i.d., E(X1) = µ con n “grande”
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución (asintótica):
Xn≈N (µ,
σ2
n
)
x TCL, pues n es grande
3 Lo estandarizamos: Xn−µ√
σ2/n
≈N (0, 1)
↑
¿Sirve como Pivote?
21 / 35
IC para µ cuando Xi ∼ F con F desconocida ( y n grande)
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución asintótica: Xn≈N (µ, σ
2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
≈N (0, 1)
4 Reemplazamos σ2 por s2 y obtenemos
Xn − µ√
s2/n
↑
¿Sirve como Pivote?
22 / 35
IC para µ cuando Xi ∼ F con F desconocida ( y n grande)
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución asintótica: Xn≈N (µ, σ
2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
≈N (0, 1)
4 Reemplazamos σ2 por s2
y obtenemos
Xn − µ√
s2/n
↑
¿Sirve como Pivote?
22 / 35
IC para µ cuando Xi ∼ F con F desconocida ( y n grande)
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución asintótica: Xn≈N (µ, σ
2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
≈N (0, 1)
4 Reemplazamos σ2 por s2 y obtenemos
Xn − µ√
s2/n
↑
¿Sirve como Pivote?
22 / 35
IC para µ cuando Xi ∼ F con F desconocida ( y n grande)
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución asintótica: Xn≈N (µ, σ
2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
≈N (0, 1)
4 Reemplazamos σ2 por s2 y obtenemos
Xn − µ√
s2/n
↑
¿Sirve como Pivote?
22 / 35
IC para µ cuando Xi ∼ F con F desconocida ( y n grande)
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn≈N (µ, σ
2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
≈N (0, 1)
4 Reemplazamos σ2 por s2 y obtenemos
Xn − µ√
s2/n
≈N (0, 1) x TCL y pq s2es cons. para σ2
5 Hallamos zα/2 y planteamos
P
(∣∣∣∣∣Xn − µ√s2/n
∣∣∣∣∣ < zα/2
)
∼=1− α
pues n es grande y
P
(∣∣∣∣∣Xn − µ√s2/n
∣∣∣∣∣ < zα/2
)
−→
n→∞
P
(
|Z| < zα/2
)
= 1− α
23 / 35
IC para µ cuando Xi ∼ F con F desconocida ( y n grande)
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn≈N (µ, σ
2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
≈N (0, 1)
4 Reemplazamos σ2 por s2 y obtenemos
Xn − µ√
s2/n
≈N (0, 1) x TCL y pq s2es cons. para σ2
5 Hallamos zα/2 y planteamos
P
(∣∣∣∣∣Xn − µ√s2/n
∣∣∣∣∣ < zα/2
)
∼=1− α
pues n es grande y
P
(∣∣∣∣∣Xn − µ√s2/n
∣∣∣∣∣ < zα/2
)
−→
n→∞
P
(
|Z| < zα/2
)
= 1− α
23 / 35
IC para µ cuando Xi ∼ F con F desconocida ( y n grande)
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn≈N (µ, σ
2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
≈N (0, 1)
4 Reemplazamos σ2 por s2 y obtenemos
Xn − µ√
s2/n
≈N (0, 1) x TCL y pq s2es cons. para σ2
5 Hallamos zα/2 y planteamos
P
(∣∣∣∣∣Xn − µ√s2/n
∣∣∣∣∣ < zα/2
)
∼=1− α
pues n es grande y
P
(∣∣∣∣∣Xn − µ√s2/n
∣∣∣∣∣ < zα/2
)
−→
n→∞
P
(
|Z| < zα/2
)
= 1− α
23 / 35
IC para µ cuando Xi ∼ F con F desconocida ( y n grande)
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn≈N (µ, σ
2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
≈N (0, 1)
4 Reemplazamos σ2 por s2 y obtenemos
Xn − µ√
s2/n
≈N (0, 1) x TCL pues s2es cons. para σ2
5 Hallamos zα/2 y planteamos P
(∣∣∣∣ Xn−µ√s2/n
∣∣∣∣ < zα/2)∼=1− α
6 Despejamos µ y concluimos que...
P
(
Xn − zα/2
√
s2
n
< µ < Xn + zα/2
√
s2
n
)
∼=1− α ⇒
IC =
(
Xn ± zα/2
√
s2
n
)
es un IC de nivel asintótico 1− α
para µ.
24 / 35
IC para µ cuando Xi ∼ F con F desconocida ( y n grande)
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn≈N (µ, σ
2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
≈N (0, 1)
4 Reemplazamos σ2 por s2 y obtenemos
Xn − µ√
s2/n
≈N (0, 1) x TCL pues s2es cons. para σ2
5 Hallamos zα/2 y planteamos P
(∣∣∣∣ Xn−µ√s2/n
∣∣∣∣ < zα/2)∼=1− α
6 Despejamos µ y concluimos que...
P
(
Xn − zα/2
√
s2
n
< µ < Xn + zα/2
√
s2
n
)
∼=1− α ⇒
IC =
(
Xn ± zα/2
√
s2
n
)
es un IC de nivel asintótico 1− α
para µ.
24 / 35
IC para µ cuando Xi ∼ F con F desconocida ( y n grande)
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn≈N (µ, σ
2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
≈N (0, 1)
4 Reemplazamos σ2 por s2 y obtenemos
Xn − µ√
s2/n
≈N (0, 1) x TCL pues s2es cons. para σ2
5 Hallamos zα/2 y planteamos P
(∣∣∣∣ Xn−µ√s2/n
∣∣∣∣ < zα/2)∼=1− α
6 Despejamos µ y concluimos que...
P
(
Xn − zα/2
√
s2
n
< µ < Xn + zα/2
√
s2
n
)
∼=1− α
⇒
IC =
(
Xn ± zα/2
√
s2
n
)
es un IC de nivel asintótico 1− α
para µ.
24 / 35
IC para µ cuando Xi ∼ F con F desconocida ( y n grande)
1 Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn≈N (µ, σ
2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
≈N (0, 1)
4 Reemplazamos σ2 por s2 y obtenemos
Xn − µ√
s2/n
≈N (0, 1) x TCL pues s2es cons. para σ2
5 Hallamos zα/2 y planteamos P
(∣∣∣∣ Xn−µ√s2/n
∣∣∣∣ < zα/2)∼=1− α
6 Despejamos µ y concluimos que...
P
(
Xn − zα/2
√
s2
n
< µ < Xn + zα/2
√
s2
n
)
∼=1− α
⇒
IC =
(
Xn ± zα/2
√
s2
n
)
es un IC de nivel asintótico 1− α
para µ.
24 / 35
IC para µ cuando Xi ∼ F con F desconocida ( y n grande)
1Buscamos un estimador del parámetro (µ): µ̂n = Xn
2 Hallamos su distribución: Xn≈N (µ, σ
2
n )
3 Lo estandarizamos: Xn−µ√
σ2/n
≈N (0, 1)
4 Reemplazamos σ2 por s2 y obtenemos
Xn − µ√
s2/n
≈N (0, 1) x TCL pues s2es cons. para σ2
5 Hallamos zα/2 y planteamos P
(∣∣∣∣ Xn−µ√s2/n
∣∣∣∣ < zα/2)∼=1− α
6 Despejamos µ y concluimos que...
P
(
Xn − zα/2
√
s2
n
< µ < Xn + zα/2
√
s2
n
)
∼=1− α ⇒
IC =
(
Xn ± zα/2
√
s2
n
)
es un IC de nivel asintótico 1− α
para µ.
24 / 35
IC asintótico
Definición
Diremos que (a(X1, . . . , Xn), b(X1, . . . , Xn)) es un IC de nivel
asintótico 1− α para θ si
P (a(X1, . . . , Xn) < θ < b(X1, . . . , Xn)) −→
n→∞
1− α
es decir si...
P (a(X1, . . . , Xn) < θ < b(X1, . . . , Xn))∼=1− α para n grande.
25 / 35
ICs para µ
X1, . . . , Xn ∼ F i.i.d. E(X1) = µ
1) N (µ, σ20), σ0 con 2) N (µ, σ2), σ desc 3) F desc(
Xn ± zα/2
√
σ20
n
)
=(
Xn ± zα/2se(Xn)
)
(
Xn ± tn−1,α/2
√
s2
n
)
(
Xn ± tn−1,α/2ŝe(Xn)
)
(
Xn ± zα/2
√
s2
n
)
(
Xn ± zα/2ŝe(Xn)
)
Obs.: algunos autores (ej. Lock) usan tn−1,α/2 en vez de zα/2 en
3. ¿por qué?
Porque tn−1 ≈ N (0, 1) para n grande.
26 / 35
ICs para µ
X1, . . . , Xn ∼ F i.i.d. E(X1) = µ
1) N (µ, σ20), σ0 con 2) N (µ, σ2), σ desc 3) F desc(
Xn ± zα/2
√
σ20
n
)
=(
Xn ± zα/2se(Xn)
)
(
Xn ± tn−1,α/2
√
s2
n
)
(
Xn ± tn−1,α/2ŝe(Xn)
)
(
Xn ± zα/2
√
s2
n
)
(
Xn ± zα/2ŝe(Xn)
)
Obs.: algunos autores (ej. Lock) usan tn−1,α/2 en vez de zα/2 en
3. ¿por qué?
Porque tn−1 ≈ N (0, 1) para n grande.
26 / 35
ICs para µ
X1, . . . , Xn ∼ F i.i.d. E(X1) = µ
1) N (µ, σ20), σ0 con 2) N (µ, σ2), σ desc 3) F desc(
Xn ± zα/2
√
σ20
n
)
=(
Xn ± zα/2se(Xn)
)
(
Xn ± tn−1,α/2
√
s2
n
)
(
Xn ± tn−1,α/2ŝe(Xn)
)
(
Xn ± zα/2
√
s2
n
)
(
Xn ± zα/2ŝe(Xn)
)
Obs.: algunos autores (ej. Lock) usan tn−1,α/2 en vez de zα/2 en
3.
¿por qué?
Porque tn−1 ≈ N (0, 1) para n grande.
26 / 35
ICs para µ
X1, . . . , Xn ∼ F i.i.d. E(X1) = µ
1) N (µ, σ20), σ0 con 2) N (µ, σ2), σ desc 3) F desc(
Xn ± zα/2
√
σ20
n
)
=(
Xn ± zα/2se(Xn)
)
(
Xn ± tn−1,α/2
√
s2
n
)
(
Xn ± tn−1,α/2ŝe(Xn)
)
(
Xn ± zα/2
√
s2
n
)
(
Xn ± zα/2ŝe(Xn)
)
Obs.: algunos autores (ej. Lock) usan tn−1,α/2 en vez de zα/2 en
3. ¿por qué?
Porque tn−1 ≈ N (0, 1) para n grande.
26 / 35
ICs para µ
X1, . . . , Xn ∼ F i.i.d. E(X1) = µ
1) N (µ, σ20), σ0 con 2) N (µ, σ2), σ desc 3) F desc(
Xn ± zα/2
√
σ20
n
)
=(
Xn ± zα/2se(Xn)
)
(
Xn ± tn−1,α/2
√
s2
n
)
(
Xn ± tn−1,α/2ŝe(Xn)
)
(
Xn ± zα/2
√
s2
n
)
(
Xn ± zα/2ŝe(Xn)
)
Obs.: algunos autores (ej. Lock) usan tn−1,α/2 en vez de zα/2 en
3. ¿por qué?
Porque tn−1 ≈ N (0, 1) para n grande.
26 / 35
Problema original
Parámetros de interés:
µ1 = tiempo de permanencia medio (poblacional) con la
versión actual
µ2 = tiempo de permanencia medio (poblacional) con la
versión nueva
Pregunta: ¿µ2 > µ1?
Necesitamos...
1 estimar a µ1 y µ2
2 comparar µ̂1 y µ̂2
27 / 35
Problema original
Parámetros de interés:
µ1 = tiempo de permanencia medio (poblacional) con la
versión actual
µ2 = tiempo de permanencia medio (poblacional) con la
versión nueva
Pregunta: ¿µ2 > µ1?
Necesitamos...
1 estimar a µ1 y µ2
2 comparar µ̂1 y µ̂2
27 / 35
Problema original
Parámetros de interés:
µ1 = tiempo de permanencia medio (poblacional) con la
versión actual
µ2 = tiempo de permanencia medio (poblacional) con la
versión nueva
Pregunta: ¿µ2 > µ1?
Necesitamos...
1 estimar a µ1 y µ2
2 comparar µ̂1 y µ̂2
27 / 35
Problema original
Parámetros de interés:
µ1 = tiempo de permanencia medio (poblacional) con la
versión actual
µ2 = tiempo de permanencia medio (poblacional) con la
versión nueva
Pregunta: ¿µ2 > µ1?
Necesitamos...
1 estimar a µ1 y µ2
2 comparar µ̂1 y µ̂2
27 / 35
Problema original
Parámetros de interés:
µ1 = tiempo de permanencia medio (poblacional) con la
versión actual
µ2 = tiempo de permanencia medio (poblacional) con la
versión nueva
Pregunta: ¿µ2 > µ1?
Necesitamos...
1 estimar a µ1 y µ2
2 comparar µ̂1 y µ̂2
27 / 35
Traducción del problema original
Pregunta: ¿µ2 > µ1?
↔ ¿µ1 − µ2 < 0?
Parámetro de interés: δ = µ1 − µ2
Pregunta traducida: ¿δ < 0?
¡Necesitamos un IC para δ!
Hallemos un IC asintótico para δ
28 / 35
Traducción del problema original
Pregunta: ¿µ2 > µ1? ↔ ¿µ1 − µ2 < 0?
Parámetro de interés: δ = µ1 − µ2
Pregunta traducida: ¿δ < 0?
¡Necesitamos un IC para δ!
Hallemos un IC asintótico para δ
28 / 35
Traducción del problema original
Pregunta: ¿µ2 > µ1? ↔ ¿µ1 − µ2 < 0?
Parámetro de interés: δ = µ1 − µ2
Pregunta traducida: ¿δ < 0?
¡Necesitamos un IC para δ!
Hallemos un IC asintótico para δ
28 / 35
Traducción del problema original
Pregunta: ¿µ2 > µ1? ↔ ¿µ1 − µ2 < 0?
Parámetro de interés: δ = µ1 − µ2
Pregunta traducida: ¿δ < 0?
¡Necesitamos un IC para δ!
Hallemos un IC asintótico para δ
28 / 35
Traducción del problema original
Pregunta: ¿µ2 > µ1? ↔ ¿µ1 − µ2 < 0?
Parámetro de interés: δ = µ1 − µ2
Pregunta traducida: ¿δ < 0?
¡Necesitamos un IC para δ!
Hallemos un IC asintótico para δ
28 / 35
Traducción del problema original
Pregunta: ¿µ2 > µ1? ↔ ¿µ1 − µ2 < 0?
Parámetro de interés: δ = µ1 − µ2
Pregunta traducida: ¿δ < 0?
¡Necesitamos un IC para δ!
Hallemos un IC asintótico para δ
28 / 35
Suposiciones
muestra 1:
X1, . . . , Xn1 i.i.d., E(X1) = µ1, V(X1) = σ21, n1 grande
En el ejemplo...
Xi = tiempo de permanencia (con la versión actual) del i-ésimo ind. de
la muestra A, 1 ≤ i ≤ n1
muestra 2:
Y1, . . . , Yn2 i.i.d., E(Y1) = µ2, V(Y1) = σ22, n2 grande
En el ejemplo...
Yi = tiempo de permanencia (con la versión nueva) del i-ésimo ind. de la
muestra B, 1 ≤ i ≤ n2
las muestras 1 y 2 son independientes entre śı.
29 / 35
Suposiciones
muestra 1:
X1, . . . , Xn1 i.i.d., E(X1) = µ1, V(X1) = σ21, n1 grande
En el ejemplo...
Xi = tiempo de permanencia (con la versión actual) del i-ésimo ind. de
la muestra A, 1 ≤ i ≤ n1
muestra 2:
Y1, . . . , Yn2 i.i.d., E(Y1) = µ2, V(Y1) = σ22, n2 grande
En el ejemplo...
Yi = tiempo de permanencia (con la versión nueva) del i-ésimo ind. de la
muestra B, 1 ≤ i ≤ n2
las muestras 1 y 2 son independientes entre śı.
29 / 35
Suposiciones
muestra 1:
X1, . . . , Xn1 i.i.d., E(X1) = µ1, V(X1) = σ21, n1 grande
En el ejemplo...
Xi = tiempo de permanencia (con la versión actual) del i-ésimo ind. de
la muestra A, 1 ≤ i ≤ n1
muestra 2:
Y1, . . . , Yn2 i.i.d., E(Y1) = µ2, V(Y1) = σ22, n2 grande
En el ejemplo...
Yi = tiempo de permanencia (con la versión nueva) del i-ésimo ind. de la
muestra B, 1 ≤ i ≤ n2
las muestras 1 y 2 son independientes entre śı.
29 / 35
Suposiciones
muestra 1:
X1, . . . , Xn1 i.i.d., E(X1) = µ1, V(X1) = σ21, n1 grande
En el ejemplo...
Xi = tiempo de permanencia (con la versión actual) del i-ésimo ind. de
la muestra A, 1 ≤ i ≤ n1
muestra 2:
Y1, . . . , Yn2 i.i.d., E(Y1) = µ2, V(Y1) = σ22, n2 grande
En el ejemplo...
Yi = tiempo de permanencia (con la versión nueva) del i-ésimo ind. de la
muestra B, 1 ≤ i ≤ n2
las muestras 1 y 2 son independientes entre śı.
29 / 35
Suposiciones
muestra 1:
X1, . . . , Xn1 i.i.d., E(X1) = µ1, V(X1) = σ21, n1 grande
En el ejemplo...
Xi = tiempo de permanencia (con la versión actual) del i-ésimo ind. de
la muestra A, 1 ≤ i ≤ n1
muestra 2:
Y1, . . . , Yn2 i.i.d., E(Y1) = µ2, V(Y1) = σ22, n2 grande
En el ejemplo...
Yi = tiempo de permanencia (con la versión nueva) del i-ésimo ind. de la
muestra B, 1 ≤ i ≤ n2
las muestras 1 y 2 son independientes entre śı.
29 / 35
IC asintótico para δ = µ1 − µ2
1 Buscamos un estimador del parámetro (δ):
δ̂ = µ̂1 − µ̂2 = Xn1 − Y n2
2 Hallamos su distribución (asintótica):
Xn1≈N (µ1,
σ21
n1
) y Y n2≈N (µ2,
σ22
n2
) x TCL (n1 y n2 grandes)
además son independientes (pues las muestras 1 y 2 lo son) ⇒
δ̂ = Xn1 − Y n2 ≈N
(
µ1 − µ2,
σ21
n1
+
σ22
n2
)
30 / 35
IC asintótico para δ = µ1 − µ2
1 Buscamos un estimador del parámetro (δ):
δ̂ = µ̂1 − µ̂2
= Xn1 − Y n2
2 Hallamos su distribución(asintótica):
Xn1≈N (µ1,
σ21
n1
) y Y n2≈N (µ2,
σ22
n2
) x TCL (n1 y n2 grandes)
además son independientes (pues las muestras 1 y 2 lo son) ⇒
δ̂ = Xn1 − Y n2 ≈N
(
µ1 − µ2,
σ21
n1
+
σ22
n2
)
30 / 35
IC asintótico para δ = µ1 − µ2
1 Buscamos un estimador del parámetro (δ):
δ̂ = µ̂1 − µ̂2 = Xn1 − Y n2
2 Hallamos su distribución (asintótica):
Xn1≈N (µ1,
σ21
n1
) y Y n2≈N (µ2,
σ22
n2
) x TCL (n1 y n2 grandes)
además son independientes (pues las muestras 1 y 2 lo son) ⇒
δ̂ = Xn1 − Y n2 ≈N
(
µ1 − µ2,
σ21
n1
+
σ22
n2
)
30 / 35
IC asintótico para δ = µ1 − µ2
1 Buscamos un estimador del parámetro (δ):
δ̂ = µ̂1 − µ̂2 = Xn1 − Y n2
2 Hallamos su distribución (asintótica):
Xn1≈N (µ1,
σ21
n1
) y Y n2≈N (µ2,
σ22
n2
) x TCL (n1 y n2 grandes)
además son independientes (pues las muestras 1 y 2 lo son) ⇒
δ̂ = Xn1 − Y n2 ≈N
(
µ1 − µ2,
σ21
n1
+
σ22
n2
)
30 / 35
IC asintótico para δ = µ1 − µ2
1 Buscamos un estimador del parámetro (δ):
δ̂ = µ̂1 − µ̂2 = Xn1 − Y n2
2 Hallamos su distribución (asintótica):
Xn1≈N (µ1,
σ21
n1
) y Y n2≈N (µ2,
σ22
n2
) x TCL (n1 y n2 grandes)
además son independientes (pues las muestras 1 y 2 lo son) ⇒
δ̂ = Xn1 − Y n2 ≈N
(
µ1 − µ2,
σ21
n1
+
σ22
n2
)
30 / 35
IC asintótico para δ = µ1 − µ2
1 Buscamos un estimador del parámetro (δ):
δ̂ = µ̂1 − µ̂2 = Xn1 − Y n2
2 Hallamos su distribución (asintótica):
Xn1≈N (µ1,
σ21
n1
) y Y n2≈N (µ2,
σ22
n2
) x TCL (n1 y n2 grandes)
además son independientes (pues las muestras 1 y 2 lo son)
⇒
δ̂ = Xn1 − Y n2 ≈N
(
µ1 − µ2,
σ21
n1
+
σ22
n2
)
30 / 35
IC asintótico para δ = µ1 − µ2
1 Buscamos un estimador del parámetro (δ):
δ̂ = µ̂1 − µ̂2 = Xn1 − Y n2
2 Hallamos su distribución (asintótica):
Xn1≈N (µ1,
σ21
n1
) y Y n2≈N (µ2,
σ22
n2
) x TCL (n1 y n2 grandes)
además son independientes (pues las muestras 1 y 2 lo son) ⇒
δ̂ = Xn1 − Y n2 ≈N
(
µ1 − µ2,
σ21
n1
+
σ22
n2
)
30 / 35
IC asintótico para δ = µ1 − µ2
1 Buscamos un estimador del parámetro (δ):
δ̂ = µ̂1 − µ̂2 = Xn1 − Y n2
2 Hallamos su distribución (asintótica):
Xn1≈N (µ1,
σ21
n1
) y Y n2≈N (µ2,
σ22
n2
) x TCL (n1 y n2 grandes)
además son independientes (pues las muestras 1 y 2 lo son) ⇒
δ̂ = Xn1 − Y n2 ≈N
(
µ1 − µ2,
σ21
n1
+
σ22
n2
)
30 / 35
IC asintótico para δ = µ1 − µ2
1 Buscamos un estimador del parámetro (δ):
δ̂ = Xn1 − Y n2
2 Hallamos su distribución (asintótica):
δ̂ = Xn1 − Y n2 ≈N
(
µ1 − µ2,
σ21
n1
+
σ22
n2
)
3 Lo estandarizamos:
(Xn1 − Y n2)− (µ1 − µ2)√
σ21
n1
+
σ22
n2
≈N (0, 1)
↑
¿Sirve como Pivote?
31 / 35
IC asintótico para δ = µ1 − µ2
1 Buscamos un estimador del parámetro (δ):
δ̂ = Xn1 − Y n2
2 Hallamos su distribución (asintótica):
δ̂ = Xn1 − Y n2 ≈N
(
µ1 − µ2,
σ21
n1
+
σ22
n2
)
3 Lo estandarizamos:
(Xn1 − Y n2)− (µ1 − µ2)√
σ21
n1
+
σ22
n2
≈N (0, 1)
↑
¿Sirve como Pivote?
31 / 35
IC asintótico para δ = µ1 − µ2
1 Buscamos un estimador del parámetro (δ):
δ̂ = Xn1 − Y n2
2 Hallamos su distribución (asintótica):
δ̂ = Xn1 − Y n2 ≈N
(
µ1 − µ2,
σ21
n1
+
σ22
n2
)
3 Lo estandarizamos:
(Xn1 − Y n2)− (µ1 − µ2)√
σ21
n1
+
σ22
n2
≈N (0, 1)
↑
¿Sirve como Pivote?
31 / 35
IC asintótico para δ = µ1 − µ2
1 Buscamos un estimador del parámetro (δ):
δ̂ = Xn1 − Y n2
2 Hallamos su distribución (asintótica):
δ̂ = Xn1 − Y n2 ≈N
(
µ1 − µ2,
σ21
n1
+
σ22
n2
)
3 Lo estandarizamos:
(Xn1 − Y n2)− (µ1 − µ2)√
σ21
n1
+
σ22
n2
≈N (0, 1)
↑
¿Sirve como Pivote?
31 / 35
IC asintótico para δ = µ1 − µ2
1 Buscamos un estimador del parámetro (δ): δ̂ = Xn1 − Y n2
2 Hallamos su distribución (asintótica):
Xn1 − Y n2 ≈N
(
µ1 − µ2,
σ21
n1
+
σ22
n2
)
3 Lo estandarizamos:
(Xn1 − Y n2)− (µ1 − µ2)√
σ21
n1
+
σ22
n2
≈N (0, 1)
4 Reemplazamos σ21 y σ
2
2 por s
2
1 y s
2
2 y obtenemos
(Xn1 − Y n2)− (µ1 − µ2)√
s21
n1
+
s22
n2
≈N (0, 1)
x TCL pues s21 y s
2
2 son cons. p/ σ
2
1 y σ
2
2.
32 / 35
IC asintótico para δ = µ1 − µ2
1 Buscamos un estimador del parámetro (δ): δ̂ = Xn1 − Y n2
2 Hallamos su distribución (asintótica):
Xn1 − Y n2 ≈N
(
µ1 − µ2,
σ21
n1
+
σ22
n2
)
3 Lo estandarizamos:
(Xn1 − Y n2)− (µ1 − µ2)√
σ21
n1
+
σ22
n2
≈N (0, 1)
4 Reemplazamos σ21 y σ
2
2 por s
2
1 y s
2
2 y obtenemos
(Xn1 − Y n2)− (µ1 − µ2)√
s21
n1
+
s22
n2
≈N (0, 1)
x TCL pues s21 y s
2
2 son cons. p/ σ
2
1 y σ
2
2.
32 / 35
IC asintótico para δ = µ1 − µ2
1 Buscamos un estimador del parámetro (δ): δ̂ = Xn1 − Y n2
2 Hallamos su distribución (asintótica):
Xn1 − Y n2 ≈N
(
µ1 − µ2,
σ21
n1
+
σ22
n2
)
3 Lo estandarizamos:
(Xn1 − Y n2)− (µ1 − µ2)√
σ21
n1
+
σ22
n2
≈N (0, 1)
4 Reemplazamos σ21 y σ
2
2 por s
2
1 y s
2
2 y obtenemos
(Xn1 − Y n2)− (µ1 − µ2)√
s21
n1
+
s22
n2
≈N (0, 1)
x TCL pues s21 y s
2
2 son cons. p/ σ
2
1 y σ
2
2.
32 / 35
IC asintótico para δ = µ1 − µ2
1 Buscamos un estimador del parámetro (δ): δ̂ = Xn1 − Y n2
2 Hallamos su distribución: Xn1 − Y n2 ≈N
(
µ1 − µ2,
σ21
n1
+
σ22
n2
)
3 Lo estandarizamos, reemplazamos σ21 y σ
2
2 por s
2
1 y s
2
2 y
obtenemos
(Xn1 − Y n2)− (µ1 − µ2)√
s21
n1
+
s22
n2
≈N (0, 1)
4 Hallamos zα/2 y planteamos
P
∣∣∣∣∣∣(Xn1 − Y n2)− (µ1 − µ2)√ s21
n1
+
s22
n2
∣∣∣∣∣∣ < zα/2
∼=1− α
33 / 35
IC asintótico para δ = µ1 − µ2
1 Buscamos un estimador del parámetro (δ): δ̂ = Xn1 − Y n2
2 Hallamos su distribución: Xn1 − Y n2 ≈N
(
µ1 − µ2,
σ21
n1
+
σ22
n2
)
3 Lo estandarizamos, reemplazamos σ21 y σ
2
2 por s
2
1 y s
2
2 y
obtenemos
(Xn1 − Y n2)− (µ1 − µ2)√
s21
n1
+
s22
n2
≈N (0, 1)
4 Hallamos zα/2 y planteamos
P
∣∣∣∣∣∣(Xn1 − Y n2)− (µ1 − µ2)√ s21
n1
+
s22
n2
∣∣∣∣∣∣ < zα/2
∼=1− α
33 / 35
IC asintótico para δ = µ1 − µ2
4 Hallamos zα/2 y planteamos
P
∣∣∣∣∣∣(Xn1 − Y n2)− (µ1 − µ2)√ s21
n1
+
s22
n2
∣∣∣∣∣∣ < zα/2
∼=1− α
5 Despejamos δ = µ1 − µ2 y concluimos que...
P
(
Xn1 − Y n2 − zα/2
√
s21
n1
+
s22
n2
< µ1 − µ2 < Xn1 − Y n2 + zα/2
√
s21
n1
+
s22
n2
)
∼=1− α (pues n1 y n2 son grandes) ⇒
IC =
Xn1 − Y n2 ± zα/2
√
s21
n1
+
s22
n2

es un IC de nivel asintótico 1− α para µ1 − µ2.
34 / 35
IC asintótico para δ = µ1 − µ2
4 Hallamos zα/2 y planteamos
P
∣∣∣∣∣∣(Xn1 − Y n2)− (µ1 − µ2)√ s21
n1
+
s22
n2
∣∣∣∣∣∣ < zα/2
∼=1− α
5 Despejamos δ = µ1 − µ2 y concluimos que...
P
(
Xn1 − Y n2 − zα/2
√
s21
n1
+
s22
n2
< µ1 − µ2 < Xn1 − Y n2 + zα/2
√
s21
n1
+
s22
n2
)
∼=1− α (pues n1 y n2 son grandes) ⇒
IC =
Xn1 − Y n2 ± zα/2
√
s21
n1
+
s22
n2

es un IC de nivel asintótico 1− α para µ1 − µ2.
34 / 35
IC asintótico para δ = µ1 − µ2
4 Hallamos zα/2 y planteamos
P
∣∣∣∣∣∣(Xn1 − Y n2)− (µ1 − µ2)√ s21
n1
+
s22
n2
∣∣∣∣∣∣ < zα/2
∼=1− α
5 Despejamos δ = µ1 − µ2 y concluimos que...
P
(
Xn1 − Y n2 − zα/2
√
s21
n1
+
s22
n2
< µ1 − µ2 < Xn1 − Y n2 + zα/2
√
s21
n1
+
s22
n2
)
∼=1− α
(pues n1 y n2 son grandes) ⇒
IC =
Xn1 − Y n2 ± zα/2
√
s21
n1
+
s22
n2

es un IC de nivel asintótico 1− α para µ1 − µ2.
34 / 35
IC asintótico para δ = µ1 − µ2
4 Hallamos zα/2 y planteamos
P
∣∣∣∣∣∣(Xn1 − Y n2)− (µ1 − µ2)√ s21
n1
+
s22
n2
∣∣∣∣∣∣ < zα/2
∼=1− α
5 Despejamos δ = µ1 − µ2 y concluimos que...
P
(
Xn1 − Y n2 − zα/2
√
s21
n1
+
s22
n2
< µ1 − µ2 < Xn1 − Y n2 + zα/2
√
s21
n1
+
s22
n2
)
∼=1− α (pues n1 y n2 son grandes) ⇒
IC =
Xn1 − Y n2 ± zα/2
√
s21
n1
+
s22
n2

es un IC de nivel asintótico 1− α para µ1 − µ2.
34 / 35
IC asintótico para δ = µ1 − µ2
IC =
Xn1 − Y n2 ± zα/2
√
s21
n1
+
s22
n2

=
(
δ̂ ± zα/2 ŝe(δ̂)
)
ME = zα/2
√
s21
n1
+
s22
n2
↑
aleatorio
depende de
n1 y n2
α
s21 y s
2
2
35 / 35
IC asintótico para δ = µ1 − µ2
IC =
Xn1 − Y n2 ± zα/2
√
s21
n1
+
s22
n2

=
(
δ̂ ± zα/2
ŝe(δ̂)
)
ME = zα/2
√
s21
n1
+
s22
n2
↑
aleatorio
depende de
n1 y n2
α
s21 y s
2
2
35 / 35
IC asintótico para δ = µ1 − µ2
IC =
Xn1 − Y n2 ± zα/2
√
s21
n1
+
s22
n2

=
(
δ̂ ± zα/2 ŝe(δ̂)
)
ME = zα/2
√
s21
n1
+
s22
n2
↑
aleatorio
depende de
n1 y n2
α
s21 y s
2
2
35 / 35
IC asintótico para δ = µ1 − µ2
IC =
Xn1 − Y n2 ± zα/2
√
s21n1
+
s22
n2

=
(
δ̂ ± zα/2 ŝe(δ̂)
)
ME = zα/2
√
s21
n1
+
s22
n2
↑
aleatorio
depende de
n1 y n2
α
s21 y s
2
2
35 / 35
IC asintótico para δ = µ1 − µ2
IC =
Xn1 − Y n2 ± zα/2
√
s21
n1
+
s22
n2

=
(
δ̂ ± zα/2 ŝe(δ̂)
)
ME = zα/2
√
s21
n1
+
s22
n2
↑
aleatorio
depende de
n1 y n2
α
s21 y s
2
2
35 / 35
IC asintótico para δ = µ1 − µ2
IC =
Xn1 − Y n2 ± zα/2
√
s21
n1
+
s22
n2

=
(
δ̂ ± zα/2 ŝe(δ̂)
)
ME = zα/2
√
s21
n1
+
s22
n2
↑
aleatorio
depende de
n1 y n2
α
s21 y s
2
2
35 / 35
IC asintótico para δ = µ1 − µ2
IC =
Xn1 − Y n2 ± zα/2
√
s21
n1
+
s22
n2

=
(
δ̂ ± zα/2 ŝe(δ̂)
)
ME = zα/2
√
s21
n1
+
s22
n2
↑
aleatorio
depende de
n1 y n2
α
s21 y s
2
2
35 / 35

Continuar navegando