Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Inferencia Estad́ıstica Lućıa Babino Universidad Torcuato Di Tella 1 / 35 Bibliograf́ıa para esta clase Wasserman, cap 6.3.2 Lock: cap 6.5 (salvo bootstrap) 2 / 35 Repaso 3 / 35 Intervalo de confianza Definición Dadas X1, . . . , Xn ∼ F i.i.d. y un parámetro θ = θ(F ) diremos que (a(X1, . . . , Xn), b(X1, . . . , Xn)) es un intervalo de confianza (IC) de nivel 1− α para θ si P (a(X1, . . . , Xn) < θ < b(X1, . . . , Xn)) = 1− α 4 / 35 IC para µ en el ejemplo Parámetro de interés: µ = “tiempo de permanencia medio (pobl.) con la versión nueva” Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10 Definición (con palabras): dado 1 ≤ i ≤ 10 Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind. de la muestra” ¿Qué sabemos de su distribución? µ = EF (X1) Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5 5 / 35 IC para µ en el ejemplo Parámetro de interés: µ = “tiempo de permanencia medio (pobl.) con la versión nueva” Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10 Definición (con palabras): dado 1 ≤ i ≤ 10 Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind. de la muestra” ¿Qué sabemos de su distribución? µ = EF (X1) Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5 5 / 35 IC para µ en el ejemplo Parámetro de interés: µ = “tiempo de permanencia medio (pobl.) con la versión nueva” Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10 Definición (con palabras): dado 1 ≤ i ≤ 10 Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind. de la muestra” ¿Qué sabemos de su distribución? µ = EF (X1) Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5 5 / 35 IC para µ en el ejemplo Parámetro de interés: µ = “tiempo de permanencia medio (pobl.) con la versión nueva” Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10 Definición (con palabras): dado 1 ≤ i ≤ 10 Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind. de la muestra” ¿Qué sabemos de su distribución? µ = EF (X1) Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5 5 / 35 IC para µ en el ejemplo Parámetro de interés: µ = “tiempo de permanencia medio (pobl.) con la versión nueva” Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10 Definición (con palabras): dado 1 ≤ i ≤ 10 Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind. de la muestra” ¿Qué sabemos de su distribución? µ = EF (X1) Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5 5 / 35 IC para µ en el ejemplo Parámetro de interés: µ = “tiempo de permanencia medio (pobl.) con la versión nueva” Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10 Definición (con palabras): dado 1 ≤ i ≤ 10 Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind. de la muestra” ¿Qué sabemos de su distribución? µ = EF (X1) Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5 5 / 35 IC para µ en el ejemplo Parámetro de interés: µ = “tiempo de permanencia medio (pobl.) con la versión nueva” Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10 Definición (con palabras): dado 1 ≤ i ≤ 10 Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind. de la muestra” ¿Qué sabemos de su distribución? µ = EF (X1) Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5 5 / 35 IC para µ en el ejemplo Parámetro de interés: µ = “tiempo de permanencia medio (pobl.) con la versión nueva” Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. con n = 10 Definición (con palabras): dado 1 ≤ i ≤ 10 Xi = “tiempo de permanencia (c/nueva versión) de i-ésimo ind. de la muestra” ¿Qué sabemos de su distribución? µ = EF (X1) Supongamos X1, . . . , Xn ∼ N (µ, σ20) i.i.d. con σ0 = 5 5 / 35 IC para µ asumiendo Xi ∼ N (µ, σ20) con σ0 conocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) ↑ Pivote 6 / 35 IC para µ asumiendo Xi ∼ N (µ, σ20) con σ0 conocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) ↑ Pivote 6 / 35 IC para µ asumiendo Xi ∼ N (µ, σ20) con σ0 conocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) ↑ Pivote 6 / 35 IC para µ asumiendo Xi ∼ N (µ, σ20) con σ0 conocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) ↑ Pivote 6 / 35 IC para µ asumiendo Xi ∼ N (µ, σ20) con σ0 conocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) 4 Hallamos zα/2 y planteamos P (∣∣∣∣ Xn−µ√σ20/n ∣∣∣∣ < zα/2) = 1− α 5 Despejamos µ y concluimos que... P ( Xn − zα/2 √ σ20 n < µ < Xn + zα/2 √ σ20 n ) = 1− α ⇒ IC = ( Xn ± zα/2 √ σ20 n ) es un IC de nivel 1− α para µ. 7 / 35 IC para µ asumiendo Xi ∼ N (µ, σ20) con σ0 conocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) 4 Hallamos zα/2 y planteamos P (∣∣∣∣ Xn−µ√σ20/n ∣∣∣∣ < zα/2) = 1− α 5 Despejamos µ y concluimos que... P ( Xn − zα/2 √ σ20 n < µ < Xn + zα/2 √ σ20 n ) = 1− α ⇒ IC = ( Xn ± zα/2 √ σ20 n ) es un IC de nivel 1− α para µ. 7 / 35 IC para µ asumiendo Xi ∼ N (µ, σ20) con σ0 conocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) 4 Hallamos zα/2 y planteamos P (∣∣∣∣ Xn−µ√σ20/n ∣∣∣∣ < zα/2) = 1− α 5 Despejamos µ y concluimos que... P ( Xn − zα/2 √ σ20 n < µ < Xn + zα/2 √ σ20 n ) = 1− α ⇒ IC = ( Xn ± zα/2 √ σ20 n ) es un IC de nivel 1− α para µ. 7 / 35 IC para µ asumiendo Xi ∼ N (µ, σ20) con σ0 conocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, σ20 n ) 3 Lo estandarizamos: Xn−µ√ σ20/n ∼ N (0, 1) 4 Hallamos zα/2 y planteamos P (∣∣∣∣ Xn−µ√σ20/n ∣∣∣∣ < zα/2) = 1− α 5 Despejamos µ y concluimos que... P ( Xn − zα/2 √ σ20 n < µ < Xn + zα/2 √ σ20 n ) = 1− α ⇒ IC = ( Xn ± zα/2 √ σ20 n ) es un IC de nivel 1− α para µ. 7 / 35 Clase de hoy 8 / 35 IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, σ 2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) ↑ ¿Sirve como Pivote? 9 / 35 IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, σ 2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) ↑ ¿Sirve como Pivote? 9 / 35 IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, σ 2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) ↑ ¿Sirve como Pivote? 9 / 35 IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, σ 2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) ↑ ¿Sirve como Pivote? 9 / 35 IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, σ 2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) ↑ ¿Sirve como Pivote? 9 / 35 IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, σ 2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) ↑ ¿Sirve como Pivote? 9 / 35 IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, σ 2n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) ↑ ¿Sirve como Pivote? 9 / 35 IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, σ 2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) 4 Reemplazamos σ2 por s2 = 1 n− 1 n∑ i=1 (Xi −Xn)2 y obtenemos Xn − µ√ s2/n ↑ ¿Sirve como Pivote? 10 / 35 IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, σ 2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) 4 Reemplazamos σ2 por s2 = 1 n− 1 n∑ i=1 (Xi −Xn)2 y obtenemos Xn − µ√ s2/n ↑ ¿Sirve como Pivote? 10 / 35 IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, σ 2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) 4 Reemplazamos σ2 por s2 = 1 n− 1 n∑ i=1 (Xi −Xn)2 y obtenemos Xn − µ√ s2/n ↑ ¿Sirve como Pivote? 10 / 35 IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, σ 2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) 4 Reemplazamos σ2 por s2 = 1 n− 1 n∑ i=1 (Xi −Xn)2 y obtenemos Xn − µ√ s2/n ↑ ¿Sirve como Pivote? 10 / 35 Distribución t de Student Propiedad Sean X1, . . . , Xn ∼ N (µ, σ2) i.i.d. Xn − µ√ s2/n ∼ tn−1 tn−1 se dice “distribución t de Student” con n− 1 grados de libertad. No veremos su expresión análitica, sólo usaremos la tabla. Su densidad es parecida a la normal estándar pero más achatada (tiene más dispersión) y se puede ver que tn−1 −→ n→∞ N (0, 1) 11 / 35 Distribución t de Student Propiedad Sean X1, . . . , Xn ∼ N (µ, σ2) i.i.d. Xn − µ√ s2/n ∼ tn−1 tn−1 se dice “distribución t de Student” con n− 1 grados de libertad. No veremos su expresión análitica, sólo usaremos la tabla. Su densidad es parecida a la normal estándar pero más achatada (tiene más dispersión) y se puede ver que tn−1 −→ n→∞ N (0, 1) 11 / 35 Distribución t de Student Propiedad Sean X1, . . . , Xn ∼ N (µ, σ2) i.i.d. Xn − µ√ s2/n ∼ tn−1 tn−1 se dice “distribución t de Student” con n− 1 grados de libertad. No veremos su expresión análitica, sólo usaremos la tabla. Su densidad es parecida a la normal estándar pero más achatada (tiene más dispersión) y se puede ver que tn−1 −→ n→∞ N (0, 1) 11 / 35 N (0, 1) y t2 12 / 35 N (0, 1) y tn−1 13 / 35 IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, σ 2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) 4 Reemplazamos σ2 por s2 y obtenemos Xn − µ√ s2/n ∼ tn−1 5 Queremos t tal que P (∣∣∣∣ Xn−µ√s2/n ∣∣∣∣ < t) = 1− α 14 / 35 IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, σ 2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) 4 Reemplazamos σ2 por s2 y obtenemos Xn − µ√ s2/n ∼ tn−1 5 Queremos t tal que P (∣∣∣∣ Xn−µ√s2/n ∣∣∣∣ < t) = 1− α 14 / 35 Notación Dado 0 < α < 1, llamamos tn−1,α al percentil de la tn−1 que deja área α a derecha, es decir.. P(Tn−1 > tn−1,α) = α, Tn−1 ∼ tn−1 Obs.: tn−1,α es el percentil 1− α de la tn−1 15 / 35 Notación Dado 0 < α < 1, llamamos tn−1,α al percentil de la tn−1 que deja área α a derecha, es decir.. P(Tn−1 > tn−1,α) = α, Tn−1 ∼ tn−1 Obs.: tn−1,α es el percentil 1− α de la tn−1 15 / 35 IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, σ 2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) 4 Reemplazamos σ2 por s2 y obtenemos Xn − µ√ s2/n ∼ tn−1 5 Queremos t tal que P (∣∣∣∣ Xn−µ√s2/n ∣∣∣∣ < t) = 1− α 16 / 35 IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, σ 2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) 4 Reemplazamos σ2 por s2 y obtenemos Xn−µ√ s2/n ∼ tn−1 5 Hallamos tn−1,α/2 y planteamos P (∣∣∣∣ Xn−µ√s2/n ∣∣∣∣ < tn−1,α/2) = 1− α 6 Despejamos µ y concluimos que... P ( Xn − tn−1,α/2 √ s2 n < µ < Xn + tn−1,α/2 √ s2 n ) = 1−α ⇒ IC = ( Xn ± tn−1,α/2 √ s2 n ) es un IC de nivel 1− α para µ. 17 / 35 IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, σ 2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) 4 Reemplazamos σ2 por s2 y obtenemos Xn−µ√ s2/n ∼ tn−1 5 Hallamos tn−1,α/2 y planteamos P (∣∣∣∣ Xn−µ√s2/n ∣∣∣∣ < tn−1,α/2) = 1− α 6 Despejamos µ y concluimos que... P ( Xn − tn−1,α/2 √ s2 n < µ < Xn + tn−1,α/2 √ s2 n ) = 1−α ⇒ IC = ( Xn ± tn−1,α/2 √ s2 n ) es un IC de nivel 1− α para µ. 17 / 35 IC para µ asumiendo Xi ∼ N (µ, σ20) con σ desconocida 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn ∼ N (µ, σ 2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ∼ N (0, 1) 4 Reemplazamos σ2 por s2 y obtenemos Xn−µ√ s2/n ∼ tn−1 5 Hallamos tn−1,α/2 y planteamos P (∣∣∣∣ Xn−µ√s2/n ∣∣∣∣ < tn−1,α/2) = 1− α 6 Despejamos µ y concluimos que... P ( Xn − tn−1,α/2 √ s2 n < µ < Xn + tn−1,α/2 √ s2 n ) = 1−α ⇒ IC = ( Xn ± tn−1,α/2 √ s2 n ) es un IC de nivel 1− α para µ. 17 / 35 IC para µ asumiendo Xi ∼ N (µ, σ2) σ = σ0 conocida σ desconocida IC = ( Xn ± zα/2 √ σ20/n ) = ( Xn ± zα/2se(Xn) ) IC = ( Xn ± tn−1,α/2 √ s2/n ) = ( Xn ± tn−1,α/2ŝe(Xn) ) 18 / 35 IC para µ asumiendo Xi ∼ N (µ, σ2) σ = σ0 conocida σ desconocida IC = ( Xn ± zα/2 √ σ20/n ) = ( Xn ± zα/2se(Xn) ) IC = ( Xn ± tn−1,α/2 √ s2/n ) = ( Xn ± tn−1,α/2ŝe(Xn) ) 18 / 35 IC para µ asumiendo Xi ∼ N (µ, σ2) σ = σ0 conocida σ desconocida IC = ( Xn ± zα/2 √ σ20/n ) = ( Xn ± zα/2se(Xn) ) IC = ( Xn ± tn−1,α/2 √ s2/n ) = ( Xn ± tn−1,α/2ŝe(Xn) ) 18 / 35 IC para µ asumiendo Xi ∼ N (µ, σ2) σ = σ0 conocida σ desconocida IC = ( Xn ± zα/2 √ σ20/n ) = ( Xn ± zα/2se(Xn) ) IC = ( Xn ± tn−1,α/2 √ s2/n ) = ( Xn ± tn−1,α/2ŝe(Xn) ) 18 / 35 IC para µ asumiendo Xi ∼ N (µ, σ2) σ = σ0 conocida σ desconocida IC = ( Xn ± zα/2 √ σ20/n ) = ( Xn ± zα/2se(Xn) ) IC = ( Xn ± tn−1,α/2 √ s2/n ) = ( Xn ± tn−1,α/2ŝe(Xn) ) 18 / 35 IC para µ asumiendo Xi ∼ N (µ, σ2) σ = σ0 conocida σ desconocida IC = ( Xn ± zα/2 √ σ20/n ) = ( Xn ± zα/2se(Xn) ) IC = ( Xn ± tn−1,α/2 √ s2/n ) = ( Xn ± tn−1,α/2ŝe(Xn) ) 19 / 35 IC para µ asumiendo Xi ∼ N (µ, σ2) σ = σ0 conocida σ desconocida IC = ( Xn ± zα/2 √ σ20/n ) ME = zα/2 √ σ20/n ↑ fijo depende de n α σ0 IC = ( Xn ± tn−1,α/2 √ s2/n ) ME = tn−1,α/2 √ s2/n ↑ aleatorio depende de n α s 20 / 35 IC para µ asumiendo Xi ∼ N (µ, σ2) σ = σ0 conocida σ desconocida IC = ( Xn ± zα/2 √ σ20/n ) ME = zα/2 √ σ20/n ↑ fijo depende de n α σ0 IC = ( Xn ± tn−1,α/2 √ s2/n ) ME = tn−1,α/2 √ s2/n ↑ aleatorio depende de n α s 20 / 35 IC para µ asumiendo Xi ∼ N (µ, σ2) σ = σ0 conocida σ desconocida IC = ( Xn ± zα/2 √ σ20/n ) ME = zα/2 √ σ20/n ↑ fijo depende de n α σ0 IC = ( Xn ± tn−1,α/2 √ s2/n ) ME = tn−1,α/2 √ s2/n ↑ aleatorio depende de n α s 20 / 35 IC para µ asumiendo Xi ∼ N (µ, σ2) σ = σ0 conocida σ desconocida IC = ( Xn ± zα/2 √ σ20/n ) ME = zα/2 √ σ20/n ↑ fijo depende de n α σ0 IC = ( Xn ± tn−1,α/2 √ s2/n ) ME = tn−1,α/2 √ s2/n ↑ aleatorio depende de n α s 20 / 35 IC para µ asumiendo Xi ∼ N (µ, σ2) σ = σ0 conocida σ desconocida IC = ( Xn ± zα/2 √ σ20/n ) ME = zα/2 √ σ20/n ↑ fijo depende de n α σ0 IC = ( Xn ± tn−1,α/2 √ s2/n ) ME = tn−1,α/2 √ s2/n ↑ aleatorio depende de n α s 20 / 35 IC para µ asumiendo Xi ∼ N (µ, σ2) σ = σ0 conocida σ desconocida IC = ( Xn ± zα/2 √ σ20/n ) ME = zα/2 √ σ20/n ↑ fijo depende de n α σ0 IC= ( Xn ± tn−1,α/2 √ s2/n ) ME = tn−1,α/2 √ s2/n ↑ aleatorio depende de n α s 20 / 35 IC para µ asumiendo Xi ∼ N (µ, σ2) σ = σ0 conocida σ desconocida IC = ( Xn ± zα/2 √ σ20/n ) ME = zα/2 √ σ20/n ↑ fijo depende de n α σ0 IC = ( Xn ± tn−1,α/2 √ s2/n ) ME = tn−1,α/2 √ s2/n ↑ aleatorio depende de n α s 20 / 35 IC para µ cuando Xi ∼ F con F desconocida Sean X1, . . . , Xn i.i.d., E(X1) = µ con n “grande” 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución (asintótica): Xn≈N (µ, σ2 n ) x TCL, pues n es grande 3 Lo estandarizamos: Xn−µ√ σ2/n ≈N (0, 1) ↑ ¿Sirve como Pivote? 21 / 35 IC para µ cuando Xi ∼ F con F desconocida Sean X1, . . . , Xn i.i.d., E(X1) = µ con n “grande” 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución (asintótica): Xn≈N (µ, σ2 n ) x TCL, pues n es grande 3 Lo estandarizamos: Xn−µ√ σ2/n ≈N (0, 1) ↑ ¿Sirve como Pivote? 21 / 35 IC para µ cuando Xi ∼ F con F desconocida Sean X1, . . . , Xn i.i.d., E(X1) = µ con n “grande” 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución (asintótica): Xn≈N (µ, σ2 n ) x TCL, pues n es grande 3 Lo estandarizamos: Xn−µ√ σ2/n ≈N (0, 1) ↑ ¿Sirve como Pivote? 21 / 35 IC para µ cuando Xi ∼ F con F desconocida Sean X1, . . . , Xn i.i.d., E(X1) = µ con n “grande” 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución (asintótica): Xn≈N (µ, σ2 n ) x TCL, pues n es grande 3 Lo estandarizamos: Xn−µ√ σ2/n ≈N (0, 1) ↑ ¿Sirve como Pivote? 21 / 35 IC para µ cuando Xi ∼ F con F desconocida Sean X1, . . . , Xn i.i.d., E(X1) = µ con n “grande” 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución (asintótica): Xn≈N (µ, σ2 n ) x TCL, pues n es grande 3 Lo estandarizamos: Xn−µ√ σ2/n ≈N (0, 1) ↑ ¿Sirve como Pivote? 21 / 35 IC para µ cuando Xi ∼ F con F desconocida Sean X1, . . . , Xn i.i.d., E(X1) = µ con n “grande” 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución (asintótica): Xn≈N (µ, σ2 n ) x TCL, pues n es grande 3 Lo estandarizamos: Xn−µ√ σ2/n ≈N (0, 1) ↑ ¿Sirve como Pivote? 21 / 35 IC para µ cuando Xi ∼ F con F desconocida Sean X1, . . . , Xn i.i.d., E(X1) = µ con n “grande” 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución (asintótica): Xn≈N (µ, σ2 n ) x TCL, pues n es grande 3 Lo estandarizamos: Xn−µ√ σ2/n ≈N (0, 1) ↑ ¿Sirve como Pivote? 21 / 35 IC para µ cuando Xi ∼ F con F desconocida Sean X1, . . . , Xn i.i.d., E(X1) = µ con n “grande” 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución (asintótica): Xn≈N (µ, σ2 n ) x TCL, pues n es grande 3 Lo estandarizamos: Xn−µ√ σ2/n ≈N (0, 1) ↑ ¿Sirve como Pivote? 21 / 35 IC para µ cuando Xi ∼ F con F desconocida Sean X1, . . . , Xn i.i.d., E(X1) = µ con n “grande” 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución (asintótica): Xn≈N (µ, σ2 n ) x TCL, pues n es grande 3 Lo estandarizamos: Xn−µ√ σ2/n ≈N (0, 1) ↑ ¿Sirve como Pivote? 21 / 35 IC para µ cuando Xi ∼ F con F desconocida ( y n grande) 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución asintótica: Xn≈N (µ, σ 2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ≈N (0, 1) 4 Reemplazamos σ2 por s2 y obtenemos Xn − µ√ s2/n ↑ ¿Sirve como Pivote? 22 / 35 IC para µ cuando Xi ∼ F con F desconocida ( y n grande) 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución asintótica: Xn≈N (µ, σ 2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ≈N (0, 1) 4 Reemplazamos σ2 por s2 y obtenemos Xn − µ√ s2/n ↑ ¿Sirve como Pivote? 22 / 35 IC para µ cuando Xi ∼ F con F desconocida ( y n grande) 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución asintótica: Xn≈N (µ, σ 2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ≈N (0, 1) 4 Reemplazamos σ2 por s2 y obtenemos Xn − µ√ s2/n ↑ ¿Sirve como Pivote? 22 / 35 IC para µ cuando Xi ∼ F con F desconocida ( y n grande) 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución asintótica: Xn≈N (µ, σ 2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ≈N (0, 1) 4 Reemplazamos σ2 por s2 y obtenemos Xn − µ√ s2/n ↑ ¿Sirve como Pivote? 22 / 35 IC para µ cuando Xi ∼ F con F desconocida ( y n grande) 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn≈N (µ, σ 2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ≈N (0, 1) 4 Reemplazamos σ2 por s2 y obtenemos Xn − µ√ s2/n ≈N (0, 1) x TCL y pq s2es cons. para σ2 5 Hallamos zα/2 y planteamos P (∣∣∣∣∣Xn − µ√s2/n ∣∣∣∣∣ < zα/2 ) ∼=1− α pues n es grande y P (∣∣∣∣∣Xn − µ√s2/n ∣∣∣∣∣ < zα/2 ) −→ n→∞ P ( |Z| < zα/2 ) = 1− α 23 / 35 IC para µ cuando Xi ∼ F con F desconocida ( y n grande) 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn≈N (µ, σ 2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ≈N (0, 1) 4 Reemplazamos σ2 por s2 y obtenemos Xn − µ√ s2/n ≈N (0, 1) x TCL y pq s2es cons. para σ2 5 Hallamos zα/2 y planteamos P (∣∣∣∣∣Xn − µ√s2/n ∣∣∣∣∣ < zα/2 ) ∼=1− α pues n es grande y P (∣∣∣∣∣Xn − µ√s2/n ∣∣∣∣∣ < zα/2 ) −→ n→∞ P ( |Z| < zα/2 ) = 1− α 23 / 35 IC para µ cuando Xi ∼ F con F desconocida ( y n grande) 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn≈N (µ, σ 2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ≈N (0, 1) 4 Reemplazamos σ2 por s2 y obtenemos Xn − µ√ s2/n ≈N (0, 1) x TCL y pq s2es cons. para σ2 5 Hallamos zα/2 y planteamos P (∣∣∣∣∣Xn − µ√s2/n ∣∣∣∣∣ < zα/2 ) ∼=1− α pues n es grande y P (∣∣∣∣∣Xn − µ√s2/n ∣∣∣∣∣ < zα/2 ) −→ n→∞ P ( |Z| < zα/2 ) = 1− α 23 / 35 IC para µ cuando Xi ∼ F con F desconocida ( y n grande) 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn≈N (µ, σ 2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ≈N (0, 1) 4 Reemplazamos σ2 por s2 y obtenemos Xn − µ√ s2/n ≈N (0, 1) x TCL pues s2es cons. para σ2 5 Hallamos zα/2 y planteamos P (∣∣∣∣ Xn−µ√s2/n ∣∣∣∣ < zα/2)∼=1− α 6 Despejamos µ y concluimos que... P ( Xn − zα/2 √ s2 n < µ < Xn + zα/2 √ s2 n ) ∼=1− α ⇒ IC = ( Xn ± zα/2 √ s2 n ) es un IC de nivel asintótico 1− α para µ. 24 / 35 IC para µ cuando Xi ∼ F con F desconocida ( y n grande) 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn≈N (µ, σ 2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ≈N (0, 1) 4 Reemplazamos σ2 por s2 y obtenemos Xn − µ√ s2/n ≈N (0, 1) x TCL pues s2es cons. para σ2 5 Hallamos zα/2 y planteamos P (∣∣∣∣ Xn−µ√s2/n ∣∣∣∣ < zα/2)∼=1− α 6 Despejamos µ y concluimos que... P ( Xn − zα/2 √ s2 n < µ < Xn + zα/2 √ s2 n ) ∼=1− α ⇒ IC = ( Xn ± zα/2 √ s2 n ) es un IC de nivel asintótico 1− α para µ. 24 / 35 IC para µ cuando Xi ∼ F con F desconocida ( y n grande) 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn≈N (µ, σ 2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ≈N (0, 1) 4 Reemplazamos σ2 por s2 y obtenemos Xn − µ√ s2/n ≈N (0, 1) x TCL pues s2es cons. para σ2 5 Hallamos zα/2 y planteamos P (∣∣∣∣ Xn−µ√s2/n ∣∣∣∣ < zα/2)∼=1− α 6 Despejamos µ y concluimos que... P ( Xn − zα/2 √ s2 n < µ < Xn + zα/2 √ s2 n ) ∼=1− α ⇒ IC = ( Xn ± zα/2 √ s2 n ) es un IC de nivel asintótico 1− α para µ. 24 / 35 IC para µ cuando Xi ∼ F con F desconocida ( y n grande) 1 Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn≈N (µ, σ 2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ≈N (0, 1) 4 Reemplazamos σ2 por s2 y obtenemos Xn − µ√ s2/n ≈N (0, 1) x TCL pues s2es cons. para σ2 5 Hallamos zα/2 y planteamos P (∣∣∣∣ Xn−µ√s2/n ∣∣∣∣ < zα/2)∼=1− α 6 Despejamos µ y concluimos que... P ( Xn − zα/2 √ s2 n < µ < Xn + zα/2 √ s2 n ) ∼=1− α ⇒ IC = ( Xn ± zα/2 √ s2 n ) es un IC de nivel asintótico 1− α para µ. 24 / 35 IC para µ cuando Xi ∼ F con F desconocida ( y n grande) 1Buscamos un estimador del parámetro (µ): µ̂n = Xn 2 Hallamos su distribución: Xn≈N (µ, σ 2 n ) 3 Lo estandarizamos: Xn−µ√ σ2/n ≈N (0, 1) 4 Reemplazamos σ2 por s2 y obtenemos Xn − µ√ s2/n ≈N (0, 1) x TCL pues s2es cons. para σ2 5 Hallamos zα/2 y planteamos P (∣∣∣∣ Xn−µ√s2/n ∣∣∣∣ < zα/2)∼=1− α 6 Despejamos µ y concluimos que... P ( Xn − zα/2 √ s2 n < µ < Xn + zα/2 √ s2 n ) ∼=1− α ⇒ IC = ( Xn ± zα/2 √ s2 n ) es un IC de nivel asintótico 1− α para µ. 24 / 35 IC asintótico Definición Diremos que (a(X1, . . . , Xn), b(X1, . . . , Xn)) es un IC de nivel asintótico 1− α para θ si P (a(X1, . . . , Xn) < θ < b(X1, . . . , Xn)) −→ n→∞ 1− α es decir si... P (a(X1, . . . , Xn) < θ < b(X1, . . . , Xn))∼=1− α para n grande. 25 / 35 ICs para µ X1, . . . , Xn ∼ F i.i.d. E(X1) = µ 1) N (µ, σ20), σ0 con 2) N (µ, σ2), σ desc 3) F desc( Xn ± zα/2 √ σ20 n ) =( Xn ± zα/2se(Xn) ) ( Xn ± tn−1,α/2 √ s2 n ) ( Xn ± tn−1,α/2ŝe(Xn) ) ( Xn ± zα/2 √ s2 n ) ( Xn ± zα/2ŝe(Xn) ) Obs.: algunos autores (ej. Lock) usan tn−1,α/2 en vez de zα/2 en 3. ¿por qué? Porque tn−1 ≈ N (0, 1) para n grande. 26 / 35 ICs para µ X1, . . . , Xn ∼ F i.i.d. E(X1) = µ 1) N (µ, σ20), σ0 con 2) N (µ, σ2), σ desc 3) F desc( Xn ± zα/2 √ σ20 n ) =( Xn ± zα/2se(Xn) ) ( Xn ± tn−1,α/2 √ s2 n ) ( Xn ± tn−1,α/2ŝe(Xn) ) ( Xn ± zα/2 √ s2 n ) ( Xn ± zα/2ŝe(Xn) ) Obs.: algunos autores (ej. Lock) usan tn−1,α/2 en vez de zα/2 en 3. ¿por qué? Porque tn−1 ≈ N (0, 1) para n grande. 26 / 35 ICs para µ X1, . . . , Xn ∼ F i.i.d. E(X1) = µ 1) N (µ, σ20), σ0 con 2) N (µ, σ2), σ desc 3) F desc( Xn ± zα/2 √ σ20 n ) =( Xn ± zα/2se(Xn) ) ( Xn ± tn−1,α/2 √ s2 n ) ( Xn ± tn−1,α/2ŝe(Xn) ) ( Xn ± zα/2 √ s2 n ) ( Xn ± zα/2ŝe(Xn) ) Obs.: algunos autores (ej. Lock) usan tn−1,α/2 en vez de zα/2 en 3. ¿por qué? Porque tn−1 ≈ N (0, 1) para n grande. 26 / 35 ICs para µ X1, . . . , Xn ∼ F i.i.d. E(X1) = µ 1) N (µ, σ20), σ0 con 2) N (µ, σ2), σ desc 3) F desc( Xn ± zα/2 √ σ20 n ) =( Xn ± zα/2se(Xn) ) ( Xn ± tn−1,α/2 √ s2 n ) ( Xn ± tn−1,α/2ŝe(Xn) ) ( Xn ± zα/2 √ s2 n ) ( Xn ± zα/2ŝe(Xn) ) Obs.: algunos autores (ej. Lock) usan tn−1,α/2 en vez de zα/2 en 3. ¿por qué? Porque tn−1 ≈ N (0, 1) para n grande. 26 / 35 ICs para µ X1, . . . , Xn ∼ F i.i.d. E(X1) = µ 1) N (µ, σ20), σ0 con 2) N (µ, σ2), σ desc 3) F desc( Xn ± zα/2 √ σ20 n ) =( Xn ± zα/2se(Xn) ) ( Xn ± tn−1,α/2 √ s2 n ) ( Xn ± tn−1,α/2ŝe(Xn) ) ( Xn ± zα/2 √ s2 n ) ( Xn ± zα/2ŝe(Xn) ) Obs.: algunos autores (ej. Lock) usan tn−1,α/2 en vez de zα/2 en 3. ¿por qué? Porque tn−1 ≈ N (0, 1) para n grande. 26 / 35 Problema original Parámetros de interés: µ1 = tiempo de permanencia medio (poblacional) con la versión actual µ2 = tiempo de permanencia medio (poblacional) con la versión nueva Pregunta: ¿µ2 > µ1? Necesitamos... 1 estimar a µ1 y µ2 2 comparar µ̂1 y µ̂2 27 / 35 Problema original Parámetros de interés: µ1 = tiempo de permanencia medio (poblacional) con la versión actual µ2 = tiempo de permanencia medio (poblacional) con la versión nueva Pregunta: ¿µ2 > µ1? Necesitamos... 1 estimar a µ1 y µ2 2 comparar µ̂1 y µ̂2 27 / 35 Problema original Parámetros de interés: µ1 = tiempo de permanencia medio (poblacional) con la versión actual µ2 = tiempo de permanencia medio (poblacional) con la versión nueva Pregunta: ¿µ2 > µ1? Necesitamos... 1 estimar a µ1 y µ2 2 comparar µ̂1 y µ̂2 27 / 35 Problema original Parámetros de interés: µ1 = tiempo de permanencia medio (poblacional) con la versión actual µ2 = tiempo de permanencia medio (poblacional) con la versión nueva Pregunta: ¿µ2 > µ1? Necesitamos... 1 estimar a µ1 y µ2 2 comparar µ̂1 y µ̂2 27 / 35 Problema original Parámetros de interés: µ1 = tiempo de permanencia medio (poblacional) con la versión actual µ2 = tiempo de permanencia medio (poblacional) con la versión nueva Pregunta: ¿µ2 > µ1? Necesitamos... 1 estimar a µ1 y µ2 2 comparar µ̂1 y µ̂2 27 / 35 Traducción del problema original Pregunta: ¿µ2 > µ1? ↔ ¿µ1 − µ2 < 0? Parámetro de interés: δ = µ1 − µ2 Pregunta traducida: ¿δ < 0? ¡Necesitamos un IC para δ! Hallemos un IC asintótico para δ 28 / 35 Traducción del problema original Pregunta: ¿µ2 > µ1? ↔ ¿µ1 − µ2 < 0? Parámetro de interés: δ = µ1 − µ2 Pregunta traducida: ¿δ < 0? ¡Necesitamos un IC para δ! Hallemos un IC asintótico para δ 28 / 35 Traducción del problema original Pregunta: ¿µ2 > µ1? ↔ ¿µ1 − µ2 < 0? Parámetro de interés: δ = µ1 − µ2 Pregunta traducida: ¿δ < 0? ¡Necesitamos un IC para δ! Hallemos un IC asintótico para δ 28 / 35 Traducción del problema original Pregunta: ¿µ2 > µ1? ↔ ¿µ1 − µ2 < 0? Parámetro de interés: δ = µ1 − µ2 Pregunta traducida: ¿δ < 0? ¡Necesitamos un IC para δ! Hallemos un IC asintótico para δ 28 / 35 Traducción del problema original Pregunta: ¿µ2 > µ1? ↔ ¿µ1 − µ2 < 0? Parámetro de interés: δ = µ1 − µ2 Pregunta traducida: ¿δ < 0? ¡Necesitamos un IC para δ! Hallemos un IC asintótico para δ 28 / 35 Traducción del problema original Pregunta: ¿µ2 > µ1? ↔ ¿µ1 − µ2 < 0? Parámetro de interés: δ = µ1 − µ2 Pregunta traducida: ¿δ < 0? ¡Necesitamos un IC para δ! Hallemos un IC asintótico para δ 28 / 35 Suposiciones muestra 1: X1, . . . , Xn1 i.i.d., E(X1) = µ1, V(X1) = σ21, n1 grande En el ejemplo... Xi = tiempo de permanencia (con la versión actual) del i-ésimo ind. de la muestra A, 1 ≤ i ≤ n1 muestra 2: Y1, . . . , Yn2 i.i.d., E(Y1) = µ2, V(Y1) = σ22, n2 grande En el ejemplo... Yi = tiempo de permanencia (con la versión nueva) del i-ésimo ind. de la muestra B, 1 ≤ i ≤ n2 las muestras 1 y 2 son independientes entre śı. 29 / 35 Suposiciones muestra 1: X1, . . . , Xn1 i.i.d., E(X1) = µ1, V(X1) = σ21, n1 grande En el ejemplo... Xi = tiempo de permanencia (con la versión actual) del i-ésimo ind. de la muestra A, 1 ≤ i ≤ n1 muestra 2: Y1, . . . , Yn2 i.i.d., E(Y1) = µ2, V(Y1) = σ22, n2 grande En el ejemplo... Yi = tiempo de permanencia (con la versión nueva) del i-ésimo ind. de la muestra B, 1 ≤ i ≤ n2 las muestras 1 y 2 son independientes entre śı. 29 / 35 Suposiciones muestra 1: X1, . . . , Xn1 i.i.d., E(X1) = µ1, V(X1) = σ21, n1 grande En el ejemplo... Xi = tiempo de permanencia (con la versión actual) del i-ésimo ind. de la muestra A, 1 ≤ i ≤ n1 muestra 2: Y1, . . . , Yn2 i.i.d., E(Y1) = µ2, V(Y1) = σ22, n2 grande En el ejemplo... Yi = tiempo de permanencia (con la versión nueva) del i-ésimo ind. de la muestra B, 1 ≤ i ≤ n2 las muestras 1 y 2 son independientes entre śı. 29 / 35 Suposiciones muestra 1: X1, . . . , Xn1 i.i.d., E(X1) = µ1, V(X1) = σ21, n1 grande En el ejemplo... Xi = tiempo de permanencia (con la versión actual) del i-ésimo ind. de la muestra A, 1 ≤ i ≤ n1 muestra 2: Y1, . . . , Yn2 i.i.d., E(Y1) = µ2, V(Y1) = σ22, n2 grande En el ejemplo... Yi = tiempo de permanencia (con la versión nueva) del i-ésimo ind. de la muestra B, 1 ≤ i ≤ n2 las muestras 1 y 2 son independientes entre śı. 29 / 35 Suposiciones muestra 1: X1, . . . , Xn1 i.i.d., E(X1) = µ1, V(X1) = σ21, n1 grande En el ejemplo... Xi = tiempo de permanencia (con la versión actual) del i-ésimo ind. de la muestra A, 1 ≤ i ≤ n1 muestra 2: Y1, . . . , Yn2 i.i.d., E(Y1) = µ2, V(Y1) = σ22, n2 grande En el ejemplo... Yi = tiempo de permanencia (con la versión nueva) del i-ésimo ind. de la muestra B, 1 ≤ i ≤ n2 las muestras 1 y 2 son independientes entre śı. 29 / 35 IC asintótico para δ = µ1 − µ2 1 Buscamos un estimador del parámetro (δ): δ̂ = µ̂1 − µ̂2 = Xn1 − Y n2 2 Hallamos su distribución (asintótica): Xn1≈N (µ1, σ21 n1 ) y Y n2≈N (µ2, σ22 n2 ) x TCL (n1 y n2 grandes) además son independientes (pues las muestras 1 y 2 lo son) ⇒ δ̂ = Xn1 − Y n2 ≈N ( µ1 − µ2, σ21 n1 + σ22 n2 ) 30 / 35 IC asintótico para δ = µ1 − µ2 1 Buscamos un estimador del parámetro (δ): δ̂ = µ̂1 − µ̂2 = Xn1 − Y n2 2 Hallamos su distribución(asintótica): Xn1≈N (µ1, σ21 n1 ) y Y n2≈N (µ2, σ22 n2 ) x TCL (n1 y n2 grandes) además son independientes (pues las muestras 1 y 2 lo son) ⇒ δ̂ = Xn1 − Y n2 ≈N ( µ1 − µ2, σ21 n1 + σ22 n2 ) 30 / 35 IC asintótico para δ = µ1 − µ2 1 Buscamos un estimador del parámetro (δ): δ̂ = µ̂1 − µ̂2 = Xn1 − Y n2 2 Hallamos su distribución (asintótica): Xn1≈N (µ1, σ21 n1 ) y Y n2≈N (µ2, σ22 n2 ) x TCL (n1 y n2 grandes) además son independientes (pues las muestras 1 y 2 lo son) ⇒ δ̂ = Xn1 − Y n2 ≈N ( µ1 − µ2, σ21 n1 + σ22 n2 ) 30 / 35 IC asintótico para δ = µ1 − µ2 1 Buscamos un estimador del parámetro (δ): δ̂ = µ̂1 − µ̂2 = Xn1 − Y n2 2 Hallamos su distribución (asintótica): Xn1≈N (µ1, σ21 n1 ) y Y n2≈N (µ2, σ22 n2 ) x TCL (n1 y n2 grandes) además son independientes (pues las muestras 1 y 2 lo son) ⇒ δ̂ = Xn1 − Y n2 ≈N ( µ1 − µ2, σ21 n1 + σ22 n2 ) 30 / 35 IC asintótico para δ = µ1 − µ2 1 Buscamos un estimador del parámetro (δ): δ̂ = µ̂1 − µ̂2 = Xn1 − Y n2 2 Hallamos su distribución (asintótica): Xn1≈N (µ1, σ21 n1 ) y Y n2≈N (µ2, σ22 n2 ) x TCL (n1 y n2 grandes) además son independientes (pues las muestras 1 y 2 lo son) ⇒ δ̂ = Xn1 − Y n2 ≈N ( µ1 − µ2, σ21 n1 + σ22 n2 ) 30 / 35 IC asintótico para δ = µ1 − µ2 1 Buscamos un estimador del parámetro (δ): δ̂ = µ̂1 − µ̂2 = Xn1 − Y n2 2 Hallamos su distribución (asintótica): Xn1≈N (µ1, σ21 n1 ) y Y n2≈N (µ2, σ22 n2 ) x TCL (n1 y n2 grandes) además son independientes (pues las muestras 1 y 2 lo son) ⇒ δ̂ = Xn1 − Y n2 ≈N ( µ1 − µ2, σ21 n1 + σ22 n2 ) 30 / 35 IC asintótico para δ = µ1 − µ2 1 Buscamos un estimador del parámetro (δ): δ̂ = µ̂1 − µ̂2 = Xn1 − Y n2 2 Hallamos su distribución (asintótica): Xn1≈N (µ1, σ21 n1 ) y Y n2≈N (µ2, σ22 n2 ) x TCL (n1 y n2 grandes) además son independientes (pues las muestras 1 y 2 lo son) ⇒ δ̂ = Xn1 − Y n2 ≈N ( µ1 − µ2, σ21 n1 + σ22 n2 ) 30 / 35 IC asintótico para δ = µ1 − µ2 1 Buscamos un estimador del parámetro (δ): δ̂ = µ̂1 − µ̂2 = Xn1 − Y n2 2 Hallamos su distribución (asintótica): Xn1≈N (µ1, σ21 n1 ) y Y n2≈N (µ2, σ22 n2 ) x TCL (n1 y n2 grandes) además son independientes (pues las muestras 1 y 2 lo son) ⇒ δ̂ = Xn1 − Y n2 ≈N ( µ1 − µ2, σ21 n1 + σ22 n2 ) 30 / 35 IC asintótico para δ = µ1 − µ2 1 Buscamos un estimador del parámetro (δ): δ̂ = Xn1 − Y n2 2 Hallamos su distribución (asintótica): δ̂ = Xn1 − Y n2 ≈N ( µ1 − µ2, σ21 n1 + σ22 n2 ) 3 Lo estandarizamos: (Xn1 − Y n2)− (µ1 − µ2)√ σ21 n1 + σ22 n2 ≈N (0, 1) ↑ ¿Sirve como Pivote? 31 / 35 IC asintótico para δ = µ1 − µ2 1 Buscamos un estimador del parámetro (δ): δ̂ = Xn1 − Y n2 2 Hallamos su distribución (asintótica): δ̂ = Xn1 − Y n2 ≈N ( µ1 − µ2, σ21 n1 + σ22 n2 ) 3 Lo estandarizamos: (Xn1 − Y n2)− (µ1 − µ2)√ σ21 n1 + σ22 n2 ≈N (0, 1) ↑ ¿Sirve como Pivote? 31 / 35 IC asintótico para δ = µ1 − µ2 1 Buscamos un estimador del parámetro (δ): δ̂ = Xn1 − Y n2 2 Hallamos su distribución (asintótica): δ̂ = Xn1 − Y n2 ≈N ( µ1 − µ2, σ21 n1 + σ22 n2 ) 3 Lo estandarizamos: (Xn1 − Y n2)− (µ1 − µ2)√ σ21 n1 + σ22 n2 ≈N (0, 1) ↑ ¿Sirve como Pivote? 31 / 35 IC asintótico para δ = µ1 − µ2 1 Buscamos un estimador del parámetro (δ): δ̂ = Xn1 − Y n2 2 Hallamos su distribución (asintótica): δ̂ = Xn1 − Y n2 ≈N ( µ1 − µ2, σ21 n1 + σ22 n2 ) 3 Lo estandarizamos: (Xn1 − Y n2)− (µ1 − µ2)√ σ21 n1 + σ22 n2 ≈N (0, 1) ↑ ¿Sirve como Pivote? 31 / 35 IC asintótico para δ = µ1 − µ2 1 Buscamos un estimador del parámetro (δ): δ̂ = Xn1 − Y n2 2 Hallamos su distribución (asintótica): Xn1 − Y n2 ≈N ( µ1 − µ2, σ21 n1 + σ22 n2 ) 3 Lo estandarizamos: (Xn1 − Y n2)− (µ1 − µ2)√ σ21 n1 + σ22 n2 ≈N (0, 1) 4 Reemplazamos σ21 y σ 2 2 por s 2 1 y s 2 2 y obtenemos (Xn1 − Y n2)− (µ1 − µ2)√ s21 n1 + s22 n2 ≈N (0, 1) x TCL pues s21 y s 2 2 son cons. p/ σ 2 1 y σ 2 2. 32 / 35 IC asintótico para δ = µ1 − µ2 1 Buscamos un estimador del parámetro (δ): δ̂ = Xn1 − Y n2 2 Hallamos su distribución (asintótica): Xn1 − Y n2 ≈N ( µ1 − µ2, σ21 n1 + σ22 n2 ) 3 Lo estandarizamos: (Xn1 − Y n2)− (µ1 − µ2)√ σ21 n1 + σ22 n2 ≈N (0, 1) 4 Reemplazamos σ21 y σ 2 2 por s 2 1 y s 2 2 y obtenemos (Xn1 − Y n2)− (µ1 − µ2)√ s21 n1 + s22 n2 ≈N (0, 1) x TCL pues s21 y s 2 2 son cons. p/ σ 2 1 y σ 2 2. 32 / 35 IC asintótico para δ = µ1 − µ2 1 Buscamos un estimador del parámetro (δ): δ̂ = Xn1 − Y n2 2 Hallamos su distribución (asintótica): Xn1 − Y n2 ≈N ( µ1 − µ2, σ21 n1 + σ22 n2 ) 3 Lo estandarizamos: (Xn1 − Y n2)− (µ1 − µ2)√ σ21 n1 + σ22 n2 ≈N (0, 1) 4 Reemplazamos σ21 y σ 2 2 por s 2 1 y s 2 2 y obtenemos (Xn1 − Y n2)− (µ1 − µ2)√ s21 n1 + s22 n2 ≈N (0, 1) x TCL pues s21 y s 2 2 son cons. p/ σ 2 1 y σ 2 2. 32 / 35 IC asintótico para δ = µ1 − µ2 1 Buscamos un estimador del parámetro (δ): δ̂ = Xn1 − Y n2 2 Hallamos su distribución: Xn1 − Y n2 ≈N ( µ1 − µ2, σ21 n1 + σ22 n2 ) 3 Lo estandarizamos, reemplazamos σ21 y σ 2 2 por s 2 1 y s 2 2 y obtenemos (Xn1 − Y n2)− (µ1 − µ2)√ s21 n1 + s22 n2 ≈N (0, 1) 4 Hallamos zα/2 y planteamos P ∣∣∣∣∣∣(Xn1 − Y n2)− (µ1 − µ2)√ s21 n1 + s22 n2 ∣∣∣∣∣∣ < zα/2 ∼=1− α 33 / 35 IC asintótico para δ = µ1 − µ2 1 Buscamos un estimador del parámetro (δ): δ̂ = Xn1 − Y n2 2 Hallamos su distribución: Xn1 − Y n2 ≈N ( µ1 − µ2, σ21 n1 + σ22 n2 ) 3 Lo estandarizamos, reemplazamos σ21 y σ 2 2 por s 2 1 y s 2 2 y obtenemos (Xn1 − Y n2)− (µ1 − µ2)√ s21 n1 + s22 n2 ≈N (0, 1) 4 Hallamos zα/2 y planteamos P ∣∣∣∣∣∣(Xn1 − Y n2)− (µ1 − µ2)√ s21 n1 + s22 n2 ∣∣∣∣∣∣ < zα/2 ∼=1− α 33 / 35 IC asintótico para δ = µ1 − µ2 4 Hallamos zα/2 y planteamos P ∣∣∣∣∣∣(Xn1 − Y n2)− (µ1 − µ2)√ s21 n1 + s22 n2 ∣∣∣∣∣∣ < zα/2 ∼=1− α 5 Despejamos δ = µ1 − µ2 y concluimos que... P ( Xn1 − Y n2 − zα/2 √ s21 n1 + s22 n2 < µ1 − µ2 < Xn1 − Y n2 + zα/2 √ s21 n1 + s22 n2 ) ∼=1− α (pues n1 y n2 son grandes) ⇒ IC = Xn1 − Y n2 ± zα/2 √ s21 n1 + s22 n2 es un IC de nivel asintótico 1− α para µ1 − µ2. 34 / 35 IC asintótico para δ = µ1 − µ2 4 Hallamos zα/2 y planteamos P ∣∣∣∣∣∣(Xn1 − Y n2)− (µ1 − µ2)√ s21 n1 + s22 n2 ∣∣∣∣∣∣ < zα/2 ∼=1− α 5 Despejamos δ = µ1 − µ2 y concluimos que... P ( Xn1 − Y n2 − zα/2 √ s21 n1 + s22 n2 < µ1 − µ2 < Xn1 − Y n2 + zα/2 √ s21 n1 + s22 n2 ) ∼=1− α (pues n1 y n2 son grandes) ⇒ IC = Xn1 − Y n2 ± zα/2 √ s21 n1 + s22 n2 es un IC de nivel asintótico 1− α para µ1 − µ2. 34 / 35 IC asintótico para δ = µ1 − µ2 4 Hallamos zα/2 y planteamos P ∣∣∣∣∣∣(Xn1 − Y n2)− (µ1 − µ2)√ s21 n1 + s22 n2 ∣∣∣∣∣∣ < zα/2 ∼=1− α 5 Despejamos δ = µ1 − µ2 y concluimos que... P ( Xn1 − Y n2 − zα/2 √ s21 n1 + s22 n2 < µ1 − µ2 < Xn1 − Y n2 + zα/2 √ s21 n1 + s22 n2 ) ∼=1− α (pues n1 y n2 son grandes) ⇒ IC = Xn1 − Y n2 ± zα/2 √ s21 n1 + s22 n2 es un IC de nivel asintótico 1− α para µ1 − µ2. 34 / 35 IC asintótico para δ = µ1 − µ2 4 Hallamos zα/2 y planteamos P ∣∣∣∣∣∣(Xn1 − Y n2)− (µ1 − µ2)√ s21 n1 + s22 n2 ∣∣∣∣∣∣ < zα/2 ∼=1− α 5 Despejamos δ = µ1 − µ2 y concluimos que... P ( Xn1 − Y n2 − zα/2 √ s21 n1 + s22 n2 < µ1 − µ2 < Xn1 − Y n2 + zα/2 √ s21 n1 + s22 n2 ) ∼=1− α (pues n1 y n2 son grandes) ⇒ IC = Xn1 − Y n2 ± zα/2 √ s21 n1 + s22 n2 es un IC de nivel asintótico 1− α para µ1 − µ2. 34 / 35 IC asintótico para δ = µ1 − µ2 IC = Xn1 − Y n2 ± zα/2 √ s21 n1 + s22 n2 = ( δ̂ ± zα/2 ŝe(δ̂) ) ME = zα/2 √ s21 n1 + s22 n2 ↑ aleatorio depende de n1 y n2 α s21 y s 2 2 35 / 35 IC asintótico para δ = µ1 − µ2 IC = Xn1 − Y n2 ± zα/2 √ s21 n1 + s22 n2 = ( δ̂ ± zα/2 ŝe(δ̂) ) ME = zα/2 √ s21 n1 + s22 n2 ↑ aleatorio depende de n1 y n2 α s21 y s 2 2 35 / 35 IC asintótico para δ = µ1 − µ2 IC = Xn1 − Y n2 ± zα/2 √ s21 n1 + s22 n2 = ( δ̂ ± zα/2 ŝe(δ̂) ) ME = zα/2 √ s21 n1 + s22 n2 ↑ aleatorio depende de n1 y n2 α s21 y s 2 2 35 / 35 IC asintótico para δ = µ1 − µ2 IC = Xn1 − Y n2 ± zα/2 √ s21n1 + s22 n2 = ( δ̂ ± zα/2 ŝe(δ̂) ) ME = zα/2 √ s21 n1 + s22 n2 ↑ aleatorio depende de n1 y n2 α s21 y s 2 2 35 / 35 IC asintótico para δ = µ1 − µ2 IC = Xn1 − Y n2 ± zα/2 √ s21 n1 + s22 n2 = ( δ̂ ± zα/2 ŝe(δ̂) ) ME = zα/2 √ s21 n1 + s22 n2 ↑ aleatorio depende de n1 y n2 α s21 y s 2 2 35 / 35 IC asintótico para δ = µ1 − µ2 IC = Xn1 − Y n2 ± zα/2 √ s21 n1 + s22 n2 = ( δ̂ ± zα/2 ŝe(δ̂) ) ME = zα/2 √ s21 n1 + s22 n2 ↑ aleatorio depende de n1 y n2 α s21 y s 2 2 35 / 35 IC asintótico para δ = µ1 − µ2 IC = Xn1 − Y n2 ± zα/2 √ s21 n1 + s22 n2 = ( δ̂ ± zα/2 ŝe(δ̂) ) ME = zα/2 √ s21 n1 + s22 n2 ↑ aleatorio depende de n1 y n2 α s21 y s 2 2 35 / 35
Compartir