Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Inferencia Estad́ıstica Lućıa Babino Universidad Torcuato Di Tella 1 / 30 Repaso 2 / 30 Probabilidad vs. Inferencia Estad́ıstica Wasserman (2003) 3 / 30 Ingredientes fundamentales de la Estad́ıstica 1 Distribución (población): F 2 Parámetro (poblacional): θ(F ) = θ 3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. 4 Estimador: θ̂n(X1, . . . , Xn) = θ̂n = θ̂ 5 Incertidumbre (error de estimación): Intervalos de Confianza Test de Hipótesis 4 / 30 Ingredientes fundamentales de la Estad́ıstica 1 Distribución (población): F 2 Parámetro (poblacional): θ(F ) = θ 3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. 4 Estimador: θ̂n(X1, . . . , Xn) = θ̂n = θ̂ 5 Incertidumbre (error de estimación): Intervalos de Confianza Test de Hipótesis 4 / 30 Ingredientes fundamentales de la Estad́ıstica 1 Distribución (población): F 2 Parámetro (poblacional): θ(F ) = θ 3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. 4 Estimador: θ̂n(X1, . . . , Xn) = θ̂n = θ̂ 5 Incertidumbre (error de estimación): Intervalos de Confianza Test de Hipótesis 4 / 30 Ingredientes fundamentales de la Estad́ıstica 1 Distribución (población): F 2 Parámetro (poblacional): θ(F ) = θ 3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. 4 Estimador: θ̂n(X1, . . . , Xn) = θ̂n = θ̂ 5 Incertidumbre (error de estimación): Intervalos de Confianza Test de Hipótesis 4 / 30 Ingredientes fundamentales de la Estad́ıstica 1 Distribución (población): F 2 Parámetro (poblacional): θ(F ) = θ 3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. 4 Estimador: θ̂n(X1, . . . , Xn) = θ̂n = θ̂ 5 Incertidumbre (error de estimación): Intervalos de Confianza Test de Hipótesis 4 / 30 Ingredientes fundamentales de la Estad́ıstica 1 Distribución (población): F 2 Parámetro (poblacional): θ(F ) = θ 3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. 4 Estimador: θ̂n(X1, . . . , Xn) = θ̂n = θ̂ 5 Incertidumbre (error de estimación): Intervalos de Confianza Test de Hipótesis 4 / 30 Ingredientes fundamentales de la Estad́ıstica 1 Distribución (población): F 2 Parámetro (poblacional): θ(F ) = θ 3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. 4 Estimador: θ̂n(X1, . . . , Xn) = θ̂n = θ̂ 5 Incertidumbre (error de estimación): Intervalos de Confianza Test de Hipótesis 4 / 30 Ingredientes fundamentales de la Estad́ıstica 1 Distribución (población): F 2 Parámetro (poblacional): θ(F ) = θ 3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. 4 Estimador: θ̂n(X1, . . . , Xn) = θ̂n = θ̂ 5 Incertidumbre (error de estimación): Intervalos de Confianza Test de Hipótesis 4 / 30 Ingredientes fundamentales de la Estad́ıstica 1 Distribución (población): F 2 Parámetro (poblacional): θ(F ) = θ 3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. 4 Estimador: θ̂n(X1, . . . , Xn) = θ̂n = θ̂ 5 Incertidumbre (error de estimación): Intervalos de Confianza Test de Hipótesis 4 / 30 Tiempo de permanencia: problema simplificado Suponemos... µ0 = tiempo de permanencia medio con la versión actual = 60 seg −→ conocido Parámetro de interés: µ = tiempo de permanencia medio con la versión nueva Pregunta: ¿µ > µ0? Experimento: “TestB” Pasos para responder la pregunta: 1 estimar µ 2 comparar µ̂ con µ0 3 tomar una decisión 5 / 30 Tiempo de permanencia: problema simplificado Suponemos... µ0 = tiempo de permanencia medio con la versión actual = 60 seg −→ conocido Parámetro de interés: µ = tiempo de permanencia medio con la versión nueva Pregunta: ¿µ > µ0? Experimento: “TestB” Pasos para responder la pregunta: 1 estimar µ 2 comparar µ̂ con µ0 3 tomar una decisión 5 / 30 Tiempo de permanencia: problema simplificado Suponemos... µ0 = tiempo de permanencia medio con la versión actual = 60 seg −→ conocido Parámetro de interés: µ = tiempo de permanencia medio con la versión nueva Pregunta: ¿µ > µ0? Experimento: “TestB” Pasos para responder la pregunta: 1 estimar µ 2 comparar µ̂ con µ0 3 tomar una decisión 5 / 30 Tiempo de permanencia: problema simplificado Suponemos... µ0 = tiempo de permanencia medio con la versión actual = 60 seg −→ conocido Parámetro de interés: µ = tiempo de permanencia medio con la versión nueva Pregunta: ¿µ > µ0? Experimento: “TestB” Pasos para responder la pregunta: 1 estimar µ 2 comparar µ̂ con µ0 3 tomar una decisión 5 / 30 Tiempo de permanencia: problema simplificado Suponemos... µ0 = tiempo de permanencia medio con la versión actual = 60 seg −→ conocido Parámetro de interés: µ = tiempo de permanencia medio con la versión nueva Pregunta: ¿µ > µ0? Experimento: “TestB” Pasos para responder la pregunta: 1 estimar µ 2 comparar µ̂ con µ0 3 tomar una decisión 5 / 30 Tiempo de permanencia: problema simplificado Suponemos... µ0 = tiempo de permanencia medio con la versión actual = 60 seg −→ conocido Parámetro de interés: µ = tiempo de permanencia medio con la versión nueva Pregunta: ¿µ > µ0? Experimento: “TestB” Pasos para responder la pregunta: 1 estimar µ 2 comparar µ̂ con µ0 3 tomar una decisión 5 / 30 Tiempo de permanencia: problema simplificado Suponemos... µ0 = tiempo de permanencia medio con la versión actual = 60 seg −→ conocido Parámetro de interés: µ = tiempo de permanencia medio con la versión nueva Pregunta: ¿µ > µ0? Experimento: “TestB” Pasos para responder la pregunta: 1 estimar µ 2 comparar µ̂ con µ0 3 tomar una decisión 5 / 30 Tiempo de permanencia: problema simplificado Suponemos... µ0 = tiempo de permanencia medio con la versión actual = 60 seg −→ conocido Parámetro de interés: µ = tiempo de permanencia medio con la versión nueva Pregunta: ¿µ > µ0? Experimento: “TestB” Pasos para responder la pregunta: 1 estimar µ 2 comparar µ̂ con µ0 3 tomar una decisión 5 / 30 Tiempo de permanencia: problema simplificado Suponemos... µ0 = tiempo de permanencia medio con la versión actual = 60 seg −→ conocido Parámetro de interés: µ = tiempo de permanencia medio con la versión nueva Pregunta: ¿µ > µ0? Experimento: “TestB” Pasos para responder la pregunta: 1 estimar µ 2 comparar µ̂ con µ0 3 tomar una decisión 5 / 30 Temas de la materia 1 Ley de los grandes números y Teorema central del ĺımite 2 Estimación puntual 3 Intervalos de confianza 4 Test de hipótesis 6 / 30 Temas de la materia 1 Ley de los grandes números y Teorema central del ĺımite 2 Estimación puntual 3 Intervalos de confianza 4 Test de hipótesis 6 / 30 Temas de la materia 1 Ley de los grandes números y Teorema central del ĺımite 2 Estimación puntual 3 Intervalos de confianza 4 Test de hipótesis 6 / 30 Temas de la materia 1 Ley de los grandes números y Teorema central del ĺımite 2 Estimación puntual 3 Intervalos de confianza 4 Test de hipótesis 6 / 30 Temas de la materia 5 Regresión Lineal 7 / 30 Temas de la materia 5 Regresión Lineal 7 / 30 Temas de la materia 5 Regresión Lineal 6 Regresión Loǵıstica 8 / 30 Temas de la materia 5 Regresión Lineal 6 Regresión Loǵıstica 8 / 30 Bibliograf́ıa recomendada All of Statistics-A Concise Course in Statistical Inference. Wasserman, L. (2021). (pocas ideas intuitivas pero muy conciso y tiene todos los temas que veremos) Statistics: Unlocking the power of data. Lock et al. (2020). (poca teoŕıa pero muchos ejemplos e ideas intuitivas. Buen complemento del Wasserman, sobre todo para los temas 2 a 4) An introduction to statistical learning. James, G., Witten, D., Hastie, T., & Tibshirani, R. (2021). https://www.statlearning.com/ (ideal para los temas 5 y 6) 9 / 30 https://www.statlearning.com/ Repaso de Probabilidad 10 / 30 Propiedades de la esperanza 1 E(a) = a, a ∈ R 2 E(X + Y ) = E(X) + E(Y ) SIEMPRE 3 E(X + a) = E(X) + a 4 E(aX) = aE(X) 5 E ( n∑ i=1 aiXi ) = n∑ i=1 aiE(Xi) 6 E(Xn) = E ( 1 n n∑ i=1 Xi ) = 1n n∑ i=1 E(Xi) 7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) =µ 11 / 30 Propiedades de la esperanza 1 E(a) = a, a ∈ R 2 E(X + Y ) = E(X) + E(Y ) SIEMPRE 3 E(X + a) = E(X) + a 4 E(aX) = aE(X) 5 E ( n∑ i=1 aiXi ) = n∑ i=1 aiE(Xi) 6 E(Xn) = E ( 1 n n∑ i=1 Xi ) = 1n n∑ i=1 E(Xi) 7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ 11 / 30 Propiedades de la esperanza 1 E(a) = a, a ∈ R 2 E(X + Y ) = E(X) + E(Y ) SIEMPRE 3 E(X + a) = E(X) + a 4 E(aX) = aE(X) 5 E ( n∑ i=1 aiXi ) = n∑ i=1 aiE(Xi) 6 E(Xn) = E ( 1 n n∑ i=1 Xi ) = 1n n∑ i=1 E(Xi) 7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ 11 / 30 Propiedades de la esperanza 1 E(a) = a, a ∈ R 2 E(X + Y ) = E(X) + E(Y ) SIEMPRE 3 E(X + a) = E(X) + a 4 E(aX) = aE(X) 5 E ( n∑ i=1 aiXi ) = n∑ i=1 aiE(Xi) 6 E(Xn) = E ( 1 n n∑ i=1 Xi ) = 1n n∑ i=1 E(Xi) 7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ 11 / 30 Propiedades de la esperanza 1 E(a) = a, a ∈ R 2 E(X + Y ) = E(X) + E(Y ) SIEMPRE 3 E(X + a) = E(X) + a 4 E(aX) = aE(X) 5 E ( n∑ i=1 aiXi ) = n∑ i=1 aiE(Xi) 6 E(Xn) = E ( 1 n n∑ i=1 Xi ) = 1n n∑ i=1 E(Xi) 7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ 11 / 30 Propiedades de la esperanza 1 E(a) = a, a ∈ R 2 E(X + Y ) = E(X) + E(Y ) SIEMPRE 3 E(X + a) = E(X) + a 4 E(aX) = aE(X) 5 E ( n∑ i=1 aiXi ) = n∑ i=1 aiE(Xi) 6 E(Xn) = E ( 1 n n∑ i=1 Xi ) = 1n n∑ i=1 E(Xi) 7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ 11 / 30 Propiedades de la esperanza 1 E(a) = a, a ∈ R 2 E(X + Y ) = E(X) + E(Y ) SIEMPRE 3 E(X + a) = E(X) + a 4 E(aX) = aE(X) 5 E ( n∑ i=1 aiXi ) = n∑ i=1 aiE(Xi) 6 E(Xn) = E ( 1 n n∑ i=1 Xi ) = 1n n∑ i=1 E(Xi) 7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ 11 / 30 Propiedades de la esperanza 1 E(a) = a, a ∈ R 2 E(X + Y ) = E(X) + E(Y ) SIEMPRE 3 E(X + a) = E(X) + a 4 E(aX) = aE(X) 5 E ( n∑ i=1 aiXi ) = n∑ i=1 aiE(Xi) 6 E(Xn) = E ( 1 n n∑ i=1 Xi ) = 1n n∑ i=1 E(Xi) 7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ 11 / 30 Propiedades de la esperanza 1 E(a) = a, a ∈ R 2 E(X + Y ) = E(X) + E(Y ) SIEMPRE 3 E(X + a) = E(X) + a 4 E(aX) = aE(X) 5 E ( n∑ i=1 aiXi ) = n∑ i=1 aiE(Xi) 6 E(Xn) = E ( 1 n n∑ i=1 Xi ) = 1n n∑ i=1 E(Xi) 7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ 11 / 30 Propiedades de la esperanza 1 E(a) = a, a ∈ R 2 E(X + Y ) = E(X) + E(Y ) SIEMPRE 3 E(X + a) = E(X) + a 4 E(aX) = aE(X) 5 E ( n∑ i=1 aiXi ) = n∑ i=1 aiE(Xi) 6 E(Xn) = E ( 1 n n∑ i=1 Xi ) = 1n n∑ i=1 E(Xi) 7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ 11 / 30 Propiedades de la esperanza 1 E(a) = a, a ∈ R 2 E(X + Y ) = E(X) + E(Y ) SIEMPRE 3 E(X + a) = E(X) + a 4 E(aX) = aE(X) 5 E ( n∑ i=1 aiXi ) = n∑ i=1 aiE(Xi) 6 E(Xn) = E ( 1 n n∑ i=1 Xi ) = 1n n∑ i=1 E(Xi) 7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ 11 / 30 Propiedades de la esperanza 1 E(a) = a, a ∈ R 2 E(X + Y ) = E(X) + E(Y ) SIEMPRE 3 E(X + a) = E(X) + a 4 E(aX) = aE(X) 5 E ( n∑ i=1 aiXi ) = n∑ i=1 aiE(Xi) 6 E(Xn) = E ( 1 n n∑ i=1 Xi ) = 1 n n∑ i=1 E(Xi) 7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ 11 / 30 Propiedades de la esperanza 1 E(a) = a, a ∈ R 2 E(X + Y ) = E(X) + E(Y ) SIEMPRE 3 E(X + a) = E(X) + a 4 E(aX) = aE(X) 5 E ( n∑ i=1 aiXi ) = n∑ i=1 aiE(Xi) 6 E(Xn) = E ( 1 n n∑ i=1 Xi ) = 1n n∑ i=1 E(Xi) 7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ 11 / 30 Propiedades de la esperanza 1 E(a) = a, a ∈ R 2 E(X + Y ) = E(X) + E(Y ) SIEMPRE 3 E(X + a) = E(X) + a 4 E(aX) = aE(X) 5 E ( n∑ i=1 aiXi ) = n∑ i=1 aiE(Xi) 6 E(Xn) = E ( 1 n n∑ i=1 Xi ) = 1n n∑ i=1 E(Xi) 7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ 11 / 30 Propiedades de la esperanza 1 E(a) = a, a ∈ R 2 E(X + Y ) = E(X) + E(Y ) SIEMPRE 3 E(X + a) = E(X) + a 4 E(aX) = aE(X) 5 E ( n∑ i=1 aiXi ) = n∑ i=1 aiE(Xi) 6 E(Xn) = E ( 1 n n∑ i=1 Xi ) = 1n n∑ i=1 E(Xi) 7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ 11 / 30 Propiedades de la esperanza 1 E(a) = a, a ∈ R 2 E(X + Y ) = E(X) + E(Y ) SIEMPRE 3 E(X + a) = E(X) + a 4 E(aX) = aE(X) 5 E ( n∑ i=1 aiXi ) = n∑ i=1 aiE(Xi) 6 E(Xn) = E ( 1 n n∑ i=1 Xi ) = 1n n∑ i=1 E(Xi) 7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ 11 / 30 Propiedades de la esperanza 1 E(a) = a, a ∈ R 2 E(X + Y ) = E(X) + E(Y ) SIEMPRE 3 E(X + a) = E(X) + a 4 E(aX) = aE(X) 5 E ( n∑ i=1 aiXi ) = n∑ i=1 aiE(Xi) 6 E(Xn) = E ( 1 n n∑ i=1 Xi ) = 1n n∑ i=1 E(Xi) 7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ 11 / 30 Propiedades de la varianza V(X) = E { [X − E(X)]2 } 1 V(a) = 0, a ∈ R 2 V(X + Y ) = V(X) + V(Y ) + 2 cov(X,Y ) con cov(X,Y ) = E {[X − E(X)] [Y − E(Y )]} 3 V(X + Y ) = V(X) + V(Y ) si X,Y son INDEPENDIENTES 4 V(X + a) = V(X) 5 V(aX) = a2V(X) 6 V ( n∑ i=1 aiXi ) = n∑ i=1 a2i V(Xi) , si X1, . . . , Xn son indep. 7 Si X1, . . . , Xn son INDEP. c/ V(Xi) = σ2 ∀ i ⇒ V(Xn) = σ 2 n Si X1, . . . , Xn son i.i.d. con V(X1) = σ2 ⇒ V(Xn) = σ 2 n 12 / 30 Propiedades de la varianza V(X) = E { [X − E(X)]2 } 1 V(a) = 0, a ∈ R 2 V(X + Y ) = V(X) + V(Y ) + 2 cov(X,Y ) con cov(X,Y ) = E {[X − E(X)] [Y − E(Y )]} 3 V(X + Y ) = V(X) + V(Y ) si X,Y son INDEPENDIENTES 4 V(X + a) = V(X) 5 V(aX) = a2V(X) 6 V ( n∑ i=1 aiXi ) = n∑ i=1 a2i V(Xi) , si X1, . . . , Xn son indep. 7 Si X1, . . . , Xn son INDEP. c/ V(Xi) = σ2 ∀ i ⇒ V(Xn) = σ 2 n Si X1, . . . , Xn son i.i.d. con V(X1) = σ2 ⇒ V(Xn) = σ 2 n 12 / 30 Propiedades de la varianza V(X) = E { [X − E(X)]2 } 1 V(a) = 0, a ∈ R 2 V(X + Y ) = V(X) + V(Y ) + 2 cov(X,Y ) con cov(X,Y ) = E {[X − E(X)] [Y − E(Y )]} 3 V(X + Y ) = V(X) + V(Y ) si X,Y son INDEPENDIENTES 4 V(X + a) = V(X) 5 V(aX) = a2V(X) 6 V ( n∑ i=1 aiXi ) = n∑ i=1 a2i V(Xi) , si X1, . . . , Xn son indep. 7 Si X1, . . . , Xn son INDEP. c/ V(Xi) = σ2 ∀ i ⇒ V(Xn) = σ 2 n Si X1, . . . , Xn son i.i.d. con V(X1) = σ2 ⇒ V(Xn) = σ 2 n 12 / 30 Propiedades de la varianza V(X) = E { [X − E(X)]2 } 1 V(a) = 0, a ∈ R 2 V(X + Y ) = V(X) + V(Y ) + 2 cov(X,Y ) con cov(X,Y ) = E {[X − E(X)] [Y − E(Y )]} 3 V(X + Y ) = V(X) + V(Y ) si X,Y son INDEPENDIENTES 4 V(X + a) = V(X) 5 V(aX) = a2V(X) 6 V ( n∑ i=1 aiXi ) = n∑ i=1 a2i V(Xi) , si X1, . . . , Xn son indep. 7 Si X1, . . . , Xn son INDEP. c/ V(Xi) = σ2 ∀ i ⇒ V(Xn) = σ 2 n Si X1, . . . , Xn son i.i.d. con V(X1) = σ2 ⇒ V(Xn) = σ 2 n 12 / 30 Propiedades de la varianza V(X) = E { [X − E(X)]2 } 1 V(a) = 0, a ∈ R 2 V(X + Y ) = V(X) + V(Y ) + 2 cov(X,Y ) con cov(X,Y ) = E {[X − E(X)] [Y − E(Y )]} 3 V(X + Y ) = V(X) + V(Y ) si X,Y son INDEPENDIENTES 4 V(X + a) = V(X) 5 V(aX) = a2V(X) 6 V ( n∑ i=1 aiXi ) = n∑ i=1 a2i V(Xi) , si X1, . . . , Xn son indep. 7 Si X1, . . . , Xn son INDEP. c/ V(Xi) = σ2 ∀ i ⇒ V(Xn) = σ 2 n Si X1, . . . , Xn son i.i.d. con V(X1) = σ2 ⇒ V(Xn) = σ 2 n 12 / 30 Propiedades de la varianza V(X) = E { [X − E(X)]2 } 1 V(a) = 0, a ∈ R 2 V(X + Y ) = V(X) + V(Y ) + 2 cov(X,Y ) con cov(X,Y) = E {[X − E(X)] [Y − E(Y )]} 3 V(X + Y ) = V(X) + V(Y ) si X,Y son INDEPENDIENTES 4 V(X + a) = V(X) 5 V(aX) = a2V(X) 6 V ( n∑ i=1 aiXi ) = n∑ i=1 a2i V(Xi) , si X1, . . . , Xn son indep. 7 Si X1, . . . , Xn son INDEP. c/ V(Xi) = σ2 ∀ i ⇒ V(Xn) = σ 2 n Si X1, . . . , Xn son i.i.d. con V(X1) = σ2 ⇒ V(Xn) = σ 2 n 12 / 30 Propiedades de la varianza V(X) = E { [X − E(X)]2 } 1 V(a) = 0, a ∈ R 2 V(X + Y ) = V(X) + V(Y ) + 2 cov(X,Y ) con cov(X,Y ) = E {[X − E(X)] [Y − E(Y )]} 3 V(X + Y ) = V(X) + V(Y ) si X,Y son INDEPENDIENTES 4 V(X + a) = V(X) 5 V(aX) = a2V(X) 6 V ( n∑ i=1 aiXi ) = n∑ i=1 a2i V(Xi) , si X1, . . . , Xn son indep. 7 Si X1, . . . , Xn son INDEP. c/ V(Xi) = σ2 ∀ i ⇒ V(Xn) = σ 2 n Si X1, . . . , Xn son i.i.d. con V(X1) = σ2 ⇒ V(Xn) = σ 2 n 12 / 30 Propiedades de la varianza V(X) = E { [X − E(X)]2 } 1 V(a) = 0, a ∈ R 2 V(X + Y ) = V(X) + V(Y ) + 2 cov(X,Y ) con cov(X,Y ) = E {[X − E(X)] [Y − E(Y )]} 3 V(X + Y ) = V(X) + V(Y ) si X,Y son INDEPENDIENTES 4 V(X + a) = V(X) 5 V(aX) = a2V(X) 6 V ( n∑ i=1 aiXi ) = n∑ i=1 a2i V(Xi) , si X1, . . . , Xn son indep. 7 Si X1, . . . , Xn son INDEP. c/ V(Xi) = σ2 ∀ i ⇒ V(Xn) = σ 2 n Si X1, . . . , Xn son i.i.d. con V(X1) = σ2 ⇒ V(Xn) = σ 2 n 12 / 30 Propiedades de la varianza V(X) = E { [X − E(X)]2 } 1 V(a) = 0, a ∈ R 2 V(X + Y ) = V(X) + V(Y ) + 2 cov(X,Y ) con cov(X,Y ) = E {[X − E(X)] [Y − E(Y )]} 3 V(X + Y ) = V(X) + V(Y ) si X,Y son INDEPENDIENTES 4 V(X + a) = V(X) 5 V(aX) = a2V(X) 6 V ( n∑ i=1 aiXi ) = n∑ i=1 a2i V(Xi) , si X1, . . . , Xn son indep. 7 Si X1, . . . , Xn son INDEP. c/ V(Xi) = σ2 ∀ i ⇒ V(Xn) = σ 2 n Si X1, . . . , Xn son i.i.d. con V(X1) = σ2 ⇒ V(Xn) = σ 2 n 12 / 30 Propiedades de la varianza V(X) = E { [X − E(X)]2 } 1 V(a) = 0, a ∈ R 2 V(X + Y ) = V(X) + V(Y ) + 2 cov(X,Y ) con cov(X,Y ) = E {[X − E(X)] [Y − E(Y )]} 3 V(X + Y ) = V(X) + V(Y ) si X,Y son INDEPENDIENTES 4 V(X + a) = V(X) 5 V(aX) = a2V(X) 6 V ( n∑ i=1 aiXi ) = n∑ i=1 a2i V(Xi) , si X1, . . . , Xn son indep. 7 Si X1, . . . , Xn son INDEP. c/ V(Xi) = σ2 ∀ i ⇒ V(Xn) = σ 2 n Si X1, . . . , Xn son i.i.d. con V(X1) = σ2 ⇒ V(Xn) = σ 2 n 12 / 30 Propiedades de la varianza V(X) = E { [X − E(X)]2 } 1 V(a) = 0, a ∈ R 2 V(X + Y ) = V(X) + V(Y ) + 2 cov(X,Y ) con cov(X,Y ) = E {[X − E(X)] [Y − E(Y )]} 3 V(X + Y ) = V(X) + V(Y ) si X,Y son INDEPENDIENTES 4 V(X + a) = V(X) 5 V(aX) = a2V(X) 6 V ( n∑ i=1 aiXi ) = n∑ i=1 a2i V(Xi) , si X1, . . . , Xn son indep. 7 Si X1, . . . , Xn son INDEP. c/ V(Xi) = σ2 ∀ i ⇒ V(Xn) = σ 2 n Si X1, . . . , Xn son i.i.d. con V(X1) = σ2 ⇒ V(Xn) = σ 2 n 12 / 30 Propiedades de la varianza V(X) = E { [X − E(X)]2 } 1 V(a) = 0, a ∈ R 2 V(X + Y ) = V(X) + V(Y ) + 2 cov(X,Y ) con cov(X,Y ) = E {[X − E(X)] [Y − E(Y )]} 3 V(X + Y ) = V(X) + V(Y ) si X,Y son INDEPENDIENTES 4 V(X + a) = V(X) 5 V(aX) = a2V(X) 6 V ( n∑ i=1 aiXi ) = n∑ i=1 a2i V(Xi) , si X1, . . . , Xn son indep. 7 Si X1, . . . , Xn son INDEP. c/ V(Xi) = σ2 ∀ i ⇒ V(Xn) = σ2 n Si X1, . . . , Xn son i.i.d. con V(X1) = σ2 ⇒ V(Xn) = σ 2 n 12 / 30 Propiedades de la varianza V(X) = E { [X − E(X)]2 } 1 V(a) = 0, a ∈ R 2 V(X + Y ) = V(X) + V(Y ) + 2 cov(X,Y ) con cov(X,Y ) = E {[X − E(X)] [Y − E(Y )]} 3 V(X + Y ) = V(X) + V(Y ) si X,Y son INDEPENDIENTES 4 V(X + a) = V(X) 5 V(aX) = a2V(X) 6 V ( n∑ i=1 aiXi ) = n∑ i=1 a2i V(Xi) , si X1, . . . , Xn son indep. 7 Si X1, . . . , Xn son INDEP. c/ V(Xi) = σ2 ∀ i ⇒ V(Xn) = σ 2 n Si X1, . . . , Xn son i.i.d. con V(X1) = σ2 ⇒ V(Xn) = σ 2 n 12 / 30 Propiedades de la varianza V(X) = E { [X − E(X)]2 } 1 V(a) = 0, a ∈ R 2 V(X + Y ) = V(X) + V(Y ) + 2 cov(X,Y ) con cov(X,Y ) = E {[X − E(X)] [Y − E(Y )]} 3 V(X + Y ) = V(X) + V(Y ) si X,Y son INDEPENDIENTES 4 V(X + a) = V(X) 5 V(aX) = a2V(X) 6 V ( n∑ i=1 aiXi ) = n∑ i=1 a2i V(Xi) , si X1, . . . , Xn son indep. 7 Si X1, . . . , Xn son INDEP. c/ V(Xi) = σ2 ∀ i ⇒ V(Xn) = σ 2 n Si X1, . . . , Xn son i.i.d. con V(X1) = σ2 ⇒ V(Xn) = σ 2 n 12 / 30 Si X1, . . . , Xn son i.i.d. con E(X1) = µ y V(X1) = σ2 ⇒ E(Xn) = µ V(Xn) = σ 2 n 13 / 30 Distribuciones Discretas: Bi(n, p), Be(p), P(λ) Continuas: N (µ, σ2), U(a, b) Repasar función de probabilidad puntual o densidad, esperanza y varianza. 14 / 30 Distribuciones Discretas: Bi(n, p), Be(p), P(λ) Continuas: N (µ, σ2), U(a, b) Repasar función de probabilidad puntual o densidad, esperanza y varianza. 14 / 30 Distribuciones Discretas: Bi(n, p), Be(p), P(λ) Continuas: N (µ, σ2), U(a, b) Repasar función de probabilidad puntual o densidad, esperanza y varianza. 14 / 30 Propiedades de la normal Sea X ∼ N (µ, σ2), entonces X + b ∼ N (µ+ b, σ2) aX ∼ N (aµ, a2σ2) aX + b ∼ N (aµ+ b, a2σ2) X−µ σ ∼ N (0, 1) −→ ESTANDARIZACIÓN 15 / 30 Propiedades de la normal Sea X ∼ N (µ, σ2), entonces X + b ∼ N (µ+ b, σ2) aX ∼ N (aµ, a2σ2) aX + b ∼ N (aµ+ b, a2σ2) X−µ σ ∼ N (0, 1) −→ ESTANDARIZACIÓN 15 / 30 Propiedades de la normal Sea X ∼ N (µ, σ2), entonces X + b ∼ N (µ+ b, σ2) aX ∼ N (aµ, a2σ2) aX + b ∼ N (aµ+ b, a2σ2) X−µ σ ∼ N (0, 1) −→ ESTANDARIZACIÓN 15 / 30 Propiedades de la normal Sea X ∼ N (µ, σ2), entonces X + b ∼ N (µ+ b, σ2) aX ∼ N (aµ, a2σ2) aX + b ∼ N (aµ+ b, a2σ2) X−µ σ ∼ N (0, 1) −→ ESTANDARIZACIÓN 15 / 30 Propiedades de la normal Sea X ∼ N (µ, σ2), entonces X + b ∼ N (µ+ b, σ2) aX ∼ N (aµ, a2σ2) aX + b ∼ N (aµ+ b, a2σ2) X−µ σ ∼ N (0, 1) −→ ESTANDARIZACIÓN 15 / 30 Propiedades de la normal Sea X ∼ N (µ, σ2), entonces X + b ∼ N (µ+ b, σ2) aX ∼ N (aµ, a2σ2) aX + b ∼ N (aµ+ b, a2σ2) X−µ σ ∼ N (0, 1) −→ ESTANDARIZACIÓN 15 / 30 Propiedades de la normal Sea X ∼ N (µ, σ2), entonces X + b ∼ N (µ+ b, σ2) aX ∼ N (aµ, a2σ2) aX + b ∼ N (aµ+ b, a2σ2) X−µ σ ∼ N (0, 1) −→ ESTANDARIZACIÓN 15 / 30 Propiedades de la normal Sea X ∼ N (µ, σ2), entonces X + b ∼ N (µ+ b, σ2) aX ∼ N (aµ, a2σ2) aX + b ∼ N (aµ+ b, a2σ2) X−µ σ ∼ N (0, 1) −→ ESTANDARIZACIÓN 15 / 30 Propiedades de la normal Sea X ∼ N (µ, σ2), entonces X + b ∼ N (µ+ b, σ2) aX ∼ N (aµ, a2σ2) aX + b ∼ N (aµ+ b, a2σ2) X−µ σ ∼ N (0, 1) −→ ESTANDARIZACIÓN 15 / 30 Propiedades de la normal Sea X ∼ N (µ, σ2), entonces X + b ∼ N (µ+ b, σ2) aX ∼ N (aµ, a2σ2) aX + b ∼ N (aµ+ b, a2σ2) X−µ σ ∼ N (0, 1) −→ ESTANDARIZACIÓN 15 / 30 Propiedades de la normal Sea X ∼ N (µ, σ2), entonces X + b ∼ N (µ+ b, σ2) aX ∼ N (aµ, a2σ2) aX + b ∼ N (aµ+ b, a2σ2) X−µ σ ∼ N (0, 1) −→ ESTANDARIZACIÓN 15 / 30 Propiedades de la normal Sea X ∼ N (µ, σ2), entonces X + b ∼ N (µ+ b, σ2) aX ∼ N (aµ, a2σ2) aX + b ∼ N (aµ+ b, a2σ2) X−µ σ ∼ N (0, 1) −→ ESTANDARIZACIÓN 15 / 30 Propiedades de la normal Sea X ∼ N (µ, σ2), entonces X + b ∼ N (µ+ b, σ2) aX ∼ N (aµ, a2σ2) aX + b ∼ N (aµ+ b, a2σ2) X−µ σ ∼ N (0, 1) −→ ESTANDARIZACIÓN 15 / 30 Propiedades de la normal Sea X ∼ N (µ, σ2), entonces X + b ∼ N (µ+ b, σ2) aX ∼ N (aµ, a2σ2) aX + b ∼ N (aµ+ b, a2σ2) X−µ σ ∼ N (0, 1) −→ ESTANDARIZACIÓN 15 / 30 Combinaciones lineales de normales X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒ X + Y ∼ N (µ1 + µ2, σ21 + σ22) Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒ n∑ i=1 aiXi ∼ N ( n∑ i=1 aiµi, n∑ i=1 a2iσ 2 i ) Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒ Xn ∼ N (µ, σ 2 n ) Xn−µ√ σ2 n ∼ N (0, 1) ¿y si las variables no son normales? 16 / 30 Combinaciones lineales de normales X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒ X + Y ∼ N (µ1 + µ2, σ21 + σ22) Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒ n∑ i=1 aiXi ∼ N ( n∑ i=1 aiµi, n∑ i=1 a2iσ 2 i ) Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒ Xn ∼ N (µ, σ 2 n ) Xn−µ√ σ2 n ∼ N (0, 1) ¿y si las variables no son normales? 16 / 30 Combinaciones lineales de normales X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒ X + Y ∼ N (µ1 + µ2, σ 2 1 + σ 2 2) Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒ n∑ i=1 aiXi ∼ N ( n∑ i=1 aiµi, n∑ i=1 a2iσ 2 i ) Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒ Xn ∼ N (µ, σ2 n ) Xn−µ√ σ2 n ∼ N (0, 1) ¿y si las variables no son normales? 16 / 30 Combinaciones lineales de normales X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒ X + Y ∼ N (µ1 + µ2, σ21 + σ 2 2) Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒ n∑ i=1 aiXi ∼ N ( n∑ i=1 aiµi, n∑ i=1 a2iσ 2 i ) Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒ Xn ∼ N (µ, σ 2 n ) Xn−µ√ σ2 n ∼ N (0, 1) ¿y si las variables no son normales? 16 / 30 Combinaciones lineales de normales X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒ X + Y ∼ N (µ1 + µ2, σ21 + σ22) Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒ n∑ i=1 aiXi ∼ N ( n∑ i=1 aiµi, n∑ i=1 a2iσ 2 i ) Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒ Xn ∼ N (µ, σ 2 n ) Xn−µ√ σ2 n ∼ N (0, 1) ¿y si las variables no son normales? 16 / 30 Combinaciones lineales de normales X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒ X + Y ∼ N (µ1 + µ2, σ21 + σ22) Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒ n∑ i=1 aiXi ∼ N ( n∑ i=1 aiµi, n∑ i=1 a2iσ 2 i ) Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒ Xn ∼ N (µ, σ 2 n ) Xn−µ√ σ2 n ∼ N (0, 1) ¿y si las variables no son normales? 16 / 30 Combinaciones lineales de normales X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒ X + Y ∼ N (µ1 + µ2, σ21 + σ22) Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒ n∑ i=1 aiXi ∼ N ( n∑ i=1 aiµi, n∑ i=1 a2iσ 2 i ) Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒ Xn ∼ N (µ, σ 2 n ) Xn−µ√ σ2 n ∼ N (0, 1) ¿y si las variables no son normales? 16 / 30 Combinaciones lineales de normales X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒ X + Y ∼ N (µ1 + µ2, σ21 + σ22) Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒ n∑ i=1 aiXi ∼ N ( n∑ i=1 aiµi, n∑ i=1 a2iσ 2 i ) Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒ Xn ∼ N (µ, σ 2 n ) Xn−µ√ σ2 n ∼ N (0, 1) ¿y si las variables no son normales? 16 / 30 Combinaciones lineales de normales X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒ X + Y ∼ N (µ1 + µ2, σ21 + σ22) Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒ n∑ i=1 aiXi ∼ N ( n∑ i=1 aiµi, n∑ i=1 a2iσ 2 i ) Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒ Xn ∼ N (µ, σ 2 n ) Xn−µ√ σ2 n ∼ N (0, 1) ¿y si las variables no son normales? 16 / 30 Combinaciones lineales de normales X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒ X + Y ∼ N (µ1 + µ2, σ21 + σ22) Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒ n∑ i=1 aiXi ∼ N ( n∑ i=1 aiµi, n∑ i=1 a2iσ 2 i ) Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒ Xn ∼ N (µ, σ 2 n ) Xn−µ√ σ2 n ∼ N (0, 1) ¿y si las variables no son normales? 16 / 30 Combinaciones lineales de normales X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒ X + Y ∼ N (µ1 + µ2, σ21 + σ22) Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒ n∑ i=1 aiXi ∼ N ( n∑ i=1 aiµi, n∑ i=1 a2iσ 2 i ) Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒ Xn ∼ N (µ, σ 2 n ) Xn−µ√ σ2 n ∼ N (0, 1) ¿y si las variables no son normales? 16 / 30 Combinaciones lineales de normales X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒ X + Y ∼ N (µ1 + µ2, σ21 + σ22) Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒ n∑ i=1 aiXi ∼ N ( n∑ i=1 aiµi, n∑ i=1 a2iσ 2 i ) Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒ Xn ∼ N (µ, σ 2 n ) Xn−µ√ σ2 n ∼ N (0, 1) ¿y si las variables no son normales? 16 / 30 Combinaciones lineales de normales X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒ X + Y ∼ N (µ1 + µ2, σ21 + σ22) Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒ n∑ i=1 aiXi ∼ N ( n∑ i=1 aiµi, n∑ i=1 a2iσ 2 i ) Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒ Xn ∼ N (µ, σ 2 n ) Xn−µ√ σ2 n ∼ N (0, 1) ¿y si las variables no son normales? 16 / 30 Combinaciones lineales de normales X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒ X + Y ∼ N (µ1 + µ2, σ21 + σ22) Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒ n∑ i=1 aiXi ∼ N ( n∑ i=1 aiµi, n∑ i=1 a2iσ 2 i ) Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒ Xn ∼ N (µ, σ2 n ) Xn−µ√ σ2 n ∼ N (0, 1) ¿y si las variables no son normales? 16 / 30 Combinaciones lineales de normales X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒ X + Y ∼ N (µ1 + µ2, σ21 + σ22) Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒ n∑ i=1 aiXi ∼ N ( n∑ i=1 aiµi, n∑ i=1 a2iσ 2 i ) Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒ Xn ∼ N (µ, σ 2 n ) Xn−µ√ σ2 n ∼ N (0, 1) ¿y si las variables no son normales? 16 / 30 Combinaciones lineales de normales X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒ X + Y ∼ N (µ1 + µ2, σ21 + σ22) Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒ n∑ i=1 aiXi ∼ N ( n∑ i=1 aiµi, n∑ i=1 a2iσ 2 i ) Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒ Xn ∼ N (µ, σ 2 n ) Xn−µ√ σ2 n ∼ N (0, 1) ¿y si las variables no son normales? 16 / 30 Combinaciones lineales de normales X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒ X + Y ∼ N (µ1 + µ2, σ21 + σ22) Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒ n∑ i=1 aiXi ∼ N ( n∑ i=1 aiµi, n∑ i=1 a2iσ 2 i ) Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒ Xn ∼ N (µ, σ 2 n ) Xn−µ√ σ2 n ∼ N (0, 1) ¿y si las variables no son normales? 16 / 30 Combinaciones lineales de normales X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒ X + Y ∼ N (µ1 + µ2, σ21 + σ22) Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒ n∑ i=1 aiXi ∼ N ( n∑ i=1 aiµi, n∑ i=1 a2iσ 2 i ) Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒ Xn ∼ N (µ, σ 2 n ) Xn−µ√ σ2 n ∼ N (0, 1) ¿y si las variables no son normales? 16 / 30 Ley de los grandes números Hoja de ruta Esta clase: repaso y aplicación a estimación Clase que viene: demostración Resultado fundamental para Probabilidad: da sustento teórico a la interpretación frecuentista de la probabilidad y la esperanza Estad́ıstica: da información sobre distribución de promedios de variables i.i.d. Bibliograf́ıa recomendada (para LGN y TCL) Wasserman: cap. 4.1 (pag 63-64), 5.3 y 5.4 Probability: with applications and R, Dobrow: cap. 9.1 y 9.4 (subidos a la página de la materia) 17 / 30 Ley de los grandes números Hoja de ruta Esta clase: repaso y aplicación a estimación Clase que viene: demostración Resultado fundamental para Probabilidad: da sustento teórico a la interpretación frecuentista de la probabilidad y la esperanza Estad́ıstica: da información sobre distribución de promedios de variables i.i.d. Bibliograf́ıa recomendada (para LGN y TCL) Wasserman: cap. 4.1 (pag 63-64), 5.3 y 5.4 Probability: with applications and R, Dobrow: cap. 9.1 y 9.4 (subidos a la página de la materia) 17 / 30 Ley de los grandes números Hoja de ruta Esta clase: repaso y aplicación a estimación Clase que viene: demostración Resultado fundamental para Probabilidad: da sustento teórico a la interpretación frecuentista de la probabilidad y la esperanza Estad́ıstica: da información sobre distribución de promedios de variables i.i.d. Bibliograf́ıa recomendada (para LGN y TCL) Wasserman: cap. 4.1 (pag 63-64), 5.3 y 5.4 Probability: with applications and R, Dobrow: cap. 9.1 y 9.4 (subidos a la página de la materia) 17 / 30 Ley de los grandes números Hoja de ruta Esta clase: repaso y aplicación a estimación Clase que viene: demostración Resultado fundamental para Probabilidad: da sustento teórico a la interpretación frecuentista de la probabilidad y la esperanza Estad́ıstica: da información sobre distribución de promedios de variables i.i.d. Bibliograf́ıa recomendada (para LGN y TCL) Wasserman: cap. 4.1 (pag 63-64), 5.3 y 5.4 Probability: with applications and R, Dobrow: cap. 9.1 y 9.4 (subidos a la página de la materia) 17 / 30 Ley de los grandes números Hoja de ruta Esta clase: repaso y aplicación a estimación Clase que viene: demostración Resultado fundamental para Probabilidad: da sustento teórico a la interpretación frecuentista de la probabilidad y la esperanza Estad́ıstica: da información sobre distribución de promedios de variables i.i.d. Bibliograf́ıa recomendada (para LGN y TCL)Wasserman: cap. 4.1 (pag 63-64), 5.3 y 5.4 Probability: with applications and R, Dobrow: cap. 9.1 y 9.4 (subidos a la página de la materia) 17 / 30 Ley de los grandes números Hoja de ruta Esta clase: repaso y aplicación a estimación Clase que viene: demostración Resultado fundamental para Probabilidad: da sustento teórico a la interpretación frecuentista de la probabilidad y la esperanza Estad́ıstica: da información sobre distribución de promedios de variables i.i.d. Bibliograf́ıa recomendada (para LGN y TCL) Wasserman: cap. 4.1 (pag 63-64), 5.3 y 5.4 Probability: with applications and R, Dobrow: cap. 9.1 y 9.4 (subidos a la página de la materia) 17 / 30 Ley de los grandes números Hoja de ruta Esta clase: repaso y aplicación a estimación Clase que viene: demostración Resultado fundamental para Probabilidad: da sustento teórico a la interpretación frecuentista de la probabilidad y la esperanza Estad́ıstica: da información sobre distribución de promedios de variables i.i.d. Bibliograf́ıa recomendada (para LGN y TCL) Wasserman: cap. 4.1 (pag 63-64), 5.3 y 5.4 Probability: with applications and R, Dobrow: cap. 9.1 y 9.4 (subidos a la página de la materia) 17 / 30 Ley de los grandes números Hoja de ruta Esta clase: repaso y aplicación a estimación Clase que viene: demostración Resultado fundamental para Probabilidad: da sustento teórico a la interpretación frecuentista de la probabilidad y la esperanza Estad́ıstica: da información sobre distribución de promedios de variables i.i.d. Bibliograf́ıa recomendada (para LGN y TCL) Wasserman: cap. 4.1 (pag 63-64), 5.3 y 5.4 Probability: with applications and R, Dobrow: cap. 9.1 y 9.4 (subidos a la página de la materia) 17 / 30 Ley de los grandes números Hoja de ruta Esta clase: repaso y aplicación a estimación Clase que viene: demostración Resultado fundamental para Probabilidad: da sustento teórico a la interpretación frecuentista de la probabilidad y la esperanza Estad́ıstica: da información sobre distribución de promedios de variables i.i.d. Bibliograf́ıa recomendada (para LGN y TCL) Wasserman: cap. 4.1 (pag 63-64), 5.3 y 5.4 Probability: with applications and R, Dobrow: cap. 9.1 y 9.4 (subidos a la página de la materia) 17 / 30 Ley de los grandes números Teorema Sea X1, . . . , Xn, . . . una sucesión de v.a. i.i.d. con E (X1) = µ ⇒ P (∣∣Xn − µ∣∣ > ϵ) −→ n→∞ 0 ∀ϵ > 0 18 / 30 Ejemplo Pedro tira una moneda balanceada cada d́ıa y registra si salió cara o seca. Para i = 1, 2, ... definamos Xi = { 1 si en el i-ésimo tiro salió cara 0 si en el i-ésimo tiro salió cara X1, . . . , Xn ∼ Be(12) i.i.d. Proporción de caras luego de n d́ıas (lanzamientos): Xn. La LGN dice que... P (∣∣∣∣Xn − 12 ∣∣∣∣ > ϵ) −→n→∞ 0 ∀ϵ > 0. 19 / 30 Ejemplo Pedro tira una moneda balanceada cada d́ıa y registra si salió cara o seca. Para i = 1, 2, ... definamos Xi = { 1 si en el i-ésimo tiro salió cara 0 si en el i-ésimo tiro salió cara X1, . . . , Xn ∼ Be(12) i.i.d. Proporción de caras luego de n d́ıas (lanzamientos): Xn. La LGN dice que... P (∣∣∣∣Xn − 12 ∣∣∣∣ > ϵ) −→n→∞ 0 ∀ϵ > 0. 19 / 30 Ejemplo Pedro tira una moneda balanceada cada d́ıa y registra si salió cara o seca. Para i = 1, 2, ... definamos Xi = { 1 si en el i-ésimo tiro salió cara 0 si en el i-ésimo tiro salió cara X1, . . . , Xn ∼ Be(12) i.i.d. Proporción de caras luego de n d́ıas (lanzamientos): Xn. La LGN dice que... P (∣∣∣∣Xn − 12 ∣∣∣∣ > ϵ) −→n→∞ 0 ∀ϵ > 0. 19 / 30 Ejemplo Pedro tira una moneda balanceada cada d́ıa y registra si salió cara o seca. Para i = 1, 2, ... definamos Xi = { 1 si en el i-ésimo tiro salió cara 0 si en el i-ésimo tiro salió cara X1, . . . , Xn ∼ Be(12) i.i.d. Proporción de caras luego de n d́ıas (lanzamientos): Xn. La LGN dice que... P (∣∣∣∣Xn − 12 ∣∣∣∣ > ϵ) −→n→∞ 0 ∀ϵ > 0. 19 / 30 Ejemplo Pedro tira una moneda balanceada cada d́ıa y registra si salió cara o seca. Para i = 1, 2, ... definamos Xi = { 1 si en el i-ésimo tiro salió cara 0 si en el i-ésimo tiro salió cara X1, . . . , Xn ∼ Be(12) i.i.d. Proporción de caras luego de n d́ıas (lanzamientos): Xn. La LGN dice que... P (∣∣∣∣Xn − 12 ∣∣∣∣ > ϵ) −→n→∞ 0 ∀ϵ > 0. 19 / 30 Ejemplo Pedro tira una moneda balanceada cada d́ıa y registra si salió cara o seca. Para i = 1, 2, ... definamos Xi = { 1 si en el i-ésimo tiro salió cara 0 si en el i-ésimo tiro salió cara X1, . . . , Xn ∼ Be(12) i.i.d. Proporción de caras luego de n d́ıas (lanzamientos): Xn. La LGN dice que... P (∣∣∣∣Xn − 12 ∣∣∣∣ > ϵ) −→n→∞ 0 ∀ϵ > 0. 19 / 30 Ejemplo Pedro tira una moneda balanceada cada d́ıa y registra si salió cara o seca. Para i = 1, 2, ... definamos Xi = { 1 si en el i-ésimo tiro salió cara 0 si en el i-ésimo tiro salió cara X1, . . . , Xn ∼ Be(12) i.i.d. Proporción de caras luego de n d́ıas (lanzamientos): Xn. La LGN dice que... P (∣∣∣∣Xn − 12 ∣∣∣∣ > ϵ) −→n→∞ 0 ∀ϵ > 0. 19 / 30 Distribución de Xn con X1, . . . , Xn ∼ Be(12) i.i.d. 20 / 30 P ( |Xn − 12 | ≤ 0.1 ) 21 / 30 Intuición Si X1, . . . , Xn son i.i.d. con E(X1) = µ y V(X1) = σ2 ⇒ E(Xn) = µ V(Xn) = σ 2 n 22 / 30 Intuición Si X1, . . . , Xn son i.i.d. con E(X1) = µ y V(X1) = σ2 ⇒ E(Xn) = µ V(Xn) = σ 2 n 22 / 30 Ley de los grandes números Teorema Sea X1, . . . , Xn, . . . una sucesión de v.a. i.i.d. con E (X1) = µ ⇒ P (∣∣Xn − µ∣∣ > ϵ) −→ n→∞ 0 ∀ϵ > 0 23 / 30 Convergencia en probabilidad Definición Sea Z1, . . . , Zn, . . . una sucesión de v.a. y sea Z otra v.a., decimos que Zn converge en probabilidad a Z si P (|Zn − Z| > ϵ) −→ n→∞ 0 ∀ϵ > 0 y escribimos Zn p−→ Z. Ley de los grandes números Sea X1, . . . , Xn, . . . una sucesión de v.a. i.i.d. con E (X1) = µ ⇒ Xn p−→ µ 24 / 30 Convergencia en probabilidad Definición Sea Z1, . . . , Zn, . . . una sucesión de v.a. y sea Z otra v.a., decimos que Zn converge en probabilidad a Z si P (|Zn − Z| > ϵ) −→ n→∞ 0 ∀ϵ > 0 y escribimos Zn p−→ Z. Ley de los grandes números Sea X1, . . . , Xn, . . . una sucesión de v.a. i.i.d. con E (X1) = µ ⇒ Xn p−→ µ 24 / 30 Propiedades de la convergencia en probabilidad Si Xn p−→ a e Yn p−→ b, entonces: Xn + Yn p−→ a+ b Xn − Yn p−→ a− b XnYn p−→ ab Xn Yn p−→ ab si b ̸= 0 g (Xn) p−→ g(a) si g es una función continua en a si cn es una sucesión numérica tal que cn −→ c, entonces cnXn p−→ ca 25 / 30 Propiedades de la convergencia en probabilidad Si Xn p−→ a e Yn p−→ b, entonces: Xn + Yn p−→ a+ b Xn − Yn p−→ a− b XnYn p−→ ab Xn Yn p−→ ab si b ̸= 0 g (Xn) p−→ g(a) si g es una función continua en a si cn es una sucesión numérica tal que cn −→ c, entonces cnXn p−→ ca 25 / 30 Propiedades de la convergencia en probabilidad Si Xn p−→ a e Yn p−→ b, entonces: Xn + Yn p−→ a+ b Xn − Yn p−→ a− b XnYn p−→ ab Xn Yn p−→ ab si b ̸= 0 g (Xn) p−→ g(a) si g es una función continua en a si cn es una sucesión numérica tal que cn −→ c, entonces cnXn p−→ ca 25 / 30 Propiedades de la convergencia en probabilidad Si Xn p−→ a e Yn p−→ b, entonces: Xn + Yn p−→ a+ b Xn − Yn p−→ a− b XnYn p−→ ab Xn Yn p−→ ab si b ̸= 0 g (Xn) p−→ g(a) si g es una función continua en a si cn es una sucesión numérica tal que cn −→ c, entonces cnXn p−→ ca 25 / 30 Propiedades de la convergencia en probabilidad Si Xn p−→ a e Yn p−→ b, entonces: Xn + Yn p−→ a+ b Xn − Yn p−→ a− b XnYn p−→ ab Xn Yn p−→ ab si b ̸= 0 g (Xn) p−→ g(a) si g es una función continua en a si cn es una sucesión numérica tal que cn −→ c, entonces cnXn p−→ ca 25 / 30 Propiedades de la convergencia en probabilidad Si Xn p−→ a e Yn p−→ b, entonces: Xn + Yn p−→ a+ b Xn − Yn p−→ a− b XnYn p−→ ab Xn Yn p−→ ab si b ̸= 0 g (Xn) p−→ g(a) si g es una función continua en a si cn es una sucesión numérica tal que cn −→ c, entonces cnXn p−→ ca 25 / 30 Propiedades de la convergencia en probabilidad Si Xn p−→ a e Yn p−→ b, entonces: Xn + Yn p−→ a+ b Xn −Yn p−→ a− b XnYn p−→ ab Xn Yn p−→ ab si b ̸= 0 g (Xn) p−→ g(a) si g es una función continua en a si cn es una sucesión numérica tal que cn −→ c, entonces cnXn p−→ ca 25 / 30 Propiedades de la convergencia en probabilidad Si Xn p−→ a e Yn p−→ b, entonces: Xn + Yn p−→ a+ b Xn − Yn p−→ a− b XnYn p−→ ab Xn Yn p−→ a b si b ̸= 0 g (Xn) p−→ g(a) si g es una función continua en a si cn es una sucesión numérica tal que cn −→ c, entonces cnXn p−→ ca 25 / 30 Propiedades de la convergencia en probabilidad Si Xn p−→ a e Yn p−→ b, entonces: Xn + Yn p−→ a+ b Xn − Yn p−→ a− b XnYn p−→ ab Xn Yn p−→ ab si b ̸= 0 g (Xn) p−→ g(a) si g es una función continua en a si cn es una sucesión numérica tal que cn −→ c, entonces cnXn p−→ ca 25 / 30 Propiedades de la convergencia en probabilidad Si Xn p−→ a e Yn p−→ b, entonces: Xn + Yn p−→ a+ b Xn − Yn p−→ a− b XnYn p−→ ab Xn Yn p−→ ab si b ̸= 0 g (Xn) p−→ g(a) si g es una función continua en a si cn es una sucesión numérica tal que cn −→ c, entonces cnXn p−→ ca 25 / 30 Propiedades de la convergencia en probabilidad Si Xn p−→ a e Yn p−→ b, entonces: Xn + Yn p−→ a+ b Xn − Yn p−→ a− b XnYn p−→ ab Xn Yn p−→ ab si b ̸= 0 g (Xn) p−→ g(a) si g es una función continua en a si cn es una sucesión numérica tal que cn −→ c, entonces cnXn p−→ ca 25 / 30 Propiedades de la convergencia en probabilidad Si Xn p−→ a e Yn p−→ b, entonces: Xn + Yn p−→ a+ b Xn − Yn p−→ a− b XnYn p−→ ab Xn Yn p−→ ab si b ̸= 0 g (Xn) p−→ g(a) si g es una función continua en a si cn es una sucesión numérica tal que cn −→ c, entonces cnXn p−→ ca 25 / 30 Propiedades de la convergencia en probabilidad Si Xn p−→ a e Yn p−→ b, entonces: Xn + Yn p−→ a+ b Xn − Yn p−→ a− b XnYn p−→ ab Xn Yn p−→ ab si b ̸= 0 g (Xn) p−→ g(a) si g es una función continua en a si cn es una sucesión numérica tal que cn −→ c, entonces cnXn p−→ ca 25 / 30 LGN para estimación 26 / 30 Estimación de la Esperanza Parámetro de interés: µ = E(X), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Estimador: µ̂n = Xn Por LGN, Xn p−→ µ La LGN da sustento a el uso de Xn como estimador de µ la interpretación frecuentista de la esperanza. 27 / 30 Estimación de la Esperanza Parámetro de interés: µ = E(X), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Estimador: µ̂n = Xn Por LGN, Xn p−→ µ La LGN da sustento a el uso de Xn como estimador de µ la interpretación frecuentista de la esperanza. 27 / 30 Estimación de la Esperanza Parámetro de interés: µ = E(X), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Estimador: µ̂n = Xn Por LGN, Xn p−→ µ La LGN da sustento a el uso de Xn como estimador de µ la interpretación frecuentista de la esperanza. 27 / 30 Estimación de la Esperanza Parámetro de interés: µ = E(X), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Estimador: µ̂n = Xn Por LGN, Xn p−→ µ La LGN da sustento a el uso de Xn como estimador de µ la interpretación frecuentista de la esperanza. 27 / 30 Estimación de la Esperanza Parámetro de interés: µ = E(X), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Estimador: µ̂n = Xn Por LGN, Xn p−→ µ La LGN da sustento a el uso de Xn como estimador de µ la interpretación frecuentista de la esperanza. 27 / 30 Estimación de la Esperanza Parámetro de interés: µ = E(X), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Estimador: µ̂n = Xn Por LGN, Xn p−→ µ La LGN da sustento a el uso de Xn como estimador de µ la interpretación frecuentista de la esperanza. 27 / 30 Estimación de la Esperanza Parámetro de interés: µ = E(X), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Estimador: µ̂n = Xn Por LGN, Xn p−→ µ La LGN da sustento a el uso de Xn como estimador de µ la interpretación frecuentista de la esperanza. 27 / 30 Estimación de la Proporción Parámetro de interés: p = P (X = 1), X ∼ Be(p) Muestra aleatoria: X1, . . . , Xn ∼ Be(p) i.i.d. Estimador: p̂n = Xn Por LGN, Xn p−→ p 28 / 30 Estimación de la Proporción Parámetro de interés: p = P (X = 1), X ∼ Be(p) Muestra aleatoria: X1, . . . , Xn ∼ Be(p) i.i.d. Estimador: p̂n = Xn Por LGN, Xn p−→ p 28 / 30 Estimación de la Proporción Parámetro de interés: p = P (X = 1), X ∼ Be(p) Muestra aleatoria: X1, . . . , Xn ∼ Be(p) i.i.d. Estimador: p̂n = Xn Por LGN, Xn p−→ p 28 / 30 Estimación de la Proporción Parámetro de interés: p = P (X = 1), X ∼ Be(p) Muestra aleatoria: X1, . . . , Xn ∼ Be(p) i.i.d. Estimador: p̂n = Xn Por LGN, Xn p−→ p 28 / 30 Estimación de una Probabilidad Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Definimos Yi = I(Xi ≤ 3) = { 1 si Xi ≤ 3 0 si Xi > 3 1 ≤ i ≤ n Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3) Estimador: F̂n(3) = Y n = 1 n n∑ i=1 I(Xi ≤ 3) Por LGN, F̂n(3) = Y n p−→ F (3) La LGN da sustento a el uso de F̂n(3) como estimador de F (3) la interpretación frecuentista de la probabilidad. 29 / 30 Estimación de una Probabilidad Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Definimos Yi = I(Xi ≤ 3) = { 1 si Xi ≤ 3 0 si Xi > 3 1 ≤ i ≤ n Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3) Estimador: F̂n(3) = Y n = 1 n n∑ i=1 I(Xi ≤ 3) Por LGN, F̂n(3) = Y n p−→ F (3) La LGN da sustento a el uso de F̂n(3) como estimador de F (3) la interpretación frecuentista de la probabilidad. 29 / 30 Estimación de una Probabilidad Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Definimos Yi = I(Xi ≤ 3) = { 1 si Xi ≤ 3 0 si Xi > 3 1 ≤ i ≤ n Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3) Estimador: F̂n(3) = Y n = 1 n n∑ i=1 I(Xi ≤ 3) Por LGN, F̂n(3) = Y n p−→ F (3) La LGN da sustento a el uso de F̂n(3) como estimador de F (3) la interpretación frecuentista de la probabilidad. 29 / 30 Estimación de una Probabilidad Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Definimos Yi = I(Xi ≤ 3) = { 1 si Xi ≤ 3 0 si Xi > 3 1 ≤ i ≤ n Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3) Estimador: F̂n(3) = Y n = 1 n n∑ i=1 I(Xi ≤ 3) Por LGN, F̂n(3) = Y n p−→ F (3) La LGN da sustento a el uso de F̂n(3) como estimador de F (3) la interpretación frecuentista de la probabilidad. 29 / 30 Estimación de una Probabilidad Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Definimos Yi = I(Xi ≤ 3) = { 1 si Xi ≤ 3 0 si Xi > 3 1 ≤ i ≤ n Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3) Estimador: F̂n(3) = Y n = 1 n n∑ i=1 I(Xi ≤ 3) Por LGN, F̂n(3) = Y n p−→ F (3) La LGN da sustento a el uso de F̂n(3) como estimador de F (3) la interpretación frecuentista de la probabilidad. 29 / 30 Estimación de una Probabilidad Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Definimos Yi = I(Xi ≤ 3) = { 1 si Xi ≤ 3 0 si Xi > 3 1 ≤ i ≤ n Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3) Estimador: F̂n(3) = Y n = 1 n n∑ i=1 I(Xi ≤ 3) Por LGN, F̂n(3) = Y n p−→ F (3) La LGN da sustento a el uso de F̂n(3) como estimador de F (3) la interpretación frecuentista de la probabilidad. 29 / 30 Estimación de una Probabilidad Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Definimos Yi = I(Xi ≤ 3) = { 1 si Xi ≤ 3 0 si Xi > 3 1 ≤ i ≤ n Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3) Estimador: F̂n(3) = Y n = 1 n n∑ i=1 I(Xi ≤ 3) Por LGN, F̂n(3) = Y n p−→ F (3) La LGN da sustento a el uso de F̂n(3) como estimador de F (3) la interpretación frecuentista de la probabilidad. 29 / 30 Estimación de una Probabilidad Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Definimos Yi = I(Xi ≤ 3) = { 1 si Xi ≤ 3 0 si Xi > 3 1 ≤ i ≤ n Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3) Estimador: F̂n(3) = Yn = 1 n n∑ i=1 I(Xi ≤ 3) Por LGN, F̂n(3) = Y n p−→ F (3) La LGN da sustento a el uso de F̂n(3) como estimador de F (3) la interpretación frecuentista de la probabilidad. 29 / 30 Estimación de una Probabilidad Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Definimos Yi = I(Xi ≤ 3) = { 1 si Xi ≤ 3 0 si Xi > 3 1 ≤ i ≤ n Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3) Estimador: F̂n(3) = Y n = 1 n n∑ i=1 I(Xi ≤ 3) Por LGN, F̂n(3) = Y n p−→ F (3) La LGN da sustento a el uso de F̂n(3) como estimador de F (3) la interpretación frecuentista de la probabilidad. 29 / 30 Estimación de una Probabilidad Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Definimos Yi = I(Xi ≤ 3) = { 1 si Xi ≤ 3 0 si Xi > 3 1 ≤ i ≤ n Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3) Estimador: F̂n(3) = Y n = 1 n n∑ i=1 I(Xi ≤ 3) Por LGN, F̂n(3) = Y n p−→ F (3) La LGN da sustento a el uso de F̂n(3) como estimador de F (3) la interpretación frecuentista de la probabilidad. 29 / 30 Estimación de E(X2) Parámetro de interés: θ = E(X2) ¿Qué hacemos? 30 / 30 Estimación de E(X2) Parámetro de interés: θ = E(X2) ¿Qué hacemos? 30 / 30
Compartir