Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Inferencia Estad́ıstica Lućıa Babino Universidad Torcuato Di Tella 1 / 21 Repaso 2 / 21 Desigualdad de Chebyshev Sea X v.a. con E (X) = µ y V (X) = σ2 < ∞ ⇒ P (|X − µ| > ϵ) ≤ σ 2 ϵ2 ∀ϵ > 0 Teorema Central del Ĺımite Sean X1, . . . , Xn, . . . i.i.d. c/ E (X1) = µ y V (X1) = σ 2 ⇒ Xn − µ√ σ2/n ≈ N (0, 1) Xn ≈ N (µ, σ2 n ) Sn = n∑ i=1 Xi ≈ N (nµ, nσ2) Sn − nµ√ nσ2 ≈ N (0, 1). 3 / 21 Desigualdad de Chebyshev Sea X v.a. con E (X) = µ y V (X) = σ2 < ∞ ⇒ P (|X − µ| > ϵ) ≤ σ 2 ϵ2 ∀ϵ > 0 Teorema Central del Ĺımite Sean X1, . . . , Xn, . . . i.i.d. c/ E (X1) = µ y V (X1) = σ 2 ⇒ Xn − µ√ σ2/n ≈ N (0, 1) Xn ≈ N (µ, σ2 n ) Sn = n∑ i=1 Xi ≈ N (nµ, nσ2) Sn − nµ√ nσ2 ≈ N (0, 1). 3 / 21 Desigualdad de Chebyshev Sea X v.a. con E (X) = µ y V (X) = σ2 < ∞ ⇒ P (|X − µ| > ϵ) ≤ σ 2 ϵ2 ∀ϵ > 0 Teorema Central del Ĺımite Sean X1, . . . , Xn, . . . i.i.d. c/ E (X1) = µ y V (X1) = σ 2 ⇒ Xn − µ√ σ2/n ≈ N (0, 1) Xn ≈ N (µ, σ2 n ) Sn = n∑ i=1 Xi ≈ N (nµ, nσ2) Sn − nµ√ nσ2 ≈ N (0, 1). 3 / 21 Desigualdad de Chebyshev Sea X v.a. con E (X) = µ y V (X) = σ2 < ∞ ⇒ P (|X − µ| > ϵ) ≤ σ 2 ϵ2 ∀ϵ > 0 Teorema Central del Ĺımite Sean X1, . . . , Xn, . . . i.i.d. c/ E (X1) = µ y V (X1) = σ 2 ⇒ Xn − µ√ σ2/n ≈ N (0, 1) Xn ≈ N (µ, σ2 n ) Sn = n∑ i=1 Xi ≈ N (nµ, nσ2) Sn − nµ√ nσ2 ≈ N (0, 1). 3 / 21 Desigualdad de Chebyshev Sea X v.a. con E (X) = µ y V (X) = σ2 < ∞ ⇒ P (|X − µ| > ϵ) ≤ σ 2 ϵ2 ∀ϵ > 0 Teorema Central del Ĺımite Sean X1, . . . , Xn, . . . i.i.d. c/ E (X1) = µ y V (X1) = σ 2 ⇒ Xn − µ√ σ2/n ≈ N (0, 1) Xn ≈ N (µ, σ2 n ) Sn = n∑ i=1 Xi ≈ N (nµ, nσ2) Sn − nµ√ nσ2 ≈ N (0, 1). 3 / 21 La pregunta del millón ¿Cuán grande debe ser n para que valga el TCL? Depende Regla del almacenero: n ≥ 30 4 / 21 La pregunta del millón ¿Cuán grande debe ser n para que valga el TCL? Depende Regla del almacenero: n ≥ 30 4 / 21 La pregunta del millón ¿Cuán grande debe ser n para que valga el TCL? Depende Regla del almacenero: n ≥ 30 4 / 21 Más ejemplos Figure: Distribución de Xn para distribución a) Discreta b) Uniforme c) Exponencial. 5 / 21 Ejercicio El número de art́ıculos producidos por una fábrica durante una semana cualquiera es una v.a. con media 50 y varianza 25. Si las producciones de semanas distintas son independientes entre śı, ¿Qué se puede decir de la probabilidad de que el promedio de la producción de 30 semanas esté entre 48 y 52 unidades? 6 / 21 Estimación 7 / 21 Teoŕıa de Probabilidades vs. Inferencia Estad́ıstica Wasserman (2003) 8 / 21 Ingredientes fundamentales 1 Distribución: F 2 Parámetro (poblacional): θ(F ) = θ 3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. 4 Estimador: θ̂n(X1, . . . , Xn) = θ̂n → V.A. 5 Estimación: θ̂n(x1, . . . , xn) = θ̂obs → NÚMERO 6 Incertidumbre: Error de estimación 9 / 21 Ingredientes fundamentales 1 Distribución: F 2 Parámetro (poblacional): θ(F ) = θ 3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. 4 Estimador: θ̂n(X1, . . . , Xn) = θ̂n → V.A. 5 Estimación: θ̂n(x1, . . . , xn) = θ̂obs → NÚMERO 6 Incertidumbre: Error de estimación 9 / 21 Ingredientes fundamentales 1 Distribución: F 2 Parámetro (poblacional): θ(F ) = θ 3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. 4 Estimador: θ̂n(X1, . . . , Xn) = θ̂n → V.A. 5 Estimación: θ̂n(x1, . . . , xn) = θ̂obs → NÚMERO 6 Incertidumbre: Error de estimación 9 / 21 Ingredientes fundamentales 1 Distribución: F 2 Parámetro (poblacional): θ(F ) = θ 3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. 4 Estimador: θ̂n(X1, . . . , Xn) = θ̂n → V.A. 5 Estimación: θ̂n(x1, . . . , xn) = θ̂obs → NÚMERO 6 Incertidumbre: Error de estimación 9 / 21 Ingredientes fundamentales 1 Distribución: F 2 Parámetro (poblacional): θ(F ) = θ 3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. 4 Estimador: θ̂n(X1, . . . , Xn) = θ̂n → V.A. 5 Estimación: θ̂n(x1, . . . , xn) = θ̂obs → NÚMERO 6 Incertidumbre: Error de estimación 9 / 21 Ingredientes fundamentales 1 Distribución: F 2 Parámetro (poblacional): θ(F ) = θ 3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. 4 Estimador: θ̂n(X1, . . . , Xn) = θ̂n → V.A. 5 Estimación: θ̂n(x1, . . . , xn) = θ̂obs → NÚMERO 6 Incertidumbre: Error de estimación 9 / 21 Ingredientes fundamentales 1 Distribución: F 2 Parámetro (poblacional): θ(F ) = θ 3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. 4 Estimador: θ̂n(X1, . . . , Xn) = θ̂n → V.A. 5 Estimación: θ̂n(x1, . . . , xn) = θ̂obs → NÚMERO 6 Incertidumbre: Error de estimación 9 / 21 Ingredientes fundamentales 1 Distribución: F 2 Parámetro (poblacional): θ(F ) = θ 3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. 4 Estimador: θ̂n(X1, . . . , Xn) = θ̂n → V.A. 5 Estimación: θ̂n(x1, . . . , xn) = θ̂obs → NÚMERO 6 Incertidumbre: Error de estimación 9 / 21 Temas de estimación puntual 1 Criterios de bondad de estimadores. Bibliograf́ıa recomendada Wasserman - sec. 6.1, 6.2 y 6.3.1 Lock: Unit B - cap 3.1 (subido a la página) 2 Métodos para construir estimadores. Bibliograf́ıa recomendada Wasserman - sec. 9.1 a 9.3 10 / 21 Temas de estimación puntual 1 Criterios de bondad de estimadores. Bibliograf́ıa recomendada Wasserman - sec. 6.1, 6.2 y 6.3.1 Lock: Unit B - cap 3.1 (subido a la página) 2 Métodos para construir estimadores. Bibliograf́ıa recomendada Wasserman - sec. 9.1 a 9.3 10 / 21 Temas de estimación puntual 1 Criterios de bondad de estimadores. Bibliograf́ıa recomendada Wasserman - sec. 6.1, 6.2 y 6.3.1 Lock: Unit B - cap 3.1 (subido a la página) 2 Métodos para construir estimadores. Bibliograf́ıa recomendada Wasserman - sec. 9.1 a 9.3 10 / 21 Temas de estimación puntual 1 Criterios de bondad de estimadores. Bibliograf́ıa recomendada Wasserman - sec. 6.1, 6.2 y 6.3.1 Lock: Unit B - cap 3.1 (subido a la página) 2 Métodos para construir estimadores. Bibliograf́ıa recomendada Wasserman - sec. 9.1 a 9.3 10 / 21 Consistencia Definición Diremos que θ̂n es un estimador consistente de θ si θ̂n p−→ θ Es decir, si P(|θ̂n − θ| > ϵ) −→ n→∞ 0 ∀ϵ > 0. Criterio básico de bondad de un estimador. 11 / 21 Consistencia Definición Diremos que θ̂n es un estimador consistente de θ si θ̂n p−→ θ Es decir, si P(|θ̂n − θ| > ϵ) −→ n→∞ 0 ∀ϵ > 0. Criterio básico de bondad de un estimador. 11 / 21 Consistencia Definición Diremos que θ̂n es un estimador consistente de θ si θ̂n p−→ θ Es decir, si P(|θ̂n − θ| > ϵ) −→ n→∞ 0 ∀ϵ > 0. Criterio básico de bondad de un estimador. 11 / 21 LGN para estimación 12 / 21 Estimación de la Esperanza Parámetro de interés: µ = E(X), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Estimador: µ̂n = Xn Por LGN, Xn p−→ µ es decir, Xn es un estimador consistente de µ. 13 / 21 Estimación de la Esperanza Parámetro de interés: µ = E(X), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Estimador: µ̂n = Xn Por LGN, Xn p−→ µ es decir, Xn es un estimador consistente de µ. 13 / 21 Estimación de la Esperanza Parámetro de interés: µ = E(X), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Estimador: µ̂n = Xn Por LGN, Xn p−→ µ es decir, Xn es un estimador consistente de µ. 13 / 21 Estimación de la Esperanza Parámetro de interés: µ = E(X), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Estimador: µ̂n = Xn Por LGN, Xn p−→ µ es decir, Xn es un estimador consistente de µ. 13 / 21 Estimación de la Esperanza Parámetro de interés: µ = E(X), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Estimador: µ̂n = Xn Por LGN, Xn p−→ µ es decir, Xn es un estimador consistente de µ. 13 / 21 Estimación de la Proporción Parámetro de interés: p = P (X = 1), X ∼ Be(p) Muestra aleatoria: X1, . . . , Xn ∼ Be(p) i.i.d. Estimador: p̂n = Xn Por LGN, p̂n = Xn p−→ p es decir, p̂n es un estimador consistente de p. 14 / 21 Estimación de la Proporción Parámetro de interés: p = P (X = 1), X ∼ Be(p) Muestra aleatoria:X1, . . . , Xn ∼ Be(p) i.i.d. Estimador: p̂n = Xn Por LGN, p̂n = Xn p−→ p es decir, p̂n es un estimador consistente de p. 14 / 21 Estimación de la Proporción Parámetro de interés: p = P (X = 1), X ∼ Be(p) Muestra aleatoria: X1, . . . , Xn ∼ Be(p) i.i.d. Estimador: p̂n = Xn Por LGN, p̂n = Xn p−→ p es decir, p̂n es un estimador consistente de p. 14 / 21 Estimación de la Proporción Parámetro de interés: p = P (X = 1), X ∼ Be(p) Muestra aleatoria: X1, . . . , Xn ∼ Be(p) i.i.d. Estimador: p̂n = Xn Por LGN, p̂n = Xn p−→ p es decir, p̂n es un estimador consistente de p. 14 / 21 Estimación de la Proporción Parámetro de interés: p = P (X = 1), X ∼ Be(p) Muestra aleatoria: X1, . . . , Xn ∼ Be(p) i.i.d. Estimador: p̂n = Xn Por LGN, p̂n = Xn p−→ p es decir, p̂n es un estimador consistente de p. 14 / 21 Estimación de la Proporción Parámetro de interés: p = P (X = 1), X ∼ Be(p) Muestra aleatoria: X1, . . . , Xn ∼ Be(p) i.i.d. Estimador: p̂n = Xn Por LGN, p̂n = Xn p−→ p es decir, p̂n es un estimador consistente de p. 14 / 21 Estimación de una Probabilidad Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Definimos Yi = I(Xi ≤ 3) = { 1 si Xi ≤ 3 0 si Xi > 3 1 ≤ i ≤ n Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3) Estimador: F̂n(3) = Y n Por LGN, F̂n(3) = Y n p−→ p = F (3) es decir, F̂n(3) es un estimador consistente de F (3). Además, demostramos la interpretación frecuentista de la probabilidad! 15 / 21 Estimación de una Probabilidad Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Definimos Yi = I(Xi ≤ 3) = { 1 si Xi ≤ 3 0 si Xi > 3 1 ≤ i ≤ n Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3) Estimador: F̂n(3) = Y n Por LGN, F̂n(3) = Y n p−→ p = F (3) es decir, F̂n(3) es un estimador consistente de F (3). Además, demostramos la interpretación frecuentista de la probabilidad! 15 / 21 Estimación de una Probabilidad Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Definimos Yi = I(Xi ≤ 3) = { 1 si Xi ≤ 3 0 si Xi > 3 1 ≤ i ≤ n Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3) Estimador: F̂n(3) = Y n Por LGN, F̂n(3) = Y n p−→ p = F (3) es decir, F̂n(3) es un estimador consistente de F (3). Además, demostramos la interpretación frecuentista de la probabilidad! 15 / 21 Estimación de una Probabilidad Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Definimos Yi = I(Xi ≤ 3) = { 1 si Xi ≤ 3 0 si Xi > 3 1 ≤ i ≤ n Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3) Estimador: F̂n(3) = Y n Por LGN, F̂n(3) = Y n p−→ p = F (3) es decir, F̂n(3) es un estimador consistente de F (3). Además, demostramos la interpretación frecuentista de la probabilidad! 15 / 21 Estimación de una Probabilidad Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Definimos Yi = I(Xi ≤ 3) = { 1 si Xi ≤ 3 0 si Xi > 3 1 ≤ i ≤ n Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3) Estimador: F̂n(3) = Y n Por LGN, F̂n(3) = Y n p−→ p = F (3) es decir, F̂n(3) es un estimador consistente de F (3). Además, demostramos la interpretación frecuentista de la probabilidad! 15 / 21 Estimación de una Probabilidad Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Definimos Yi = I(Xi ≤ 3) = { 1 si Xi ≤ 3 0 si Xi > 3 1 ≤ i ≤ n Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3) Estimador: F̂n(3) = Y n Por LGN, F̂n(3) = Y n p−→ p = F (3) es decir, F̂n(3) es un estimador consistente de F (3). Además, demostramos la interpretación frecuentista de la probabilidad! 15 / 21 Estimación de una Probabilidad Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Definimos Yi = I(Xi ≤ 3) = { 1 si Xi ≤ 3 0 si Xi > 3 1 ≤ i ≤ n Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3) Estimador: F̂n(3) = Y n Por LGN, F̂n(3) = Y n p−→ p = F (3) es decir, F̂n(3) es un estimador consistente de F (3). Además, demostramos la interpretación frecuentista de la probabilidad! 15 / 21 Estimación de una Probabilidad Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Definimos Yi = I(Xi ≤ 3) = { 1 si Xi ≤ 3 0 si Xi > 3 1 ≤ i ≤ n Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3) Estimador: F̂n(3) = Y n Por LGN, F̂n(3) = Y n p−→ p = F (3) es decir, F̂n(3) es un estimador consistente de F (3). Además, demostramos la interpretación frecuentista de la probabilidad! 15 / 21 Estimación de una Probabilidad Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Definimos Yi = I(Xi ≤ 3) = { 1 si Xi ≤ 3 0 si Xi > 3 1 ≤ i ≤ n Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3) Estimador: F̂n(3) = Y n Por LGN, F̂n(3) = Y n p−→ p = F (3) es decir, F̂n(3) es un estimador consistente de F (3). Además, demostramos la interpretación frecuentista de la probabilidad! 15 / 21 Estimación de una Probabilidad Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Definimos Yi = I(Xi ≤ 3) = { 1 si Xi ≤ 3 0 si Xi > 3 1 ≤ i ≤ n Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3) Estimador: F̂n(3) = Y n Por LGN, F̂n(3) = Y n p−→ p = F (3) es decir, F̂n(3) es un estimador consistente de F (3). Además, demostramos la interpretación frecuentista de la probabilidad! 15 / 21 Estimación de E(X2) Parámetro de interés: θ = E(X2), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. ¿Qué hacemos? 16 / 21 Estimación de E(X2) Parámetro de interés: θ = E(X2), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. ¿Qué hacemos? 16 / 21 Estimación de E(X2) Parámetro de interés: θ = E(X2), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. ¿Qué hacemos? 16 / 21 Moraleja Si X1, . . . , Xn son i.i.d. ⇒ Xn p−→ E(X1) y además... 1 n n∑ i=1 g(Xi) p−→ E{g(X1)} ∀g 17 / 21 Moraleja Si X1, . . . , Xn son i.i.d. ⇒ Xn p−→ E(X1) y además... 1 n n∑ i=1 g(Xi) p−→ E{g(X1)} ∀g 17 / 21 Moraleja Si X1, . . . , Xn son i.i.d. ⇒ Xn p−→ E(X1) y además... 1 n n∑ i=1 g(Xi) p−→ E{g(X1)} ∀g 17 / 21 Estimación de la Varianza Parámetro: σ2 = V(X), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. ¿Qué hacemos? 18 / 21 Estimación de la Varianza Parámetro: σ2 = V(X), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. ¿Qué hacemos? 18 / 21 Estimación de la Varianza Parámetro: σ2 = V(X), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. ¿Qué hacemos? 18 / 21 Propiedades de la convergencia en probabilidad Si Xn p−→ a e Yn p−→ b, entonces: Xn + Yn p−→ a+ b Xn − Yn p−→ a− b XnYn p−→ ab Xn Yn p−→ ab si b ̸= 0 g (Xn) p−→ g(a) si g es una función continua en a si cn es una sucesión numérica tal que cn −→ c, entonces cnXn p−→ ca 19 / 21 Propiedades de la convergencia en probabilidad Si Xn p−→ a e Yn p−→ b, entonces: Xn + Yn p−→ a+ b Xn − Yn p−→ a− b XnYn p−→ ab Xn Yn p−→ ab si b ̸= 0 g (Xn) p−→ g(a) si g es una función continua en a si cn es una sucesión numérica tal que cn −→ c, entonces cnXn p−→ ca 19 / 21 Propiedades de la convergencia en probabilidad Si Xn p−→ a e Yn p−→ b, entonces: Xn + Yn p−→ a+ b Xn − Yn p−→ a− b XnYn p−→ ab Xn Yn p−→ ab si b ̸= 0 g (Xn) p−→ g(a) si g es una función continua en a si cn es una sucesión numérica tal que cn −→ c, entonces cnXn p−→ ca 19 / 21 Propiedades de la convergencia en probabilidad Si Xn p−→ a e Yn p−→ b, entonces: Xn + Yn p−→ a+ b Xn − Yn p−→ a− b XnYn p−→ ab Xn Yn p−→ ab si b ̸= 0 g (Xn) p−→ g(a) si g es una función continua en a si cn es una sucesión numérica tal que cn −→ c, entonces cnXn p−→ ca 19 / 21 Propiedades de la convergencia en probabilidad Si Xn p−→ a e Yn p−→ b, entonces: Xn + Yn p−→ a+ b Xn − Yn p−→ a− b XnYn p−→ ab Xn Yn p−→ ab si b ̸= 0 g (Xn) p−→ g(a) si g es una función continuaen a si cn es una sucesión numérica tal que cn −→ c, entonces cnXn p−→ ca 19 / 21 Propiedades de la convergencia en probabilidad Si Xn p−→ a e Yn p−→ b, entonces: Xn + Yn p−→ a+ b Xn − Yn p−→ a− b XnYn p−→ ab Xn Yn p−→ ab si b ̸= 0 g (Xn) p−→ g(a) si g es una función continua en a si cn es una sucesión numérica tal que cn −→ c, entonces cnXn p−→ ca 19 / 21 Propiedades de la convergencia en probabilidad Si Xn p−→ a e Yn p−→ b, entonces: Xn + Yn p−→ a+ b Xn − Yn p−→ a− b XnYn p−→ ab Xn Yn p−→ ab si b ̸= 0 g (Xn) p−→ g(a) si g es una función continua en a si cn es una sucesión numérica tal que cn −→ c, entonces cnXn p−→ ca 19 / 21 Propiedades de la convergencia en probabilidad Si Xn p−→ a e Yn p−→ b, entonces: Xn + Yn p−→ a+ b Xn − Yn p−→ a− b XnYn p−→ ab Xn Yn p−→ a b si b ̸= 0 g (Xn) p−→ g(a) si g es una función continua en a si cn es una sucesión numérica tal que cn −→ c, entonces cnXn p−→ ca 19 / 21 Propiedades de la convergencia en probabilidad Si Xn p−→ a e Yn p−→ b, entonces: Xn + Yn p−→ a+ b Xn − Yn p−→ a− b XnYn p−→ ab Xn Yn p−→ ab si b ̸= 0 g (Xn) p−→ g(a) si g es una función continua en a si cn es una sucesión numérica tal que cn −→ c, entonces cnXn p−→ ca 19 / 21 Propiedades de la convergencia en probabilidad Si Xn p−→ a e Yn p−→ b, entonces: Xn + Yn p−→ a+ b Xn − Yn p−→ a− b XnYn p−→ ab Xn Yn p−→ ab si b ̸= 0 g (Xn) p−→ g(a) si g es una función continua en a si cn es una sucesión numérica tal que cn −→ c, entonces cnXn p−→ ca 19 / 21 Propiedades de la convergencia en probabilidad Si Xn p−→ a e Yn p−→ b, entonces: Xn + Yn p−→ a+ b Xn − Yn p−→ a− b XnYn p−→ ab Xn Yn p−→ ab si b ̸= 0 g (Xn) p−→ g(a) si g es una función continua en a si cn es una sucesión numérica tal que cn −→ c, entonces cnXn p−→ ca 19 / 21 Propiedades de la convergencia en probabilidad Si Xn p−→ a e Yn p−→ b, entonces: Xn + Yn p−→ a+ b Xn − Yn p−→ a− b XnYn p−→ ab Xn Yn p−→ ab si b ̸= 0 g (Xn) p−→ g(a) si g es una función continua en a si cn es una sucesión numérica tal que cn −→ c, entonces cnXn p−→ ca 19 / 21 Propiedades de la convergencia en probabilidad Si Xn p−→ a e Yn p−→ b, entonces: Xn + Yn p−→ a+ b Xn − Yn p−→ a− b XnYn p−→ ab Xn Yn p−→ ab si b ̸= 0 g (Xn) p−→ g(a) si g es una función continua en a si cn es una sucesión numérica tal que cn −→ c, entonces cnXn p−→ ca 19 / 21 Estimación de la Varianza Parámetro: σ2 = V (X), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Estimadores: σ̂2n = 1 n n∑ i=1 (Xi −Xn)2 s2n = 1 n− 1 n∑ i=1 (Xi −Xn)2 −→ varianza muestral σ̂2n, s 2 n p−→ σ2 por LGN. 20 / 21 Estimación de la Varianza Parámetro: σ2 = V (X), X ∼ F Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d. Estimadores: σ̂2n = 1 n n∑ i=1 (Xi −Xn)2 s2n = 1 n− 1 n∑ i=1 (Xi −Xn)2 −→ varianza muestral σ̂2n, s 2 n p−→ σ2 por LGN. 20 / 21 ¿Qué sigue? Hasta ahora vimos... criterio básico de bondad: consistencia cómo construir estimadores consistentes utilizando la LGN ¿Qué nos falta? Otros criterios de bondad de estimadores. Métodos más generales (“recetas”) para construir estimadores. 21 / 21 ¿Qué sigue? Hasta ahora vimos... criterio básico de bondad: consistencia cómo construir estimadores consistentes utilizando la LGN ¿Qué nos falta? Otros criterios de bondad de estimadores. Métodos más generales (“recetas”) para construir estimadores. 21 / 21
Compartir