Logo Studenta

Clase 4 - Inferencia Estadística

¡Este material tiene más páginas!

Vista previa del material en texto

Inferencia Estad́ıstica
Lućıa Babino
Universidad Torcuato Di Tella
1 / 21
Repaso
2 / 21
Desigualdad de Chebyshev
Sea X v.a. con E (X) = µ y V (X) = σ2 < ∞ ⇒
P (|X − µ| > ϵ) ≤ σ
2
ϵ2
∀ϵ > 0
Teorema Central del Ĺımite
Sean X1, . . . , Xn, . . . i.i.d. c/ E (X1) = µ y V (X1) = σ
2 ⇒
Xn − µ√
σ2/n
≈ N (0, 1)
Xn ≈ N (µ,
σ2
n
)
Sn =
n∑
i=1
Xi ≈ N (nµ, nσ2)
Sn − nµ√
nσ2
≈ N (0, 1).
3 / 21
Desigualdad de Chebyshev
Sea X v.a. con E (X) = µ y V (X) = σ2 < ∞ ⇒
P (|X − µ| > ϵ) ≤ σ
2
ϵ2
∀ϵ > 0
Teorema Central del Ĺımite
Sean X1, . . . , Xn, . . . i.i.d. c/ E (X1) = µ y V (X1) = σ
2 ⇒
Xn − µ√
σ2/n
≈ N (0, 1)
Xn ≈ N (µ,
σ2
n
)
Sn =
n∑
i=1
Xi ≈ N (nµ, nσ2)
Sn − nµ√
nσ2
≈ N (0, 1).
3 / 21
Desigualdad de Chebyshev
Sea X v.a. con E (X) = µ y V (X) = σ2 < ∞ ⇒
P (|X − µ| > ϵ) ≤ σ
2
ϵ2
∀ϵ > 0
Teorema Central del Ĺımite
Sean X1, . . . , Xn, . . . i.i.d. c/ E (X1) = µ y V (X1) = σ
2 ⇒
Xn − µ√
σ2/n
≈ N (0, 1)
Xn ≈ N (µ,
σ2
n
)
Sn =
n∑
i=1
Xi ≈ N (nµ, nσ2)
Sn − nµ√
nσ2
≈ N (0, 1).
3 / 21
Desigualdad de Chebyshev
Sea X v.a. con E (X) = µ y V (X) = σ2 < ∞ ⇒
P (|X − µ| > ϵ) ≤ σ
2
ϵ2
∀ϵ > 0
Teorema Central del Ĺımite
Sean X1, . . . , Xn, . . . i.i.d. c/ E (X1) = µ y V (X1) = σ
2 ⇒
Xn − µ√
σ2/n
≈ N (0, 1)
Xn ≈ N (µ,
σ2
n
)
Sn =
n∑
i=1
Xi ≈ N (nµ, nσ2)
Sn − nµ√
nσ2
≈ N (0, 1).
3 / 21
Desigualdad de Chebyshev
Sea X v.a. con E (X) = µ y V (X) = σ2 < ∞ ⇒
P (|X − µ| > ϵ) ≤ σ
2
ϵ2
∀ϵ > 0
Teorema Central del Ĺımite
Sean X1, . . . , Xn, . . . i.i.d. c/ E (X1) = µ y V (X1) = σ
2 ⇒
Xn − µ√
σ2/n
≈ N (0, 1)
Xn ≈ N (µ,
σ2
n
)
Sn =
n∑
i=1
Xi ≈ N (nµ, nσ2)
Sn − nµ√
nσ2
≈ N (0, 1).
3 / 21
La pregunta del millón
¿Cuán grande debe ser n para que valga el TCL?
Depende
Regla del almacenero: n ≥ 30
4 / 21
La pregunta del millón
¿Cuán grande debe ser n para que valga el TCL?
Depende
Regla del almacenero: n ≥ 30
4 / 21
La pregunta del millón
¿Cuán grande debe ser n para que valga el TCL?
Depende
Regla del almacenero: n ≥ 30
4 / 21
Más ejemplos
Figure: Distribución de Xn para distribución
a) Discreta b) Uniforme c) Exponencial.
5 / 21
Ejercicio
El número de art́ıculos producidos por una fábrica durante una
semana cualquiera es una v.a. con media 50 y varianza 25. Si las
producciones de semanas distintas son independientes entre śı,
¿Qué se puede decir de la probabilidad de que el promedio de la
producción de 30 semanas esté entre 48 y 52 unidades?
6 / 21
Estimación
7 / 21
Teoŕıa de Probabilidades vs. Inferencia Estad́ıstica
Wasserman (2003)
8 / 21
Ingredientes fundamentales
1 Distribución: F
2 Parámetro (poblacional): θ(F ) = θ
3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
4 Estimador:
θ̂n(X1, . . . , Xn) = θ̂n → V.A.
5 Estimación:
θ̂n(x1, . . . , xn) = θ̂obs → NÚMERO
6 Incertidumbre: Error de estimación
9 / 21
Ingredientes fundamentales
1 Distribución: F
2 Parámetro (poblacional): θ(F ) = θ
3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
4 Estimador:
θ̂n(X1, . . . , Xn) = θ̂n → V.A.
5 Estimación:
θ̂n(x1, . . . , xn) = θ̂obs → NÚMERO
6 Incertidumbre: Error de estimación
9 / 21
Ingredientes fundamentales
1 Distribución: F
2 Parámetro (poblacional): θ(F ) = θ
3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
4 Estimador:
θ̂n(X1, . . . , Xn) = θ̂n → V.A.
5 Estimación:
θ̂n(x1, . . . , xn) = θ̂obs → NÚMERO
6 Incertidumbre: Error de estimación
9 / 21
Ingredientes fundamentales
1 Distribución: F
2 Parámetro (poblacional): θ(F ) = θ
3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
4 Estimador:
θ̂n(X1, . . . , Xn) = θ̂n
→ V.A.
5 Estimación:
θ̂n(x1, . . . , xn) = θ̂obs → NÚMERO
6 Incertidumbre: Error de estimación
9 / 21
Ingredientes fundamentales
1 Distribución: F
2 Parámetro (poblacional): θ(F ) = θ
3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
4 Estimador:
θ̂n(X1, . . . , Xn) = θ̂n → V.A.
5 Estimación:
θ̂n(x1, . . . , xn) = θ̂obs → NÚMERO
6 Incertidumbre: Error de estimación
9 / 21
Ingredientes fundamentales
1 Distribución: F
2 Parámetro (poblacional): θ(F ) = θ
3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
4 Estimador:
θ̂n(X1, . . . , Xn) = θ̂n → V.A.
5 Estimación:
θ̂n(x1, . . . , xn) = θ̂obs
→ NÚMERO
6 Incertidumbre: Error de estimación
9 / 21
Ingredientes fundamentales
1 Distribución: F
2 Parámetro (poblacional): θ(F ) = θ
3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
4 Estimador:
θ̂n(X1, . . . , Xn) = θ̂n → V.A.
5 Estimación:
θ̂n(x1, . . . , xn) = θ̂obs → NÚMERO
6 Incertidumbre: Error de estimación
9 / 21
Ingredientes fundamentales
1 Distribución: F
2 Parámetro (poblacional): θ(F ) = θ
3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
4 Estimador:
θ̂n(X1, . . . , Xn) = θ̂n → V.A.
5 Estimación:
θ̂n(x1, . . . , xn) = θ̂obs → NÚMERO
6 Incertidumbre: Error de estimación
9 / 21
Temas de estimación puntual
1 Criterios de bondad de estimadores.
Bibliograf́ıa recomendada
Wasserman - sec. 6.1, 6.2 y 6.3.1
Lock: Unit B - cap 3.1 (subido a la página)
2 Métodos para construir estimadores.
Bibliograf́ıa recomendada
Wasserman - sec. 9.1 a 9.3
10 / 21
Temas de estimación puntual
1 Criterios de bondad de estimadores.
Bibliograf́ıa recomendada
Wasserman - sec. 6.1, 6.2 y 6.3.1
Lock: Unit B - cap 3.1 (subido a la página)
2 Métodos para construir estimadores.
Bibliograf́ıa recomendada
Wasserman - sec. 9.1 a 9.3
10 / 21
Temas de estimación puntual
1 Criterios de bondad de estimadores.
Bibliograf́ıa recomendada
Wasserman - sec. 6.1, 6.2 y 6.3.1
Lock: Unit B - cap 3.1 (subido a la página)
2 Métodos para construir estimadores.
Bibliograf́ıa recomendada
Wasserman - sec. 9.1 a 9.3
10 / 21
Temas de estimación puntual
1 Criterios de bondad de estimadores.
Bibliograf́ıa recomendada
Wasserman - sec. 6.1, 6.2 y 6.3.1
Lock: Unit B - cap 3.1 (subido a la página)
2 Métodos para construir estimadores.
Bibliograf́ıa recomendada
Wasserman - sec. 9.1 a 9.3
10 / 21
Consistencia
Definición
Diremos que θ̂n es un estimador consistente de θ si
θ̂n
p−→ θ
Es decir, si
P(|θ̂n − θ| > ϵ) −→
n→∞
0 ∀ϵ > 0.
Criterio básico de bondad de un estimador.
11 / 21
Consistencia
Definición
Diremos que θ̂n es un estimador consistente de θ si
θ̂n
p−→ θ
Es decir, si
P(|θ̂n − θ| > ϵ) −→
n→∞
0 ∀ϵ > 0.
Criterio básico de bondad de un estimador.
11 / 21
Consistencia
Definición
Diremos que θ̂n es un estimador consistente de θ si
θ̂n
p−→ θ
Es decir, si
P(|θ̂n − θ| > ϵ) −→
n→∞
0 ∀ϵ > 0.
Criterio básico de bondad de un estimador.
11 / 21
LGN para estimación
12 / 21
Estimación de la Esperanza
Parámetro de interés: µ = E(X), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Estimador: µ̂n = Xn
Por LGN,
Xn
p−→ µ
es decir, Xn es un estimador consistente de µ.
13 / 21
Estimación de la Esperanza
Parámetro de interés: µ = E(X), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Estimador: µ̂n = Xn
Por LGN,
Xn
p−→ µ
es decir, Xn es un estimador consistente de µ.
13 / 21
Estimación de la Esperanza
Parámetro de interés: µ = E(X), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Estimador: µ̂n = Xn
Por LGN,
Xn
p−→ µ
es decir, Xn es un estimador consistente de µ.
13 / 21
Estimación de la Esperanza
Parámetro de interés: µ = E(X), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Estimador: µ̂n = Xn
Por LGN,
Xn
p−→ µ
es decir, Xn es un estimador consistente de µ.
13 / 21
Estimación de la Esperanza
Parámetro de interés: µ = E(X), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Estimador: µ̂n = Xn
Por LGN,
Xn
p−→ µ
es decir, Xn es un estimador consistente de µ.
13 / 21
Estimación de la Proporción
Parámetro de interés: p = P (X = 1), X ∼ Be(p)
Muestra aleatoria: X1, . . . , Xn ∼ Be(p) i.i.d.
Estimador: p̂n = Xn
Por LGN,
p̂n = Xn
p−→ p
es decir, p̂n es un estimador consistente de p.
14 / 21
Estimación de la Proporción
Parámetro de interés: p = P (X = 1), X ∼ Be(p)
Muestra aleatoria:X1, . . . , Xn ∼ Be(p) i.i.d.
Estimador: p̂n = Xn
Por LGN,
p̂n = Xn
p−→ p
es decir, p̂n es un estimador consistente de p.
14 / 21
Estimación de la Proporción
Parámetro de interés: p = P (X = 1), X ∼ Be(p)
Muestra aleatoria: X1, . . . , Xn ∼ Be(p) i.i.d.
Estimador: p̂n =
Xn
Por LGN,
p̂n = Xn
p−→ p
es decir, p̂n es un estimador consistente de p.
14 / 21
Estimación de la Proporción
Parámetro de interés: p = P (X = 1), X ∼ Be(p)
Muestra aleatoria: X1, . . . , Xn ∼ Be(p) i.i.d.
Estimador: p̂n = Xn
Por LGN,
p̂n = Xn
p−→ p
es decir, p̂n es un estimador consistente de p.
14 / 21
Estimación de la Proporción
Parámetro de interés: p = P (X = 1), X ∼ Be(p)
Muestra aleatoria: X1, . . . , Xn ∼ Be(p) i.i.d.
Estimador: p̂n = Xn
Por LGN,
p̂n = Xn
p−→ p
es decir, p̂n es un estimador consistente de p.
14 / 21
Estimación de la Proporción
Parámetro de interés: p = P (X = 1), X ∼ Be(p)
Muestra aleatoria: X1, . . . , Xn ∼ Be(p) i.i.d.
Estimador: p̂n = Xn
Por LGN,
p̂n = Xn
p−→ p
es decir, p̂n es un estimador consistente de p.
14 / 21
Estimación de una Probabilidad
Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Definimos
Yi = I(Xi ≤ 3) =
{
1 si Xi ≤ 3
0 si Xi > 3
1 ≤ i ≤ n
Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3)
Estimador:
F̂n(3) = Y n
Por LGN,
F̂n(3) = Y n
p−→ p = F (3)
es decir, F̂n(3) es un estimador consistente de F (3).
Además, demostramos la interpretación frecuentista de la
probabilidad!
15 / 21
Estimación de una Probabilidad
Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Definimos
Yi = I(Xi ≤ 3) =
{
1 si Xi ≤ 3
0 si Xi > 3
1 ≤ i ≤ n
Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3)
Estimador:
F̂n(3) = Y n
Por LGN,
F̂n(3) = Y n
p−→ p = F (3)
es decir, F̂n(3) es un estimador consistente de F (3).
Además, demostramos la interpretación frecuentista de la
probabilidad!
15 / 21
Estimación de una Probabilidad
Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Definimos
Yi = I(Xi ≤ 3) =
{
1 si Xi ≤ 3
0 si Xi > 3
1 ≤ i ≤ n
Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3)
Estimador:
F̂n(3) = Y n
Por LGN,
F̂n(3) = Y n
p−→ p = F (3)
es decir, F̂n(3) es un estimador consistente de F (3).
Además, demostramos la interpretación frecuentista de la
probabilidad!
15 / 21
Estimación de una Probabilidad
Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Definimos
Yi = I(Xi ≤ 3) =
{
1 si Xi ≤ 3
0 si Xi > 3
1 ≤ i ≤ n
Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3)
Estimador:
F̂n(3) = Y n
Por LGN,
F̂n(3) = Y n
p−→ p = F (3)
es decir, F̂n(3) es un estimador consistente de F (3).
Además, demostramos la interpretación frecuentista de la
probabilidad!
15 / 21
Estimación de una Probabilidad
Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Definimos
Yi = I(Xi ≤ 3) =
{
1 si Xi ≤ 3
0 si Xi > 3
1 ≤ i ≤ n
Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3)
Estimador:
F̂n(3) = Y n
Por LGN,
F̂n(3) = Y n
p−→ p = F (3)
es decir, F̂n(3) es un estimador consistente de F (3).
Además, demostramos la interpretación frecuentista de la
probabilidad!
15 / 21
Estimación de una Probabilidad
Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Definimos
Yi = I(Xi ≤ 3) =
{
1 si Xi ≤ 3
0 si Xi > 3
1 ≤ i ≤ n
Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3)
Estimador:
F̂n(3) = Y n
Por LGN,
F̂n(3) = Y n
p−→ p = F (3)
es decir, F̂n(3) es un estimador consistente de F (3).
Además, demostramos la interpretación frecuentista de la
probabilidad!
15 / 21
Estimación de una Probabilidad
Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Definimos
Yi = I(Xi ≤ 3) =
{
1 si Xi ≤ 3
0 si Xi > 3
1 ≤ i ≤ n
Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3)
Estimador:
F̂n(3) = Y n
Por LGN,
F̂n(3) = Y n
p−→ p
= F (3)
es decir, F̂n(3) es un estimador consistente de F (3).
Además, demostramos la interpretación frecuentista de la
probabilidad!
15 / 21
Estimación de una Probabilidad
Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Definimos
Yi = I(Xi ≤ 3) =
{
1 si Xi ≤ 3
0 si Xi > 3
1 ≤ i ≤ n
Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3)
Estimador:
F̂n(3) = Y n
Por LGN,
F̂n(3) = Y n
p−→ p = F (3)
es decir, F̂n(3) es un estimador consistente de F (3).
Además, demostramos la interpretación frecuentista de la
probabilidad!
15 / 21
Estimación de una Probabilidad
Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Definimos
Yi = I(Xi ≤ 3) =
{
1 si Xi ≤ 3
0 si Xi > 3
1 ≤ i ≤ n
Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3)
Estimador:
F̂n(3) = Y n
Por LGN,
F̂n(3) = Y n
p−→ p = F (3)
es decir, F̂n(3) es un estimador consistente de F (3).
Además, demostramos la interpretación frecuentista de la
probabilidad!
15 / 21
Estimación de una Probabilidad
Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Definimos
Yi = I(Xi ≤ 3) =
{
1 si Xi ≤ 3
0 si Xi > 3
1 ≤ i ≤ n
Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3)
Estimador:
F̂n(3) = Y n
Por LGN,
F̂n(3) = Y n
p−→ p = F (3)
es decir, F̂n(3) es un estimador consistente de F (3).
Además, demostramos la interpretación frecuentista de la
probabilidad!
15 / 21
Estimación de E(X2)
Parámetro de interés: θ = E(X2), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
¿Qué hacemos?
16 / 21
Estimación de E(X2)
Parámetro de interés: θ = E(X2), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
¿Qué hacemos?
16 / 21
Estimación de E(X2)
Parámetro de interés: θ = E(X2), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
¿Qué hacemos?
16 / 21
Moraleja
Si X1, . . . , Xn son i.i.d. ⇒
Xn
p−→ E(X1)
y además...
1
n
n∑
i=1
g(Xi)
p−→ E{g(X1)} ∀g
17 / 21
Moraleja
Si X1, . . . , Xn son i.i.d. ⇒
Xn
p−→ E(X1)
y además...
1
n
n∑
i=1
g(Xi)
p−→ E{g(X1)} ∀g
17 / 21
Moraleja
Si X1, . . . , Xn son i.i.d. ⇒
Xn
p−→ E(X1)
y además...
1
n
n∑
i=1
g(Xi)
p−→ E{g(X1)} ∀g
17 / 21
Estimación de la Varianza
Parámetro: σ2 = V(X), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
¿Qué hacemos?
18 / 21
Estimación de la Varianza
Parámetro: σ2 = V(X), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
¿Qué hacemos?
18 / 21
Estimación de la Varianza
Parámetro: σ2 = V(X), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
¿Qué hacemos?
18 / 21
Propiedades de la convergencia en probabilidad
Si Xn
p−→ a e Yn
p−→ b, entonces:
Xn + Yn
p−→ a+ b
Xn − Yn
p−→ a− b
XnYn
p−→ ab
Xn
Yn
p−→ ab si b ̸= 0
g (Xn)
p−→ g(a) si g es una función continua en a
si cn es una sucesión numérica tal que cn −→ c, entonces
cnXn
p−→ ca
19 / 21
Propiedades de la convergencia en probabilidad
Si Xn
p−→ a e Yn
p−→ b, entonces:
Xn + Yn
p−→
a+ b
Xn − Yn
p−→ a− b
XnYn
p−→ ab
Xn
Yn
p−→ ab si b ̸= 0
g (Xn)
p−→ g(a) si g es una función continua en a
si cn es una sucesión numérica tal que cn −→ c, entonces
cnXn
p−→ ca
19 / 21
Propiedades de la convergencia en probabilidad
Si Xn
p−→ a e Yn
p−→ b, entonces:
Xn + Yn
p−→ a+ b
Xn − Yn
p−→ a− b
XnYn
p−→ ab
Xn
Yn
p−→ ab si b ̸= 0
g (Xn)
p−→ g(a) si g es una función continua en a
si cn es una sucesión numérica tal que cn −→ c, entonces
cnXn
p−→ ca
19 / 21
Propiedades de la convergencia en probabilidad
Si Xn
p−→ a e Yn
p−→ b, entonces:
Xn + Yn
p−→ a+ b
Xn − Yn
p−→
a− b
XnYn
p−→ ab
Xn
Yn
p−→ ab si b ̸= 0
g (Xn)
p−→ g(a) si g es una función continua en a
si cn es una sucesión numérica tal que cn −→ c, entonces
cnXn
p−→ ca
19 / 21
Propiedades de la convergencia en probabilidad
Si Xn
p−→ a e Yn
p−→ b, entonces:
Xn + Yn
p−→ a+ b
Xn − Yn
p−→ a− b
XnYn
p−→ ab
Xn
Yn
p−→ ab si b ̸= 0
g (Xn)
p−→ g(a) si g es una función continuaen a
si cn es una sucesión numérica tal que cn −→ c, entonces
cnXn
p−→ ca
19 / 21
Propiedades de la convergencia en probabilidad
Si Xn
p−→ a e Yn
p−→ b, entonces:
Xn + Yn
p−→ a+ b
Xn − Yn
p−→ a− b
XnYn
p−→
ab
Xn
Yn
p−→ ab si b ̸= 0
g (Xn)
p−→ g(a) si g es una función continua en a
si cn es una sucesión numérica tal que cn −→ c, entonces
cnXn
p−→ ca
19 / 21
Propiedades de la convergencia en probabilidad
Si Xn
p−→ a e Yn
p−→ b, entonces:
Xn + Yn
p−→ a+ b
Xn − Yn
p−→ a− b
XnYn
p−→ ab
Xn
Yn
p−→ ab si b ̸= 0
g (Xn)
p−→ g(a) si g es una función continua en a
si cn es una sucesión numérica tal que cn −→ c, entonces
cnXn
p−→ ca
19 / 21
Propiedades de la convergencia en probabilidad
Si Xn
p−→ a e Yn
p−→ b, entonces:
Xn + Yn
p−→ a+ b
Xn − Yn
p−→ a− b
XnYn
p−→ ab
Xn
Yn
p−→
a
b si b ̸= 0
g (Xn)
p−→ g(a) si g es una función continua en a
si cn es una sucesión numérica tal que cn −→ c, entonces
cnXn
p−→ ca
19 / 21
Propiedades de la convergencia en probabilidad
Si Xn
p−→ a e Yn
p−→ b, entonces:
Xn + Yn
p−→ a+ b
Xn − Yn
p−→ a− b
XnYn
p−→ ab
Xn
Yn
p−→ ab si b ̸= 0
g (Xn)
p−→ g(a) si g es una función continua en a
si cn es una sucesión numérica tal que cn −→ c, entonces
cnXn
p−→ ca
19 / 21
Propiedades de la convergencia en probabilidad
Si Xn
p−→ a e Yn
p−→ b, entonces:
Xn + Yn
p−→ a+ b
Xn − Yn
p−→ a− b
XnYn
p−→ ab
Xn
Yn
p−→ ab si b ̸= 0
g (Xn)
p−→
g(a) si g es una función continua en a
si cn es una sucesión numérica tal que cn −→ c, entonces
cnXn
p−→ ca
19 / 21
Propiedades de la convergencia en probabilidad
Si Xn
p−→ a e Yn
p−→ b, entonces:
Xn + Yn
p−→ a+ b
Xn − Yn
p−→ a− b
XnYn
p−→ ab
Xn
Yn
p−→ ab si b ̸= 0
g (Xn)
p−→ g(a) si g es una función continua en a
si cn es una sucesión numérica tal que cn −→ c, entonces
cnXn
p−→ ca
19 / 21
Propiedades de la convergencia en probabilidad
Si Xn
p−→ a e Yn
p−→ b, entonces:
Xn + Yn
p−→ a+ b
Xn − Yn
p−→ a− b
XnYn
p−→ ab
Xn
Yn
p−→ ab si b ̸= 0
g (Xn)
p−→ g(a) si g es una función continua en a
si cn es una sucesión numérica tal que cn −→ c, entonces
cnXn
p−→
ca
19 / 21
Propiedades de la convergencia en probabilidad
Si Xn
p−→ a e Yn
p−→ b, entonces:
Xn + Yn
p−→ a+ b
Xn − Yn
p−→ a− b
XnYn
p−→ ab
Xn
Yn
p−→ ab si b ̸= 0
g (Xn)
p−→ g(a) si g es una función continua en a
si cn es una sucesión numérica tal que cn −→ c, entonces
cnXn
p−→ ca
19 / 21
Estimación de la Varianza
Parámetro: σ2 = V (X), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Estimadores:
σ̂2n =
1
n
n∑
i=1
(Xi −Xn)2
s2n =
1
n− 1
n∑
i=1
(Xi −Xn)2 −→ varianza muestral
σ̂2n, s
2
n
p−→ σ2 por LGN.
20 / 21
Estimación de la Varianza
Parámetro: σ2 = V (X), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Estimadores:
σ̂2n =
1
n
n∑
i=1
(Xi −Xn)2
s2n =
1
n− 1
n∑
i=1
(Xi −Xn)2 −→ varianza muestral
σ̂2n, s
2
n
p−→ σ2 por LGN.
20 / 21
¿Qué sigue?
Hasta ahora vimos...
criterio básico de bondad: consistencia
cómo construir estimadores consistentes utilizando la LGN
¿Qué nos falta?
Otros criterios de bondad de estimadores.
Métodos más generales (“recetas”) para construir estimadores.
21 / 21
¿Qué sigue?
Hasta ahora vimos...
criterio básico de bondad: consistencia
cómo construir estimadores consistentes utilizando la LGN
¿Qué nos falta?
Otros criterios de bondad de estimadores.
Métodos más generales (“recetas”) para construir estimadores.
21 / 21

Continuar navegando