Logo Studenta

Clase 2 - Inferencia Estadística

¡Este material tiene más páginas!

Vista previa del material en texto

Inferencia Estad́ıstica
Lućıa Babino
Universidad Torcuato Di Tella
1 / 30
Repaso
2 / 30
Probabilidad vs. Inferencia Estad́ıstica
Wasserman (2003)
3 / 30
Ingredientes fundamentales de la Estad́ıstica
1 Distribución (población): F
2 Parámetro (poblacional): θ(F ) = θ
3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
4 Estimador:
θ̂n(X1, . . . , Xn) = θ̂n = θ̂
5 Incertidumbre (error de estimación):
Intervalos de Confianza
Test de Hipótesis
4 / 30
Ingredientes fundamentales de la Estad́ıstica
1 Distribución (población): F
2 Parámetro (poblacional): θ(F ) =
θ
3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
4 Estimador:
θ̂n(X1, . . . , Xn) = θ̂n = θ̂
5 Incertidumbre (error de estimación):
Intervalos de Confianza
Test de Hipótesis
4 / 30
Ingredientes fundamentales de la Estad́ıstica
1 Distribución (población): F
2 Parámetro (poblacional): θ(F ) = θ
3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
4 Estimador:
θ̂n(X1, . . . , Xn) = θ̂n = θ̂
5 Incertidumbre (error de estimación):
Intervalos de Confianza
Test de Hipótesis
4 / 30
Ingredientes fundamentales de la Estad́ıstica
1 Distribución (población): F
2 Parámetro (poblacional): θ(F ) = θ
3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
4 Estimador:
θ̂n(X1, . . . , Xn) = θ̂n = θ̂
5 Incertidumbre (error de estimación):
Intervalos de Confianza
Test de Hipótesis
4 / 30
Ingredientes fundamentales de la Estad́ıstica
1 Distribución (población): F
2 Parámetro (poblacional): θ(F ) = θ
3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
4 Estimador:
θ̂n(X1, . . . , Xn)
= θ̂n = θ̂
5 Incertidumbre (error de estimación):
Intervalos de Confianza
Test de Hipótesis
4 / 30
Ingredientes fundamentales de la Estad́ıstica
1 Distribución (población): F
2 Parámetro (poblacional): θ(F ) = θ
3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
4 Estimador:
θ̂n(X1, . . . , Xn) = θ̂n
= θ̂
5 Incertidumbre (error de estimación):
Intervalos de Confianza
Test de Hipótesis
4 / 30
Ingredientes fundamentales de la Estad́ıstica
1 Distribución (población): F
2 Parámetro (poblacional): θ(F ) = θ
3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
4 Estimador:
θ̂n(X1, . . . , Xn) = θ̂n = θ̂
5 Incertidumbre (error de estimación):
Intervalos de Confianza
Test de Hipótesis
4 / 30
Ingredientes fundamentales de la Estad́ıstica
1 Distribución (población): F
2 Parámetro (poblacional): θ(F ) = θ
3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
4 Estimador:
θ̂n(X1, . . . , Xn) = θ̂n = θ̂
5 Incertidumbre (error de estimación):
Intervalos de Confianza
Test de Hipótesis
4 / 30
Ingredientes fundamentales de la Estad́ıstica
1 Distribución (población): F
2 Parámetro (poblacional): θ(F ) = θ
3 Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
4 Estimador:
θ̂n(X1, . . . , Xn) = θ̂n = θ̂
5 Incertidumbre (error de estimación):
Intervalos de Confianza
Test de Hipótesis
4 / 30
Tiempo de permanencia: problema simplificado
Suponemos...
µ0 = tiempo de permanencia medio con la versión actual
= 60 seg −→ conocido
Parámetro de interés:
µ = tiempo de permanencia medio con la versión nueva
Pregunta: ¿µ > µ0?
Experimento: “TestB”
Pasos para responder la pregunta:
1 estimar µ
2 comparar µ̂ con µ0
3 tomar una decisión
5 / 30
Tiempo de permanencia: problema simplificado
Suponemos...
µ0 = tiempo de permanencia medio con la versión actual
= 60 seg −→ conocido
Parámetro de interés:
µ = tiempo de permanencia medio con la versión nueva
Pregunta: ¿µ > µ0?
Experimento: “TestB”
Pasos para responder la pregunta:
1 estimar µ
2 comparar µ̂ con µ0
3 tomar una decisión
5 / 30
Tiempo de permanencia: problema simplificado
Suponemos...
µ0 = tiempo de permanencia medio con la versión actual
= 60 seg −→ conocido
Parámetro de interés:
µ = tiempo de permanencia medio con la versión nueva
Pregunta: ¿µ > µ0?
Experimento: “TestB”
Pasos para responder la pregunta:
1 estimar µ
2 comparar µ̂ con µ0
3 tomar una decisión
5 / 30
Tiempo de permanencia: problema simplificado
Suponemos...
µ0 = tiempo de permanencia medio con la versión actual
= 60 seg −→ conocido
Parámetro de interés:
µ = tiempo de permanencia medio con la versión nueva
Pregunta: ¿µ > µ0?
Experimento: “TestB”
Pasos para responder la pregunta:
1 estimar µ
2 comparar µ̂ con µ0
3 tomar una decisión
5 / 30
Tiempo de permanencia: problema simplificado
Suponemos...
µ0 = tiempo de permanencia medio con la versión actual
= 60 seg −→ conocido
Parámetro de interés:
µ = tiempo de permanencia medio con la versión nueva
Pregunta: ¿µ > µ0?
Experimento: “TestB”
Pasos para responder la pregunta:
1 estimar µ
2 comparar µ̂ con µ0
3 tomar una decisión
5 / 30
Tiempo de permanencia: problema simplificado
Suponemos...
µ0 = tiempo de permanencia medio con la versión actual
= 60 seg −→ conocido
Parámetro de interés:
µ = tiempo de permanencia medio con la versión nueva
Pregunta: ¿µ > µ0?
Experimento: “TestB”
Pasos para responder la pregunta:
1 estimar µ
2 comparar µ̂ con µ0
3 tomar una decisión
5 / 30
Tiempo de permanencia: problema simplificado
Suponemos...
µ0 = tiempo de permanencia medio con la versión actual
= 60 seg −→ conocido
Parámetro de interés:
µ = tiempo de permanencia medio con la versión nueva
Pregunta: ¿µ > µ0?
Experimento: “TestB”
Pasos para responder la pregunta:
1 estimar µ
2 comparar µ̂ con µ0
3 tomar una decisión
5 / 30
Tiempo de permanencia: problema simplificado
Suponemos...
µ0 = tiempo de permanencia medio con la versión actual
= 60 seg −→ conocido
Parámetro de interés:
µ = tiempo de permanencia medio con la versión nueva
Pregunta: ¿µ > µ0?
Experimento: “TestB”
Pasos para responder la pregunta:
1 estimar µ
2 comparar µ̂ con µ0
3 tomar una decisión
5 / 30
Tiempo de permanencia: problema simplificado
Suponemos...
µ0 = tiempo de permanencia medio con la versión actual
= 60 seg −→ conocido
Parámetro de interés:
µ = tiempo de permanencia medio con la versión nueva
Pregunta: ¿µ > µ0?
Experimento: “TestB”
Pasos para responder la pregunta:
1 estimar µ
2 comparar µ̂ con µ0
3 tomar una decisión
5 / 30
Temas de la materia
1 Ley de los grandes números y Teorema central del ĺımite
2 Estimación puntual
3 Intervalos de confianza
4 Test de hipótesis
6 / 30
Temas de la materia
1 Ley de los grandes números y Teorema central del ĺımite
2 Estimación puntual
3 Intervalos de confianza
4 Test de hipótesis
6 / 30
Temas de la materia
1 Ley de los grandes números y Teorema central del ĺımite
2 Estimación puntual
3 Intervalos de confianza
4 Test de hipótesis
6 / 30
Temas de la materia
1 Ley de los grandes números y Teorema central del ĺımite
2 Estimación puntual
3 Intervalos de confianza
4 Test de hipótesis
6 / 30
Temas de la materia
5 Regresión Lineal
7 / 30
Temas de la materia
5 Regresión Lineal
7 / 30
Temas de la materia
5 Regresión Lineal
6 Regresión Loǵıstica
8 / 30
Temas de la materia
5 Regresión Lineal
6 Regresión Loǵıstica
8 / 30
Bibliograf́ıa recomendada
All of Statistics-A Concise Course in Statistical
Inference. Wasserman, L. (2021).
(pocas ideas intuitivas pero muy conciso y tiene todos los
temas que veremos)
Statistics: Unlocking the power of data. Lock et al.
(2020).
(poca teoŕıa pero muchos ejemplos e ideas intuitivas. Buen
complemento del Wasserman, sobre todo para los temas 2 a
4)
An introduction to statistical learning. James, G., Witten,
D., Hastie, T., & Tibshirani, R. (2021).
https://www.statlearning.com/
(ideal para los temas 5 y 6)
9 / 30
https://www.statlearning.com/
Repaso de Probabilidad
10 / 30
Propiedades de la esperanza
1 E(a) =
a, a ∈ R
2 E(X + Y ) = E(X) + E(Y ) SIEMPRE
3 E(X + a) = E(X) + a
4 E(aX) = aE(X)
5 E
(
n∑
i=1
aiXi
)
=
n∑
i=1
aiE(Xi)
6 E(Xn) = E
(
1
n
n∑
i=1
Xi
)
= 1n
n∑
i=1
E(Xi)
7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ
Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) =µ
11 / 30
Propiedades de la esperanza
1 E(a) = a, a ∈ R
2 E(X + Y ) = E(X) + E(Y ) SIEMPRE
3 E(X + a) = E(X) + a
4 E(aX) = aE(X)
5 E
(
n∑
i=1
aiXi
)
=
n∑
i=1
aiE(Xi)
6 E(Xn) = E
(
1
n
n∑
i=1
Xi
)
= 1n
n∑
i=1
E(Xi)
7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ
Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ
11 / 30
Propiedades de la esperanza
1 E(a) = a, a ∈ R
2 E(X + Y ) =
E(X) + E(Y ) SIEMPRE
3 E(X + a) = E(X) + a
4 E(aX) = aE(X)
5 E
(
n∑
i=1
aiXi
)
=
n∑
i=1
aiE(Xi)
6 E(Xn) = E
(
1
n
n∑
i=1
Xi
)
= 1n
n∑
i=1
E(Xi)
7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ
Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ
11 / 30
Propiedades de la esperanza
1 E(a) = a, a ∈ R
2 E(X + Y ) = E(X) + E(Y )
SIEMPRE
3 E(X + a) = E(X) + a
4 E(aX) = aE(X)
5 E
(
n∑
i=1
aiXi
)
=
n∑
i=1
aiE(Xi)
6 E(Xn) = E
(
1
n
n∑
i=1
Xi
)
= 1n
n∑
i=1
E(Xi)
7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ
Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ
11 / 30
Propiedades de la esperanza
1 E(a) = a, a ∈ R
2 E(X + Y ) = E(X) + E(Y ) SIEMPRE
3 E(X + a) = E(X) + a
4 E(aX) = aE(X)
5 E
(
n∑
i=1
aiXi
)
=
n∑
i=1
aiE(Xi)
6 E(Xn) = E
(
1
n
n∑
i=1
Xi
)
= 1n
n∑
i=1
E(Xi)
7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ
Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ
11 / 30
Propiedades de la esperanza
1 E(a) = a, a ∈ R
2 E(X + Y ) = E(X) + E(Y ) SIEMPRE
3 E(X + a) =
E(X) + a
4 E(aX) = aE(X)
5 E
(
n∑
i=1
aiXi
)
=
n∑
i=1
aiE(Xi)
6 E(Xn) = E
(
1
n
n∑
i=1
Xi
)
= 1n
n∑
i=1
E(Xi)
7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ
Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ
11 / 30
Propiedades de la esperanza
1 E(a) = a, a ∈ R
2 E(X + Y ) = E(X) + E(Y ) SIEMPRE
3 E(X + a) = E(X) + a
4 E(aX) = aE(X)
5 E
(
n∑
i=1
aiXi
)
=
n∑
i=1
aiE(Xi)
6 E(Xn) = E
(
1
n
n∑
i=1
Xi
)
= 1n
n∑
i=1
E(Xi)
7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ
Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ
11 / 30
Propiedades de la esperanza
1 E(a) = a, a ∈ R
2 E(X + Y ) = E(X) + E(Y ) SIEMPRE
3 E(X + a) = E(X) + a
4 E(aX) =
aE(X)
5 E
(
n∑
i=1
aiXi
)
=
n∑
i=1
aiE(Xi)
6 E(Xn) = E
(
1
n
n∑
i=1
Xi
)
= 1n
n∑
i=1
E(Xi)
7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ
Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ
11 / 30
Propiedades de la esperanza
1 E(a) = a, a ∈ R
2 E(X + Y ) = E(X) + E(Y ) SIEMPRE
3 E(X + a) = E(X) + a
4 E(aX) = aE(X)
5 E
(
n∑
i=1
aiXi
)
=
n∑
i=1
aiE(Xi)
6 E(Xn) = E
(
1
n
n∑
i=1
Xi
)
= 1n
n∑
i=1
E(Xi)
7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ
Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ
11 / 30
Propiedades de la esperanza
1 E(a) = a, a ∈ R
2 E(X + Y ) = E(X) + E(Y ) SIEMPRE
3 E(X + a) = E(X) + a
4 E(aX) = aE(X)
5 E
(
n∑
i=1
aiXi
)
=
n∑
i=1
aiE(Xi)
6 E(Xn) = E
(
1
n
n∑
i=1
Xi
)
= 1n
n∑
i=1
E(Xi)
7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ
Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ
11 / 30
Propiedades de la esperanza
1 E(a) = a, a ∈ R
2 E(X + Y ) = E(X) + E(Y ) SIEMPRE
3 E(X + a) = E(X) + a
4 E(aX) = aE(X)
5 E
(
n∑
i=1
aiXi
)
=
n∑
i=1
aiE(Xi)
6 E(Xn) = E
(
1
n
n∑
i=1
Xi
)
= 1n
n∑
i=1
E(Xi)
7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ
Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ
11 / 30
Propiedades de la esperanza
1 E(a) = a, a ∈ R
2 E(X + Y ) = E(X) + E(Y ) SIEMPRE
3 E(X + a) = E(X) + a
4 E(aX) = aE(X)
5 E
(
n∑
i=1
aiXi
)
=
n∑
i=1
aiE(Xi)
6 E(Xn) = E
(
1
n
n∑
i=1
Xi
)
=
1
n
n∑
i=1
E(Xi)
7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ
Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ
11 / 30
Propiedades de la esperanza
1 E(a) = a, a ∈ R
2 E(X + Y ) = E(X) + E(Y ) SIEMPRE
3 E(X + a) = E(X) + a
4 E(aX) = aE(X)
5 E
(
n∑
i=1
aiXi
)
=
n∑
i=1
aiE(Xi)
6 E(Xn) = E
(
1
n
n∑
i=1
Xi
)
= 1n
n∑
i=1
E(Xi)
7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ
Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ
11 / 30
Propiedades de la esperanza
1 E(a) = a, a ∈ R
2 E(X + Y ) = E(X) + E(Y ) SIEMPRE
3 E(X + a) = E(X) + a
4 E(aX) = aE(X)
5 E
(
n∑
i=1
aiXi
)
=
n∑
i=1
aiE(Xi)
6 E(Xn) = E
(
1
n
n∑
i=1
Xi
)
= 1n
n∑
i=1
E(Xi)
7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) =
µ
Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ
11 / 30
Propiedades de la esperanza
1 E(a) = a, a ∈ R
2 E(X + Y ) = E(X) + E(Y ) SIEMPRE
3 E(X + a) = E(X) + a
4 E(aX) = aE(X)
5 E
(
n∑
i=1
aiXi
)
=
n∑
i=1
aiE(Xi)
6 E(Xn) = E
(
1
n
n∑
i=1
Xi
)
= 1n
n∑
i=1
E(Xi)
7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ
Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ
11 / 30
Propiedades de la esperanza
1 E(a) = a, a ∈ R
2 E(X + Y ) = E(X) + E(Y ) SIEMPRE
3 E(X + a) = E(X) + a
4 E(aX) = aE(X)
5 E
(
n∑
i=1
aiXi
)
=
n∑
i=1
aiE(Xi)
6 E(Xn) = E
(
1
n
n∑
i=1
Xi
)
= 1n
n∑
i=1
E(Xi)
7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ
Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) =
µ
11 / 30
Propiedades de la esperanza
1 E(a) = a, a ∈ R
2 E(X + Y ) = E(X) + E(Y ) SIEMPRE
3 E(X + a) = E(X) + a
4 E(aX) = aE(X)
5 E
(
n∑
i=1
aiXi
)
=
n∑
i=1
aiE(Xi)
6 E(Xn) = E
(
1
n
n∑
i=1
Xi
)
= 1n
n∑
i=1
E(Xi)
7 Si X1, . . . , Xn son v.a. c/ E(Xi) = µ ∀ i ⇒ E(Xn) = µ
Si X1, . . . , Xn son i.i.d. con E(X1) = µ ⇒ E(Xn) = µ
11 / 30
Propiedades de la varianza V(X) = E
{
[X − E(X)]2
}
1 V(a) =
0, a ∈ R
2 V(X + Y ) = V(X) + V(Y ) + 2 cov(X,Y ) con
cov(X,Y ) = E {[X − E(X)] [Y − E(Y )]}
3 V(X + Y ) = V(X) + V(Y ) si X,Y son INDEPENDIENTES
4 V(X + a) = V(X)
5 V(aX) = a2V(X)
6 V
(
n∑
i=1
aiXi
)
=
n∑
i=1
a2i V(Xi) , si X1, . . . , Xn son indep.
7 Si X1, . . . , Xn son INDEP. c/ V(Xi) = σ2 ∀ i ⇒ V(Xn) = σ
2
n
Si X1, . . . , Xn son i.i.d. con V(X1) = σ2 ⇒ V(Xn) = σ
2
n
12 / 30
Propiedades de la varianza V(X) = E
{
[X − E(X)]2
}
1 V(a) = 0, a ∈ R
2 V(X + Y ) = V(X) + V(Y ) + 2 cov(X,Y ) con
cov(X,Y ) = E {[X − E(X)] [Y − E(Y )]}
3 V(X + Y ) = V(X) + V(Y ) si X,Y son INDEPENDIENTES
4 V(X + a) = V(X)
5 V(aX) = a2V(X)
6 V
(
n∑
i=1
aiXi
)
=
n∑
i=1
a2i V(Xi) , si X1, . . . , Xn son indep.
7 Si X1, . . . , Xn son INDEP. c/ V(Xi) = σ2 ∀ i ⇒ V(Xn) = σ
2
n
Si X1, . . . , Xn son i.i.d. con V(X1) = σ2 ⇒ V(Xn) = σ
2
n
12 / 30
Propiedades de la varianza V(X) = E
{
[X − E(X)]2
}
1 V(a) = 0, a ∈ R
2 V(X + Y ) =
V(X) + V(Y ) + 2 cov(X,Y ) con
cov(X,Y ) = E {[X − E(X)] [Y − E(Y )]}
3 V(X + Y ) = V(X) + V(Y ) si X,Y son INDEPENDIENTES
4 V(X + a) = V(X)
5 V(aX) = a2V(X)
6 V
(
n∑
i=1
aiXi
)
=
n∑
i=1
a2i V(Xi) , si X1, . . . , Xn son indep.
7 Si X1, . . . , Xn son INDEP. c/ V(Xi) = σ2 ∀ i ⇒ V(Xn) = σ
2
n
Si X1, . . . , Xn son i.i.d. con V(X1) = σ2 ⇒ V(Xn) = σ
2
n
12 / 30
Propiedades de la varianza V(X) = E
{
[X − E(X)]2
}
1 V(a) = 0, a ∈ R
2 V(X + Y ) = V(X) + V(Y ) + 2 cov(X,Y ) con
cov(X,Y ) = E {[X − E(X)] [Y − E(Y )]}
3 V(X + Y ) = V(X) + V(Y ) si X,Y son INDEPENDIENTES
4 V(X + a) = V(X)
5 V(aX) = a2V(X)
6 V
(
n∑
i=1
aiXi
)
=
n∑
i=1
a2i V(Xi) , si X1, . . . , Xn son indep.
7 Si X1, . . . , Xn son INDEP. c/ V(Xi) = σ2 ∀ i ⇒ V(Xn) = σ
2
n
Si X1, . . . , Xn son i.i.d. con V(X1) = σ2 ⇒ V(Xn) = σ
2
n
12 / 30
Propiedades de la varianza V(X) = E
{
[X − E(X)]2
}
1 V(a) = 0, a ∈ R
2 V(X + Y ) = V(X) + V(Y ) + 2 cov(X,Y ) con
cov(X,Y ) = E {[X − E(X)] [Y − E(Y )]}
3 V(X + Y ) = V(X) + V(Y ) si X,Y son INDEPENDIENTES
4 V(X + a) = V(X)
5 V(aX) = a2V(X)
6 V
(
n∑
i=1
aiXi
)
=
n∑
i=1
a2i V(Xi) , si X1, . . . , Xn son indep.
7 Si X1, . . . , Xn son INDEP. c/ V(Xi) = σ2 ∀ i ⇒ V(Xn) = σ
2
n
Si X1, . . . , Xn son i.i.d. con V(X1) = σ2 ⇒ V(Xn) = σ
2
n
12 / 30
Propiedades de la varianza V(X) = E
{
[X − E(X)]2
}
1 V(a) = 0, a ∈ R
2 V(X + Y ) = V(X) + V(Y ) + 2 cov(X,Y ) con
cov(X,Y) = E {[X − E(X)] [Y − E(Y )]}
3 V(X + Y ) = V(X) + V(Y ) si X,Y son INDEPENDIENTES
4 V(X + a) =
V(X)
5 V(aX) = a2V(X)
6 V
(
n∑
i=1
aiXi
)
=
n∑
i=1
a2i V(Xi) , si X1, . . . , Xn son indep.
7 Si X1, . . . , Xn son INDEP. c/ V(Xi) = σ2 ∀ i ⇒ V(Xn) = σ
2
n
Si X1, . . . , Xn son i.i.d. con V(X1) = σ2 ⇒ V(Xn) = σ
2
n
12 / 30
Propiedades de la varianza V(X) = E
{
[X − E(X)]2
}
1 V(a) = 0, a ∈ R
2 V(X + Y ) = V(X) + V(Y ) + 2 cov(X,Y ) con
cov(X,Y ) = E {[X − E(X)] [Y − E(Y )]}
3 V(X + Y ) = V(X) + V(Y ) si X,Y son INDEPENDIENTES
4 V(X + a) = V(X)
5 V(aX) = a2V(X)
6 V
(
n∑
i=1
aiXi
)
=
n∑
i=1
a2i V(Xi) , si X1, . . . , Xn son indep.
7 Si X1, . . . , Xn son INDEP. c/ V(Xi) = σ2 ∀ i ⇒ V(Xn) = σ
2
n
Si X1, . . . , Xn son i.i.d. con V(X1) = σ2 ⇒ V(Xn) = σ
2
n
12 / 30
Propiedades de la varianza V(X) = E
{
[X − E(X)]2
}
1 V(a) = 0, a ∈ R
2 V(X + Y ) = V(X) + V(Y ) + 2 cov(X,Y ) con
cov(X,Y ) = E {[X − E(X)] [Y − E(Y )]}
3 V(X + Y ) = V(X) + V(Y ) si X,Y son INDEPENDIENTES
4 V(X + a) = V(X)
5 V(aX) =
a2V(X)
6 V
(
n∑
i=1
aiXi
)
=
n∑
i=1
a2i V(Xi) , si X1, . . . , Xn son indep.
7 Si X1, . . . , Xn son INDEP. c/ V(Xi) = σ2 ∀ i ⇒ V(Xn) = σ
2
n
Si X1, . . . , Xn son i.i.d. con V(X1) = σ2 ⇒ V(Xn) = σ
2
n
12 / 30
Propiedades de la varianza V(X) = E
{
[X − E(X)]2
}
1 V(a) = 0, a ∈ R
2 V(X + Y ) = V(X) + V(Y ) + 2 cov(X,Y ) con
cov(X,Y ) = E {[X − E(X)] [Y − E(Y )]}
3 V(X + Y ) = V(X) + V(Y ) si X,Y son INDEPENDIENTES
4 V(X + a) = V(X)
5 V(aX) = a2V(X)
6 V
(
n∑
i=1
aiXi
)
=
n∑
i=1
a2i V(Xi) , si X1, . . . , Xn son indep.
7 Si X1, . . . , Xn son INDEP. c/ V(Xi) = σ2 ∀ i ⇒ V(Xn) = σ
2
n
Si X1, . . . , Xn son i.i.d. con V(X1) = σ2 ⇒ V(Xn) = σ
2
n
12 / 30
Propiedades de la varianza V(X) = E
{
[X − E(X)]2
}
1 V(a) = 0, a ∈ R
2 V(X + Y ) = V(X) + V(Y ) + 2 cov(X,Y ) con
cov(X,Y ) = E {[X − E(X)] [Y − E(Y )]}
3 V(X + Y ) = V(X) + V(Y ) si X,Y son INDEPENDIENTES
4 V(X + a) = V(X)
5 V(aX) = a2V(X)
6 V
(
n∑
i=1
aiXi
)
=
n∑
i=1
a2i V(Xi) , si X1, . . . , Xn son indep.
7 Si X1, . . . , Xn son INDEP. c/ V(Xi) = σ2 ∀ i ⇒ V(Xn) = σ
2
n
Si X1, . . . , Xn son i.i.d. con V(X1) = σ2 ⇒ V(Xn) = σ
2
n
12 / 30
Propiedades de la varianza V(X) = E
{
[X − E(X)]2
}
1 V(a) = 0, a ∈ R
2 V(X + Y ) = V(X) + V(Y ) + 2 cov(X,Y ) con
cov(X,Y ) = E {[X − E(X)] [Y − E(Y )]}
3 V(X + Y ) = V(X) + V(Y ) si X,Y son INDEPENDIENTES
4 V(X + a) = V(X)
5 V(aX) = a2V(X)
6 V
(
n∑
i=1
aiXi
)
=
n∑
i=1
a2i V(Xi) , si X1, . . . , Xn son indep.
7 Si X1, . . . , Xn son INDEP. c/ V(Xi) = σ2 ∀ i ⇒ V(Xn) = σ
2
n
Si X1, . . . , Xn son i.i.d. con V(X1) = σ2 ⇒ V(Xn) = σ
2
n
12 / 30
Propiedades de la varianza V(X) = E
{
[X − E(X)]2
}
1 V(a) = 0, a ∈ R
2 V(X + Y ) = V(X) + V(Y ) + 2 cov(X,Y ) con
cov(X,Y ) = E {[X − E(X)] [Y − E(Y )]}
3 V(X + Y ) = V(X) + V(Y ) si X,Y son INDEPENDIENTES
4 V(X + a) = V(X)
5 V(aX) = a2V(X)
6 V
(
n∑
i=1
aiXi
)
=
n∑
i=1
a2i V(Xi) , si X1, . . . , Xn son indep.
7 Si X1, . . . , Xn son INDEP. c/ V(Xi) = σ2 ∀ i ⇒ V(Xn) =
σ2
n
Si X1, . . . , Xn son i.i.d. con V(X1) = σ2 ⇒ V(Xn) = σ
2
n
12 / 30
Propiedades de la varianza V(X) = E
{
[X − E(X)]2
}
1 V(a) = 0, a ∈ R
2 V(X + Y ) = V(X) + V(Y ) + 2 cov(X,Y ) con
cov(X,Y ) = E {[X − E(X)] [Y − E(Y )]}
3 V(X + Y ) = V(X) + V(Y ) si X,Y son INDEPENDIENTES
4 V(X + a) = V(X)
5 V(aX) = a2V(X)
6 V
(
n∑
i=1
aiXi
)
=
n∑
i=1
a2i V(Xi) , si X1, . . . , Xn son indep.
7 Si X1, . . . , Xn son INDEP. c/ V(Xi) = σ2 ∀ i ⇒ V(Xn) = σ
2
n
Si X1, . . . , Xn son i.i.d. con V(X1) = σ2 ⇒ V(Xn) = σ
2
n
12 / 30
Propiedades de la varianza V(X) = E
{
[X − E(X)]2
}
1 V(a) = 0, a ∈ R
2 V(X + Y ) = V(X) + V(Y ) + 2 cov(X,Y ) con
cov(X,Y ) = E {[X − E(X)] [Y − E(Y )]}
3 V(X + Y ) = V(X) + V(Y ) si X,Y son INDEPENDIENTES
4 V(X + a) = V(X)
5 V(aX) = a2V(X)
6 V
(
n∑
i=1
aiXi
)
=
n∑
i=1
a2i V(Xi) , si X1, . . . , Xn son indep.
7 Si X1, . . . , Xn son INDEP. c/ V(Xi) = σ2 ∀ i ⇒ V(Xn) = σ
2
n
Si X1, . . . , Xn son i.i.d. con V(X1) = σ2 ⇒ V(Xn) = σ
2
n
12 / 30
Si X1, . . . , Xn son i.i.d. con E(X1) = µ y V(X1) = σ2 ⇒
E(Xn) = µ
V(Xn) = σ
2
n
13 / 30
Distribuciones
Discretas: Bi(n, p), Be(p), P(λ)
Continuas: N (µ, σ2), U(a, b)
Repasar función de probabilidad puntual o densidad, esperanza y
varianza.
14 / 30
Distribuciones
Discretas: Bi(n, p), Be(p), P(λ)
Continuas: N (µ, σ2), U(a, b)
Repasar función de probabilidad puntual o densidad, esperanza y
varianza.
14 / 30
Distribuciones
Discretas: Bi(n, p), Be(p), P(λ)
Continuas: N (µ, σ2), U(a, b)
Repasar función de probabilidad puntual o densidad, esperanza y
varianza.
14 / 30
Propiedades de la normal
Sea X ∼ N (µ, σ2), entonces
X + b ∼ N (µ+ b, σ2)
aX ∼ N (aµ, a2σ2)
aX + b ∼ N (aµ+ b, a2σ2)
X−µ
σ ∼ N (0, 1) −→ ESTANDARIZACIÓN
15 / 30
Propiedades de la normal
Sea X ∼ N (µ, σ2), entonces
X + b
∼ N (µ+ b, σ2)
aX ∼ N (aµ, a2σ2)
aX + b ∼ N (aµ+ b, a2σ2)
X−µ
σ ∼ N (0, 1) −→ ESTANDARIZACIÓN
15 / 30
Propiedades de la normal
Sea X ∼ N (µ, σ2), entonces
X + b ∼ N
(µ+ b, σ2)
aX ∼ N (aµ, a2σ2)
aX + b ∼ N (aµ+ b, a2σ2)
X−µ
σ ∼ N (0, 1) −→ ESTANDARIZACIÓN
15 / 30
Propiedades de la normal
Sea X ∼ N (µ, σ2), entonces
X + b ∼ N (µ+ b, σ2)
aX ∼ N (aµ, a2σ2)
aX + b ∼ N (aµ+ b, a2σ2)
X−µ
σ ∼ N (0, 1) −→ ESTANDARIZACIÓN
15 / 30
Propiedades de la normal
Sea X ∼ N (µ, σ2), entonces
X + b ∼ N (µ+ b, σ2)
aX
∼ N (aµ, a2σ2)
aX + b ∼ N (aµ+ b, a2σ2)
X−µ
σ ∼ N (0, 1) −→ ESTANDARIZACIÓN
15 / 30
Propiedades de la normal
Sea X ∼ N (µ, σ2), entonces
X + b ∼ N (µ+ b, σ2)
aX ∼ N
(aµ, a2σ2)
aX + b ∼ N (aµ+ b, a2σ2)
X−µ
σ ∼ N (0, 1) −→ ESTANDARIZACIÓN
15 / 30
Propiedades de la normal
Sea X ∼ N (µ, σ2), entonces
X + b ∼ N (µ+ b, σ2)
aX ∼ N (aµ, a2σ2)
aX + b ∼ N (aµ+ b, a2σ2)
X−µ
σ ∼ N (0, 1) −→ ESTANDARIZACIÓN
15 / 30
Propiedades de la normal
Sea X ∼ N (µ, σ2), entonces
X + b ∼ N (µ+ b, σ2)
aX ∼ N (aµ, a2σ2)
aX + b
∼ N (aµ+ b, a2σ2)
X−µ
σ ∼ N (0, 1) −→ ESTANDARIZACIÓN
15 / 30
Propiedades de la normal
Sea X ∼ N (µ, σ2), entonces
X + b ∼ N (µ+ b, σ2)
aX ∼ N (aµ, a2σ2)
aX + b ∼ N
(aµ+ b, a2σ2)
X−µ
σ ∼ N (0, 1) −→ ESTANDARIZACIÓN
15 / 30
Propiedades de la normal
Sea X ∼ N (µ, σ2), entonces
X + b ∼ N (µ+ b, σ2)
aX ∼ N (aµ, a2σ2)
aX + b ∼ N (aµ+ b, a2σ2)
X−µ
σ ∼ N (0, 1) −→ ESTANDARIZACIÓN
15 / 30
Propiedades de la normal
Sea X ∼ N (µ, σ2), entonces
X + b ∼ N (µ+ b, σ2)
aX ∼ N (aµ, a2σ2)
aX + b ∼ N (aµ+ b, a2σ2)
X−µ
σ
∼ N (0, 1) −→ ESTANDARIZACIÓN
15 / 30
Propiedades de la normal
Sea X ∼ N (µ, σ2), entonces
X + b ∼ N (µ+ b, σ2)
aX ∼ N (aµ, a2σ2)
aX + b ∼ N (aµ+ b, a2σ2)
X−µ
σ ∼ N
(0, 1) −→ ESTANDARIZACIÓN
15 / 30
Propiedades de la normal
Sea X ∼ N (µ, σ2), entonces
X + b ∼ N (µ+ b, σ2)
aX ∼ N (aµ, a2σ2)
aX + b ∼ N (aµ+ b, a2σ2)
X−µ
σ ∼ N (0, 1)
−→ ESTANDARIZACIÓN
15 / 30
Propiedades de la normal
Sea X ∼ N (µ, σ2), entonces
X + b ∼ N (µ+ b, σ2)
aX ∼ N (aµ, a2σ2)
aX + b ∼ N (aµ+ b, a2σ2)
X−µ
σ ∼ N (0, 1) −→ ESTANDARIZACIÓN
15 / 30
Combinaciones lineales de normales
X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒
X + Y ∼ N (µ1 + µ2, σ21 + σ22)
Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒
n∑
i=1
aiXi ∼ N
(
n∑
i=1
aiµi,
n∑
i=1
a2iσ
2
i
)
Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒
Xn ∼ N (µ, σ
2
n )
Xn−µ√
σ2
n
∼ N (0, 1)
¿y si las variables no son normales?
16 / 30
Combinaciones lineales de normales
X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒
X + Y
∼ N (µ1 + µ2, σ21 + σ22)
Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒
n∑
i=1
aiXi ∼ N
(
n∑
i=1
aiµi,
n∑
i=1
a2iσ
2
i
)
Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒
Xn ∼ N (µ, σ
2
n )
Xn−µ√
σ2
n
∼ N (0, 1)
¿y si las variables no son normales?
16 / 30
Combinaciones lineales de normales
X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒
X + Y ∼ N
(µ1 + µ2, σ
2
1 + σ
2
2)
Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒
n∑
i=1
aiXi ∼ N
(
n∑
i=1
aiµi,
n∑
i=1
a2iσ
2
i
)
Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒
Xn ∼ N (µ, σ2
n )
Xn−µ√
σ2
n
∼ N (0, 1)
¿y si las variables no son normales?
16 / 30
Combinaciones lineales de normales
X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒
X + Y ∼ N (µ1 + µ2,
σ21 + σ
2
2)
Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒
n∑
i=1
aiXi ∼ N
(
n∑
i=1
aiµi,
n∑
i=1
a2iσ
2
i
)
Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒
Xn ∼ N (µ, σ
2
n )
Xn−µ√
σ2
n
∼ N (0, 1)
¿y si las variables no son normales?
16 / 30
Combinaciones lineales de normales
X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒
X + Y ∼ N (µ1 + µ2, σ21 + σ22)
Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒
n∑
i=1
aiXi ∼ N
(
n∑
i=1
aiµi,
n∑
i=1
a2iσ
2
i
)
Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒
Xn ∼ N (µ, σ
2
n )
Xn−µ√
σ2
n
∼ N (0, 1)
¿y si las variables no son normales?
16 / 30
Combinaciones lineales de normales
X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒
X + Y ∼ N (µ1 + µ2, σ21 + σ22)
Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒
n∑
i=1
aiXi ∼ N
(
n∑
i=1
aiµi,
n∑
i=1
a2iσ
2
i
)
Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒
Xn ∼ N (µ, σ
2
n )
Xn−µ√
σ2
n
∼ N (0, 1)
¿y si las variables no son normales?
16 / 30
Combinaciones lineales de normales
X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒
X + Y ∼ N (µ1 + µ2, σ21 + σ22)
Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒
n∑
i=1
aiXi
∼ N
(
n∑
i=1
aiµi,
n∑
i=1
a2iσ
2
i
)
Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒
Xn ∼ N (µ, σ
2
n )
Xn−µ√
σ2
n
∼ N (0, 1)
¿y si las variables no son normales?
16 / 30
Combinaciones lineales de normales
X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒
X + Y ∼ N (µ1 + µ2, σ21 + σ22)
Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒
n∑
i=1
aiXi ∼ N
(
n∑
i=1
aiµi,
n∑
i=1
a2iσ
2
i
)
Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒
Xn ∼ N (µ, σ
2
n )
Xn−µ√
σ2
n
∼ N (0, 1)
¿y si las variables no son normales?
16 / 30
Combinaciones lineales de normales
X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒
X + Y ∼ N (µ1 + µ2, σ21 + σ22)
Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒
n∑
i=1
aiXi ∼ N
(
n∑
i=1
aiµi,
n∑
i=1
a2iσ
2
i
)
Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒
Xn ∼ N (µ, σ
2
n )
Xn−µ√
σ2
n
∼ N (0, 1)
¿y si las variables no son normales?
16 / 30
Combinaciones lineales de normales
X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒
X + Y ∼ N (µ1 + µ2, σ21 + σ22)
Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒
n∑
i=1
aiXi ∼ N
(
n∑
i=1
aiµi,
n∑
i=1
a2iσ
2
i
)
Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒
Xn ∼ N (µ, σ
2
n )
Xn−µ√
σ2
n
∼ N (0, 1)
¿y si las variables no son normales?
16 / 30
Combinaciones lineales de normales
X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒
X + Y ∼ N (µ1 + µ2, σ21 + σ22)
Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒
n∑
i=1
aiXi ∼ N
(
n∑
i=1
aiµi,
n∑
i=1
a2iσ
2
i
)
Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒
Xn ∼ N (µ, σ
2
n )
Xn−µ√
σ2
n
∼ N (0, 1)
¿y si las variables no son normales?
16 / 30
Combinaciones lineales de normales
X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒
X + Y ∼ N (µ1 + µ2, σ21 + σ22)
Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒
n∑
i=1
aiXi ∼ N
(
n∑
i=1
aiµi,
n∑
i=1
a2iσ
2
i
)
Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒
Xn
∼ N (µ, σ
2
n )
Xn−µ√
σ2
n
∼ N (0, 1)
¿y si las variables no son normales?
16 / 30
Combinaciones lineales de normales
X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒
X + Y ∼ N (µ1 + µ2, σ21 + σ22)
Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒
n∑
i=1
aiXi ∼ N
(
n∑
i=1
aiµi,
n∑
i=1
a2iσ
2
i
)
Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒
Xn ∼ N
(µ, σ
2
n )
Xn−µ√
σ2
n
∼ N (0, 1)
¿y si las variables no son normales?
16 / 30
Combinaciones lineales de normales
X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒
X + Y ∼ N (µ1 + µ2, σ21 + σ22)
Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒
n∑
i=1
aiXi ∼ N
(
n∑
i=1
aiµi,
n∑
i=1
a2iσ
2
i
)
Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒
Xn ∼ N (µ,
σ2
n )
Xn−µ√
σ2
n
∼ N (0, 1)
¿y si las variables no son normales?
16 / 30
Combinaciones lineales de normales
X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒
X + Y ∼ N (µ1 + µ2, σ21 + σ22)
Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒
n∑
i=1
aiXi ∼ N
(
n∑
i=1
aiµi,
n∑
i=1
a2iσ
2
i
)
Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒
Xn ∼ N (µ, σ
2
n )
Xn−µ√
σ2
n
∼ N (0, 1)
¿y si las variables no son normales?
16 / 30
Combinaciones lineales de normales
X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒
X + Y ∼ N (µ1 + µ2, σ21 + σ22)
Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒
n∑
i=1
aiXi ∼ N
(
n∑
i=1
aiµi,
n∑
i=1
a2iσ
2
i
)
Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒
Xn ∼ N (µ, σ
2
n )
Xn−µ√
σ2
n
∼ N (0, 1)
¿y si las variables no son normales?
16 / 30
Combinaciones lineales de normales
X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒
X + Y ∼ N (µ1 + µ2, σ21 + σ22)
Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒
n∑
i=1
aiXi ∼ N
(
n∑
i=1
aiµi,
n∑
i=1
a2iσ
2
i
)
Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒
Xn ∼ N (µ, σ
2
n )
Xn−µ√
σ2
n
∼ N (0, 1)
¿y si las variables no son normales?
16 / 30
Combinaciones lineales de normales
X ∼ N (µ1, σ21), Y ∼ N (µ2, σ22) independientes ⇒
X + Y ∼ N (µ1 + µ2, σ21 + σ22)
Si X1, . . . , Xn son indep., Xi ∼ N (µi, σ2i ) ⇒
n∑
i=1
aiXi ∼ N
(
n∑
i=1
aiµi,
n∑
i=1
a2iσ
2
i
)
Si X1, . . . , Xn ∼ N (µ, σ2) i.i.d. ⇒
Xn ∼ N (µ, σ
2
n )
Xn−µ√
σ2
n
∼ N (0, 1)
¿y si las variables no son normales?
16 / 30
Ley de los grandes números
Hoja de ruta
Esta clase: repaso y aplicación a estimación
Clase que viene: demostración
Resultado fundamental para
Probabilidad: da sustento teórico a la interpretación
frecuentista de la probabilidad y la esperanza
Estad́ıstica: da información sobre distribución de promedios de
variables i.i.d.
Bibliograf́ıa recomendada (para LGN y TCL)
Wasserman: cap. 4.1 (pag 63-64), 5.3 y 5.4
Probability: with applications and R, Dobrow: cap. 9.1 y 9.4
(subidos a la página de la materia)
17 / 30
Ley de los grandes números
Hoja de ruta
Esta clase: repaso y aplicación a estimación
Clase que viene: demostración
Resultado fundamental para
Probabilidad: da sustento teórico a la interpretación
frecuentista de la probabilidad y la esperanza
Estad́ıstica: da información sobre distribución de promedios de
variables i.i.d.
Bibliograf́ıa recomendada (para LGN y TCL)
Wasserman: cap. 4.1 (pag 63-64), 5.3 y 5.4
Probability: with applications and R, Dobrow: cap. 9.1 y 9.4
(subidos a la página de la materia)
17 / 30
Ley de los grandes números
Hoja de ruta
Esta clase: repaso y aplicación a estimación
Clase que viene: demostración
Resultado fundamental para
Probabilidad: da sustento teórico a la interpretación
frecuentista de la probabilidad y la esperanza
Estad́ıstica: da información sobre distribución de promedios de
variables i.i.d.
Bibliograf́ıa recomendada (para LGN y TCL)
Wasserman: cap. 4.1 (pag 63-64), 5.3 y 5.4
Probability: with applications and R, Dobrow: cap. 9.1 y 9.4
(subidos a la página de la materia)
17 / 30
Ley de los grandes números
Hoja de ruta
Esta clase: repaso y aplicación a estimación
Clase que viene: demostración
Resultado fundamental para
Probabilidad: da sustento teórico a la interpretación
frecuentista de la probabilidad y la esperanza
Estad́ıstica: da información sobre distribución de promedios de
variables i.i.d.
Bibliograf́ıa recomendada (para LGN y TCL)
Wasserman: cap. 4.1 (pag 63-64), 5.3 y 5.4
Probability: with applications and R, Dobrow: cap. 9.1 y 9.4
(subidos a la página de la materia)
17 / 30
Ley de los grandes números
Hoja de ruta
Esta clase: repaso y aplicación a estimación
Clase que viene: demostración
Resultado fundamental para
Probabilidad:
da sustento teórico a la interpretación
frecuentista de la probabilidad y la esperanza
Estad́ıstica: da información sobre distribución de promedios de
variables i.i.d.
Bibliograf́ıa recomendada (para LGN y TCL)Wasserman: cap. 4.1 (pag 63-64), 5.3 y 5.4
Probability: with applications and R, Dobrow: cap. 9.1 y 9.4
(subidos a la página de la materia)
17 / 30
Ley de los grandes números
Hoja de ruta
Esta clase: repaso y aplicación a estimación
Clase que viene: demostración
Resultado fundamental para
Probabilidad: da sustento teórico a la interpretación
frecuentista de la probabilidad y la esperanza
Estad́ıstica: da información sobre distribución de promedios de
variables i.i.d.
Bibliograf́ıa recomendada (para LGN y TCL)
Wasserman: cap. 4.1 (pag 63-64), 5.3 y 5.4
Probability: with applications and R, Dobrow: cap. 9.1 y 9.4
(subidos a la página de la materia)
17 / 30
Ley de los grandes números
Hoja de ruta
Esta clase: repaso y aplicación a estimación
Clase que viene: demostración
Resultado fundamental para
Probabilidad: da sustento teórico a la interpretación
frecuentista de la probabilidad y la esperanza
Estad́ıstica:
da información sobre distribución de promedios de
variables i.i.d.
Bibliograf́ıa recomendada (para LGN y TCL)
Wasserman: cap. 4.1 (pag 63-64), 5.3 y 5.4
Probability: with applications and R, Dobrow: cap. 9.1 y 9.4
(subidos a la página de la materia)
17 / 30
Ley de los grandes números
Hoja de ruta
Esta clase: repaso y aplicación a estimación
Clase que viene: demostración
Resultado fundamental para
Probabilidad: da sustento teórico a la interpretación
frecuentista de la probabilidad y la esperanza
Estad́ıstica: da información sobre distribución de promedios de
variables i.i.d.
Bibliograf́ıa recomendada (para LGN y TCL)
Wasserman: cap. 4.1 (pag 63-64), 5.3 y 5.4
Probability: with applications and R, Dobrow: cap. 9.1 y 9.4
(subidos a la página de la materia)
17 / 30
Ley de los grandes números
Hoja de ruta
Esta clase: repaso y aplicación a estimación
Clase que viene: demostración
Resultado fundamental para
Probabilidad: da sustento teórico a la interpretación
frecuentista de la probabilidad y la esperanza
Estad́ıstica: da información sobre distribución de promedios de
variables i.i.d.
Bibliograf́ıa recomendada (para LGN y TCL)
Wasserman: cap. 4.1 (pag 63-64), 5.3 y 5.4
Probability: with applications and R, Dobrow: cap. 9.1 y 9.4
(subidos a la página de la materia)
17 / 30
Ley de los grandes números
Teorema
Sea X1, . . . , Xn, . . . una sucesión de v.a. i.i.d. con E (X1) = µ ⇒
P
(∣∣Xn − µ∣∣ > ϵ) −→
n→∞
0 ∀ϵ > 0
18 / 30
Ejemplo
Pedro tira una moneda balanceada cada d́ıa y registra si salió
cara o seca.
Para i = 1, 2, ... definamos
Xi =
{
1 si en el i-ésimo tiro salió cara
0 si en el i-ésimo tiro salió cara
X1, . . . , Xn ∼ Be(12) i.i.d.
Proporción de caras luego de n d́ıas (lanzamientos): Xn.
La LGN dice que...
P
(∣∣∣∣Xn − 12
∣∣∣∣ > ϵ) −→n→∞ 0 ∀ϵ > 0.
19 / 30
Ejemplo
Pedro tira una moneda balanceada cada d́ıa y registra si salió
cara o seca.
Para i = 1, 2, ... definamos
Xi =
{
1 si en el i-ésimo tiro salió cara
0 si en el i-ésimo tiro salió cara
X1, . . . , Xn ∼ Be(12) i.i.d.
Proporción de caras luego de n d́ıas (lanzamientos): Xn.
La LGN dice que...
P
(∣∣∣∣Xn − 12
∣∣∣∣ > ϵ) −→n→∞ 0 ∀ϵ > 0.
19 / 30
Ejemplo
Pedro tira una moneda balanceada cada d́ıa y registra si salió
cara o seca.
Para i = 1, 2, ... definamos
Xi =
{
1 si en el i-ésimo tiro salió cara
0 si en el i-ésimo tiro salió cara
X1, . . . , Xn ∼ Be(12) i.i.d.
Proporción de caras luego de n d́ıas (lanzamientos): Xn.
La LGN dice que...
P
(∣∣∣∣Xn − 12
∣∣∣∣ > ϵ) −→n→∞ 0 ∀ϵ > 0.
19 / 30
Ejemplo
Pedro tira una moneda balanceada cada d́ıa y registra si salió
cara o seca.
Para i = 1, 2, ... definamos
Xi =
{
1 si en el i-ésimo tiro salió cara
0 si en el i-ésimo tiro salió cara
X1, . . . , Xn ∼ Be(12) i.i.d.
Proporción de caras luego de n d́ıas (lanzamientos):
Xn.
La LGN dice que...
P
(∣∣∣∣Xn − 12
∣∣∣∣ > ϵ) −→n→∞ 0 ∀ϵ > 0.
19 / 30
Ejemplo
Pedro tira una moneda balanceada cada d́ıa y registra si salió
cara o seca.
Para i = 1, 2, ... definamos
Xi =
{
1 si en el i-ésimo tiro salió cara
0 si en el i-ésimo tiro salió cara
X1, . . . , Xn ∼ Be(12) i.i.d.
Proporción de caras luego de n d́ıas (lanzamientos): Xn.
La LGN dice que...
P
(∣∣∣∣Xn − 12
∣∣∣∣ > ϵ) −→n→∞ 0 ∀ϵ > 0.
19 / 30
Ejemplo
Pedro tira una moneda balanceada cada d́ıa y registra si salió
cara o seca.
Para i = 1, 2, ... definamos
Xi =
{
1 si en el i-ésimo tiro salió cara
0 si en el i-ésimo tiro salió cara
X1, . . . , Xn ∼ Be(12) i.i.d.
Proporción de caras luego de n d́ıas (lanzamientos): Xn.
La LGN dice que...
P
(∣∣∣∣Xn − 12
∣∣∣∣ > ϵ) −→n→∞ 0 ∀ϵ > 0.
19 / 30
Ejemplo
Pedro tira una moneda balanceada cada d́ıa y registra si salió
cara o seca.
Para i = 1, 2, ... definamos
Xi =
{
1 si en el i-ésimo tiro salió cara
0 si en el i-ésimo tiro salió cara
X1, . . . , Xn ∼ Be(12) i.i.d.
Proporción de caras luego de n d́ıas (lanzamientos): Xn.
La LGN dice que...
P
(∣∣∣∣Xn − 12
∣∣∣∣ > ϵ) −→n→∞ 0 ∀ϵ > 0.
19 / 30
Distribución de Xn con X1, . . . , Xn ∼ Be(12) i.i.d.
20 / 30
P
(
|Xn − 12 | ≤ 0.1
)
21 / 30
Intuición
Si X1, . . . , Xn son i.i.d. con E(X1) = µ y V(X1) = σ2 ⇒
E(Xn) = µ
V(Xn) = σ
2
n
22 / 30
Intuición
Si X1, . . . , Xn son i.i.d. con E(X1) = µ y V(X1) = σ2 ⇒
E(Xn) = µ
V(Xn) = σ
2
n
22 / 30
Ley de los grandes números
Teorema
Sea X1, . . . , Xn, . . . una sucesión de v.a. i.i.d. con E (X1) = µ ⇒
P
(∣∣Xn − µ∣∣ > ϵ) −→
n→∞
0 ∀ϵ > 0
23 / 30
Convergencia en probabilidad
Definición
Sea Z1, . . . , Zn, . . . una sucesión de v.a. y sea Z otra v.a.,
decimos que Zn converge en probabilidad a Z si
P (|Zn − Z| > ϵ) −→
n→∞
0 ∀ϵ > 0
y escribimos Zn
p−→ Z.
Ley de los grandes números
Sea X1, . . . , Xn, . . . una sucesión de v.a. i.i.d. con E (X1) = µ ⇒
Xn
p−→ µ
24 / 30
Convergencia en probabilidad
Definición
Sea Z1, . . . , Zn, . . . una sucesión de v.a. y sea Z otra v.a.,
decimos que Zn converge en probabilidad a Z si
P (|Zn − Z| > ϵ) −→
n→∞
0 ∀ϵ > 0
y escribimos Zn
p−→ Z.
Ley de los grandes números
Sea X1, . . . , Xn, . . . una sucesión de v.a. i.i.d. con E (X1) = µ ⇒
Xn
p−→ µ
24 / 30
Propiedades de la convergencia en probabilidad
Si Xn
p−→ a e Yn
p−→ b, entonces:
Xn + Yn
p−→ a+ b
Xn − Yn
p−→ a− b
XnYn
p−→ ab
Xn
Yn
p−→ ab si b ̸= 0
g (Xn)
p−→ g(a) si g es una función continua en a
si cn es una sucesión numérica tal que cn −→ c, entonces
cnXn
p−→ ca
25 / 30
Propiedades de la convergencia en probabilidad
Si Xn
p−→ a e Yn
p−→ b, entonces:
Xn + Yn
p−→
a+ b
Xn − Yn
p−→ a− b
XnYn
p−→ ab
Xn
Yn
p−→ ab si b ̸= 0
g (Xn)
p−→ g(a) si g es una función continua en a
si cn es una sucesión numérica tal que cn −→ c, entonces
cnXn
p−→ ca
25 / 30
Propiedades de la convergencia en probabilidad
Si Xn
p−→ a e Yn
p−→ b, entonces:
Xn + Yn
p−→ a+ b
Xn − Yn
p−→ a− b
XnYn
p−→ ab
Xn
Yn
p−→ ab si b ̸= 0
g (Xn)
p−→ g(a) si g es una función continua en a
si cn es una sucesión numérica tal que cn −→ c, entonces
cnXn
p−→ ca
25 / 30
Propiedades de la convergencia en probabilidad
Si Xn
p−→ a e Yn
p−→ b, entonces:
Xn + Yn
p−→ a+ b
Xn − Yn
p−→
a− b
XnYn
p−→ ab
Xn
Yn
p−→ ab si b ̸= 0
g (Xn)
p−→ g(a) si g es una función continua en a
si cn es una sucesión numérica tal que cn −→ c, entonces
cnXn
p−→ ca
25 / 30
Propiedades de la convergencia en probabilidad
Si Xn
p−→ a e Yn
p−→ b, entonces:
Xn + Yn
p−→ a+ b
Xn − Yn
p−→ a− b
XnYn
p−→ ab
Xn
Yn
p−→ ab si b ̸= 0
g (Xn)
p−→ g(a) si g es una función continua en a
si cn es una sucesión numérica tal que cn −→ c, entonces
cnXn
p−→ ca
25 / 30
Propiedades de la convergencia en probabilidad
Si Xn
p−→ a e Yn
p−→ b, entonces:
Xn + Yn
p−→ a+ b
Xn − Yn
p−→ a− b
XnYn
p−→
ab
Xn
Yn
p−→ ab si b ̸= 0
g (Xn)
p−→ g(a) si g es una función continua en a
si cn es una sucesión numérica tal que cn −→ c, entonces
cnXn
p−→ ca
25 / 30
Propiedades de la convergencia en probabilidad
Si Xn
p−→ a e Yn
p−→ b, entonces:
Xn + Yn
p−→ a+ b
Xn −Yn
p−→ a− b
XnYn
p−→ ab
Xn
Yn
p−→ ab si b ̸= 0
g (Xn)
p−→ g(a) si g es una función continua en a
si cn es una sucesión numérica tal que cn −→ c, entonces
cnXn
p−→ ca
25 / 30
Propiedades de la convergencia en probabilidad
Si Xn
p−→ a e Yn
p−→ b, entonces:
Xn + Yn
p−→ a+ b
Xn − Yn
p−→ a− b
XnYn
p−→ ab
Xn
Yn
p−→
a
b si b ̸= 0
g (Xn)
p−→ g(a) si g es una función continua en a
si cn es una sucesión numérica tal que cn −→ c, entonces
cnXn
p−→ ca
25 / 30
Propiedades de la convergencia en probabilidad
Si Xn
p−→ a e Yn
p−→ b, entonces:
Xn + Yn
p−→ a+ b
Xn − Yn
p−→ a− b
XnYn
p−→ ab
Xn
Yn
p−→ ab si b ̸= 0
g (Xn)
p−→ g(a) si g es una función continua en a
si cn es una sucesión numérica tal que cn −→ c, entonces
cnXn
p−→ ca
25 / 30
Propiedades de la convergencia en probabilidad
Si Xn
p−→ a e Yn
p−→ b, entonces:
Xn + Yn
p−→ a+ b
Xn − Yn
p−→ a− b
XnYn
p−→ ab
Xn
Yn
p−→ ab si b ̸= 0
g (Xn)
p−→
g(a) si g es una función continua en a
si cn es una sucesión numérica tal que cn −→ c, entonces
cnXn
p−→ ca
25 / 30
Propiedades de la convergencia en probabilidad
Si Xn
p−→ a e Yn
p−→ b, entonces:
Xn + Yn
p−→ a+ b
Xn − Yn
p−→ a− b
XnYn
p−→ ab
Xn
Yn
p−→ ab si b ̸= 0
g (Xn)
p−→ g(a) si g es una función continua en a
si cn es una sucesión numérica tal que cn −→ c, entonces
cnXn
p−→ ca
25 / 30
Propiedades de la convergencia en probabilidad
Si Xn
p−→ a e Yn
p−→ b, entonces:
Xn + Yn
p−→ a+ b
Xn − Yn
p−→ a− b
XnYn
p−→ ab
Xn
Yn
p−→ ab si b ̸= 0
g (Xn)
p−→ g(a) si g es una función continua en a
si cn es una sucesión numérica tal que cn −→ c, entonces
cnXn
p−→
ca
25 / 30
Propiedades de la convergencia en probabilidad
Si Xn
p−→ a e Yn
p−→ b, entonces:
Xn + Yn
p−→ a+ b
Xn − Yn
p−→ a− b
XnYn
p−→ ab
Xn
Yn
p−→ ab si b ̸= 0
g (Xn)
p−→ g(a) si g es una función continua en a
si cn es una sucesión numérica tal que cn −→ c, entonces
cnXn
p−→ ca
25 / 30
LGN para estimación
26 / 30
Estimación de la Esperanza
Parámetro de interés: µ = E(X), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Estimador: µ̂n = Xn
Por LGN,
Xn
p−→ µ
La LGN da sustento a
el uso de Xn como estimador de µ
la interpretación frecuentista de la esperanza.
27 / 30
Estimación de la Esperanza
Parámetro de interés: µ = E(X), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Estimador: µ̂n = Xn
Por LGN,
Xn
p−→ µ
La LGN da sustento a
el uso de Xn como estimador de µ
la interpretación frecuentista de la esperanza.
27 / 30
Estimación de la Esperanza
Parámetro de interés: µ = E(X), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Estimador: µ̂n = Xn
Por LGN,
Xn
p−→ µ
La LGN da sustento a
el uso de Xn como estimador de µ
la interpretación frecuentista de la esperanza.
27 / 30
Estimación de la Esperanza
Parámetro de interés: µ = E(X), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Estimador: µ̂n = Xn
Por LGN,
Xn
p−→ µ
La LGN da sustento a
el uso de Xn como estimador de µ
la interpretación frecuentista de la esperanza.
27 / 30
Estimación de la Esperanza
Parámetro de interés: µ = E(X), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Estimador: µ̂n = Xn
Por LGN,
Xn
p−→ µ
La LGN da sustento a
el uso de Xn como estimador de µ
la interpretación frecuentista de la esperanza.
27 / 30
Estimación de la Esperanza
Parámetro de interés: µ = E(X), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Estimador: µ̂n = Xn
Por LGN,
Xn
p−→ µ
La LGN da sustento a
el uso de Xn como estimador de µ
la interpretación frecuentista de la esperanza.
27 / 30
Estimación de la Esperanza
Parámetro de interés: µ = E(X), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Estimador: µ̂n = Xn
Por LGN,
Xn
p−→ µ
La LGN da sustento a
el uso de Xn como estimador de µ
la interpretación frecuentista de la esperanza.
27 / 30
Estimación de la Proporción
Parámetro de interés: p = P (X = 1), X ∼ Be(p)
Muestra aleatoria: X1, . . . , Xn ∼ Be(p) i.i.d.
Estimador: p̂n = Xn
Por LGN,
Xn
p−→ p
28 / 30
Estimación de la Proporción
Parámetro de interés: p = P (X = 1), X ∼ Be(p)
Muestra aleatoria: X1, . . . , Xn ∼ Be(p) i.i.d.
Estimador: p̂n = Xn
Por LGN,
Xn
p−→ p
28 / 30
Estimación de la Proporción
Parámetro de interés: p = P (X = 1), X ∼ Be(p)
Muestra aleatoria: X1, . . . , Xn ∼ Be(p) i.i.d.
Estimador: p̂n = Xn
Por LGN,
Xn
p−→ p
28 / 30
Estimación de la Proporción
Parámetro de interés: p = P (X = 1), X ∼ Be(p)
Muestra aleatoria: X1, . . . , Xn ∼ Be(p) i.i.d.
Estimador: p̂n = Xn
Por LGN,
Xn
p−→ p
28 / 30
Estimación de una Probabilidad
Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Definimos
Yi = I(Xi ≤ 3) =
{
1 si Xi ≤ 3
0 si Xi > 3
1 ≤ i ≤ n
Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3)
Estimador:
F̂n(3) = Y n =
1
n
n∑
i=1
I(Xi ≤ 3)
Por LGN,
F̂n(3) = Y n
p−→ F (3)
La LGN da sustento a
el uso de F̂n(3) como estimador de F (3)
la interpretación frecuentista de la probabilidad.
29 / 30
Estimación de una Probabilidad
Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Definimos
Yi = I(Xi ≤ 3) =
{
1 si Xi ≤ 3
0 si Xi > 3
1 ≤ i ≤ n
Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3)
Estimador:
F̂n(3) = Y n =
1
n
n∑
i=1
I(Xi ≤ 3)
Por LGN,
F̂n(3) = Y n
p−→ F (3)
La LGN da sustento a
el uso de F̂n(3) como estimador de F (3)
la interpretación frecuentista de la probabilidad.
29 / 30
Estimación de una Probabilidad
Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Definimos
Yi = I(Xi ≤ 3) =
{
1 si Xi ≤ 3
0 si Xi > 3
1 ≤ i ≤ n
Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3)
Estimador:
F̂n(3) = Y n =
1
n
n∑
i=1
I(Xi ≤ 3)
Por LGN,
F̂n(3) = Y n
p−→ F (3)
La LGN da sustento a
el uso de F̂n(3) como estimador de F (3)
la interpretación frecuentista de la probabilidad.
29 / 30
Estimación de una Probabilidad
Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Definimos
Yi = I(Xi ≤ 3) =
{
1 si Xi ≤ 3
0 si Xi > 3
1 ≤ i ≤ n
Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3)
Estimador:
F̂n(3) = Y n =
1
n
n∑
i=1
I(Xi ≤ 3)
Por LGN,
F̂n(3) = Y n
p−→ F (3)
La LGN da sustento a
el uso de F̂n(3) como estimador de F (3)
la interpretación frecuentista de la probabilidad.
29 / 30
Estimación de una Probabilidad
Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Definimos
Yi = I(Xi ≤ 3) =
{
1 si Xi ≤ 3
0 si Xi > 3
1 ≤ i ≤ n
Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3)
Estimador:
F̂n(3) = Y n =
1
n
n∑
i=1
I(Xi ≤ 3)
Por LGN,
F̂n(3) = Y n
p−→ F (3)
La LGN da sustento a
el uso de F̂n(3) como estimador de F (3)
la interpretación frecuentista de la probabilidad.
29 / 30
Estimación de una Probabilidad
Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Definimos
Yi = I(Xi ≤ 3) =
{
1 si Xi ≤ 3
0 si Xi > 3
1 ≤ i ≤ n
Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3)
Estimador:
F̂n(3) = Y n =
1
n
n∑
i=1
I(Xi ≤ 3)
Por LGN,
F̂n(3) = Y n
p−→ F (3)
La LGN da sustento a
el uso de F̂n(3) como estimador de F (3)
la interpretación frecuentista de la probabilidad.
29 / 30
Estimación de una Probabilidad
Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Definimos
Yi = I(Xi ≤ 3) =
{
1 si Xi ≤ 3
0 si Xi > 3
1 ≤ i ≤ n
Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3)
Estimador:
F̂n(3) = Y n =
1
n
n∑
i=1
I(Xi ≤ 3)
Por LGN,
F̂n(3) = Y n
p−→ F (3)
La LGN da sustento a
el uso de F̂n(3) como estimador de F (3)
la interpretación frecuentista de la probabilidad.
29 / 30
Estimación de una Probabilidad
Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Definimos
Yi = I(Xi ≤ 3) =
{
1 si Xi ≤ 3
0 si Xi > 3
1 ≤ i ≤ n
Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3)
Estimador:
F̂n(3) = Yn =
1
n
n∑
i=1
I(Xi ≤ 3)
Por LGN,
F̂n(3) = Y n
p−→ F (3)
La LGN da sustento a
el uso de F̂n(3) como estimador de F (3)
la interpretación frecuentista de la probabilidad.
29 / 30
Estimación de una Probabilidad
Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Definimos
Yi = I(Xi ≤ 3) =
{
1 si Xi ≤ 3
0 si Xi > 3
1 ≤ i ≤ n
Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3)
Estimador:
F̂n(3) = Y n =
1
n
n∑
i=1
I(Xi ≤ 3)
Por LGN,
F̂n(3) = Y n
p−→ F (3)
La LGN da sustento a
el uso de F̂n(3) como estimador de F (3)
la interpretación frecuentista de la probabilidad.
29 / 30
Estimación de una Probabilidad
Parámetro de interés: F (3) = P (X ≤ 3), X ∼ F
Muestra aleatoria: X1, . . . , Xn ∼ F i.i.d.
Definimos
Yi = I(Xi ≤ 3) =
{
1 si Xi ≤ 3
0 si Xi > 3
1 ≤ i ≤ n
Y1, . . . , Yn ∼ Be(p) i.i.d. con p = F (3)
Estimador:
F̂n(3) = Y n =
1
n
n∑
i=1
I(Xi ≤ 3)
Por LGN,
F̂n(3) = Y n
p−→ F (3)
La LGN da sustento a
el uso de F̂n(3) como estimador de F (3)
la interpretación frecuentista de la probabilidad. 29 / 30
Estimación de E(X2)
Parámetro de interés: θ = E(X2)
¿Qué hacemos?
30 / 30
Estimación de E(X2)
Parámetro de interés: θ = E(X2)
¿Qué hacemos?
30 / 30

Continuar navegando