Logo Studenta

Clase 20 - Inferencia Estadística

¡Este material tiene más páginas!

Vista previa del material en texto

Inferencia Estad́ıstica
Lućıa Babino
Universidad Torcuato Di Tella
1 / 39
Bibliograf́ıa para esta clase
ISLR (https://www.statlearning.com/), cap 3 (sec. 3.1.2)
2 / 39
Repaso
3 / 39
Modelo de Regresión Lineal Simple
Yi = β0 + β1xi + ϵi 1 ≤ i ≤ n
Supuestos:
ϵ1, . . . , ϵn independientes
E(ϵi) = 0 ∀i
V(ϵi) = σ2 ∀i
Parámetros:
β0, β1: los estimamos p/ predecir (o explicar) Y en base a X
σ2: los estimamos p/ cuantificar la incertidumbre de β̂0 y β̂1.
4 / 39
Modelo de Regresión Lineal Simple
Yi = β0 + β1xi + ϵi 1 ≤ i ≤ n
Supuestos:
ϵ1, . . . , ϵn independientes
E(ϵi) = 0 ∀i
V(ϵi) = σ2 ∀i
Parámetros:
β0, β1: los estimamos p/ predecir (o explicar) Y en base a X
σ2: los estimamos p/ cuantificar la incertidumbre de β̂0 y β̂1.
4 / 39
Modelo de Regresión Lineal Simple
Yi = β0 + β1xi + ϵi 1 ≤ i ≤ n
Supuestos:
ϵ1, . . . , ϵn independientes
E(ϵi) = 0 ∀i
V(ϵi) = σ2 ∀i
Parámetros:
β0, β1:
los estimamos p/ predecir (o explicar) Y en base a X
σ2: los estimamos p/ cuantificar la incertidumbre de β̂0 y β̂1.
4 / 39
Modelo de Regresión Lineal Simple
Yi = β0 + β1xi + ϵi 1 ≤ i ≤ n
Supuestos:
ϵ1, . . . , ϵn independientes
E(ϵi) = 0 ∀i
V(ϵi) = σ2 ∀i
Parámetros:
β0, β1: los estimamos p/ predecir (o explicar) Y en base a X
σ2: los estimamos p/ cuantificar la incertidumbre de β̂0 y β̂1.
4 / 39
Modelo de Regresión Lineal Simple
Yi = β0 + β1xi + ϵi 1 ≤ i ≤ n
Supuestos:
ϵ1, . . . , ϵn independientes
E(ϵi) = 0 ∀i
V(ϵi) = σ2 ∀i
Parámetros:
β0, β1: los estimamos p/ predecir (o explicar) Y en base a X
σ2:
los estimamos p/ cuantificar la incertidumbre de β̂0 y β̂1.
4 / 39
Modelo de Regresión Lineal Simple
Yi = β0 + β1xi + ϵi 1 ≤ i ≤ n
Supuestos:
ϵ1, . . . , ϵn independientes
E(ϵi) = 0 ∀i
V(ϵi) = σ2 ∀i
Parámetros:
β0, β1: los estimamos p/ predecir (o explicar) Y en base a X
σ2: los estimamos p/ cuantificar la incertidumbre de β̂0 y β̂1.
4 / 39
Estimadores de ḿınimos cuadrados
Los estimadores de ḿınimos cuadrados (EMC) de (β0, β1) son los
(β̂0, β̂1) que minimizan
L(b0, b1) =
n∑
i=1
[Yi − (b0 + b1xi)]2
β̂0 = Y n − β̂1xn
β̂1 =
∑n
i=1(xi − xn)(Yi − Y n)∑n
i=1(xi − xn)2
5 / 39
Estimadores de ḿınimos cuadrados
Los estimadores de ḿınimos cuadrados (EMC) de (β0, β1) son los
(β̂0, β̂1) que minimizan
L(b0, b1) =
n∑
i=1
[Yi − (b0 + b1xi)]2
β̂0 = Y n − β̂1xn
β̂1 =
∑n
i=1(xi − xn)(Yi − Y n)∑n
i=1(xi − xn)2
5 / 39
Clase de hoy
6 / 39
Rectas de regresión y de cuadrados ḿınimos
Estimar a (β0, β1) nos sirve para predecir Y en base a X
→ ¿por
qué?
Recta de regresión:
m(x) = β0 + β1x
describe la “verdadera” relación entre X e Y
desconocida
Recta de ḿınimos cuadrados:
m̂(x) = β̂0 + β̂1x
estimación de la recta de regresión
la recta que más se acerca a los puntos observados
sirve para “predecir” el valor de Y para una x dada → ¿xq?
7 / 39
Rectas de regresión y de cuadrados ḿınimos
Estimar a (β0, β1) nos sirve para predecir Y en base a X → ¿por
qué?
Recta de regresión:
m(x) = β0 + β1x
describe la “verdadera” relación entre X e Y
desconocida
Recta de ḿınimos cuadrados:
m̂(x) = β̂0 + β̂1x
estimación de la recta de regresión
la recta que más se acerca a los puntos observados
sirve para “predecir” el valor de Y para una x dada → ¿xq?
7 / 39
Rectas de regresión y de cuadrados ḿınimos
Estimar a (β0, β1) nos sirve para predecir Y en base a X → ¿por
qué?
Recta de regresión:
m(x) = β0 + β1x
describe la “verdadera” relación entre X e Y
desconocida
Recta de ḿınimos cuadrados:
m̂(x) = β̂0 + β̂1x
estimación de la recta de regresión
la recta que más se acerca a los puntos observados
sirve para “predecir” el valor de Y para una x dada → ¿xq?
7 / 39
Rectas de regresión y de cuadrados ḿınimos
Estimar a (β0, β1) nos sirve para predecir Y en base a X → ¿por
qué?
Recta de regresión:
m(x) = β0 + β1x
describe la “verdadera” relación entre X e Y
desconocida
Recta de ḿınimos cuadrados:
m̂(x) = β̂0 + β̂1x
estimación de la recta de regresión
la recta que más se acerca a los puntos observados
sirve para “predecir” el valor de Y para una x dada → ¿xq?
7 / 39
Rectas de regresión y de cuadrados ḿınimos
Estimar a (β0, β1) nos sirve para predecir Y en base a X → ¿por
qué?
Recta de regresión:
m(x) = β0 + β1x
describe la “verdadera” relación entre X e Y
desconocida
Recta de ḿınimos cuadrados:
m̂(x) = β̂0 + β̂1x
estimación de la recta de regresión
la recta que más se acerca a los puntos observados
sirve para “predecir” el valor de Y para una x dada → ¿xq?
7 / 39
Rectas de regresión y de cuadrados ḿınimos
Estimar a (β0, β1) nos sirve para predecir Y en base a X → ¿por
qué?
Recta de regresión:
m(x) = β0 + β1x
describe la “verdadera” relación entre X e Y
desconocida
Recta de ḿınimos cuadrados:
m̂(x) = β̂0 + β̂1x
estimación de la recta de regresión
la recta que más se acerca a los puntos observados
sirve para “predecir” el valor de Y para una x dada → ¿xq?
7 / 39
Rectas de regresión y de cuadrados ḿınimos
Estimar a (β0, β1) nos sirve para predecir Y en base a X → ¿por
qué?
Recta de regresión:
m(x) = β0 + β1x
describe la “verdadera” relación entre X e Y
desconocida
Recta de ḿınimos cuadrados:
m̂(x) = β̂0 + β̂1x
estimación de la recta de regresión
la recta que más se acerca a los puntos observados
sirve para “predecir” el valor de Y para una x dada → ¿xq?
7 / 39
Rectas de regresión y de cuadrados ḿınimos
Estimar a (β0, β1) nos sirve para predecir Y en base a X → ¿por
qué?
Recta de regresión:
m(x) = β0 + β1x
describe la “verdadera” relación entre X e Y
desconocida
Recta de ḿınimos cuadrados:
m̂(x) = β̂0 + β̂1x
estimación de la recta de regresión
la recta que más se acerca a los puntos observados
sirve para “predecir” el valor de Y para una x dada → ¿xq?
7 / 39
Rectas de regresión y de cuadrados ḿınimos
Estimar a (β0, β1) nos sirve para predecir Y en base a X → ¿por
qué?
Recta de regresión:
m(x) = β0 + β1x
describe la “verdadera” relación entre X e Y
desconocida
Recta de ḿınimos cuadrados:
m̂(x) = β̂0 + β̂1x
estimación de la recta de regresión
la recta que más se acerca a los puntos observados
sirve para “predecir” el valor de Y para una x dada
→ ¿xq?
7 / 39
Rectas de regresión y de cuadrados ḿınimos
Estimar a (β0, β1) nos sirve para predecir Y en base a X → ¿por
qué?
Recta de regresión:
m(x) = β0 + β1x
describe la “verdadera” relación entre X e Y
desconocida
Recta de ḿınimos cuadrados:
m̂(x) = β̂0 + β̂1x
estimación de la recta de regresión
la recta que más se acerca a los puntos observados
sirve para “predecir” el valor de Y para una x dada → ¿xq?
7 / 39
Predicción de Y en base a x usando el modelo
Supongamos que queremos predecir las ventas cuando invierto $80
mil en TV.
Según el modelo
Y = β0 + β180 + ϵ
No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y 0.
Ŷ80 = β̂0 + β̂180 = m̂(80)
↑
predicción (o valor predicho) de Y cuando x = 80
Hablamos de...
Estimación: cuando a aproximamos el valor de un parámetro
Predicción: cuando a aproximamos el valor de una v. a.
Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué?
8 / 39
Predicción de Y en base a x usando el modelo
Supongamos que queremos predecir las ventas cuando invierto $80
mil en TV. Según el modelo
Y = β0 + β180 + ϵ
No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y 0.
Ŷ80 = β̂0 + β̂180 = m̂(80)
↑
predicción (o valor predicho) de Y cuando x = 80
Hablamos de...
Estimación: cuando a aproximamos el valor de un parámetro
Predicción: cuando a aproximamos el valor de una v. a.
Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué?
8 / 39
Predicción de Y en base a x usando el modelo
Supongamos que queremos predecir las ventas cuando invierto $80
mil en TV. Según el modelo
Y = β0 + β180 + ϵ
No conocemos β0, β1 ni ϵ
⇒ los reemplazamos por β̂0, β̂1 y 0.
Ŷ80 = β̂0 + β̂180 = m̂(80)
↑
predicción (o valor predicho) de Y cuando x = 80
Hablamos de...
Estimación: cuando a aproximamosel valor de un parámetro
Predicción: cuando a aproximamos el valor de una v. a.
Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué?
8 / 39
Predicción de Y en base a x usando el modelo
Supongamos que queremos predecir las ventas cuando invierto $80
mil en TV. Según el modelo
Y = β0 + β180 + ϵ
No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y
0.
Ŷ80 = β̂0 + β̂180 = m̂(80)
↑
predicción (o valor predicho) de Y cuando x = 80
Hablamos de...
Estimación: cuando a aproximamos el valor de un parámetro
Predicción: cuando a aproximamos el valor de una v. a.
Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué?
8 / 39
Predicción de Y en base a x usando el modelo
Supongamos que queremos predecir las ventas cuando invierto $80
mil en TV. Según el modelo
Y = β0 + β180 + ϵ
No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y 0.
Ŷ80 = β̂0 + β̂180 = m̂(80)
↑
predicción (o valor predicho) de Y cuando x = 80
Hablamos de...
Estimación: cuando a aproximamos el valor de un parámetro
Predicción: cuando a aproximamos el valor de una v. a.
Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué?
8 / 39
Predicción de Y en base a x usando el modelo
Supongamos que queremos predecir las ventas cuando invierto $80
mil en TV. Según el modelo
Y = β0 + β180 + ϵ
No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y 0.
Ŷ80 = β̂0 + β̂180
= m̂(80)
↑
predicción (o valor predicho) de Y cuando x = 80
Hablamos de...
Estimación: cuando a aproximamos el valor de un parámetro
Predicción: cuando a aproximamos el valor de una v. a.
Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué?
8 / 39
Predicción de Y en base a x usando el modelo
Supongamos que queremos predecir las ventas cuando invierto $80
mil en TV. Según el modelo
Y = β0 + β180 + ϵ
No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y 0.
Ŷ80 = β̂0 + β̂180 =
m̂(80)
↑
predicción (o valor predicho) de Y cuando x = 80
Hablamos de...
Estimación: cuando a aproximamos el valor de un parámetro
Predicción: cuando a aproximamos el valor de una v. a.
Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué?
8 / 39
Predicción de Y en base a x usando el modelo
Supongamos que queremos predecir las ventas cuando invierto $80
mil en TV. Según el modelo
Y = β0 + β180 + ϵ
No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y 0.
Ŷ80 = β̂0 + β̂180 = m̂(80)
↑
predicción (o valor predicho) de Y cuando x = 80
Hablamos de...
Estimación: cuando a aproximamos el valor de un parámetro
Predicción: cuando a aproximamos el valor de una v. a.
Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué?
8 / 39
Predicción de Y en base a x usando el modelo
Supongamos que queremos predecir las ventas cuando invierto $80
mil en TV. Según el modelo
Y = β0 + β180 + ϵ
No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y 0.
Ŷ80 = β̂0 + β̂180 = m̂(80)
↑
predicción (o valor predicho) de Y cuando x = 80
Hablamos de...
Estimación: cuando a aproximamos el valor de un parámetro
Predicción: cuando a aproximamos el valor de una v. a.
Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué?
8 / 39
Predicción de Y en base a x usando el modelo
Supongamos que queremos predecir las ventas cuando invierto $80
mil en TV. Según el modelo
Y = β0 + β180 + ϵ
No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y 0.
Ŷ80 = β̂0 + β̂180 = m̂(80)
↑
predicción (o valor predicho) de Y cuando x = 80
Hablamos de...
Estimación:
cuando a aproximamos el valor de un parámetro
Predicción: cuando a aproximamos el valor de una v. a.
Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué?
8 / 39
Predicción de Y en base a x usando el modelo
Supongamos que queremos predecir las ventas cuando invierto $80
mil en TV. Según el modelo
Y = β0 + β180 + ϵ
No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y 0.
Ŷ80 = β̂0 + β̂180 = m̂(80)
↑
predicción (o valor predicho) de Y cuando x = 80
Hablamos de...
Estimación: cuando a aproximamos el valor de un parámetro
Predicción: cuando a aproximamos el valor de una v. a.
Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué?
8 / 39
Predicción de Y en base a x usando el modelo
Supongamos que queremos predecir las ventas cuando invierto $80
mil en TV. Según el modelo
Y = β0 + β180 + ϵ
No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y 0.
Ŷ80 = β̂0 + β̂180 = m̂(80)
↑
predicción (o valor predicho) de Y cuando x = 80
Hablamos de...
Estimación: cuando a aproximamos el valor de un parámetro
Predicción:
cuando a aproximamos el valor de una v. a.
Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué?
8 / 39
Predicción de Y en base a x usando el modelo
Supongamos que queremos predecir las ventas cuando invierto $80
mil en TV. Según el modelo
Y = β0 + β180 + ϵ
No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y 0.
Ŷ80 = β̂0 + β̂180 = m̂(80)
↑
predicción (o valor predicho) de Y cuando x = 80
Hablamos de...
Estimación: cuando a aproximamos el valor de un parámetro
Predicción: cuando a aproximamos el valor de una v. a.
Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué?
8 / 39
Predicción de Y en base a x usando el modelo
Supongamos que queremos predecir las ventas cuando invierto $80
mil en TV. Según el modelo
Y = β0 + β180 + ϵ
No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y 0.
Ŷ80 = β̂0 + β̂180 = m̂(80)
↑
predicción (o valor predicho) de Y cuando x = 80
Hablamos de...
Estimación: cuando a aproximamos el valor de un parámetro
Predicción: cuando a aproximamos el valor de una v. a.
Obs.: Ŷ80 = Ê(Y ) cuando x = 80
→ ¿por qué?
8 / 39
Predicción de Y en base a x usando el modelo
Supongamos que queremos predecir las ventas cuando invierto $80
mil en TV. Según el modelo
Y = β0 + β180 + ϵ
No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y 0.
Ŷ80 = β̂0 + β̂180 = m̂(80)
↑
predicción (o valor predicho) de Y cuando x = 80
Hablamos de...
Estimación: cuando a aproximamos el valor de un parámetro
Predicción: cuando a aproximamos el valor de una v. a.
Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué?
8 / 39
Interpretación de los EMC
m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos
β̂0
ordenada al origen de la recta de cuadrados ḿınimos
valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando
x = 0
↑
Ejemplo: valor predicho de las ventas cuando invierto $0 en TV
en general no es de interés
en ocasiones no tiene sentido (Ej.: Y = altura, X = peso)
β̂1
pendiente de la recta de cuadrados ḿınimos
incremento en el valor predicho de Y cuando x aumenta una
unidad
↑
Ejemplo: aumento predicho de las ventas cuando aumento
$1000 la inversión en TV o bien estimación del aumento
esperado de las ventas cuando aumento $1000 la inv. en TV.
9 / 39
Interpretación de los EMC
m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos
β̂0
ordenada al origen de la recta de cuadrados ḿınimos
valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando
x = 0
↑
Ejemplo: valor predicho de las ventas cuando invierto $0 en TV
en general no es de interés
en ocasiones no tiene sentido (Ej.: Y = altura, X = peso)
β̂1
pendiente de la recta de cuadrados ḿınimos
incremento en el valor predicho de Y cuando x aumenta una
unidad
↑
Ejemplo: aumento predicho de las ventas cuando aumento
$1000 la inversión en TV o bien estimación del aumento
esperado de las ventas cuando aumento $1000 la inv. en TV.
9 / 39
Interpretación de los EMC
m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos
β̂0
ordenada al origen de la recta de cuadrados ḿınimos
valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando
x = 0
↑
Ejemplo: valor predicho de las ventas cuando invierto $0 en TV
en general no es de interés
en ocasiones no tiene sentido (Ej.: Y = altura, X = peso)
β̂1
pendiente de la recta de cuadrados ḿınimos
incremento en el valor predicho de Y cuando x aumenta una
unidad
↑
Ejemplo: aumento predicho de las ventas cuando aumento
$1000 la inversión en TV o bien estimación del aumento
esperado de las ventas cuando aumento $1000 lainv. en TV.
9 / 39
Interpretación de los EMC
m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos
β̂0
ordenada al origen de la recta de cuadrados ḿınimos
valor predicho de Y cuando x = 0 (Ŷ0)
o bien Ê(Y ) cuando
x = 0
↑
Ejemplo: valor predicho de las ventas cuando invierto $0 en TV
en general no es de interés
en ocasiones no tiene sentido (Ej.: Y = altura, X = peso)
β̂1
pendiente de la recta de cuadrados ḿınimos
incremento en el valor predicho de Y cuando x aumenta una
unidad
↑
Ejemplo: aumento predicho de las ventas cuando aumento
$1000 la inversión en TV o bien estimación del aumento
esperado de las ventas cuando aumento $1000 la inv. en TV.
9 / 39
Interpretación de los EMC
m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos
β̂0
ordenada al origen de la recta de cuadrados ḿınimos
valor predicho de Y cuando x = 0 (Ŷ0) o bien
Ê(Y ) cuando
x = 0
↑
Ejemplo: valor predicho de las ventas cuando invierto $0 en TV
en general no es de interés
en ocasiones no tiene sentido (Ej.: Y = altura, X = peso)
β̂1
pendiente de la recta de cuadrados ḿınimos
incremento en el valor predicho de Y cuando x aumenta una
unidad
↑
Ejemplo: aumento predicho de las ventas cuando aumento
$1000 la inversión en TV o bien estimación del aumento
esperado de las ventas cuando aumento $1000 la inv. en TV.
9 / 39
Interpretación de los EMC
m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos
β̂0
ordenada al origen de la recta de cuadrados ḿınimos
valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando
x = 0
↑
Ejemplo: valor predicho de las ventas cuando invierto $0 en TV
en general no es de interés
en ocasiones no tiene sentido (Ej.: Y = altura, X = peso)
β̂1
pendiente de la recta de cuadrados ḿınimos
incremento en el valor predicho de Y cuando x aumenta una
unidad
↑
Ejemplo: aumento predicho de las ventas cuando aumento
$1000 la inversión en TV o bien estimación del aumento
esperado de las ventas cuando aumento $1000 la inv. en TV.
9 / 39
Interpretación de los EMC
m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos
β̂0
ordenada al origen de la recta de cuadrados ḿınimos
valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando
x = 0
↑
Ejemplo:
valor predicho de las ventas cuando invierto $0 en TV
en general no es de interés
en ocasiones no tiene sentido (Ej.: Y = altura, X = peso)
β̂1
pendiente de la recta de cuadrados ḿınimos
incremento en el valor predicho de Y cuando x aumenta una
unidad
↑
Ejemplo: aumento predicho de las ventas cuando aumento
$1000 la inversión en TV o bien estimación del aumento
esperado de las ventas cuando aumento $1000 la inv. en TV.
9 / 39
Interpretación de los EMC
m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos
β̂0
ordenada al origen de la recta de cuadrados ḿınimos
valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando
x = 0
↑
Ejemplo: valor predicho de las ventas cuando invierto $0 en TV
en general no es de interés
en ocasiones no tiene sentido (Ej.: Y = altura, X = peso)
β̂1
pendiente de la recta de cuadrados ḿınimos
incremento en el valor predicho de Y cuando x aumenta una
unidad
↑
Ejemplo: aumento predicho de las ventas cuando aumento
$1000 la inversión en TV o bien estimación del aumento
esperado de las ventas cuando aumento $1000 la inv. en TV.
9 / 39
Interpretación de los EMC
m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos
β̂0
ordenada al origen de la recta de cuadrados ḿınimos
valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando
x = 0
↑
Ejemplo: valor predicho de las ventas cuando invierto $0 en TV
en general no es de interés
en ocasiones no tiene sentido (Ej.: Y = altura, X = peso)
β̂1
pendiente de la recta de cuadrados ḿınimos
incremento en el valor predicho de Y cuando x aumenta una
unidad
↑
Ejemplo: aumento predicho de las ventas cuando aumento
$1000 la inversión en TV o bien estimación del aumento
esperado de las ventas cuando aumento $1000 la inv. en TV.
9 / 39
Interpretación de los EMC
m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos
β̂0
ordenada al origen de la recta de cuadrados ḿınimos
valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando
x = 0
↑
Ejemplo: valor predicho de las ventas cuando invierto $0 en TV
en general no es de interés
en ocasiones no tiene sentido (Ej.: Y = altura, X = peso)
β̂1
pendiente de la recta de cuadrados ḿınimos
incremento en el valor predicho de Y cuando x aumenta una
unidad
↑
Ejemplo: aumento predicho de las ventas cuando aumento
$1000 la inversión en TV o bien estimación del aumento
esperado de las ventas cuando aumento $1000 la inv. en TV.
9 / 39
Interpretación de los EMC
m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos
β̂0
ordenada al origen de la recta de cuadrados ḿınimos
valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando
x = 0
↑
Ejemplo: valor predicho de las ventas cuando invierto $0 en TV
en general no es de interés
en ocasiones no tiene sentido (Ej.: Y = altura, X = peso)
β̂1
pendiente de la recta de cuadrados ḿınimos
incremento en el valor predicho de Y cuando x aumenta una
unidad
↑
Ejemplo: aumento predicho de las ventas cuando aumento
$1000 la inversión en TV o bien estimación del aumento
esperado de las ventas cuando aumento $1000 la inv. en TV.
9 / 39
Interpretación de los EMC
m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos
β̂0
ordenada al origen de la recta de cuadrados ḿınimos
valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando
x = 0
↑
Ejemplo: valor predicho de las ventas cuando invierto $0 en TV
en general no es de interés
en ocasiones no tiene sentido (Ej.: Y = altura, X = peso)
β̂1
pendiente de la recta de cuadrados ḿınimos
incremento en el valor predicho de Y cuando x aumenta una
unidad
↑
Ejemplo: aumento predicho de las ventas cuando aumento
$1000 la inversión en TV o bien estimación del aumento
esperado de las ventas cuando aumento $1000 la inv. en TV.
9 / 39
Interpretación de los EMC
m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos
β̂0
ordenada al origen de la recta de cuadrados ḿınimos
valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando
x = 0
↑
Ejemplo: valor predicho de las ventas cuando invierto $0 en TV
en general no es de interés
en ocasiones no tiene sentido (Ej.: Y = altura, X = peso)
β̂1
pendiente de la recta de cuadrados ḿınimos
incremento en el valor predicho de Y cuando x aumenta una
unidad
↑
Ejemplo: aumento predicho de las ventas cuando aumento
$1000 la inversión en TV o bien estimación del aumento
esperado de las ventas cuando aumento $1000 la inv. en TV.
9 / 39
Interpretación de los EMC
m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos
β̂0
ordenada al origen de la recta de cuadrados ḿınimos
valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando
x = 0
↑
Ejemplo: valor predicho de las ventas cuando invierto $0 en TV
en general no es de interés
en ocasiones no tiene sentido (Ej.: Y = altura, X = peso)
β̂1
pendiente de la recta de cuadrados ḿınimos
incremento en el valor predicho de Y cuando x aumenta una
unidad
↑
Ejemplo:
aumento predicho de las ventas cuando aumento
$1000 la inversión en TV o bien estimación del aumento
esperado de las ventas cuando aumento $1000 la inv. en TV.
9 / 39
Interpretación de los EMC
m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos
β̂0
ordenada al origen de la recta de cuadrados ḿınimos
valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando
x = 0
↑
Ejemplo: valor predicho de las ventas cuando invierto $0 en TV
en general no es de interés
en ocasiones no tiene sentido (Ej.: Y = altura, X = peso)
β̂1
pendiente de la recta de cuadrados ḿınimos
incremento en el valor predicho de Y cuando x aumenta una
unidad
↑
Ejemplo: aumento predicho de las ventas cuando aumento
$1000 la inversión en TV
o bien estimación del aumento
esperado de las ventas cuando aumento $1000 la inv. en TV.
9 / 39
Interpretación de los EMC
m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos
β̂0
ordenada al origen de la recta de cuadrados ḿınimos
valor predicho de Y cuando x = 0 (Ŷ0) o bienÊ(Y ) cuando
x = 0
↑
Ejemplo: valor predicho de las ventas cuando invierto $0 en TV
en general no es de interés
en ocasiones no tiene sentido (Ej.: Y = altura, X = peso)
β̂1
pendiente de la recta de cuadrados ḿınimos
incremento en el valor predicho de Y cuando x aumenta una
unidad
↑
Ejemplo: aumento predicho de las ventas cuando aumento
$1000 la inversión en TV o bien
estimación del aumento
esperado de las ventas cuando aumento $1000 la inv. en TV.
9 / 39
Interpretación de los EMC
m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos
β̂0
ordenada al origen de la recta de cuadrados ḿınimos
valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando
x = 0
↑
Ejemplo: valor predicho de las ventas cuando invierto $0 en TV
en general no es de interés
en ocasiones no tiene sentido (Ej.: Y = altura, X = peso)
β̂1
pendiente de la recta de cuadrados ḿınimos
incremento en el valor predicho de Y cuando x aumenta una
unidad
↑
Ejemplo: aumento predicho de las ventas cuando aumento
$1000 la inversión en TV o bien estimación del aumento
esperado de las ventas cuando aumento $1000 la inv. en TV. 9 / 39
Implementación en R
1 setwd("C:/InferenciaEstadistica/datos")
2 datos <- read.csv("Advertising.csv")
3 ajusteTV <- lm(sales ~ TV, data = datos)
4 summary(ajusteTV)
5
6 # Call:
7 # lm(formula = sales ~ TV, data = datos)
8 #
9 # Residuals:
10 # Min 1Q Median 3Q Max
11 # -8.3860 -1.9545 -0.1913 2.0671 7.2124
12 #
13 # Coefficients:
14 # Estimate Std. Error t value Pr(>t)
15 # (Intercept) 7.032594 0.457843 15.36 <2e-16 ***
16 # TV 0.047537 0.002691 17.67 <2e-16 ***
17 # ---
18 # Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’ 0.05 ’.’
0.1 ’ ’ 1
19 #
20 # Residual standard error: 3.259 on 198 degrees of freedom
21 # Multiple R-squared: 0.6119 , Adjusted R-squared:
0.6099
22 # F-statistic: 312.1 on 1 and 198 DF, p-value: < 2.2e-16 10 / 39
Implementación en R
1
2 # Coefficients:
3 # Estimate Std. Error t value Pr(>t)
4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 ***
5 # TV 0.047537 0.002691 17.67 <2e-16 ***
6 # ---
EMC: β̂0 = 7.032594 y β̂1 = 0.047537
Interpretación:
β̂0: cuando invierto $0 en TV las ventas predichas son
7032.594 unidades (o bien, las ventas esperadas son
aproximadamente 7032.594 unidades).
β̂1: cuando se incrementa en $1000 la inversión en publicidad
en TV, las ventas predichas aumentan en 47.537 unidades (o
bien, las ventas esperadas aumentan en 47.537 unidades
aproximadamente).
11 / 39
Implementación en R
1
2 # Coefficients:
3 # Estimate Std. Error t value Pr(>t)
4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 ***
5 # TV 0.047537 0.002691 17.67 <2e-16 ***
6 # ---
EMC: β̂0 = 7.032594 y β̂1 = 0.047537
Interpretación:
β̂0: cuando invierto $0 en TV las ventas predichas son
7032.594 unidades (o bien, las ventas esperadas son
aproximadamente 7032.594 unidades).
β̂1: cuando se incrementa en $1000 la inversión en publicidad
en TV, las ventas predichas aumentan en 47.537 unidades (o
bien, las ventas esperadas aumentan en 47.537 unidades
aproximadamente).
11 / 39
Implementación en R
1
2 # Coefficients:
3 # Estimate Std. Error t value Pr(>t)
4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 ***
5 # TV 0.047537 0.002691 17.67 <2e-16 ***
6 # ---
EMC: β̂0 = 7.032594 y β̂1 = 0.047537
Interpretación:
β̂0: cuando invierto $0 en TV las ventas predichas son
7032.594 unidades (o bien, las ventas esperadas son
aproximadamente 7032.594 unidades).
β̂1: cuando se incrementa en $1000 la inversión en publicidad
en TV, las ventas predichas aumentan en 47.537 unidades (o
bien, las ventas esperadas aumentan en 47.537 unidades
aproximadamente).
11 / 39
Implementación en R
1
2 # Coefficients:
3 # Estimate Std. Error t value Pr(>t)
4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 ***
5 # TV 0.047537 0.002691 17.67 <2e-16 ***
6 # ---
EMC: β̂0 = 7.032594 y β̂1 = 0.047537
Interpretación:
β̂0:
cuando invierto $0 en TV las ventas predichas son
7032.594 unidades (o bien, las ventas esperadas son
aproximadamente 7032.594 unidades).
β̂1: cuando se incrementa en $1000 la inversión en publicidad
en TV, las ventas predichas aumentan en 47.537 unidades (o
bien, las ventas esperadas aumentan en 47.537 unidades
aproximadamente).
11 / 39
Implementación en R
1
2 # Coefficients:
3 # Estimate Std. Error t value Pr(>t)
4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 ***
5 # TV 0.047537 0.002691 17.67 <2e-16 ***
6 # ---
EMC: β̂0 = 7.032594 y β̂1 = 0.047537
Interpretación:
β̂0: cuando invierto $0 en TV las ventas predichas son
7032.594 unidades
(o bien, las ventas esperadas son
aproximadamente 7032.594 unidades).
β̂1: cuando se incrementa en $1000 la inversión en publicidad
en TV, las ventas predichas aumentan en 47.537 unidades (o
bien, las ventas esperadas aumentan en 47.537 unidades
aproximadamente).
11 / 39
Implementación en R
1
2 # Coefficients:
3 # Estimate Std. Error t value Pr(>t)
4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 ***
5 # TV 0.047537 0.002691 17.67 <2e-16 ***
6 # ---
EMC: β̂0 = 7.032594 y β̂1 = 0.047537
Interpretación:
β̂0: cuando invierto $0 en TV las ventas predichas son
7032.594 unidades (o bien, las ventas esperadas son
aproximadamente 7032.594 unidades).
β̂1: cuando se incrementa en $1000 la inversión en publicidad
en TV, las ventas predichas aumentan en 47.537 unidades (o
bien, las ventas esperadas aumentan en 47.537 unidades
aproximadamente).
11 / 39
Implementación en R
1
2 # Coefficients:
3 # Estimate Std. Error t value Pr(>t)
4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 ***
5 # TV 0.047537 0.002691 17.67 <2e-16 ***
6 # ---
EMC: β̂0 = 7.032594 y β̂1 = 0.047537
Interpretación:
β̂0: cuando invierto $0 en TV las ventas predichas son
7032.594 unidades (o bien, las ventas esperadas son
aproximadamente 7032.594 unidades).
β̂1:
cuando se incrementa en $1000 la inversión en publicidad
en TV, las ventas predichas aumentan en 47.537 unidades (o
bien, las ventas esperadas aumentan en 47.537 unidades
aproximadamente).
11 / 39
Implementación en R
1
2 # Coefficients:
3 # Estimate Std. Error t value Pr(>t)
4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 ***
5 # TV 0.047537 0.002691 17.67 <2e-16 ***
6 # ---
EMC: β̂0 = 7.032594 y β̂1 = 0.047537
Interpretación:
β̂0: cuando invierto $0 en TV las ventas predichas son
7032.594 unidades (o bien, las ventas esperadas son
aproximadamente 7032.594 unidades).
β̂1: cuando se incrementa en $1000 la inversión en publicidad
en TV, las ventas predichas aumentan en 47.537 unidades
(o
bien, las ventas esperadas aumentan en 47.537 unidades
aproximadamente).
11 / 39
Implementación en R
1
2 # Coefficients:
3 # Estimate Std. Error t value Pr(>t)
4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 ***
5 # TV 0.047537 0.002691 17.67 <2e-16 ***
6 # ---
EMC: β̂0 = 7.032594 y β̂1 = 0.047537
Interpretación:
β̂0: cuando invierto $0 en TV las ventas predichas son
7032.594 unidades (o bien, las ventas esperadas son
aproximadamente 7032.594 unidades).
β̂1: cuando se incrementa en $1000 la inversión en publicidad
en TV, las ventas predichas aumentan en 47.537 unidades (o
bien, las ventas esperadas aumentan en 47.537 unidades
aproximadamente).
11 / 39
Implementación en R
1
2 # Coefficients:
3 # Estimate Std. Error t value Pr(>t)
4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 ***
5 # TV 0.047537 0.002691 17.67 <2e-16 ***
6 # ---
EMC: β̂0 = 7.032594 y β̂1 = 0.047537
Predicción (ejemplo): cuando invierto $3000 en TV, ¿cuánto
predice el modelo que será el valor de las ventas?
Ŷ3 = 7.033 + 0.048 . 3 = 7.175
7175 unidades.
12 / 39
Implementación en R
1
2 # Coefficients:
3 # Estimate Std. Error t value Pr(>t)
4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 ***
5 # TV 0.047537 0.002691 17.67 <2e-16 ***
6 # ---
EMC: β̂0 = 7.032594 y β̂1 = 0.047537
Predicción (ejemplo): cuando invierto $3000 en TV, ¿cuánto
predice el modelo que será el valor de las ventas?
Ŷ3 = 7.033 + 0.048 . 3 = 7.175
7175 unidades.
12 / 39
Implementaciónen R
1
2 # Coefficients:
3 # Estimate Std. Error t value Pr(>t)
4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 ***
5 # TV 0.047537 0.002691 17.67 <2e-16 ***
6 # ---
EMC: β̂0 = 7.032594 y β̂1 = 0.047537
Predicción (ejemplo):
cuando invierto $3000 en TV, ¿cuánto
predice el modelo que será el valor de las ventas?
Ŷ3 = 7.033 + 0.048 . 3 = 7.175
7175 unidades.
12 / 39
Implementación en R
1
2 # Coefficients:
3 # Estimate Std. Error t value Pr(>t)
4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 ***
5 # TV 0.047537 0.002691 17.67 <2e-16 ***
6 # ---
EMC: β̂0 = 7.032594 y β̂1 = 0.047537
Predicción (ejemplo): cuando invierto $3000 en TV, ¿cuánto
predice el modelo que será el valor de las ventas?
Ŷ3 = 7.033 + 0.048 . 3 = 7.175
7175 unidades.
12 / 39
Implementación en R
1
2 # Coefficients:
3 # Estimate Std. Error t value Pr(>t)
4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 ***
5 # TV 0.047537 0.002691 17.67 <2e-16 ***
6 # ---
EMC: β̂0 = 7.032594 y β̂1 = 0.047537
Predicción (ejemplo): cuando invierto $3000 en TV, ¿cuánto
predice el modelo que será el valor de las ventas?
Ŷ3 = 7.033 + 0.048 . 3
= 7.175
7175 unidades.
12 / 39
Implementación en R
1
2 # Coefficients:
3 # Estimate Std. Error t value Pr(>t)
4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 ***
5 # TV 0.047537 0.002691 17.67 <2e-16 ***
6 # ---
EMC: β̂0 = 7.032594 y β̂1 = 0.047537
Predicción (ejemplo): cuando invierto $3000 en TV, ¿cuánto
predice el modelo que será el valor de las ventas?
Ŷ3 = 7.033 + 0.048 . 3 = 7.175
7175 unidades.
12 / 39
Implementación en R
1
2 # Coefficients:
3 # Estimate Std. Error t value Pr(>t)
4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 ***
5 # TV 0.047537 0.002691 17.67 <2e-16 ***
6 # ---
EMC: β̂0 = 7.032594 y β̂1 = 0.047537
Predicción (ejemplo): cuando invierto $3000 en TV, ¿cuánto
predice el modelo que será el valor de las ventas?
Ŷ3 = 7.033 + 0.048 . 3 = 7.175
7175 unidades.
12 / 39
Preguntas importantes
Intentaremos responder...
3 ¿Qué medios están asociados con las ventas?
4 ¿Cuán alta es la asociación entre cada medio y las ventas?
Por ahora sólo tenemos TV ⇒ vamos a responder ...
3 ¿TV está asociado con las ventas?
4 ¿Cuán alta es la asociación entre TV y las ventas?
13 / 39
Preguntas importantes
Intentaremos responder...
3 ¿Qué medios están asociados con las ventas?
4 ¿Cuán alta es la asociación entre cada medio y las ventas?
Por ahora sólo tenemos TV ⇒ vamos a responder ...
3 ¿TV está asociado con las ventas?
4 ¿Cuán alta es la asociación entre TV y las ventas?
13 / 39
Preguntas importantes
Intentaremos responder...
3 ¿Qué medios están asociados con las ventas?
4 ¿Cuán alta es la asociación entre cada medio y las ventas?
Por ahora sólo tenemos TV ⇒ vamos a responder ...
3 ¿TV está asociado con las ventas?
4 ¿Cuán alta es la asociación entre TV y las ventas?
13 / 39
Preguntas importantes
Intentaremos responder...
3 ¿Qué medios están asociados con las ventas?
4 ¿Cuán alta es la asociación entre cada medio y las ventas?
Por ahora sólo tenemos TV ⇒ vamos a responder ...
3 ¿TV está asociado con las ventas?
4 ¿Cuán alta es la asociación entre TV y las ventas?
13 / 39
Preguntas importantes
Intentaremos responder...
3 ¿Qué medios están asociados con las ventas?
4 ¿Cuán alta es la asociación entre cada medio y las ventas?
Por ahora sólo tenemos TV ⇒ vamos a responder ...
3 ¿TV está asociado con las ventas?
4 ¿Cuán alta es la asociación entre TV y las ventas?
13 / 39
Preguntas importantes
Intentaremos responder...
3 ¿Qué medios están asociados con las ventas?
4 ¿Cuán alta es la asociación entre cada medio y las ventas?
Por ahora sólo tenemos TV ⇒ vamos a responder ...
3 ¿TV está asociado con las ventas?
4 ¿Cuán alta es la asociación entre TV y las ventas?
13 / 39
Preguntas importantes
Intentaremos responder...
3 ¿Qué medios están asociados con las ventas?
4 ¿Cuán alta es la asociación entre cada medio y las ventas?
Por ahora sólo tenemos TV ⇒ vamos a responder ...
3 ¿TV está asociado con las ventas?
4 ¿Cuán alta es la asociación entre TV y las ventas?
13 / 39
3. ¿TV está asociado con las ventas?
Pregunta: ¿β1 ̸= 0? ⇒ necesitamos un test para
H0 : β1 = 0 vs. H1 : β1 ̸= 0
β̂1 = 0.048
Estructura del estad́ıstico:
T =
β̂1
SE(β̂1)
ó
β̂1
ŜE(β̂1)
⇒ necesitamos SE(β̂1)
14 / 39
3. ¿TV está asociado con las ventas?
Pregunta:
¿β1 ̸= 0? ⇒ necesitamos un test para
H0 : β1 = 0 vs. H1 : β1 ̸= 0
β̂1 = 0.048
Estructura del estad́ıstico:
T =
β̂1
SE(β̂1)
ó
β̂1
ŜE(β̂1)
⇒ necesitamos SE(β̂1)
14 / 39
3. ¿TV está asociado con las ventas?
Pregunta: ¿β1 ̸= 0?
⇒ necesitamos un test para
H0 : β1 = 0 vs. H1 : β1 ̸= 0
β̂1 = 0.048
Estructura del estad́ıstico:
T =
β̂1
SE(β̂1)
ó
β̂1
ŜE(β̂1)
⇒ necesitamos SE(β̂1)
14 / 39
3. ¿TV está asociado con las ventas?
Pregunta: ¿β1 ̸= 0? ⇒ necesitamos un test para
H0 : β1 = 0 vs. H1 : β1 ̸= 0
β̂1 = 0.048
Estructura del estad́ıstico:
T =
β̂1
SE(β̂1)
ó
β̂1
ŜE(β̂1)
⇒ necesitamos SE(β̂1)
14 / 39
3. ¿TV está asociado con las ventas?
Pregunta: ¿β1 ̸= 0? ⇒ necesitamos un test para
H0 : β1 = 0 vs. H1 : β1 ̸= 0
β̂1 = 0.048
Estructura del estad́ıstico:
T =
β̂1
SE(β̂1)
ó
β̂1
ŜE(β̂1)
⇒ necesitamos SE(β̂1)
14 / 39
3. ¿TV está asociado con las ventas?
Pregunta: ¿β1 ̸= 0? ⇒ necesitamos un test para
H0 : β1 = 0 vs. H1 : β1 ̸= 0
β̂1 = 0.048
Estructura del estad́ıstico:
T =
β̂1
SE(β̂1)
ó
β̂1
ŜE(β̂1)
⇒ necesitamos SE(β̂1)
14 / 39
3. ¿TV está asociado con las ventas?
Pregunta: ¿β1 ̸= 0? ⇒ necesitamos un test para
H0 : β1 = 0 vs. H1 : β1 ̸= 0
β̂1 = 0.048
Estructura del estad́ıstico:
T =
β̂1
SE(β̂1)
ó
β̂1
ŜE(β̂1)
⇒ necesitamos SE(β̂1)
14 / 39
4. ¿Cuán alta es la asociación entre TV y las ventas?
Pregunta: por cada dolar gastado, ¿cuánto espero (o predigo) que
aumenten las ventas?
Depende de la magnitud de β1, no sólo me importa si β1 ̸= 0, si no
cuál es su magnitud ⇒ necesitamos estimar a β1 mediante β̂1 y un
IC.
Estructura del Pivote:
P =
β̂1 − β1
SE(β̂1)
ó
β̂1 − β1
ŜE(β̂1)
⇒ necesitamos SE(β̂1)
.
15 / 39
4. ¿Cuán alta es la asociación entre TV y las ventas?
Pregunta:
por cada dolar gastado, ¿cuánto espero (o predigo) que
aumenten las ventas?
Depende de la magnitud de β1, no sólo me importa si β1 ̸= 0, si no
cuál es su magnitud ⇒ necesitamos estimar a β1 mediante β̂1 y un
IC.
Estructura del Pivote:
P =
β̂1 − β1
SE(β̂1)
ó
β̂1 − β1
ŜE(β̂1)
⇒ necesitamos SE(β̂1)
.
15 / 39
4. ¿Cuán alta es la asociación entre TV y las ventas?
Pregunta: por cada dolar gastado, ¿cuánto espero (o predigo) que
aumenten las ventas?
Depende de la magnitud de β1, no sólo me importa si β1 ̸= 0, si no
cuál es su magnitud ⇒ necesitamos estimar a β1 mediante β̂1 y un
IC.
Estructura del Pivote:
P =
β̂1 − β1
SE(β̂1)
ó
β̂1 − β1
ŜE(β̂1)
⇒ necesitamos SE(β̂1)
.
15 / 39
4. ¿Cuán alta es la asociación entre TV y las ventas?
Pregunta: por cada dolar gastado, ¿cuánto espero (o predigo) que
aumenten las ventas?
Depende de la magnitud de β1,
no sólo me importa si β1 ̸= 0, si no
cuál es su magnitud ⇒ necesitamos estimar a β1 mediante β̂1 y un
IC.
Estructura del Pivote:
P =
β̂1 − β1
SE(β̂1)
ó
β̂1 − β1
ŜE(β̂1)
⇒ necesitamos SE(β̂1)
.
15 / 39
4. ¿Cuán alta es la asociación entre TV y las ventas?
Pregunta: por cada dolar gastado, ¿cuánto espero (o predigo) que
aumenten las ventas?
Depende de la magnitud de β1, no sólo me importa si β1 ̸= 0, si no
cuál es su magnitud
⇒ necesitamos estimar a β1 mediante β̂1 y un
IC.
Estructura del Pivote:
P =
β̂1 − β1
SE(β̂1)
ó
β̂1 − β1
ŜE(β̂1)
⇒ necesitamos SE(β̂1)
.
15 / 39
4. ¿Cuán alta es la asociación entre TV y las ventas?
Pregunta: por cada dolar gastado, ¿cuánto espero (o predigo) que
aumenten las ventas?
Depende de la magnitud de β1, no sólo me importa si β1 ̸= 0, si no
cuál es su magnitud ⇒ necesitamos estimar a β1
mediante β̂1y un
IC.
Estructura del Pivote:
P =
β̂1 − β1
SE(β̂1)
ó
β̂1 − β1
ŜE(β̂1)
⇒ necesitamos SE(β̂1)
.
15 / 39
4. ¿Cuán alta es la asociación entre TV y las ventas?
Pregunta: por cada dolar gastado, ¿cuánto espero (o predigo) que
aumenten las ventas?
Depende de la magnitud de β1, no sólo me importa si β1 ̸= 0, si no
cuál es su magnitud ⇒ necesitamos estimar a β1 mediante
β̂1 y un
IC.
Estructura del Pivote:
P =
β̂1 − β1
SE(β̂1)
ó
β̂1 − β1
ŜE(β̂1)
⇒ necesitamos SE(β̂1)
.
15 / 39
4. ¿Cuán alta es la asociación entre TV y las ventas?
Pregunta: por cada dolar gastado, ¿cuánto espero (o predigo) que
aumenten las ventas?
Depende de la magnitud de β1, no sólo me importa si β1 ̸= 0, si no
cuál es su magnitud ⇒ necesitamos estimar a β1 mediante β̂1 y un
IC.
Estructura del Pivote:
P =
β̂1 − β1
SE(β̂1)
ó
β̂1 − β1
ŜE(β̂1)
⇒ necesitamos SE(β̂1)
.
15 / 39
4. ¿Cuán alta es la asociación entre TV y las ventas?
Pregunta: por cada dolar gastado, ¿cuánto espero (o predigo) que
aumenten las ventas?
Depende de la magnitud de β1, no sólo me importa si β1 ̸= 0, si no
cuál es su magnitud ⇒ necesitamos estimar a β1 mediante β̂1 y un
IC.
Estructura del Pivote:
P =
β̂1 − β1
SE(β̂1)
ó
β̂1 − β1
ŜE(β̂1)
⇒ necesitamos SE(β̂1)
.
15 / 39
4. ¿Cuán alta es la asociación entre TV y las ventas?
Pregunta: por cada dolar gastado, ¿cuánto espero (o predigo) que
aumenten las ventas?
Depende de la magnitud de β1, no sólo me importa si β1 ̸= 0, si no
cuál es su magnitud ⇒ necesitamos estimar a β1 mediante β̂1 y un
IC.
Estructura del Pivote:
P =
β̂1 − β1
SE(β̂1)
ó
β̂1 − β1
ŜE(β̂1)
⇒ necesitamos SE(β̂1)
.
15 / 39
Esperanza y varianza de los EMC
Como veremos luego, para construir el test y el IC para β1 también
necesitamos calcular E(β̂1),
además eso nos va a servir para probar
que es insesgado. ⇒ calcularemos E(β̂1) y V(β̂1).
Aunque no son de interés central, también se suelen calcular test e
IC para β0 ⇒ también veremos las fórmulas de E(β̂0) y V(β̂0)
16 / 39
Esperanza y varianza de los EMC
Como veremos luego, para construir el test y el IC para β1 también
necesitamos calcular E(β̂1), además eso nos va a servir para probar
que es insesgado.
⇒ calcularemos E(β̂1) y V(β̂1).
Aunque no son de interés central, también se suelen calcular test e
IC para β0 ⇒ también veremos las fórmulas de E(β̂0) y V(β̂0)
16 / 39
Esperanza y varianza de los EMC
Como veremos luego, para construir el test y el IC para β1 también
necesitamos calcular E(β̂1), además eso nos va a servir para probar
que es insesgado. ⇒ calcularemos E(β̂1) y V(β̂1).
Aunque no son de interés central, también se suelen calcular test e
IC para β0 ⇒ también veremos las fórmulas de E(β̂0) y V(β̂0)
16 / 39
Esperanza y varianza de los EMC
Como veremos luego, para construir el test y el IC para β1 también
necesitamos calcular E(β̂1), además eso nos va a servir para probar
que es insesgado. ⇒ calcularemos E(β̂1) y V(β̂1).
Aunque no son de interés central, también se suelen calcular test e
IC para β0
⇒ también veremos las fórmulas de E(β̂0) y V(β̂0)
16 / 39
Esperanza y varianza de los EMC
Como veremos luego, para construir el test y el IC para β1 también
necesitamos calcular E(β̂1), además eso nos va a servir para probar
que es insesgado. ⇒ calcularemos E(β̂1) y V(β̂1).
Aunque no son de interés central, también se suelen calcular test e
IC para β0 ⇒ también veremos las fórmulas de E(β̂0) y V(β̂0)
16 / 39
Esperanza de β̂1
β̂1 =
∑n
i=1(xi − xn)(Yi − Y n)∑n
i=1(xi − xn)2
E(β̂1) = β1 ⇒ β̂1 es un estimador insesgado de β1
17 / 39
Esperanza de β̂1
β̂1 =
∑n
i=1(xi − xn)(Yi − Y n)∑n
i=1(xi − xn)2
E(β̂1) =
β1 ⇒ β̂1 es un estimador insesgado de β1
17 / 39
Esperanza de β̂1
β̂1 =
∑n
i=1(xi − xn)(Yi − Y n)∑n
i=1(xi − xn)2
E(β̂1) = β1 ⇒ β̂1 es un estimador insesgado de β1
17 / 39
Varianza de β̂1
β̂1 =
∑n
i=1(xi − xn)(Yi − Y n)∑n
i=1(xi − xn)2
Para calcular V(β̂1) recordemos los supuestos del modelo en
términos de las Y ′i s
18 / 39
Varianza de β̂1
β̂1 =
∑n
i=1(xi − xn)(Yi − Y n)∑n
i=1(xi − xn)2
Para calcular V(β̂1) recordemos los supuestos del modelo en
términos de las Y ′i s
18 / 39
Supuestos en términos de las Yi
Modelo:
Yi = β0 + β1xi + ϵi, 1 ≤ i ≤ n
Supuestos:
ϵ1, . . . , ϵn indep. ⇔ Y1, . . . , Yn indep.
E(ϵi) = 0 ∀i ⇔ E(Yi) = β0 + β1xi ∀i
V(ϵi) = σ2 ∀i ⇔ V(Yi) = σ2 ∀i
β̂1 =
∑n
i=1(xi − xn)(Yi − Y n)∑n
i=1(xi − xn)2
19 / 39
Supuestos en términos de las Yi
Modelo:
Yi = β0 + β1xi + ϵi, 1 ≤ i ≤ n
Supuestos:
ϵ1, . . . , ϵn indep. ⇔ Y1, . . . , Yn indep.
E(ϵi) = 0 ∀i ⇔ E(Yi) = β0 + β1xi ∀i
V(ϵi) = σ2 ∀i ⇔ V(Yi) = σ2 ∀i
β̂1 =
∑n
i=1(xi − xn)(Yi − Y n)∑n
i=1(xi − xn)2
19 / 39
Supuestos en términos de las Yi
Modelo:
Yi = β0 + β1xi + ϵi, 1 ≤ i ≤ n
Supuestos:
ϵ1, . . . , ϵn indep. ⇔ Y1, . . . , Yn indep.
E(ϵi) = 0 ∀i ⇔ E(Yi) = β0 + β1xi ∀i
V(ϵi) = σ2 ∀i ⇔ V(Yi) = σ2 ∀i
β̂1 =
∑n
i=1(xi − xn)(Yi − Y n)∑n
i=1(xi − xn)2
19 / 39
Supuestos en términos de las Yi
Modelo:
Yi = β0 + β1xi + ϵi, 1 ≤ i ≤ n
Supuestos:
ϵ1, . . . , ϵn indep. ⇔ Y1, . . . , Yn indep.
E(ϵi) = 0 ∀i ⇔ E(Yi) = β0 + β1xi ∀i
V(ϵi) = σ2 ∀i ⇔ V(Yi) = σ2 ∀i
β̂1 =
∑n
i=1(xi − xn)(Yi − Y n)∑n
i=1(xi − xn)2
19 / 39
Supuestos en términos de las Yi
Modelo:
Yi = β0 + β1xi + ϵi, 1 ≤ i ≤ n
Supuestos:
ϵ1, . . . , ϵn indep. ⇔ Y1, . . . , Yn indep.
E(ϵi) = 0 ∀i ⇔ E(Yi) = β0 + β1xi ∀i
V(ϵi) = σ2 ∀i ⇔ V(Yi) = σ2 ∀i
β̂1 =
∑n
i=1(xi − xn)(Yi − Y n)∑n
i=1(xi − xn)2
19 / 39
Varianza de β̂1
V(β̂1) =
σ2∑n
i=1(xi − xn)2
Obs.: ¿Cuándo aumenta V(β̂1)?
1 cuando σ2 aumenta:
σ2 = V(ϵi)
↑
medida de cuánto se alejan los
puntos de la recta de regresión
(es decir, del error del modelo)
20 / 39
Varianza de β̂1
V(β̂1) =
σ2∑n
i=1(xi − xn)2
Obs.: ¿Cuándo aumenta V(β̂1)?
1 cuando σ2 aumenta:
σ2 = V(ϵi)
↑
medida de cuánto se alejan los
puntos de la recta de regresión
(es decir, del error del modelo)
20 / 39
Varianza de β̂1
V(β̂1) =
σ2∑n
i=1(xi − xn)2
Obs.: ¿Cuándo aumenta V(β̂1)?
1 cuando σ2 aumenta:
σ2 = V(ϵi)
↑
medida de cuánto se alejan los
puntos de la recta de regresión
(es decir, del error del modelo)
20 / 39
Varianza de β̂1
V(β̂1) =
σ2∑n
i=1(xi − xn)2
Obs.: ¿Cuándo aumenta V(β̂1)?
1 cuando σ2 aumenta:
σ2 = V(ϵi)
↑
medida de cuánto se alejan los
puntos de la recta de regresión
(es decir, del error del modelo)
20 / 39
Varianza de β̂1
V(β̂1) =
σ2∑n
i=1(xi − xn)2
Obs.: ¿Cuándo aumenta V(β̂1)?
1 cuando σ2 aumenta:
σ2 = V(ϵi)
↑
medida de cuánto se alejan los
puntos de la recta de regresión
(es decir, del error del modelo)
20 / 39
Varianza de β̂1
V(β̂1) =
σ2∑n
i=1(xi − xn)2
Obs.: ¿Cuándo aumenta V(β̂1)?
1 cuando σ2 aumenta:
σ2 = V(ϵi)
↑
medida de cuánto se alejan los
puntos de la recta de regresión
(es decir, del error del modelo)
20 / 39
Varianza de β̂1
V(β̂1) =
σ2∑n
i=1(xi − xn)2
Obs.: ¿Cuándo aumenta V(β̂1)?
1 cuando σ2 aumenta:
σ2 = V(ϵi)
↑
medida de cuánto se alejan los
puntos de la recta de regresión
(es decir, del error del modelo)
20 / 39
Varianza de β̂1
V(β̂1) =
σ2∑n
i=1(xi − xn)2
Obs.: ¿Cuándo aumenta V(β̂1)?
2 cuando
∑n
i=1(xi − xn)2 disminuye:
21 / 39
Varianza de β̂1
V(β̂1) =
σ2∑n
i=1(xi − xn)2
Obs.: ¿Cuándo aumenta V(β̂1)?
2 cuando
∑n
i=1(xi − xn)2 disminuye:
21 / 39
Varianza de β̂1
V(β̂1) =
σ2∑n
i=1(xi − xn)2
Obs.: ¿Cuándo aumenta V(β̂1)?
2 cuando
∑n
i=1(xi − xn)2 disminuye:
21 / 39
Varianza de β̂1
V(β̂1) =
σ2∑n
i=1(xi − xn)2
Obs.: ¿Cuándo aumenta V(β̂1)?
2 cuando
∑n
i=1(xi − xn)2 disminuye:
21 / 39
Varianza de β̂1
V(β̂1) =
σ2∑n
i=1(xi − xn)2
Obs.: ¿Cuándo aumenta V(β̂1)?
2 cuando
∑n
i=1(xi − xn)2 disminuye:
21 / 39
Varianza de β̂1
V(β̂1) =
σ2∑n
i=1(xi − xn)2
Obs.: ¿Cuándo aumenta V(β̂1)?
2 cuando
∑n
i=1(xi − xn)2 disminuye:
21 / 39
Esperanza y varianza de β̂0
β̂0 = Y n − β̂1xn
E(β̂0) = β0
V(β̂0) = σ2
(
1
n
+
x2n∑n
i=1(xi − xn)2
)
22 / 39
Esperanza y varianza de β̂0
β̂0 = Y n − β̂1xn
E(β̂0)
= β0V(β̂0) = σ2
(
1
n
+
x2n∑n
i=1(xi − xn)2
)
22 / 39
Esperanza y varianza de β̂0
β̂0 = Y n − β̂1xn
E(β̂0) = β0
V(β̂0) = σ2
(
1
n
+
x2n∑n
i=1(xi − xn)2
)
22 / 39
Esperanza y varianza de β̂0
β̂0 = Y n − β̂1xn
E(β̂0) = β0
V(β̂0)
= σ2
(
1
n
+
x2n∑n
i=1(xi − xn)2
)
22 / 39
Esperanza y varianza de β̂0
β̂0 = Y n − β̂1xn
E(β̂0) = β0
V(β̂0) = σ2
(
1
n
+
x2n∑n
i=1(xi − xn)2
)
22 / 39
SE de los EMC
SE(β̂1) =
√
σ2∑n
i=1(xi − xn)2
SE(β̂0) =
√
σ2
(
1
n
+
x2n∑n
i=1(xi − xn)2
)
¿Podemos calcularlos exactamente? No
⇒ para realizar test e IC para los EMC, necesitamos estimar a σ2.
23 / 39
SE de los EMC
SE(β̂1) =
√
σ2∑n
i=1(xi − xn)2
SE(β̂0) =
√
σ2
(
1
n
+
x2n∑n
i=1(xi − xn)2
)
¿Podemos calcularlos exactamente?
No
⇒ para realizar test e IC para los EMC, necesitamos estimar a σ2.
23 / 39
SE de los EMC
SE(β̂1) =
√
σ2∑n
i=1(xi − xn)2
SE(β̂0) =
√
σ2
(
1
n
+
x2n∑n
i=1(xi − xn)2
)
¿Podemos calcularlos exactamente? No
⇒ para realizar test e IC para los EMC, necesitamos estimar a σ2.
23 / 39
SE de los EMC
SE(β̂1) =
√
σ2∑n
i=1(xi − xn)2
SE(β̂0) =
√
σ2
(
1
n
+
x2n∑n
i=1(xi − xn)2
)
¿Podemos calcularlos exactamente? No
⇒ para realizar test e IC para los EMC, necesitamos estimar a σ2.
23 / 39
Estimación de σ2
V(ϵi) = σ2 ∀i
ϵi = Yi − (β0 + β1xi) → no observado
ei = Yi − (β̂0 + β̂1xi) → i-ésimo residuo
¿cómo se interpreta gráficamente los residuos?
Definamos...
Ŷi = β̂0 + β̂1xi, → i-ésimo predicho
⇒ ei = Yi − Ŷi
24 / 39
Estimación de σ2
V(ϵi) = σ2 ∀i
ϵi = Yi − (β0 + β1xi)
→ no observado
ei = Yi − (β̂0 + β̂1xi) → i-ésimo residuo
¿cómo se interpreta gráficamente los residuos?
Definamos...
Ŷi = β̂0 + β̂1xi, → i-ésimo predicho
⇒ ei = Yi − Ŷi
24 / 39
Estimación de σ2
V(ϵi) = σ2 ∀i
ϵi = Yi − (β0 + β1xi) → no observado
ei = Yi − (β̂0 + β̂1xi) → i-ésimo residuo
¿cómo se interpreta gráficamente los residuos?
Definamos...
Ŷi = β̂0 + β̂1xi, → i-ésimo predicho
⇒ ei = Yi − Ŷi
24 / 39
Estimación de σ2
V(ϵi) = σ2 ∀i
ϵi = Yi − (β0 + β1xi) → no observado
ei = Yi − (β̂0 + β̂1xi) → i-ésimo residuo
¿cómo se interpreta gráficamente los residuos?
Definamos...
Ŷi = β̂0 + β̂1xi, → i-ésimo predicho
⇒ ei = Yi − Ŷi
24 / 39
Estimación de σ2
V(ϵi) = σ2 ∀i
ϵi = Yi − (β0 + β1xi) → no observado
ei = Yi − (β̂0 + β̂1xi) → i-ésimo residuo
¿cómo se interpreta gráficamente los residuos?
Definamos...
Ŷi = β̂0 + β̂1xi, → i-ésimo predicho
⇒ ei = Yi − Ŷi
24 / 39
Estimación de σ2
V(ϵi) = σ2 ∀i
ϵi = Yi − (β0 + β1xi) → no observado
ei = Yi − (β̂0 + β̂1xi) → i-ésimo residuo
¿cómo se interpreta gráficamente los residuos?
Definamos...
Ŷi = β̂0 + β̂1xi,
→ i-ésimo predicho
⇒ ei = Yi − Ŷi
24 / 39
Estimación de σ2
V(ϵi) = σ2 ∀i
ϵi = Yi − (β0 + β1xi) → no observado
ei = Yi − (β̂0 + β̂1xi) → i-ésimo residuo
¿cómo se interpreta gráficamente los residuos?
Definamos...
Ŷi = β̂0 + β̂1xi, → i-ésimo predicho
⇒ ei = Yi − Ŷi
24 / 39
Estimación de σ2
V(ϵi) = σ2 ∀i
ϵi = Yi − (β0 + β1xi) → no observado
ei = Yi − (β̂0 + β̂1xi) → i-ésimo residuo
¿cómo se interpreta gráficamente los residuos?
Definamos...
Ŷi = β̂0 + β̂1xi, → i-ésimo predicho
⇒ ei = Yi − Ŷi
24 / 39
Estimación de σ2
σ̂2 =
1
n− 2
n∑
i=1
e2i
→ estimador insesgado de σ2
RSE =
√√√√ 1
n− 2
n∑
i=1
e2i → estimador de σ
↑
Residual Standard Error
25 / 39
Estimación de σ2
σ̂2 =
1
n− 2
n∑
i=1
e2i → estimador insesgado de σ2
RSE =
√√√√ 1
n− 2
n∑
i=1
e2i → estimador de σ
↑
Residual Standard Error
25 / 39
Estimación de σ2
σ̂2 =
1
n− 2
n∑
i=1
e2i → estimador insesgado de σ2
RSE =
√√√√ 1
n− 2
n∑
i=1
e2i
→ estimador de σ
↑
Residual Standard Error
25 / 39
Estimación de σ2
σ̂2 =
1
n− 2
n∑
i=1
e2i → estimador insesgado de σ2
RSE =
√√√√ 1
n− 2
n∑
i=1
e2i → estimador de σ
↑
Residual Standard Error
25 / 39
Estimación de σ2
σ̂2 =
1
n− 2
n∑
i=1
e2i → estimador insesgado de σ2
RSE =
√√√√ 1
n− 2
n∑
i=1
e2i → estimador de σ
↑
Residual Standard Error
25 / 39
Estimación del SE de los EMC
ŜE(β̂1) =
√
σ̂2∑n
i=1(xi − xn)2
ŜE(β̂0) =
√
σ̂2
(
1
n
+
x2n∑n
i=1(xi − xn)2
)
con
σ̂2 = RSE2 =
1
n− 2
n∑
i=1
e2i
26 / 39
Test e IC para los coeficientes
Ya podemos calcular...
P =
β̂1 − β1
ŜE(β̂1)
→ Pivote del IC
T =
β̂1
ŜE(β̂1)
→ Estad́ıstico del test
Pero para poder calcular el IC y el test exactos para β1,
necesitamos conocer...
la distribución de P
la distribución de T bajo H0
Para eso necesitamos conocer la distribución de β̂1.
(Idem para β̂0).
Queremos construir IC y test exactos basados en la distribución
normal, para lo cual necesitamos que β̂0 y β̂1 sean normales.
27 / 39
Test e IC para los coeficientes
Ya podemos calcular...
P =
β̂1 − β1
ŜE(β̂1)
→ Pivote del IC
T =
β̂1
ŜE(β̂1)
→ Estad́ıstico del test
Pero para poder calcular el IC y el test exactos para β1,
necesitamos conocer...
la distribución de P
la distribución de T bajo H0
Para eso necesitamos conocer la distribución de β̂1.
(Idem para β̂0).
Queremos construir IC y test exactos basados en la distribución
normal, para lo cual necesitamos que β̂0 y β̂1 sean normales.
27 / 39
Test e IC para los coeficientes
Ya podemos calcular...
P =
β̂1 − β1
ŜE(β̂1)
→ Pivote del IC
T =
β̂1
ŜE(β̂1)
→ Estad́ıstico del test
Pero para poder calcular el IC y el test exactos para β1,
necesitamos conocer...
la distribución de P
la distribución de T bajo H0
Para eso necesitamos conocer la distribución de β̂1.
(Idem para β̂0).
Queremos construir IC y test exactos basados en la distribución
normal, para lo cual necesitamos que β̂0 y β̂1 sean normales.
27 / 39
Test e IC para los coeficientes
Ya podemos calcular...
P =
β̂1 − β1
ŜE(β̂1)
→ Pivote del IC
T =
β̂1
ŜE(β̂1)
→ Estad́ıstico del test
Pero para poder calcular el IC y el test exactos para β1,
necesitamos conocer...
la distribución de P
la distribución de T bajo H0
Para eso necesitamos conocer la distribución de β̂1.
(Idem para β̂0).
Queremos construir IC y test exactos basados en la distribución
normal, para lo cual necesitamos que β̂0 y β̂1 sean normales.
27 / 39
Test e IC para los coeficientes
Ya podemos calcular...
P =
β̂1 − β1
ŜE(β̂1)
→ Pivote del IC
T =
β̂1
ŜE(β̂1)
→ Estad́ıstico del test
Pero para poder calcular el IC y el test exactos para β1,
necesitamos conocer...
la distribución de P
la distribución de T bajo H0
Para eso necesitamos conocer la distribución de β̂1.
(Idem para β̂0).
Queremos construir IC y test exactos basados en la distribución
normal, para lo cual necesitamos que β̂0 y β̂1 sean normales.
27 / 39
Test e IC para los coeficientes
Ya podemos calcular...
P =
β̂1 − β1
ŜE(β̂1)
→ Pivote del IC
T =
β̂1
ŜE(β̂1)
→ Estad́ıstico del test
Pero para poder calcular el IC y el test exactos para β1,
necesitamos conocer...
la distribución de P
la distribución de T bajo H0
Para eso necesitamos conocer la distribución de β̂1.
(Idem para β̂0).
Queremos construir IC y test exactos basados en la distribución
normal, para lo cual necesitamos que β̂0 y β̂1 sean normales.
27 / 39
Test e IC para los coeficientes
Ya podemos calcular...
P =
β̂1 − β1
ŜE(β̂1)
→ Pivote del IC
T =
β̂1
ŜE(β̂1)
→ Estad́ıstico del test
Pero para poder calcular el IC y el test exactos para β1,
necesitamos conocer...
la distribución de P
la distribución de T bajo H0
Para eso necesitamos conocer la distribución de β̂1.
(Idem para β̂0).
Queremos construir IC y test exactos basados en la distribución
normal, para lo cual necesitamos que β̂0 y β̂1 sean normales.
27 / 39
Test e IC para los coeficientes
Ya podemos calcular...
P =
β̂1 − β1
ŜE(β̂1)
→ Pivote del IC
T =
β̂1
ŜE(β̂1)
→ Estad́ıstico del test
Pero para poder calcular el IC y el test exactos para β1,
necesitamos conocer...
la distribución de P
la distribución de T bajo H0
Para eso necesitamos conocer la distribución de β̂1.
(Idem para β̂0).
Queremos construir IC y test exactos basados en la distribuciónnormal, para lo cual necesitamos que β̂0 y β̂1 sean normales.
27 / 39
Test e IC para los coeficientes
Ya podemos calcular...
P =
β̂1 − β1
ŜE(β̂1)
→ Pivote del IC
T =
β̂1
ŜE(β̂1)
→ Estad́ıstico del test
Pero para poder calcular el IC y el test exactos para β1,
necesitamos conocer...
la distribución de P
la distribución de T bajo H0
Para eso necesitamos conocer la distribución de
β̂1.
(Idem para β̂0).
Queremos construir IC y test exactos basados en la distribución
normal, para lo cual necesitamos que β̂0 y β̂1 sean normales.
27 / 39
Test e IC para los coeficientes
Ya podemos calcular...
P =
β̂1 − β1
ŜE(β̂1)
→ Pivote del IC
T =
β̂1
ŜE(β̂1)
→ Estad́ıstico del test
Pero para poder calcular el IC y el test exactos para β1,
necesitamos conocer...
la distribución de P
la distribución de T bajo H0
Para eso necesitamos conocer la distribución de β̂1.
(Idem para β̂0).
Queremos construir IC y test exactos basados en la distribución
normal, para lo cual necesitamos que β̂0 y β̂1 sean normales.
27 / 39
Test e IC para los coeficientes
Ya podemos calcular...
P =
β̂1 − β1
ŜE(β̂1)
→ Pivote del IC
T =
β̂1
ŜE(β̂1)
→ Estad́ıstico del test
Pero para poder calcular el IC y el test exactos para β1,
necesitamos conocer...
la distribución de P
la distribución de T bajo H0
Para eso necesitamos conocer la distribución de β̂1.
(Idem para β̂0).
Queremos construir IC y test exactos basados en la distribución
normal, para lo cual necesitamos que β̂0 y β̂1 sean normales.
27 / 39
Test e IC para los coeficientes
Ya podemos calcular...
P =
β̂1 − β1
ŜE(β̂1)
→ Pivote del IC
T =
β̂1
ŜE(β̂1)
→ Estad́ıstico del test
Pero para poder calcular el IC y el test exactos para β1,
necesitamos conocer...
la distribución de P
la distribución de T bajo H0
Para eso necesitamos conocer la distribución de β̂1.
(Idem para β̂0).
Queremos construir IC y test exactos basados en la distribución
normal, para lo cual necesitamos que β̂0 y β̂1 sean normales.
27 / 39
EMC
β̂0 = Y n − β̂1xn
β̂1 =
∑n
i=1(xi − xn)(Yi − Y n)∑n
i=1(xi − xn)2
¿De qué depende la distribución de los EMC?
¿Nos dice algo el modelo sobre la distribución de las Y ′i s?
28 / 39
EMC
β̂0 = Y n − β̂1xn
β̂1 =
∑n
i=1(xi − xn)(Yi − Y n)∑n
i=1(xi − xn)2
¿De qué depende la distribución de los EMC?
¿Nos dice algo el modelo sobre la distribución de las Y ′i s?
28 / 39
EMC
β̂0 = Y n − β̂1xn
β̂1 =
∑n
i=1(xi − xn)(Yi − Y n)∑n
i=1(xi − xn)2
¿De qué depende la distribución de los EMC?
¿Nos dice algo el modelo sobre la distribución de las Y ′i s?
28 / 39
Modelo Lineal
Modelo:
Yi = β0 + β1xi + ϵi, 1 ≤ i ≤ n
Supuestos:
ϵ1, . . . , ϵn indep. ⇔ Y1, . . . , Yn indep.
E(ϵi) = 0 ∀i ⇔ E(Yi) = β0 + β1xi ∀i
V(ϵi) = σ2 ∀i ⇔ V(Yi) = σ2 ∀i
¿Qué nos dice el modelo sobre la distribución de las Y ′i s?
Queremos que las Yi sean normales, para lo cual basta pedir que
las ϵi lo sean. ¿Es razonable este supuesto?
29 / 39
Modelo Lineal
Modelo:
Yi = β0 + β1xi + ϵi, 1 ≤ i ≤ n
Supuestos:
ϵ1, . . . , ϵn indep. ⇔ Y1, . . . , Yn indep.
E(ϵi) = 0 ∀i ⇔ E(Yi) = β0 + β1xi ∀i
V(ϵi) = σ2 ∀i ⇔ V(Yi) = σ2 ∀i
¿Qué nos dice el modelo sobre la distribución de las Y ′i s?
Queremos que las Yi sean normales, para lo cual basta pedir que
las ϵi lo sean. ¿Es razonable este supuesto?
29 / 39
Modelo Lineal
Modelo:
Yi = β0 + β1xi + ϵi, 1 ≤ i ≤ n
Supuestos:
ϵ1, . . . , ϵn indep. ⇔ Y1, . . . , Yn indep.
E(ϵi) = 0 ∀i ⇔ E(Yi) = β0 + β1xi ∀i
V(ϵi) = σ2 ∀i ⇔ V(Yi) = σ2 ∀i
¿Qué nos dice el modelo sobre la distribución de las Y ′i s?
Queremos que las Yi sean normales, para lo cual basta pedir que
las ϵi lo sean.
¿Es razonable este supuesto?
29 / 39
Modelo Lineal
Modelo:
Yi = β0 + β1xi + ϵi, 1 ≤ i ≤ n
Supuestos:
ϵ1, . . . , ϵn indep. ⇔ Y1, . . . , Yn indep.
E(ϵi) = 0 ∀i ⇔ E(Yi) = β0 + β1xi ∀i
V(ϵi) = σ2 ∀i ⇔ V(Yi) = σ2 ∀i
¿Qué nos dice el modelo sobre la distribución de las Y ′i s?
Queremos que las Yi sean normales, para lo cual basta pedir que
las ϵi lo sean. ¿Es razonable este supuesto?
29 / 39
Modelo Lineal con supuesto de normalidad
Yi = β0 + β1xi + ϵi 1 ≤ i ≤ n
Supuestos:
1 ϵ1, . . . , ϵn independientes
2 E(ϵi) = 0 ∀i
3 V(ϵi) = σ2 ∀i
4 ϵi es normal ∀i.
Los supuestos 1 a 4 son equivalentes a
ϵ1, . . . , ϵn ∼ N (0, σ2) i.i.d.
¿Cómo se traducen estos supuestos en términos de las Y ′i s?
Y1, . . . , Yn indep. con Yi ∼ N (β0 + β1xi, σ2)
30 / 39
Modelo Lineal con supuesto de normalidad
Yi = β0 + β1xi + ϵi 1 ≤ i ≤ n
Supuestos:
1 ϵ1, . . . , ϵn independientes
2 E(ϵi) = 0 ∀i
3 V(ϵi) = σ2 ∀i
4 ϵi es normal ∀i.
Los supuestos 1 a 4 son equivalentes a
ϵ1, . . . , ϵn ∼ N (0, σ2) i.i.d.
¿Cómo se traducen estos supuestos en términos de las Y ′i s?
Y1, . . . , Yn indep. con Yi ∼ N (β0 + β1xi, σ2)
30 / 39
Modelo Lineal con supuesto de normalidad
Yi = β0 + β1xi + ϵi 1 ≤ i ≤ n
Supuestos:
1 ϵ1, . . . , ϵn independientes
2 E(ϵi) = 0 ∀i
3 V(ϵi) = σ2 ∀i
4 ϵi es normal ∀i.
Los supuestos 1 a 4 son equivalentes a
ϵ1, . . . , ϵn ∼ N (0, σ2) i.i.d.
¿Cómo se traducen estos supuestos en términos de las Y ′i s?
Y1, . . . , Yn indep. con Yi ∼ N (β0 + β1xi, σ2)
30 / 39
Modelo Lineal con supuesto de normalidad
Yi = β0 + β1xi + ϵi 1 ≤ i ≤ n
Supuestos:
1 ϵ1, . . . , ϵn independientes
2 E(ϵi) = 0 ∀i
3 V(ϵi) = σ2 ∀i
4 ϵi es normal ∀i.
Los supuestos 1 a 4 son equivalentes a
ϵ1, . . . , ϵn ∼ N (0, σ2) i.i.d.
¿Cómo se traducen estos supuestos en términos de las Y ′i s?
Y1, . . . , Yn indep. con Yi ∼ N (β0 + β1xi, σ2)
30 / 39
Modelo Lineal con supuesto de normalidad
Yi = β0 + β1xi + ϵi 1 ≤ i ≤ n
Supuestos:
1 ϵ1, . . . , ϵn independientes
2 E(ϵi) = 0 ∀i
3 V(ϵi) = σ2 ∀i
4 ϵi es normal ∀i.
Los supuestos 1 a 4 son equivalentes a
ϵ1, . . . , ϵn ∼ N (0, σ2) i.i.d.
¿Cómo se traducen estos supuestos en términos de las Y ′i s?
Y1, . . . , Yn indep. con Yi ∼ N (β0 + β1xi, σ2)
30 / 39
Modelo Lineal con supuesto de normalidad
Yi = β0 + β1xi + ϵi 1 ≤ i ≤ n
Supuestos:
1 ϵ1, . . . , ϵn independientes
2 E(ϵi) = 0 ∀i
3 V(ϵi) = σ2 ∀i
4 ϵi es normal ∀i.
Los supuestos 1 a 4 son equivalentes a
ϵ1, . . . , ϵn ∼ N (0, σ2) i.i.d.
¿Cómo se traducen estos supuestos en términos de las Y ′i s?
Y1, . . . , Yn indep. con Yi ∼ N (β0 + β1xi, σ2)
30 / 39
Distribución de los EMC
A partir de ahora, asumiremos el modelo con el supuesto de
normalidad.
Distribución de β̂1
β̂1 =
∑n
i=1(xi − xn)(Yi − Y n)∑n
i=1(xi − xn)2
β̂1 ∼ N
(
β1,
σ2∑n
i=1(xi − xn)2
)
Distribución de β̂0
β̂0 = Y n − β̂1xn
β̂0 ∼ N
(
β0, σ
2
[
1
n
+
x2n∑n
i=1(xi − xn)2
])
31 / 39
Distribución de los EMC
A partir de ahora, asumiremos el modelo con el supuesto de
normalidad.
Distribución de β̂1
β̂1 =
∑n
i=1(xi − xn)(Yi − Y n)∑n
i=1(xi − xn)2
β̂1 ∼ N
(
β1,
σ2∑n
i=1(xi − xn)2
)
Distribución de β̂0
β̂0 = Y n − β̂1xn
β̂0 ∼ N
(
β0, σ
2
[
1
n
+
x2n∑n
i=1(xi − xn)2
])
31 / 39
Distribución de los EMC
A partir de ahora, asumiremos el modelo con el supuesto de
normalidad.
Distribución de β̂1
β̂1 =
∑n
i=1(xi − xn)(Yi − Y n)∑n
i=1(xi − xn)2
β̂1 ∼
N
(
β1,
σ2∑n
i=1(xi − xn)2
)
Distribución de β̂0
β̂0 = Y n − β̂1xn
β̂0 ∼ N
(
β0, σ
2
[
1
n
+
x2n∑n
i=1(xi − xn)2
])
31 / 39
Distribución de los EMC
A partir de ahora, asumiremos el modelo con el supuesto de
normalidad.
Distribución de β̂1
β̂1 =
∑n
i=1(xi − xn)(Yi − Y n)∑n
i=1(xi − xn)2
β̂1 ∼ N
(
β1,
σ2∑n
i=1(xi − xn)2
)
Distribución de β̂0
β̂0 = Y n − β̂1xn
β̂0 ∼ N
(
β0, σ
2
[
1
n
+
x2n∑n
i=1(xi − xn)2
])
31 / 39
Distribución de los EMC
A partir de ahora, asumiremos el modelo con el supuesto de
normalidad.
Distribución de β̂1
β̂1 =
∑n
i=1(xi − xn)(Yi − Y n)∑n
i=1(xi − xn)2
β̂1 ∼ N
(
β1,
σ2∑n
i=1(xi − xn)2
)
Distribución de β̂0
β̂0 = Y n − β̂1xn
β̂0 ∼ N
(
β0, σ
2
[
1
n
+
x2n∑n
i=1(xi − xn)2
])
31 / 39
Distribución de los EMC
A partir de ahora, asumiremos el modelo con el supuesto de
normalidad.
Distribución de β̂1
β̂1 =
∑n
i=1(xi − xn)(Yi − Y n)∑n
i=1(xi− xn)2
β̂1 ∼ N
(
β1,
σ2∑n
i=1(xi − xn)2
)
Distribución de β̂0
β̂0 = Y n − β̂1xn
β̂0 ∼ N
(
β0, σ
2
[
1
n
+
x2n∑n
i=1(xi − xn)2
])
31 / 39
Distribución de los EMC
A partir de ahora, asumiremos el modelo con el supuesto de
normalidad.
Distribución de β̂1
β̂1 =
∑n
i=1(xi − xn)(Yi − Y n)∑n
i=1(xi − xn)2
β̂1 ∼ N
(
β1,
σ2∑n
i=1(xi − xn)2
)
Distribución de β̂0
β̂0 = Y n − β̂1xn
β̂0 ∼ N
(
β0, σ
2
[
1
n
+
x2n∑n
i=1(xi − xn)2
])
31 / 39
Test para β1
Para responder si TV está asociado con las ventas, necesitamos un
test para
H0 : β1 = 0 vs. H1 : β1 ̸= 0
.
Estad́ıstico:
T =
β̂1√
σ̂2∑n
i=1(xi−xn)2
=
β̂1
ŜE(β̂1)
∼ tn−2 bajo H0
con σ̂2 = RSE2 = 1n−2
∑n
i=1 e
2
i
RR de nivel exato α:
R = {|T | > tn−2,α/2}
p-valor = P(|Tn−2| ≥ |Tobs|) = 2P(Tn−2 ≥ |Tobs|)
con Tn−2 ∼ tn−2
32 / 39
Test para β1
Para responder si TV está asociado con las ventas, necesitamos un
test para
H0 : β1 = 0 vs. H1 : β1 ̸= 0
.
Estad́ıstico:
T =
β̂1√
σ̂2∑n
i=1(xi−xn)2
=
β̂1
ŜE(β̂1)
∼ tn−2 bajo H0
con σ̂2 = RSE2 = 1n−2
∑n
i=1 e
2
i
RR de nivel exato α:
R = {|T | > tn−2,α/2}
p-valor = P(|Tn−2| ≥ |Tobs|) = 2P(Tn−2 ≥ |Tobs|)
con Tn−2 ∼ tn−2
32 / 39
Test para β1
Para responder si TV está asociado con las ventas, necesitamos un
test para
H0 : β1 = 0 vs. H1 : β1 ̸= 0
.
Estad́ıstico:
T =
β̂1√
σ̂2∑n
i=1(xi−xn)2
=
β̂1
ŜE(β̂1)
∼ tn−2 bajo H0
con σ̂2 = RSE2 = 1n−2
∑n
i=1 e
2
i
RR de nivel exato α:
R = {|T | > tn−2,α/2}
p-valor = P(|Tn−2| ≥ |Tobs|) = 2P(Tn−2 ≥ |Tobs|)
con Tn−2 ∼ tn−2
32 / 39
Test para β1
Para responder si TV está asociado con las ventas, necesitamos un
test para
H0 : β1 = 0 vs. H1 : β1 ̸= 0
.
Estad́ıstico:
T =
β̂1√
σ̂2∑n
i=1(xi−xn)2
=
β̂1
ŜE(β̂1)
∼ tn−2 bajo H0
con σ̂2 = RSE2 = 1n−2
∑n
i=1 e
2
i
RR de nivel exato α:
R = {|T | > tn−2,α/2}
p-valor = P(|Tn−2| ≥ |Tobs|) = 2P(Tn−2 ≥ |Tobs|)
con Tn−2 ∼ tn−2
32 / 39
Test para β1
Para responder si TV está asociado con las ventas, necesitamos un
test para
H0 : β1 = 0 vs. H1 : β1 ̸= 0
.
Estad́ıstico:
T =
β̂1√
σ̂2∑n
i=1(xi−xn)2
=
β̂1
ŜE(β̂1)
∼ tn−2 bajo H0
con σ̂2 = RSE2 = 1n−2
∑n
i=1 e
2
i
RR de nivel exato α:
R = {|T | > tn−2,α/2}
p-valor = P(|Tn−2| ≥ |Tobs|) = 2P(Tn−2 ≥ |Tobs|)
con Tn−2 ∼ tn−2
32 / 39
Test para β1
Para responder si TV está asociado con las ventas, necesitamos un
test para
H0 : β1 = 0 vs. H1 : β1 ̸= 0
.
Estad́ıstico:
T =
β̂1√
σ̂2∑n
i=1(xi−xn)2
=
β̂1
ŜE(β̂1)
∼ tn−2 bajo H0
con σ̂2 = RSE2 = 1n−2
∑n
i=1 e
2
i
RR de nivel exato α:
R = {|T | > tn−2,α/2}
p-valor =
P(|Tn−2| ≥ |Tobs|) = 2P(Tn−2 ≥ |Tobs|)
con Tn−2 ∼ tn−2
32 / 39
Test para β1
Para responder si TV está asociado con las ventas, necesitamos un
test para
H0 : β1 = 0 vs. H1 : β1 ̸= 0
.
Estad́ıstico:
T =
β̂1√
σ̂2∑n
i=1(xi−xn)2
=
β̂1
ŜE(β̂1)
∼ tn−2 bajo H0
con σ̂2 = RSE2 = 1n−2
∑n
i=1 e
2
i
RR de nivel exato α:
R = {|T | > tn−2,α/2}
p-valor = P(|Tn−2| ≥ |Tobs|) = 2P(Tn−2 ≥ |Tobs|)
con Tn−2 ∼ tn−2
32 / 39
IC para β1
Para responder cuán alta es la asociación entre TV y ventas,
necesitamos β̂1 y un IC para β1.
Pivote:
P =
β̂1 − β1√
σ̂2∑n
i=1(xi−xn)2
=
β̂1 − β1
ŜE(β̂1)
∼ tn−2
con σ̂2 = RSE2 = 1n−2
∑n
i=1 e
2
i
Intervalo de Confianza:
IC = (β̂1 ± tn−2,α/2ŜE(β̂1))
33 / 39
IC para β1
Para responder cuán alta es la asociación entre TV y ventas,
necesitamos β̂1 y un IC para β1.
Pivote:
P =
β̂1 − β1√
σ̂2∑n
i=1(xi−xn)2
=
β̂1 − β1
ŜE(β̂1)
∼ tn−2
con σ̂2 = RSE2 = 1n−2
∑n
i=1 e
2
i
Intervalo de Confianza:
IC = (β̂1 ± tn−2,α/2ŜE(β̂1))
33 / 39
IC para β1
Para responder cuán alta es la asociación entre TV y ventas,
necesitamos β̂1 y un IC para β1.
Pivote:
P =
β̂1 − β1√
σ̂2∑n
i=1(xi−xn)2
=
β̂1 − β1
ŜE(β̂1)
∼ tn−2
con σ̂2 = RSE2 = 1n−2
∑n
i=1 e
2
i
Intervalo de Confianza:
IC = (β̂1 ± tn−2,α/2ŜE(β̂1))
33 / 39
IC para β1
Para responder cuán alta es la asociación entre TV y ventas,
necesitamos β̂1 y un IC para β1.
Pivote:
P =
β̂1 − β1√
σ̂2∑n
i=1(xi−xn)2
=
β̂1 − β1
ŜE(β̂1)
∼ tn−2
con σ̂2 = RSE2 = 1n−2
∑n
i=1 e
2
i
Intervalo de Confianza:
IC = (β̂1 ± tn−2,α/2ŜE(β̂1))
33 / 39
IC para β1
Para responder cuán alta es la asociación entre TV y ventas,
necesitamos β̂1 y un IC para β1.
Pivote:
P =
β̂1 − β1√
σ̂2∑n
i=1(xi−xn)2
=
β̂1 − β1
ŜE(β̂1)
∼ tn−2
con σ̂2 = RSE2 = 1n−2
∑n
i=1 e
2
i
Intervalo de Confianza:
IC = (β̂1 ± tn−2,α/2ŜE(β̂1))
33 / 39
IC para β1
Para responder cuán alta es la asociación entre TV y ventas,
necesitamos β̂1 y un IC para β1.
Pivote:
P =
β̂1 − β1√
σ̂2∑n
i=1(xi−xn)2
=
β̂1 − β1
ŜE(β̂1)
∼ tn−2
con σ̂2 = RSE2 = 1n−2
∑n
i=1 e
2
i
Intervalo de Confianza:
IC = (β̂1 ± tn−2,α/2ŜE(β̂1))
33 / 39
Test e IC para β0
Son idénticos a los de β1 reemplazando β̂1 y ŜE(β̂1) por β̂0 y
ŜE(β̂0)
34 / 39
IC para β1 en el ejemplo
IC = (β̂1 ± tn−2,α/2ŜE(β̂1))
Necesitamos...
β̂1 = 0.0475
tn−2,α/2 = t198,0.025 = qt(1 - 0.025, df = 198) = 1.97
ŜE(β̂1) =
√
σ̂2∑n
i=1(xi−xn)2
→ necesitamos
σ̂ = RSE =
√
1
n−2
∑n
i=1 e
2
i√∑n
i=1(xi − xn)2
35 / 39
IC para β1 en el ejemplo
IC = (β̂1 ± tn−2,α/2ŜE(β̂1))
Necesitamos...
β̂1 = 0.0475
tn−2,α/2 = t198,0.025 = qt(1 - 0.025, df = 198) = 1.97
ŜE(β̂1) =
√
σ̂2∑n
i=1(xi−xn)2
→ necesitamos
σ̂ = RSE =
√
1
n−2
∑n
i=1 e
2
i√∑n
i=1(xi − xn)2
35 / 39
IC para β1 en el ejemplo
IC = (β̂1 ± tn−2,α/2ŜE(β̂1))
Necesitamos...
β̂1 =
0.0475
tn−2,α/2 = t198,0.025 = qt(1 - 0.025, df = 198) = 1.97
ŜE(β̂1) =
√
σ̂2∑n
i=1(xi−xn)2
→ necesitamos
σ̂ = RSE =
√
1
n−2
∑n
i=1 e
2
i√∑n
i=1(xi − xn)2
35 / 39
IC para β1 en el ejemplo
IC = (β̂1 ± tn−2,α/2ŜE(β̂1))
Necesitamos...
β̂1 = 0.0475
tn−2,α/2 = t198,0.025 = qt(1 - 0.025, df = 198) = 1.97
ŜE(β̂1) =
√
σ̂2∑n
i=1(xi−xn)2
→ necesitamos
σ̂ = RSE =
√
1
n−2
∑n
i=1 e
2
i√∑n
i=1(xi − xn)2
35 / 39
IC para β1 en el ejemplo
IC = (β̂1 ± tn−2,α/2ŜE(β̂1))
Necesitamos...
β̂1 = 0.0475
tn−2,α/2 =
t198,0.025 = qt(1 - 0.025, df = 198) = 1.97
ŜE(β̂1) =
√
σ̂2∑n
i=1(xi−xn)2
→ necesitamos
σ̂ = RSE =
√
1
n−2
∑n
i=1 e
2
i√∑n
i=1(xi − xn)2
35 / 39
IC para β1 en el ejemplo
IC = (β̂1 ± tn−2,α/2ŜE(β̂1))
Necesitamos...
β̂1 = 0.0475
tn−2,α/2 = t198,0.025 = qt(1 - 0.025, df = 198) = 1.97
ŜE(β̂1) =
√
σ̂2∑n
i=1(xi−xn)2
→ necesitamos
σ̂ = RSE =
√
1
n−2
∑n
i=1 e
2
i√∑n
i=1(xi − xn)2
35 / 39
IC para β1 en el ejemplo
IC = (β̂1 ± tn−2,α/2ŜE(β̂1))
Necesitamos...
β̂1 = 0.0475
tn−2,α/2 = t198,0.025 = qt(1 - 0.025, df = 198) = 1.97
ŜE(β̂1) =
√
σ̂2∑n
i=1(xi−xn)2
→ necesitamos
σ̂ = RSE =
√
1
n−2
∑n
i=1 e
2
i√∑n
i=1(xi − xn)2
35 / 39
IC para β1 en el ejemplo
IC = (β̂1 ± tn−2,α/2ŜE(β̂1))
Necesitamos...
β̂1 = 0.0475
tn−2,α/2 = t198,0.025 = qt(1 - 0.025, df = 198) = 1.97
ŜE(β̂1) =
√
σ̂2∑n
i=1(xi−xn)2
→ necesitamos
σ̂ = RSE =
√
1
n−2
∑n
i=1 e
2
i√∑n
i=1(xi − xn)2
35 / 39
IC para β1 en el ejemplo
IC = (β̂1 ± tn−2,α/2ŜE(β̂1))
Necesitamos...
β̂1 = 0.0475
tn−2,α/2 = t198,0.025 = qt(1 - 0.025, df = 198) = 1.97
ŜE(β̂1) =
√
σ̂2∑n
i=1(xi−xn)2
→ necesitamos
σ̂ = RSE =
√
1
n−2
∑n
i=1 e
2
i
√∑n
i=1(xi − xn)2
35 / 39
IC para β1 en el ejemplo
IC = (β̂1 ± tn−2,α/2ŜE(β̂1))
Necesitamos...
β̂1 = 0.0475
tn−2,α/2 = t198,0.025 = qt(1 - 0.025, df = 198) = 1.97
ŜE(β̂1) =
√
σ̂2∑n
i=1(xi−xn)2
→ necesitamos
σ̂ = RSE =
√
1
n−2
∑n
i=1 e
2
i√∑n
i=1(xi − xn)2
35 / 39
RSE en summary
1 ajusteTV <- lm(sales ~ TV, data = datos)
2 summary(ajusteTV)
3 # Call:
4 # lm(formula = sales ~ TV, data = datos)
5 #
6 # Residuals:
7 # Min 1Q Median 3Q Max
8 # -8.3860 -1.9545 -0.1913 2.0671 7.2124
9 #
10 # Coefficients:
11 # Estimate Std. Error t value Pr(>t)
12 # (Intercept) 7.032594 0.457843 15.36 <2e-16 ***
13 # TV 0.047537 0.002691 17.67 <2e-16 ***
14 # ---
15 # Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’ 0.05 ’.’
0.1 ’ ’ 1
16 #
17 # Residual standard error: 3.259 on 198 degrees of freedom
18 # Multiple R-squared: 0.6119 , Adjusted R-squared:
0.6099
19 # F-statistic: 312.1 on 1 and 198 DF, p-value: < 2.2e-16
RSE = 3.259
36 / 39RSE en summary
1 ajusteTV <- lm(sales ~ TV, data = datos)
2 summary(ajusteTV)
3 # Call:
4 # lm(formula = sales ~ TV, data = datos)
5 #
6 # Residuals:
7 # Min 1Q Median 3Q Max
8 # -8.3860 -1.9545 -0.1913 2.0671 7.2124
9 #
10 # Coefficients:
11 # Estimate Std. Error t value Pr(>t)
12 # (Intercept) 7.032594 0.457843 15.36 <2e-16 ***
13 # TV 0.047537 0.002691 17.67 <2e-16 ***
14 # ---
15 # Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’ 0.05 ’.’
0.1 ’ ’ 1
16 #
17 # Residual standard error: 3.259 on 198 degrees of freedom
18 # Multiple R-squared: 0.6119 , Adjusted R-squared:
0.6099
19 # F-statistic: 312.1 on 1 and 198 DF, p-value: < 2.2e-16
RSE = 3.259
36 / 39
RSE y ŜE(β̂1) en summary
1 ajusteTV <- lm(sales ~ TV, data = datos)
2 summary(ajusteTV)
3 # Call:
4 # lm(formula = sales ~ TV, data = datos)
5 #
6 # Residuals:
7 # Min 1Q Median 3Q Max
8 # -8.3860 -1.9545 -0.1913 2.0671 7.2124
9 #
10 # Coefficients:
11 # Estimate Std. Error t value Pr(>t)
12 # (Intercept) 7.032594 0.457843 15.36 <2e-16 ***
13 # TV 0.047537 0.002691 17.67 <2e-16 ***
14 # ---
15 # Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’ 0.05 ’.’
0.1 ’ ’ 1
16 #
17 # Residual standard error: 3.259 on 198 degrees of freedom
18 # Multiple R-squared: 0.6119 , Adjusted R-squared:
0.6099
19 # F-statistic: 312.1 on 1 and 198 DF, p-value: < 2.2e-16
RSE = 3.259, ŜE(β̂1) = 0.002691
37 / 39
IC para β1 en el ejemplo
ICβ1(95%) = (0.0475± 1.970.0027) = (0.042, 0.053)
En R:
1 confint(ajusteTV)
2 #
3 # 2.5 % 97.5 %
4 # (Intercept) 6.12971927 7.93546783
5 # TV 0.04223072 0.05284256
Interpretación: por cada $1000 que aumenta la inversión en
publicidad en TV, las ventas predichas aumentan entre 42 y 53
unidades con un 95% de confianza.
38 / 39
IC para β1 en el ejemplo
ICβ1(95%) = (0.0475± 1.970.0027) = (0.042, 0.053)
En R:
1 confint(ajusteTV)
2 #
3 # 2.5 % 97.5 %
4 # (Intercept) 6.12971927 7.93546783
5 # TV 0.04223072 0.05284256
Interpretación: por cada $1000 que aumenta la inversión en
publicidad en TV, las ventas predichas aumentan entre 42 y 53
unidades con un 95% de confianza.
38 / 39
IC para β1 en el ejemplo
ICβ1(95%) = (0.0475± 1.970.0027) = (0.042, 0.053)
En R:
1 confint(ajusteTV)
2 #
3 # 2.5 % 97.5 %
4 # (Intercept) 6.12971927 7.93546783
5 # TV 0.04223072 0.05284256
Interpretación: por cada $1000 que aumenta la inversión en
publicidad en TV, las ventas predichas aumentan entre 42 y 53
unidades con un 95% de confianza.
38 / 39
Ejercicios de la práctica que pueden hacer
Práctica 5: Ej 1 a 5.
39 / 39

Continuar navegando