Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Inferencia Estad́ıstica Lućıa Babino Universidad Torcuato Di Tella 1 / 39 Bibliograf́ıa para esta clase ISLR (https://www.statlearning.com/), cap 3 (sec. 3.1.2) 2 / 39 Repaso 3 / 39 Modelo de Regresión Lineal Simple Yi = β0 + β1xi + ϵi 1 ≤ i ≤ n Supuestos: ϵ1, . . . , ϵn independientes E(ϵi) = 0 ∀i V(ϵi) = σ2 ∀i Parámetros: β0, β1: los estimamos p/ predecir (o explicar) Y en base a X σ2: los estimamos p/ cuantificar la incertidumbre de β̂0 y β̂1. 4 / 39 Modelo de Regresión Lineal Simple Yi = β0 + β1xi + ϵi 1 ≤ i ≤ n Supuestos: ϵ1, . . . , ϵn independientes E(ϵi) = 0 ∀i V(ϵi) = σ2 ∀i Parámetros: β0, β1: los estimamos p/ predecir (o explicar) Y en base a X σ2: los estimamos p/ cuantificar la incertidumbre de β̂0 y β̂1. 4 / 39 Modelo de Regresión Lineal Simple Yi = β0 + β1xi + ϵi 1 ≤ i ≤ n Supuestos: ϵ1, . . . , ϵn independientes E(ϵi) = 0 ∀i V(ϵi) = σ2 ∀i Parámetros: β0, β1: los estimamos p/ predecir (o explicar) Y en base a X σ2: los estimamos p/ cuantificar la incertidumbre de β̂0 y β̂1. 4 / 39 Modelo de Regresión Lineal Simple Yi = β0 + β1xi + ϵi 1 ≤ i ≤ n Supuestos: ϵ1, . . . , ϵn independientes E(ϵi) = 0 ∀i V(ϵi) = σ2 ∀i Parámetros: β0, β1: los estimamos p/ predecir (o explicar) Y en base a X σ2: los estimamos p/ cuantificar la incertidumbre de β̂0 y β̂1. 4 / 39 Modelo de Regresión Lineal Simple Yi = β0 + β1xi + ϵi 1 ≤ i ≤ n Supuestos: ϵ1, . . . , ϵn independientes E(ϵi) = 0 ∀i V(ϵi) = σ2 ∀i Parámetros: β0, β1: los estimamos p/ predecir (o explicar) Y en base a X σ2: los estimamos p/ cuantificar la incertidumbre de β̂0 y β̂1. 4 / 39 Modelo de Regresión Lineal Simple Yi = β0 + β1xi + ϵi 1 ≤ i ≤ n Supuestos: ϵ1, . . . , ϵn independientes E(ϵi) = 0 ∀i V(ϵi) = σ2 ∀i Parámetros: β0, β1: los estimamos p/ predecir (o explicar) Y en base a X σ2: los estimamos p/ cuantificar la incertidumbre de β̂0 y β̂1. 4 / 39 Estimadores de ḿınimos cuadrados Los estimadores de ḿınimos cuadrados (EMC) de (β0, β1) son los (β̂0, β̂1) que minimizan L(b0, b1) = n∑ i=1 [Yi − (b0 + b1xi)]2 β̂0 = Y n − β̂1xn β̂1 = ∑n i=1(xi − xn)(Yi − Y n)∑n i=1(xi − xn)2 5 / 39 Estimadores de ḿınimos cuadrados Los estimadores de ḿınimos cuadrados (EMC) de (β0, β1) son los (β̂0, β̂1) que minimizan L(b0, b1) = n∑ i=1 [Yi − (b0 + b1xi)]2 β̂0 = Y n − β̂1xn β̂1 = ∑n i=1(xi − xn)(Yi − Y n)∑n i=1(xi − xn)2 5 / 39 Clase de hoy 6 / 39 Rectas de regresión y de cuadrados ḿınimos Estimar a (β0, β1) nos sirve para predecir Y en base a X → ¿por qué? Recta de regresión: m(x) = β0 + β1x describe la “verdadera” relación entre X e Y desconocida Recta de ḿınimos cuadrados: m̂(x) = β̂0 + β̂1x estimación de la recta de regresión la recta que más se acerca a los puntos observados sirve para “predecir” el valor de Y para una x dada → ¿xq? 7 / 39 Rectas de regresión y de cuadrados ḿınimos Estimar a (β0, β1) nos sirve para predecir Y en base a X → ¿por qué? Recta de regresión: m(x) = β0 + β1x describe la “verdadera” relación entre X e Y desconocida Recta de ḿınimos cuadrados: m̂(x) = β̂0 + β̂1x estimación de la recta de regresión la recta que más se acerca a los puntos observados sirve para “predecir” el valor de Y para una x dada → ¿xq? 7 / 39 Rectas de regresión y de cuadrados ḿınimos Estimar a (β0, β1) nos sirve para predecir Y en base a X → ¿por qué? Recta de regresión: m(x) = β0 + β1x describe la “verdadera” relación entre X e Y desconocida Recta de ḿınimos cuadrados: m̂(x) = β̂0 + β̂1x estimación de la recta de regresión la recta que más se acerca a los puntos observados sirve para “predecir” el valor de Y para una x dada → ¿xq? 7 / 39 Rectas de regresión y de cuadrados ḿınimos Estimar a (β0, β1) nos sirve para predecir Y en base a X → ¿por qué? Recta de regresión: m(x) = β0 + β1x describe la “verdadera” relación entre X e Y desconocida Recta de ḿınimos cuadrados: m̂(x) = β̂0 + β̂1x estimación de la recta de regresión la recta que más se acerca a los puntos observados sirve para “predecir” el valor de Y para una x dada → ¿xq? 7 / 39 Rectas de regresión y de cuadrados ḿınimos Estimar a (β0, β1) nos sirve para predecir Y en base a X → ¿por qué? Recta de regresión: m(x) = β0 + β1x describe la “verdadera” relación entre X e Y desconocida Recta de ḿınimos cuadrados: m̂(x) = β̂0 + β̂1x estimación de la recta de regresión la recta que más se acerca a los puntos observados sirve para “predecir” el valor de Y para una x dada → ¿xq? 7 / 39 Rectas de regresión y de cuadrados ḿınimos Estimar a (β0, β1) nos sirve para predecir Y en base a X → ¿por qué? Recta de regresión: m(x) = β0 + β1x describe la “verdadera” relación entre X e Y desconocida Recta de ḿınimos cuadrados: m̂(x) = β̂0 + β̂1x estimación de la recta de regresión la recta que más se acerca a los puntos observados sirve para “predecir” el valor de Y para una x dada → ¿xq? 7 / 39 Rectas de regresión y de cuadrados ḿınimos Estimar a (β0, β1) nos sirve para predecir Y en base a X → ¿por qué? Recta de regresión: m(x) = β0 + β1x describe la “verdadera” relación entre X e Y desconocida Recta de ḿınimos cuadrados: m̂(x) = β̂0 + β̂1x estimación de la recta de regresión la recta que más se acerca a los puntos observados sirve para “predecir” el valor de Y para una x dada → ¿xq? 7 / 39 Rectas de regresión y de cuadrados ḿınimos Estimar a (β0, β1) nos sirve para predecir Y en base a X → ¿por qué? Recta de regresión: m(x) = β0 + β1x describe la “verdadera” relación entre X e Y desconocida Recta de ḿınimos cuadrados: m̂(x) = β̂0 + β̂1x estimación de la recta de regresión la recta que más se acerca a los puntos observados sirve para “predecir” el valor de Y para una x dada → ¿xq? 7 / 39 Rectas de regresión y de cuadrados ḿınimos Estimar a (β0, β1) nos sirve para predecir Y en base a X → ¿por qué? Recta de regresión: m(x) = β0 + β1x describe la “verdadera” relación entre X e Y desconocida Recta de ḿınimos cuadrados: m̂(x) = β̂0 + β̂1x estimación de la recta de regresión la recta que más se acerca a los puntos observados sirve para “predecir” el valor de Y para una x dada → ¿xq? 7 / 39 Rectas de regresión y de cuadrados ḿınimos Estimar a (β0, β1) nos sirve para predecir Y en base a X → ¿por qué? Recta de regresión: m(x) = β0 + β1x describe la “verdadera” relación entre X e Y desconocida Recta de ḿınimos cuadrados: m̂(x) = β̂0 + β̂1x estimación de la recta de regresión la recta que más se acerca a los puntos observados sirve para “predecir” el valor de Y para una x dada → ¿xq? 7 / 39 Predicción de Y en base a x usando el modelo Supongamos que queremos predecir las ventas cuando invierto $80 mil en TV. Según el modelo Y = β0 + β180 + ϵ No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y 0. Ŷ80 = β̂0 + β̂180 = m̂(80) ↑ predicción (o valor predicho) de Y cuando x = 80 Hablamos de... Estimación: cuando a aproximamos el valor de un parámetro Predicción: cuando a aproximamos el valor de una v. a. Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué? 8 / 39 Predicción de Y en base a x usando el modelo Supongamos que queremos predecir las ventas cuando invierto $80 mil en TV. Según el modelo Y = β0 + β180 + ϵ No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y 0. Ŷ80 = β̂0 + β̂180 = m̂(80) ↑ predicción (o valor predicho) de Y cuando x = 80 Hablamos de... Estimación: cuando a aproximamos el valor de un parámetro Predicción: cuando a aproximamos el valor de una v. a. Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué? 8 / 39 Predicción de Y en base a x usando el modelo Supongamos que queremos predecir las ventas cuando invierto $80 mil en TV. Según el modelo Y = β0 + β180 + ϵ No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y 0. Ŷ80 = β̂0 + β̂180 = m̂(80) ↑ predicción (o valor predicho) de Y cuando x = 80 Hablamos de... Estimación: cuando a aproximamosel valor de un parámetro Predicción: cuando a aproximamos el valor de una v. a. Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué? 8 / 39 Predicción de Y en base a x usando el modelo Supongamos que queremos predecir las ventas cuando invierto $80 mil en TV. Según el modelo Y = β0 + β180 + ϵ No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y 0. Ŷ80 = β̂0 + β̂180 = m̂(80) ↑ predicción (o valor predicho) de Y cuando x = 80 Hablamos de... Estimación: cuando a aproximamos el valor de un parámetro Predicción: cuando a aproximamos el valor de una v. a. Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué? 8 / 39 Predicción de Y en base a x usando el modelo Supongamos que queremos predecir las ventas cuando invierto $80 mil en TV. Según el modelo Y = β0 + β180 + ϵ No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y 0. Ŷ80 = β̂0 + β̂180 = m̂(80) ↑ predicción (o valor predicho) de Y cuando x = 80 Hablamos de... Estimación: cuando a aproximamos el valor de un parámetro Predicción: cuando a aproximamos el valor de una v. a. Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué? 8 / 39 Predicción de Y en base a x usando el modelo Supongamos que queremos predecir las ventas cuando invierto $80 mil en TV. Según el modelo Y = β0 + β180 + ϵ No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y 0. Ŷ80 = β̂0 + β̂180 = m̂(80) ↑ predicción (o valor predicho) de Y cuando x = 80 Hablamos de... Estimación: cuando a aproximamos el valor de un parámetro Predicción: cuando a aproximamos el valor de una v. a. Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué? 8 / 39 Predicción de Y en base a x usando el modelo Supongamos que queremos predecir las ventas cuando invierto $80 mil en TV. Según el modelo Y = β0 + β180 + ϵ No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y 0. Ŷ80 = β̂0 + β̂180 = m̂(80) ↑ predicción (o valor predicho) de Y cuando x = 80 Hablamos de... Estimación: cuando a aproximamos el valor de un parámetro Predicción: cuando a aproximamos el valor de una v. a. Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué? 8 / 39 Predicción de Y en base a x usando el modelo Supongamos que queremos predecir las ventas cuando invierto $80 mil en TV. Según el modelo Y = β0 + β180 + ϵ No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y 0. Ŷ80 = β̂0 + β̂180 = m̂(80) ↑ predicción (o valor predicho) de Y cuando x = 80 Hablamos de... Estimación: cuando a aproximamos el valor de un parámetro Predicción: cuando a aproximamos el valor de una v. a. Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué? 8 / 39 Predicción de Y en base a x usando el modelo Supongamos que queremos predecir las ventas cuando invierto $80 mil en TV. Según el modelo Y = β0 + β180 + ϵ No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y 0. Ŷ80 = β̂0 + β̂180 = m̂(80) ↑ predicción (o valor predicho) de Y cuando x = 80 Hablamos de... Estimación: cuando a aproximamos el valor de un parámetro Predicción: cuando a aproximamos el valor de una v. a. Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué? 8 / 39 Predicción de Y en base a x usando el modelo Supongamos que queremos predecir las ventas cuando invierto $80 mil en TV. Según el modelo Y = β0 + β180 + ϵ No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y 0. Ŷ80 = β̂0 + β̂180 = m̂(80) ↑ predicción (o valor predicho) de Y cuando x = 80 Hablamos de... Estimación: cuando a aproximamos el valor de un parámetro Predicción: cuando a aproximamos el valor de una v. a. Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué? 8 / 39 Predicción de Y en base a x usando el modelo Supongamos que queremos predecir las ventas cuando invierto $80 mil en TV. Según el modelo Y = β0 + β180 + ϵ No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y 0. Ŷ80 = β̂0 + β̂180 = m̂(80) ↑ predicción (o valor predicho) de Y cuando x = 80 Hablamos de... Estimación: cuando a aproximamos el valor de un parámetro Predicción: cuando a aproximamos el valor de una v. a. Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué? 8 / 39 Predicción de Y en base a x usando el modelo Supongamos que queremos predecir las ventas cuando invierto $80 mil en TV. Según el modelo Y = β0 + β180 + ϵ No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y 0. Ŷ80 = β̂0 + β̂180 = m̂(80) ↑ predicción (o valor predicho) de Y cuando x = 80 Hablamos de... Estimación: cuando a aproximamos el valor de un parámetro Predicción: cuando a aproximamos el valor de una v. a. Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué? 8 / 39 Predicción de Y en base a x usando el modelo Supongamos que queremos predecir las ventas cuando invierto $80 mil en TV. Según el modelo Y = β0 + β180 + ϵ No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y 0. Ŷ80 = β̂0 + β̂180 = m̂(80) ↑ predicción (o valor predicho) de Y cuando x = 80 Hablamos de... Estimación: cuando a aproximamos el valor de un parámetro Predicción: cuando a aproximamos el valor de una v. a. Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué? 8 / 39 Predicción de Y en base a x usando el modelo Supongamos que queremos predecir las ventas cuando invierto $80 mil en TV. Según el modelo Y = β0 + β180 + ϵ No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y 0. Ŷ80 = β̂0 + β̂180 = m̂(80) ↑ predicción (o valor predicho) de Y cuando x = 80 Hablamos de... Estimación: cuando a aproximamos el valor de un parámetro Predicción: cuando a aproximamos el valor de una v. a. Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué? 8 / 39 Predicción de Y en base a x usando el modelo Supongamos que queremos predecir las ventas cuando invierto $80 mil en TV. Según el modelo Y = β0 + β180 + ϵ No conocemos β0, β1 ni ϵ ⇒ los reemplazamos por β̂0, β̂1 y 0. Ŷ80 = β̂0 + β̂180 = m̂(80) ↑ predicción (o valor predicho) de Y cuando x = 80 Hablamos de... Estimación: cuando a aproximamos el valor de un parámetro Predicción: cuando a aproximamos el valor de una v. a. Obs.: Ŷ80 = Ê(Y ) cuando x = 80 → ¿por qué? 8 / 39 Interpretación de los EMC m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos β̂0 ordenada al origen de la recta de cuadrados ḿınimos valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando x = 0 ↑ Ejemplo: valor predicho de las ventas cuando invierto $0 en TV en general no es de interés en ocasiones no tiene sentido (Ej.: Y = altura, X = peso) β̂1 pendiente de la recta de cuadrados ḿınimos incremento en el valor predicho de Y cuando x aumenta una unidad ↑ Ejemplo: aumento predicho de las ventas cuando aumento $1000 la inversión en TV o bien estimación del aumento esperado de las ventas cuando aumento $1000 la inv. en TV. 9 / 39 Interpretación de los EMC m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos β̂0 ordenada al origen de la recta de cuadrados ḿınimos valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando x = 0 ↑ Ejemplo: valor predicho de las ventas cuando invierto $0 en TV en general no es de interés en ocasiones no tiene sentido (Ej.: Y = altura, X = peso) β̂1 pendiente de la recta de cuadrados ḿınimos incremento en el valor predicho de Y cuando x aumenta una unidad ↑ Ejemplo: aumento predicho de las ventas cuando aumento $1000 la inversión en TV o bien estimación del aumento esperado de las ventas cuando aumento $1000 la inv. en TV. 9 / 39 Interpretación de los EMC m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos β̂0 ordenada al origen de la recta de cuadrados ḿınimos valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando x = 0 ↑ Ejemplo: valor predicho de las ventas cuando invierto $0 en TV en general no es de interés en ocasiones no tiene sentido (Ej.: Y = altura, X = peso) β̂1 pendiente de la recta de cuadrados ḿınimos incremento en el valor predicho de Y cuando x aumenta una unidad ↑ Ejemplo: aumento predicho de las ventas cuando aumento $1000 la inversión en TV o bien estimación del aumento esperado de las ventas cuando aumento $1000 lainv. en TV. 9 / 39 Interpretación de los EMC m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos β̂0 ordenada al origen de la recta de cuadrados ḿınimos valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando x = 0 ↑ Ejemplo: valor predicho de las ventas cuando invierto $0 en TV en general no es de interés en ocasiones no tiene sentido (Ej.: Y = altura, X = peso) β̂1 pendiente de la recta de cuadrados ḿınimos incremento en el valor predicho de Y cuando x aumenta una unidad ↑ Ejemplo: aumento predicho de las ventas cuando aumento $1000 la inversión en TV o bien estimación del aumento esperado de las ventas cuando aumento $1000 la inv. en TV. 9 / 39 Interpretación de los EMC m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos β̂0 ordenada al origen de la recta de cuadrados ḿınimos valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando x = 0 ↑ Ejemplo: valor predicho de las ventas cuando invierto $0 en TV en general no es de interés en ocasiones no tiene sentido (Ej.: Y = altura, X = peso) β̂1 pendiente de la recta de cuadrados ḿınimos incremento en el valor predicho de Y cuando x aumenta una unidad ↑ Ejemplo: aumento predicho de las ventas cuando aumento $1000 la inversión en TV o bien estimación del aumento esperado de las ventas cuando aumento $1000 la inv. en TV. 9 / 39 Interpretación de los EMC m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos β̂0 ordenada al origen de la recta de cuadrados ḿınimos valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando x = 0 ↑ Ejemplo: valor predicho de las ventas cuando invierto $0 en TV en general no es de interés en ocasiones no tiene sentido (Ej.: Y = altura, X = peso) β̂1 pendiente de la recta de cuadrados ḿınimos incremento en el valor predicho de Y cuando x aumenta una unidad ↑ Ejemplo: aumento predicho de las ventas cuando aumento $1000 la inversión en TV o bien estimación del aumento esperado de las ventas cuando aumento $1000 la inv. en TV. 9 / 39 Interpretación de los EMC m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos β̂0 ordenada al origen de la recta de cuadrados ḿınimos valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando x = 0 ↑ Ejemplo: valor predicho de las ventas cuando invierto $0 en TV en general no es de interés en ocasiones no tiene sentido (Ej.: Y = altura, X = peso) β̂1 pendiente de la recta de cuadrados ḿınimos incremento en el valor predicho de Y cuando x aumenta una unidad ↑ Ejemplo: aumento predicho de las ventas cuando aumento $1000 la inversión en TV o bien estimación del aumento esperado de las ventas cuando aumento $1000 la inv. en TV. 9 / 39 Interpretación de los EMC m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos β̂0 ordenada al origen de la recta de cuadrados ḿınimos valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando x = 0 ↑ Ejemplo: valor predicho de las ventas cuando invierto $0 en TV en general no es de interés en ocasiones no tiene sentido (Ej.: Y = altura, X = peso) β̂1 pendiente de la recta de cuadrados ḿınimos incremento en el valor predicho de Y cuando x aumenta una unidad ↑ Ejemplo: aumento predicho de las ventas cuando aumento $1000 la inversión en TV o bien estimación del aumento esperado de las ventas cuando aumento $1000 la inv. en TV. 9 / 39 Interpretación de los EMC m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos β̂0 ordenada al origen de la recta de cuadrados ḿınimos valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando x = 0 ↑ Ejemplo: valor predicho de las ventas cuando invierto $0 en TV en general no es de interés en ocasiones no tiene sentido (Ej.: Y = altura, X = peso) β̂1 pendiente de la recta de cuadrados ḿınimos incremento en el valor predicho de Y cuando x aumenta una unidad ↑ Ejemplo: aumento predicho de las ventas cuando aumento $1000 la inversión en TV o bien estimación del aumento esperado de las ventas cuando aumento $1000 la inv. en TV. 9 / 39 Interpretación de los EMC m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos β̂0 ordenada al origen de la recta de cuadrados ḿınimos valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando x = 0 ↑ Ejemplo: valor predicho de las ventas cuando invierto $0 en TV en general no es de interés en ocasiones no tiene sentido (Ej.: Y = altura, X = peso) β̂1 pendiente de la recta de cuadrados ḿınimos incremento en el valor predicho de Y cuando x aumenta una unidad ↑ Ejemplo: aumento predicho de las ventas cuando aumento $1000 la inversión en TV o bien estimación del aumento esperado de las ventas cuando aumento $1000 la inv. en TV. 9 / 39 Interpretación de los EMC m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos β̂0 ordenada al origen de la recta de cuadrados ḿınimos valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando x = 0 ↑ Ejemplo: valor predicho de las ventas cuando invierto $0 en TV en general no es de interés en ocasiones no tiene sentido (Ej.: Y = altura, X = peso) β̂1 pendiente de la recta de cuadrados ḿınimos incremento en el valor predicho de Y cuando x aumenta una unidad ↑ Ejemplo: aumento predicho de las ventas cuando aumento $1000 la inversión en TV o bien estimación del aumento esperado de las ventas cuando aumento $1000 la inv. en TV. 9 / 39 Interpretación de los EMC m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos β̂0 ordenada al origen de la recta de cuadrados ḿınimos valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando x = 0 ↑ Ejemplo: valor predicho de las ventas cuando invierto $0 en TV en general no es de interés en ocasiones no tiene sentido (Ej.: Y = altura, X = peso) β̂1 pendiente de la recta de cuadrados ḿınimos incremento en el valor predicho de Y cuando x aumenta una unidad ↑ Ejemplo: aumento predicho de las ventas cuando aumento $1000 la inversión en TV o bien estimación del aumento esperado de las ventas cuando aumento $1000 la inv. en TV. 9 / 39 Interpretación de los EMC m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos β̂0 ordenada al origen de la recta de cuadrados ḿınimos valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando x = 0 ↑ Ejemplo: valor predicho de las ventas cuando invierto $0 en TV en general no es de interés en ocasiones no tiene sentido (Ej.: Y = altura, X = peso) β̂1 pendiente de la recta de cuadrados ḿınimos incremento en el valor predicho de Y cuando x aumenta una unidad ↑ Ejemplo: aumento predicho de las ventas cuando aumento $1000 la inversión en TV o bien estimación del aumento esperado de las ventas cuando aumento $1000 la inv. en TV. 9 / 39 Interpretación de los EMC m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos β̂0 ordenada al origen de la recta de cuadrados ḿınimos valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando x = 0 ↑ Ejemplo: valor predicho de las ventas cuando invierto $0 en TV en general no es de interés en ocasiones no tiene sentido (Ej.: Y = altura, X = peso) β̂1 pendiente de la recta de cuadrados ḿınimos incremento en el valor predicho de Y cuando x aumenta una unidad ↑ Ejemplo: aumento predicho de las ventas cuando aumento $1000 la inversión en TV o bien estimación del aumento esperado de las ventas cuando aumento $1000 la inv. en TV. 9 / 39 Interpretación de los EMC m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos β̂0 ordenada al origen de la recta de cuadrados ḿınimos valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando x = 0 ↑ Ejemplo: valor predicho de las ventas cuando invierto $0 en TV en general no es de interés en ocasiones no tiene sentido (Ej.: Y = altura, X = peso) β̂1 pendiente de la recta de cuadrados ḿınimos incremento en el valor predicho de Y cuando x aumenta una unidad ↑ Ejemplo: aumento predicho de las ventas cuando aumento $1000 la inversión en TV o bien estimación del aumento esperado de las ventas cuando aumento $1000 la inv. en TV. 9 / 39 Interpretación de los EMC m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos β̂0 ordenada al origen de la recta de cuadrados ḿınimos valor predicho de Y cuando x = 0 (Ŷ0) o bienÊ(Y ) cuando x = 0 ↑ Ejemplo: valor predicho de las ventas cuando invierto $0 en TV en general no es de interés en ocasiones no tiene sentido (Ej.: Y = altura, X = peso) β̂1 pendiente de la recta de cuadrados ḿınimos incremento en el valor predicho de Y cuando x aumenta una unidad ↑ Ejemplo: aumento predicho de las ventas cuando aumento $1000 la inversión en TV o bien estimación del aumento esperado de las ventas cuando aumento $1000 la inv. en TV. 9 / 39 Interpretación de los EMC m̂(x) = β̂0 + β̂1x → recta de cuadrados ḿınimos β̂0 ordenada al origen de la recta de cuadrados ḿınimos valor predicho de Y cuando x = 0 (Ŷ0) o bien Ê(Y ) cuando x = 0 ↑ Ejemplo: valor predicho de las ventas cuando invierto $0 en TV en general no es de interés en ocasiones no tiene sentido (Ej.: Y = altura, X = peso) β̂1 pendiente de la recta de cuadrados ḿınimos incremento en el valor predicho de Y cuando x aumenta una unidad ↑ Ejemplo: aumento predicho de las ventas cuando aumento $1000 la inversión en TV o bien estimación del aumento esperado de las ventas cuando aumento $1000 la inv. en TV. 9 / 39 Implementación en R 1 setwd("C:/InferenciaEstadistica/datos") 2 datos <- read.csv("Advertising.csv") 3 ajusteTV <- lm(sales ~ TV, data = datos) 4 summary(ajusteTV) 5 6 # Call: 7 # lm(formula = sales ~ TV, data = datos) 8 # 9 # Residuals: 10 # Min 1Q Median 3Q Max 11 # -8.3860 -1.9545 -0.1913 2.0671 7.2124 12 # 13 # Coefficients: 14 # Estimate Std. Error t value Pr(>t) 15 # (Intercept) 7.032594 0.457843 15.36 <2e-16 *** 16 # TV 0.047537 0.002691 17.67 <2e-16 *** 17 # --- 18 # Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’ 0.05 ’.’ 0.1 ’ ’ 1 19 # 20 # Residual standard error: 3.259 on 198 degrees of freedom 21 # Multiple R-squared: 0.6119 , Adjusted R-squared: 0.6099 22 # F-statistic: 312.1 on 1 and 198 DF, p-value: < 2.2e-16 10 / 39 Implementación en R 1 2 # Coefficients: 3 # Estimate Std. Error t value Pr(>t) 4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 *** 5 # TV 0.047537 0.002691 17.67 <2e-16 *** 6 # --- EMC: β̂0 = 7.032594 y β̂1 = 0.047537 Interpretación: β̂0: cuando invierto $0 en TV las ventas predichas son 7032.594 unidades (o bien, las ventas esperadas son aproximadamente 7032.594 unidades). β̂1: cuando se incrementa en $1000 la inversión en publicidad en TV, las ventas predichas aumentan en 47.537 unidades (o bien, las ventas esperadas aumentan en 47.537 unidades aproximadamente). 11 / 39 Implementación en R 1 2 # Coefficients: 3 # Estimate Std. Error t value Pr(>t) 4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 *** 5 # TV 0.047537 0.002691 17.67 <2e-16 *** 6 # --- EMC: β̂0 = 7.032594 y β̂1 = 0.047537 Interpretación: β̂0: cuando invierto $0 en TV las ventas predichas son 7032.594 unidades (o bien, las ventas esperadas son aproximadamente 7032.594 unidades). β̂1: cuando se incrementa en $1000 la inversión en publicidad en TV, las ventas predichas aumentan en 47.537 unidades (o bien, las ventas esperadas aumentan en 47.537 unidades aproximadamente). 11 / 39 Implementación en R 1 2 # Coefficients: 3 # Estimate Std. Error t value Pr(>t) 4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 *** 5 # TV 0.047537 0.002691 17.67 <2e-16 *** 6 # --- EMC: β̂0 = 7.032594 y β̂1 = 0.047537 Interpretación: β̂0: cuando invierto $0 en TV las ventas predichas son 7032.594 unidades (o bien, las ventas esperadas son aproximadamente 7032.594 unidades). β̂1: cuando se incrementa en $1000 la inversión en publicidad en TV, las ventas predichas aumentan en 47.537 unidades (o bien, las ventas esperadas aumentan en 47.537 unidades aproximadamente). 11 / 39 Implementación en R 1 2 # Coefficients: 3 # Estimate Std. Error t value Pr(>t) 4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 *** 5 # TV 0.047537 0.002691 17.67 <2e-16 *** 6 # --- EMC: β̂0 = 7.032594 y β̂1 = 0.047537 Interpretación: β̂0: cuando invierto $0 en TV las ventas predichas son 7032.594 unidades (o bien, las ventas esperadas son aproximadamente 7032.594 unidades). β̂1: cuando se incrementa en $1000 la inversión en publicidad en TV, las ventas predichas aumentan en 47.537 unidades (o bien, las ventas esperadas aumentan en 47.537 unidades aproximadamente). 11 / 39 Implementación en R 1 2 # Coefficients: 3 # Estimate Std. Error t value Pr(>t) 4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 *** 5 # TV 0.047537 0.002691 17.67 <2e-16 *** 6 # --- EMC: β̂0 = 7.032594 y β̂1 = 0.047537 Interpretación: β̂0: cuando invierto $0 en TV las ventas predichas son 7032.594 unidades (o bien, las ventas esperadas son aproximadamente 7032.594 unidades). β̂1: cuando se incrementa en $1000 la inversión en publicidad en TV, las ventas predichas aumentan en 47.537 unidades (o bien, las ventas esperadas aumentan en 47.537 unidades aproximadamente). 11 / 39 Implementación en R 1 2 # Coefficients: 3 # Estimate Std. Error t value Pr(>t) 4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 *** 5 # TV 0.047537 0.002691 17.67 <2e-16 *** 6 # --- EMC: β̂0 = 7.032594 y β̂1 = 0.047537 Interpretación: β̂0: cuando invierto $0 en TV las ventas predichas son 7032.594 unidades (o bien, las ventas esperadas son aproximadamente 7032.594 unidades). β̂1: cuando se incrementa en $1000 la inversión en publicidad en TV, las ventas predichas aumentan en 47.537 unidades (o bien, las ventas esperadas aumentan en 47.537 unidades aproximadamente). 11 / 39 Implementación en R 1 2 # Coefficients: 3 # Estimate Std. Error t value Pr(>t) 4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 *** 5 # TV 0.047537 0.002691 17.67 <2e-16 *** 6 # --- EMC: β̂0 = 7.032594 y β̂1 = 0.047537 Interpretación: β̂0: cuando invierto $0 en TV las ventas predichas son 7032.594 unidades (o bien, las ventas esperadas son aproximadamente 7032.594 unidades). β̂1: cuando se incrementa en $1000 la inversión en publicidad en TV, las ventas predichas aumentan en 47.537 unidades (o bien, las ventas esperadas aumentan en 47.537 unidades aproximadamente). 11 / 39 Implementación en R 1 2 # Coefficients: 3 # Estimate Std. Error t value Pr(>t) 4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 *** 5 # TV 0.047537 0.002691 17.67 <2e-16 *** 6 # --- EMC: β̂0 = 7.032594 y β̂1 = 0.047537 Interpretación: β̂0: cuando invierto $0 en TV las ventas predichas son 7032.594 unidades (o bien, las ventas esperadas son aproximadamente 7032.594 unidades). β̂1: cuando se incrementa en $1000 la inversión en publicidad en TV, las ventas predichas aumentan en 47.537 unidades (o bien, las ventas esperadas aumentan en 47.537 unidades aproximadamente). 11 / 39 Implementación en R 1 2 # Coefficients: 3 # Estimate Std. Error t value Pr(>t) 4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 *** 5 # TV 0.047537 0.002691 17.67 <2e-16 *** 6 # --- EMC: β̂0 = 7.032594 y β̂1 = 0.047537 Interpretación: β̂0: cuando invierto $0 en TV las ventas predichas son 7032.594 unidades (o bien, las ventas esperadas son aproximadamente 7032.594 unidades). β̂1: cuando se incrementa en $1000 la inversión en publicidad en TV, las ventas predichas aumentan en 47.537 unidades (o bien, las ventas esperadas aumentan en 47.537 unidades aproximadamente). 11 / 39 Implementación en R 1 2 # Coefficients: 3 # Estimate Std. Error t value Pr(>t) 4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 *** 5 # TV 0.047537 0.002691 17.67 <2e-16 *** 6 # --- EMC: β̂0 = 7.032594 y β̂1 = 0.047537 Predicción (ejemplo): cuando invierto $3000 en TV, ¿cuánto predice el modelo que será el valor de las ventas? Ŷ3 = 7.033 + 0.048 . 3 = 7.175 7175 unidades. 12 / 39 Implementación en R 1 2 # Coefficients: 3 # Estimate Std. Error t value Pr(>t) 4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 *** 5 # TV 0.047537 0.002691 17.67 <2e-16 *** 6 # --- EMC: β̂0 = 7.032594 y β̂1 = 0.047537 Predicción (ejemplo): cuando invierto $3000 en TV, ¿cuánto predice el modelo que será el valor de las ventas? Ŷ3 = 7.033 + 0.048 . 3 = 7.175 7175 unidades. 12 / 39 Implementaciónen R 1 2 # Coefficients: 3 # Estimate Std. Error t value Pr(>t) 4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 *** 5 # TV 0.047537 0.002691 17.67 <2e-16 *** 6 # --- EMC: β̂0 = 7.032594 y β̂1 = 0.047537 Predicción (ejemplo): cuando invierto $3000 en TV, ¿cuánto predice el modelo que será el valor de las ventas? Ŷ3 = 7.033 + 0.048 . 3 = 7.175 7175 unidades. 12 / 39 Implementación en R 1 2 # Coefficients: 3 # Estimate Std. Error t value Pr(>t) 4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 *** 5 # TV 0.047537 0.002691 17.67 <2e-16 *** 6 # --- EMC: β̂0 = 7.032594 y β̂1 = 0.047537 Predicción (ejemplo): cuando invierto $3000 en TV, ¿cuánto predice el modelo que será el valor de las ventas? Ŷ3 = 7.033 + 0.048 . 3 = 7.175 7175 unidades. 12 / 39 Implementación en R 1 2 # Coefficients: 3 # Estimate Std. Error t value Pr(>t) 4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 *** 5 # TV 0.047537 0.002691 17.67 <2e-16 *** 6 # --- EMC: β̂0 = 7.032594 y β̂1 = 0.047537 Predicción (ejemplo): cuando invierto $3000 en TV, ¿cuánto predice el modelo que será el valor de las ventas? Ŷ3 = 7.033 + 0.048 . 3 = 7.175 7175 unidades. 12 / 39 Implementación en R 1 2 # Coefficients: 3 # Estimate Std. Error t value Pr(>t) 4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 *** 5 # TV 0.047537 0.002691 17.67 <2e-16 *** 6 # --- EMC: β̂0 = 7.032594 y β̂1 = 0.047537 Predicción (ejemplo): cuando invierto $3000 en TV, ¿cuánto predice el modelo que será el valor de las ventas? Ŷ3 = 7.033 + 0.048 . 3 = 7.175 7175 unidades. 12 / 39 Implementación en R 1 2 # Coefficients: 3 # Estimate Std. Error t value Pr(>t) 4 # (Intercept) 7.032594 0.457843 15.36 <2e-16 *** 5 # TV 0.047537 0.002691 17.67 <2e-16 *** 6 # --- EMC: β̂0 = 7.032594 y β̂1 = 0.047537 Predicción (ejemplo): cuando invierto $3000 en TV, ¿cuánto predice el modelo que será el valor de las ventas? Ŷ3 = 7.033 + 0.048 . 3 = 7.175 7175 unidades. 12 / 39 Preguntas importantes Intentaremos responder... 3 ¿Qué medios están asociados con las ventas? 4 ¿Cuán alta es la asociación entre cada medio y las ventas? Por ahora sólo tenemos TV ⇒ vamos a responder ... 3 ¿TV está asociado con las ventas? 4 ¿Cuán alta es la asociación entre TV y las ventas? 13 / 39 Preguntas importantes Intentaremos responder... 3 ¿Qué medios están asociados con las ventas? 4 ¿Cuán alta es la asociación entre cada medio y las ventas? Por ahora sólo tenemos TV ⇒ vamos a responder ... 3 ¿TV está asociado con las ventas? 4 ¿Cuán alta es la asociación entre TV y las ventas? 13 / 39 Preguntas importantes Intentaremos responder... 3 ¿Qué medios están asociados con las ventas? 4 ¿Cuán alta es la asociación entre cada medio y las ventas? Por ahora sólo tenemos TV ⇒ vamos a responder ... 3 ¿TV está asociado con las ventas? 4 ¿Cuán alta es la asociación entre TV y las ventas? 13 / 39 Preguntas importantes Intentaremos responder... 3 ¿Qué medios están asociados con las ventas? 4 ¿Cuán alta es la asociación entre cada medio y las ventas? Por ahora sólo tenemos TV ⇒ vamos a responder ... 3 ¿TV está asociado con las ventas? 4 ¿Cuán alta es la asociación entre TV y las ventas? 13 / 39 Preguntas importantes Intentaremos responder... 3 ¿Qué medios están asociados con las ventas? 4 ¿Cuán alta es la asociación entre cada medio y las ventas? Por ahora sólo tenemos TV ⇒ vamos a responder ... 3 ¿TV está asociado con las ventas? 4 ¿Cuán alta es la asociación entre TV y las ventas? 13 / 39 Preguntas importantes Intentaremos responder... 3 ¿Qué medios están asociados con las ventas? 4 ¿Cuán alta es la asociación entre cada medio y las ventas? Por ahora sólo tenemos TV ⇒ vamos a responder ... 3 ¿TV está asociado con las ventas? 4 ¿Cuán alta es la asociación entre TV y las ventas? 13 / 39 Preguntas importantes Intentaremos responder... 3 ¿Qué medios están asociados con las ventas? 4 ¿Cuán alta es la asociación entre cada medio y las ventas? Por ahora sólo tenemos TV ⇒ vamos a responder ... 3 ¿TV está asociado con las ventas? 4 ¿Cuán alta es la asociación entre TV y las ventas? 13 / 39 3. ¿TV está asociado con las ventas? Pregunta: ¿β1 ̸= 0? ⇒ necesitamos un test para H0 : β1 = 0 vs. H1 : β1 ̸= 0 β̂1 = 0.048 Estructura del estad́ıstico: T = β̂1 SE(β̂1) ó β̂1 ŜE(β̂1) ⇒ necesitamos SE(β̂1) 14 / 39 3. ¿TV está asociado con las ventas? Pregunta: ¿β1 ̸= 0? ⇒ necesitamos un test para H0 : β1 = 0 vs. H1 : β1 ̸= 0 β̂1 = 0.048 Estructura del estad́ıstico: T = β̂1 SE(β̂1) ó β̂1 ŜE(β̂1) ⇒ necesitamos SE(β̂1) 14 / 39 3. ¿TV está asociado con las ventas? Pregunta: ¿β1 ̸= 0? ⇒ necesitamos un test para H0 : β1 = 0 vs. H1 : β1 ̸= 0 β̂1 = 0.048 Estructura del estad́ıstico: T = β̂1 SE(β̂1) ó β̂1 ŜE(β̂1) ⇒ necesitamos SE(β̂1) 14 / 39 3. ¿TV está asociado con las ventas? Pregunta: ¿β1 ̸= 0? ⇒ necesitamos un test para H0 : β1 = 0 vs. H1 : β1 ̸= 0 β̂1 = 0.048 Estructura del estad́ıstico: T = β̂1 SE(β̂1) ó β̂1 ŜE(β̂1) ⇒ necesitamos SE(β̂1) 14 / 39 3. ¿TV está asociado con las ventas? Pregunta: ¿β1 ̸= 0? ⇒ necesitamos un test para H0 : β1 = 0 vs. H1 : β1 ̸= 0 β̂1 = 0.048 Estructura del estad́ıstico: T = β̂1 SE(β̂1) ó β̂1 ŜE(β̂1) ⇒ necesitamos SE(β̂1) 14 / 39 3. ¿TV está asociado con las ventas? Pregunta: ¿β1 ̸= 0? ⇒ necesitamos un test para H0 : β1 = 0 vs. H1 : β1 ̸= 0 β̂1 = 0.048 Estructura del estad́ıstico: T = β̂1 SE(β̂1) ó β̂1 ŜE(β̂1) ⇒ necesitamos SE(β̂1) 14 / 39 3. ¿TV está asociado con las ventas? Pregunta: ¿β1 ̸= 0? ⇒ necesitamos un test para H0 : β1 = 0 vs. H1 : β1 ̸= 0 β̂1 = 0.048 Estructura del estad́ıstico: T = β̂1 SE(β̂1) ó β̂1 ŜE(β̂1) ⇒ necesitamos SE(β̂1) 14 / 39 4. ¿Cuán alta es la asociación entre TV y las ventas? Pregunta: por cada dolar gastado, ¿cuánto espero (o predigo) que aumenten las ventas? Depende de la magnitud de β1, no sólo me importa si β1 ̸= 0, si no cuál es su magnitud ⇒ necesitamos estimar a β1 mediante β̂1 y un IC. Estructura del Pivote: P = β̂1 − β1 SE(β̂1) ó β̂1 − β1 ŜE(β̂1) ⇒ necesitamos SE(β̂1) . 15 / 39 4. ¿Cuán alta es la asociación entre TV y las ventas? Pregunta: por cada dolar gastado, ¿cuánto espero (o predigo) que aumenten las ventas? Depende de la magnitud de β1, no sólo me importa si β1 ̸= 0, si no cuál es su magnitud ⇒ necesitamos estimar a β1 mediante β̂1 y un IC. Estructura del Pivote: P = β̂1 − β1 SE(β̂1) ó β̂1 − β1 ŜE(β̂1) ⇒ necesitamos SE(β̂1) . 15 / 39 4. ¿Cuán alta es la asociación entre TV y las ventas? Pregunta: por cada dolar gastado, ¿cuánto espero (o predigo) que aumenten las ventas? Depende de la magnitud de β1, no sólo me importa si β1 ̸= 0, si no cuál es su magnitud ⇒ necesitamos estimar a β1 mediante β̂1 y un IC. Estructura del Pivote: P = β̂1 − β1 SE(β̂1) ó β̂1 − β1 ŜE(β̂1) ⇒ necesitamos SE(β̂1) . 15 / 39 4. ¿Cuán alta es la asociación entre TV y las ventas? Pregunta: por cada dolar gastado, ¿cuánto espero (o predigo) que aumenten las ventas? Depende de la magnitud de β1, no sólo me importa si β1 ̸= 0, si no cuál es su magnitud ⇒ necesitamos estimar a β1 mediante β̂1 y un IC. Estructura del Pivote: P = β̂1 − β1 SE(β̂1) ó β̂1 − β1 ŜE(β̂1) ⇒ necesitamos SE(β̂1) . 15 / 39 4. ¿Cuán alta es la asociación entre TV y las ventas? Pregunta: por cada dolar gastado, ¿cuánto espero (o predigo) que aumenten las ventas? Depende de la magnitud de β1, no sólo me importa si β1 ̸= 0, si no cuál es su magnitud ⇒ necesitamos estimar a β1 mediante β̂1 y un IC. Estructura del Pivote: P = β̂1 − β1 SE(β̂1) ó β̂1 − β1 ŜE(β̂1) ⇒ necesitamos SE(β̂1) . 15 / 39 4. ¿Cuán alta es la asociación entre TV y las ventas? Pregunta: por cada dolar gastado, ¿cuánto espero (o predigo) que aumenten las ventas? Depende de la magnitud de β1, no sólo me importa si β1 ̸= 0, si no cuál es su magnitud ⇒ necesitamos estimar a β1 mediante β̂1y un IC. Estructura del Pivote: P = β̂1 − β1 SE(β̂1) ó β̂1 − β1 ŜE(β̂1) ⇒ necesitamos SE(β̂1) . 15 / 39 4. ¿Cuán alta es la asociación entre TV y las ventas? Pregunta: por cada dolar gastado, ¿cuánto espero (o predigo) que aumenten las ventas? Depende de la magnitud de β1, no sólo me importa si β1 ̸= 0, si no cuál es su magnitud ⇒ necesitamos estimar a β1 mediante β̂1 y un IC. Estructura del Pivote: P = β̂1 − β1 SE(β̂1) ó β̂1 − β1 ŜE(β̂1) ⇒ necesitamos SE(β̂1) . 15 / 39 4. ¿Cuán alta es la asociación entre TV y las ventas? Pregunta: por cada dolar gastado, ¿cuánto espero (o predigo) que aumenten las ventas? Depende de la magnitud de β1, no sólo me importa si β1 ̸= 0, si no cuál es su magnitud ⇒ necesitamos estimar a β1 mediante β̂1 y un IC. Estructura del Pivote: P = β̂1 − β1 SE(β̂1) ó β̂1 − β1 ŜE(β̂1) ⇒ necesitamos SE(β̂1) . 15 / 39 4. ¿Cuán alta es la asociación entre TV y las ventas? Pregunta: por cada dolar gastado, ¿cuánto espero (o predigo) que aumenten las ventas? Depende de la magnitud de β1, no sólo me importa si β1 ̸= 0, si no cuál es su magnitud ⇒ necesitamos estimar a β1 mediante β̂1 y un IC. Estructura del Pivote: P = β̂1 − β1 SE(β̂1) ó β̂1 − β1 ŜE(β̂1) ⇒ necesitamos SE(β̂1) . 15 / 39 4. ¿Cuán alta es la asociación entre TV y las ventas? Pregunta: por cada dolar gastado, ¿cuánto espero (o predigo) que aumenten las ventas? Depende de la magnitud de β1, no sólo me importa si β1 ̸= 0, si no cuál es su magnitud ⇒ necesitamos estimar a β1 mediante β̂1 y un IC. Estructura del Pivote: P = β̂1 − β1 SE(β̂1) ó β̂1 − β1 ŜE(β̂1) ⇒ necesitamos SE(β̂1) . 15 / 39 Esperanza y varianza de los EMC Como veremos luego, para construir el test y el IC para β1 también necesitamos calcular E(β̂1), además eso nos va a servir para probar que es insesgado. ⇒ calcularemos E(β̂1) y V(β̂1). Aunque no son de interés central, también se suelen calcular test e IC para β0 ⇒ también veremos las fórmulas de E(β̂0) y V(β̂0) 16 / 39 Esperanza y varianza de los EMC Como veremos luego, para construir el test y el IC para β1 también necesitamos calcular E(β̂1), además eso nos va a servir para probar que es insesgado. ⇒ calcularemos E(β̂1) y V(β̂1). Aunque no son de interés central, también se suelen calcular test e IC para β0 ⇒ también veremos las fórmulas de E(β̂0) y V(β̂0) 16 / 39 Esperanza y varianza de los EMC Como veremos luego, para construir el test y el IC para β1 también necesitamos calcular E(β̂1), además eso nos va a servir para probar que es insesgado. ⇒ calcularemos E(β̂1) y V(β̂1). Aunque no son de interés central, también se suelen calcular test e IC para β0 ⇒ también veremos las fórmulas de E(β̂0) y V(β̂0) 16 / 39 Esperanza y varianza de los EMC Como veremos luego, para construir el test y el IC para β1 también necesitamos calcular E(β̂1), además eso nos va a servir para probar que es insesgado. ⇒ calcularemos E(β̂1) y V(β̂1). Aunque no son de interés central, también se suelen calcular test e IC para β0 ⇒ también veremos las fórmulas de E(β̂0) y V(β̂0) 16 / 39 Esperanza y varianza de los EMC Como veremos luego, para construir el test y el IC para β1 también necesitamos calcular E(β̂1), además eso nos va a servir para probar que es insesgado. ⇒ calcularemos E(β̂1) y V(β̂1). Aunque no son de interés central, también se suelen calcular test e IC para β0 ⇒ también veremos las fórmulas de E(β̂0) y V(β̂0) 16 / 39 Esperanza de β̂1 β̂1 = ∑n i=1(xi − xn)(Yi − Y n)∑n i=1(xi − xn)2 E(β̂1) = β1 ⇒ β̂1 es un estimador insesgado de β1 17 / 39 Esperanza de β̂1 β̂1 = ∑n i=1(xi − xn)(Yi − Y n)∑n i=1(xi − xn)2 E(β̂1) = β1 ⇒ β̂1 es un estimador insesgado de β1 17 / 39 Esperanza de β̂1 β̂1 = ∑n i=1(xi − xn)(Yi − Y n)∑n i=1(xi − xn)2 E(β̂1) = β1 ⇒ β̂1 es un estimador insesgado de β1 17 / 39 Varianza de β̂1 β̂1 = ∑n i=1(xi − xn)(Yi − Y n)∑n i=1(xi − xn)2 Para calcular V(β̂1) recordemos los supuestos del modelo en términos de las Y ′i s 18 / 39 Varianza de β̂1 β̂1 = ∑n i=1(xi − xn)(Yi − Y n)∑n i=1(xi − xn)2 Para calcular V(β̂1) recordemos los supuestos del modelo en términos de las Y ′i s 18 / 39 Supuestos en términos de las Yi Modelo: Yi = β0 + β1xi + ϵi, 1 ≤ i ≤ n Supuestos: ϵ1, . . . , ϵn indep. ⇔ Y1, . . . , Yn indep. E(ϵi) = 0 ∀i ⇔ E(Yi) = β0 + β1xi ∀i V(ϵi) = σ2 ∀i ⇔ V(Yi) = σ2 ∀i β̂1 = ∑n i=1(xi − xn)(Yi − Y n)∑n i=1(xi − xn)2 19 / 39 Supuestos en términos de las Yi Modelo: Yi = β0 + β1xi + ϵi, 1 ≤ i ≤ n Supuestos: ϵ1, . . . , ϵn indep. ⇔ Y1, . . . , Yn indep. E(ϵi) = 0 ∀i ⇔ E(Yi) = β0 + β1xi ∀i V(ϵi) = σ2 ∀i ⇔ V(Yi) = σ2 ∀i β̂1 = ∑n i=1(xi − xn)(Yi − Y n)∑n i=1(xi − xn)2 19 / 39 Supuestos en términos de las Yi Modelo: Yi = β0 + β1xi + ϵi, 1 ≤ i ≤ n Supuestos: ϵ1, . . . , ϵn indep. ⇔ Y1, . . . , Yn indep. E(ϵi) = 0 ∀i ⇔ E(Yi) = β0 + β1xi ∀i V(ϵi) = σ2 ∀i ⇔ V(Yi) = σ2 ∀i β̂1 = ∑n i=1(xi − xn)(Yi − Y n)∑n i=1(xi − xn)2 19 / 39 Supuestos en términos de las Yi Modelo: Yi = β0 + β1xi + ϵi, 1 ≤ i ≤ n Supuestos: ϵ1, . . . , ϵn indep. ⇔ Y1, . . . , Yn indep. E(ϵi) = 0 ∀i ⇔ E(Yi) = β0 + β1xi ∀i V(ϵi) = σ2 ∀i ⇔ V(Yi) = σ2 ∀i β̂1 = ∑n i=1(xi − xn)(Yi − Y n)∑n i=1(xi − xn)2 19 / 39 Supuestos en términos de las Yi Modelo: Yi = β0 + β1xi + ϵi, 1 ≤ i ≤ n Supuestos: ϵ1, . . . , ϵn indep. ⇔ Y1, . . . , Yn indep. E(ϵi) = 0 ∀i ⇔ E(Yi) = β0 + β1xi ∀i V(ϵi) = σ2 ∀i ⇔ V(Yi) = σ2 ∀i β̂1 = ∑n i=1(xi − xn)(Yi − Y n)∑n i=1(xi − xn)2 19 / 39 Varianza de β̂1 V(β̂1) = σ2∑n i=1(xi − xn)2 Obs.: ¿Cuándo aumenta V(β̂1)? 1 cuando σ2 aumenta: σ2 = V(ϵi) ↑ medida de cuánto se alejan los puntos de la recta de regresión (es decir, del error del modelo) 20 / 39 Varianza de β̂1 V(β̂1) = σ2∑n i=1(xi − xn)2 Obs.: ¿Cuándo aumenta V(β̂1)? 1 cuando σ2 aumenta: σ2 = V(ϵi) ↑ medida de cuánto se alejan los puntos de la recta de regresión (es decir, del error del modelo) 20 / 39 Varianza de β̂1 V(β̂1) = σ2∑n i=1(xi − xn)2 Obs.: ¿Cuándo aumenta V(β̂1)? 1 cuando σ2 aumenta: σ2 = V(ϵi) ↑ medida de cuánto se alejan los puntos de la recta de regresión (es decir, del error del modelo) 20 / 39 Varianza de β̂1 V(β̂1) = σ2∑n i=1(xi − xn)2 Obs.: ¿Cuándo aumenta V(β̂1)? 1 cuando σ2 aumenta: σ2 = V(ϵi) ↑ medida de cuánto se alejan los puntos de la recta de regresión (es decir, del error del modelo) 20 / 39 Varianza de β̂1 V(β̂1) = σ2∑n i=1(xi − xn)2 Obs.: ¿Cuándo aumenta V(β̂1)? 1 cuando σ2 aumenta: σ2 = V(ϵi) ↑ medida de cuánto se alejan los puntos de la recta de regresión (es decir, del error del modelo) 20 / 39 Varianza de β̂1 V(β̂1) = σ2∑n i=1(xi − xn)2 Obs.: ¿Cuándo aumenta V(β̂1)? 1 cuando σ2 aumenta: σ2 = V(ϵi) ↑ medida de cuánto se alejan los puntos de la recta de regresión (es decir, del error del modelo) 20 / 39 Varianza de β̂1 V(β̂1) = σ2∑n i=1(xi − xn)2 Obs.: ¿Cuándo aumenta V(β̂1)? 1 cuando σ2 aumenta: σ2 = V(ϵi) ↑ medida de cuánto se alejan los puntos de la recta de regresión (es decir, del error del modelo) 20 / 39 Varianza de β̂1 V(β̂1) = σ2∑n i=1(xi − xn)2 Obs.: ¿Cuándo aumenta V(β̂1)? 2 cuando ∑n i=1(xi − xn)2 disminuye: 21 / 39 Varianza de β̂1 V(β̂1) = σ2∑n i=1(xi − xn)2 Obs.: ¿Cuándo aumenta V(β̂1)? 2 cuando ∑n i=1(xi − xn)2 disminuye: 21 / 39 Varianza de β̂1 V(β̂1) = σ2∑n i=1(xi − xn)2 Obs.: ¿Cuándo aumenta V(β̂1)? 2 cuando ∑n i=1(xi − xn)2 disminuye: 21 / 39 Varianza de β̂1 V(β̂1) = σ2∑n i=1(xi − xn)2 Obs.: ¿Cuándo aumenta V(β̂1)? 2 cuando ∑n i=1(xi − xn)2 disminuye: 21 / 39 Varianza de β̂1 V(β̂1) = σ2∑n i=1(xi − xn)2 Obs.: ¿Cuándo aumenta V(β̂1)? 2 cuando ∑n i=1(xi − xn)2 disminuye: 21 / 39 Varianza de β̂1 V(β̂1) = σ2∑n i=1(xi − xn)2 Obs.: ¿Cuándo aumenta V(β̂1)? 2 cuando ∑n i=1(xi − xn)2 disminuye: 21 / 39 Esperanza y varianza de β̂0 β̂0 = Y n − β̂1xn E(β̂0) = β0 V(β̂0) = σ2 ( 1 n + x2n∑n i=1(xi − xn)2 ) 22 / 39 Esperanza y varianza de β̂0 β̂0 = Y n − β̂1xn E(β̂0) = β0V(β̂0) = σ2 ( 1 n + x2n∑n i=1(xi − xn)2 ) 22 / 39 Esperanza y varianza de β̂0 β̂0 = Y n − β̂1xn E(β̂0) = β0 V(β̂0) = σ2 ( 1 n + x2n∑n i=1(xi − xn)2 ) 22 / 39 Esperanza y varianza de β̂0 β̂0 = Y n − β̂1xn E(β̂0) = β0 V(β̂0) = σ2 ( 1 n + x2n∑n i=1(xi − xn)2 ) 22 / 39 Esperanza y varianza de β̂0 β̂0 = Y n − β̂1xn E(β̂0) = β0 V(β̂0) = σ2 ( 1 n + x2n∑n i=1(xi − xn)2 ) 22 / 39 SE de los EMC SE(β̂1) = √ σ2∑n i=1(xi − xn)2 SE(β̂0) = √ σ2 ( 1 n + x2n∑n i=1(xi − xn)2 ) ¿Podemos calcularlos exactamente? No ⇒ para realizar test e IC para los EMC, necesitamos estimar a σ2. 23 / 39 SE de los EMC SE(β̂1) = √ σ2∑n i=1(xi − xn)2 SE(β̂0) = √ σ2 ( 1 n + x2n∑n i=1(xi − xn)2 ) ¿Podemos calcularlos exactamente? No ⇒ para realizar test e IC para los EMC, necesitamos estimar a σ2. 23 / 39 SE de los EMC SE(β̂1) = √ σ2∑n i=1(xi − xn)2 SE(β̂0) = √ σ2 ( 1 n + x2n∑n i=1(xi − xn)2 ) ¿Podemos calcularlos exactamente? No ⇒ para realizar test e IC para los EMC, necesitamos estimar a σ2. 23 / 39 SE de los EMC SE(β̂1) = √ σ2∑n i=1(xi − xn)2 SE(β̂0) = √ σ2 ( 1 n + x2n∑n i=1(xi − xn)2 ) ¿Podemos calcularlos exactamente? No ⇒ para realizar test e IC para los EMC, necesitamos estimar a σ2. 23 / 39 Estimación de σ2 V(ϵi) = σ2 ∀i ϵi = Yi − (β0 + β1xi) → no observado ei = Yi − (β̂0 + β̂1xi) → i-ésimo residuo ¿cómo se interpreta gráficamente los residuos? Definamos... Ŷi = β̂0 + β̂1xi, → i-ésimo predicho ⇒ ei = Yi − Ŷi 24 / 39 Estimación de σ2 V(ϵi) = σ2 ∀i ϵi = Yi − (β0 + β1xi) → no observado ei = Yi − (β̂0 + β̂1xi) → i-ésimo residuo ¿cómo se interpreta gráficamente los residuos? Definamos... Ŷi = β̂0 + β̂1xi, → i-ésimo predicho ⇒ ei = Yi − Ŷi 24 / 39 Estimación de σ2 V(ϵi) = σ2 ∀i ϵi = Yi − (β0 + β1xi) → no observado ei = Yi − (β̂0 + β̂1xi) → i-ésimo residuo ¿cómo se interpreta gráficamente los residuos? Definamos... Ŷi = β̂0 + β̂1xi, → i-ésimo predicho ⇒ ei = Yi − Ŷi 24 / 39 Estimación de σ2 V(ϵi) = σ2 ∀i ϵi = Yi − (β0 + β1xi) → no observado ei = Yi − (β̂0 + β̂1xi) → i-ésimo residuo ¿cómo se interpreta gráficamente los residuos? Definamos... Ŷi = β̂0 + β̂1xi, → i-ésimo predicho ⇒ ei = Yi − Ŷi 24 / 39 Estimación de σ2 V(ϵi) = σ2 ∀i ϵi = Yi − (β0 + β1xi) → no observado ei = Yi − (β̂0 + β̂1xi) → i-ésimo residuo ¿cómo se interpreta gráficamente los residuos? Definamos... Ŷi = β̂0 + β̂1xi, → i-ésimo predicho ⇒ ei = Yi − Ŷi 24 / 39 Estimación de σ2 V(ϵi) = σ2 ∀i ϵi = Yi − (β0 + β1xi) → no observado ei = Yi − (β̂0 + β̂1xi) → i-ésimo residuo ¿cómo se interpreta gráficamente los residuos? Definamos... Ŷi = β̂0 + β̂1xi, → i-ésimo predicho ⇒ ei = Yi − Ŷi 24 / 39 Estimación de σ2 V(ϵi) = σ2 ∀i ϵi = Yi − (β0 + β1xi) → no observado ei = Yi − (β̂0 + β̂1xi) → i-ésimo residuo ¿cómo se interpreta gráficamente los residuos? Definamos... Ŷi = β̂0 + β̂1xi, → i-ésimo predicho ⇒ ei = Yi − Ŷi 24 / 39 Estimación de σ2 V(ϵi) = σ2 ∀i ϵi = Yi − (β0 + β1xi) → no observado ei = Yi − (β̂0 + β̂1xi) → i-ésimo residuo ¿cómo se interpreta gráficamente los residuos? Definamos... Ŷi = β̂0 + β̂1xi, → i-ésimo predicho ⇒ ei = Yi − Ŷi 24 / 39 Estimación de σ2 σ̂2 = 1 n− 2 n∑ i=1 e2i → estimador insesgado de σ2 RSE = √√√√ 1 n− 2 n∑ i=1 e2i → estimador de σ ↑ Residual Standard Error 25 / 39 Estimación de σ2 σ̂2 = 1 n− 2 n∑ i=1 e2i → estimador insesgado de σ2 RSE = √√√√ 1 n− 2 n∑ i=1 e2i → estimador de σ ↑ Residual Standard Error 25 / 39 Estimación de σ2 σ̂2 = 1 n− 2 n∑ i=1 e2i → estimador insesgado de σ2 RSE = √√√√ 1 n− 2 n∑ i=1 e2i → estimador de σ ↑ Residual Standard Error 25 / 39 Estimación de σ2 σ̂2 = 1 n− 2 n∑ i=1 e2i → estimador insesgado de σ2 RSE = √√√√ 1 n− 2 n∑ i=1 e2i → estimador de σ ↑ Residual Standard Error 25 / 39 Estimación de σ2 σ̂2 = 1 n− 2 n∑ i=1 e2i → estimador insesgado de σ2 RSE = √√√√ 1 n− 2 n∑ i=1 e2i → estimador de σ ↑ Residual Standard Error 25 / 39 Estimación del SE de los EMC ŜE(β̂1) = √ σ̂2∑n i=1(xi − xn)2 ŜE(β̂0) = √ σ̂2 ( 1 n + x2n∑n i=1(xi − xn)2 ) con σ̂2 = RSE2 = 1 n− 2 n∑ i=1 e2i 26 / 39 Test e IC para los coeficientes Ya podemos calcular... P = β̂1 − β1 ŜE(β̂1) → Pivote del IC T = β̂1 ŜE(β̂1) → Estad́ıstico del test Pero para poder calcular el IC y el test exactos para β1, necesitamos conocer... la distribución de P la distribución de T bajo H0 Para eso necesitamos conocer la distribución de β̂1. (Idem para β̂0). Queremos construir IC y test exactos basados en la distribución normal, para lo cual necesitamos que β̂0 y β̂1 sean normales. 27 / 39 Test e IC para los coeficientes Ya podemos calcular... P = β̂1 − β1 ŜE(β̂1) → Pivote del IC T = β̂1 ŜE(β̂1) → Estad́ıstico del test Pero para poder calcular el IC y el test exactos para β1, necesitamos conocer... la distribución de P la distribución de T bajo H0 Para eso necesitamos conocer la distribución de β̂1. (Idem para β̂0). Queremos construir IC y test exactos basados en la distribución normal, para lo cual necesitamos que β̂0 y β̂1 sean normales. 27 / 39 Test e IC para los coeficientes Ya podemos calcular... P = β̂1 − β1 ŜE(β̂1) → Pivote del IC T = β̂1 ŜE(β̂1) → Estad́ıstico del test Pero para poder calcular el IC y el test exactos para β1, necesitamos conocer... la distribución de P la distribución de T bajo H0 Para eso necesitamos conocer la distribución de β̂1. (Idem para β̂0). Queremos construir IC y test exactos basados en la distribución normal, para lo cual necesitamos que β̂0 y β̂1 sean normales. 27 / 39 Test e IC para los coeficientes Ya podemos calcular... P = β̂1 − β1 ŜE(β̂1) → Pivote del IC T = β̂1 ŜE(β̂1) → Estad́ıstico del test Pero para poder calcular el IC y el test exactos para β1, necesitamos conocer... la distribución de P la distribución de T bajo H0 Para eso necesitamos conocer la distribución de β̂1. (Idem para β̂0). Queremos construir IC y test exactos basados en la distribución normal, para lo cual necesitamos que β̂0 y β̂1 sean normales. 27 / 39 Test e IC para los coeficientes Ya podemos calcular... P = β̂1 − β1 ŜE(β̂1) → Pivote del IC T = β̂1 ŜE(β̂1) → Estad́ıstico del test Pero para poder calcular el IC y el test exactos para β1, necesitamos conocer... la distribución de P la distribución de T bajo H0 Para eso necesitamos conocer la distribución de β̂1. (Idem para β̂0). Queremos construir IC y test exactos basados en la distribución normal, para lo cual necesitamos que β̂0 y β̂1 sean normales. 27 / 39 Test e IC para los coeficientes Ya podemos calcular... P = β̂1 − β1 ŜE(β̂1) → Pivote del IC T = β̂1 ŜE(β̂1) → Estad́ıstico del test Pero para poder calcular el IC y el test exactos para β1, necesitamos conocer... la distribución de P la distribución de T bajo H0 Para eso necesitamos conocer la distribución de β̂1. (Idem para β̂0). Queremos construir IC y test exactos basados en la distribución normal, para lo cual necesitamos que β̂0 y β̂1 sean normales. 27 / 39 Test e IC para los coeficientes Ya podemos calcular... P = β̂1 − β1 ŜE(β̂1) → Pivote del IC T = β̂1 ŜE(β̂1) → Estad́ıstico del test Pero para poder calcular el IC y el test exactos para β1, necesitamos conocer... la distribución de P la distribución de T bajo H0 Para eso necesitamos conocer la distribución de β̂1. (Idem para β̂0). Queremos construir IC y test exactos basados en la distribución normal, para lo cual necesitamos que β̂0 y β̂1 sean normales. 27 / 39 Test e IC para los coeficientes Ya podemos calcular... P = β̂1 − β1 ŜE(β̂1) → Pivote del IC T = β̂1 ŜE(β̂1) → Estad́ıstico del test Pero para poder calcular el IC y el test exactos para β1, necesitamos conocer... la distribución de P la distribución de T bajo H0 Para eso necesitamos conocer la distribución de β̂1. (Idem para β̂0). Queremos construir IC y test exactos basados en la distribuciónnormal, para lo cual necesitamos que β̂0 y β̂1 sean normales. 27 / 39 Test e IC para los coeficientes Ya podemos calcular... P = β̂1 − β1 ŜE(β̂1) → Pivote del IC T = β̂1 ŜE(β̂1) → Estad́ıstico del test Pero para poder calcular el IC y el test exactos para β1, necesitamos conocer... la distribución de P la distribución de T bajo H0 Para eso necesitamos conocer la distribución de β̂1. (Idem para β̂0). Queremos construir IC y test exactos basados en la distribución normal, para lo cual necesitamos que β̂0 y β̂1 sean normales. 27 / 39 Test e IC para los coeficientes Ya podemos calcular... P = β̂1 − β1 ŜE(β̂1) → Pivote del IC T = β̂1 ŜE(β̂1) → Estad́ıstico del test Pero para poder calcular el IC y el test exactos para β1, necesitamos conocer... la distribución de P la distribución de T bajo H0 Para eso necesitamos conocer la distribución de β̂1. (Idem para β̂0). Queremos construir IC y test exactos basados en la distribución normal, para lo cual necesitamos que β̂0 y β̂1 sean normales. 27 / 39 Test e IC para los coeficientes Ya podemos calcular... P = β̂1 − β1 ŜE(β̂1) → Pivote del IC T = β̂1 ŜE(β̂1) → Estad́ıstico del test Pero para poder calcular el IC y el test exactos para β1, necesitamos conocer... la distribución de P la distribución de T bajo H0 Para eso necesitamos conocer la distribución de β̂1. (Idem para β̂0). Queremos construir IC y test exactos basados en la distribución normal, para lo cual necesitamos que β̂0 y β̂1 sean normales. 27 / 39 Test e IC para los coeficientes Ya podemos calcular... P = β̂1 − β1 ŜE(β̂1) → Pivote del IC T = β̂1 ŜE(β̂1) → Estad́ıstico del test Pero para poder calcular el IC y el test exactos para β1, necesitamos conocer... la distribución de P la distribución de T bajo H0 Para eso necesitamos conocer la distribución de β̂1. (Idem para β̂0). Queremos construir IC y test exactos basados en la distribución normal, para lo cual necesitamos que β̂0 y β̂1 sean normales. 27 / 39 EMC β̂0 = Y n − β̂1xn β̂1 = ∑n i=1(xi − xn)(Yi − Y n)∑n i=1(xi − xn)2 ¿De qué depende la distribución de los EMC? ¿Nos dice algo el modelo sobre la distribución de las Y ′i s? 28 / 39 EMC β̂0 = Y n − β̂1xn β̂1 = ∑n i=1(xi − xn)(Yi − Y n)∑n i=1(xi − xn)2 ¿De qué depende la distribución de los EMC? ¿Nos dice algo el modelo sobre la distribución de las Y ′i s? 28 / 39 EMC β̂0 = Y n − β̂1xn β̂1 = ∑n i=1(xi − xn)(Yi − Y n)∑n i=1(xi − xn)2 ¿De qué depende la distribución de los EMC? ¿Nos dice algo el modelo sobre la distribución de las Y ′i s? 28 / 39 Modelo Lineal Modelo: Yi = β0 + β1xi + ϵi, 1 ≤ i ≤ n Supuestos: ϵ1, . . . , ϵn indep. ⇔ Y1, . . . , Yn indep. E(ϵi) = 0 ∀i ⇔ E(Yi) = β0 + β1xi ∀i V(ϵi) = σ2 ∀i ⇔ V(Yi) = σ2 ∀i ¿Qué nos dice el modelo sobre la distribución de las Y ′i s? Queremos que las Yi sean normales, para lo cual basta pedir que las ϵi lo sean. ¿Es razonable este supuesto? 29 / 39 Modelo Lineal Modelo: Yi = β0 + β1xi + ϵi, 1 ≤ i ≤ n Supuestos: ϵ1, . . . , ϵn indep. ⇔ Y1, . . . , Yn indep. E(ϵi) = 0 ∀i ⇔ E(Yi) = β0 + β1xi ∀i V(ϵi) = σ2 ∀i ⇔ V(Yi) = σ2 ∀i ¿Qué nos dice el modelo sobre la distribución de las Y ′i s? Queremos que las Yi sean normales, para lo cual basta pedir que las ϵi lo sean. ¿Es razonable este supuesto? 29 / 39 Modelo Lineal Modelo: Yi = β0 + β1xi + ϵi, 1 ≤ i ≤ n Supuestos: ϵ1, . . . , ϵn indep. ⇔ Y1, . . . , Yn indep. E(ϵi) = 0 ∀i ⇔ E(Yi) = β0 + β1xi ∀i V(ϵi) = σ2 ∀i ⇔ V(Yi) = σ2 ∀i ¿Qué nos dice el modelo sobre la distribución de las Y ′i s? Queremos que las Yi sean normales, para lo cual basta pedir que las ϵi lo sean. ¿Es razonable este supuesto? 29 / 39 Modelo Lineal Modelo: Yi = β0 + β1xi + ϵi, 1 ≤ i ≤ n Supuestos: ϵ1, . . . , ϵn indep. ⇔ Y1, . . . , Yn indep. E(ϵi) = 0 ∀i ⇔ E(Yi) = β0 + β1xi ∀i V(ϵi) = σ2 ∀i ⇔ V(Yi) = σ2 ∀i ¿Qué nos dice el modelo sobre la distribución de las Y ′i s? Queremos que las Yi sean normales, para lo cual basta pedir que las ϵi lo sean. ¿Es razonable este supuesto? 29 / 39 Modelo Lineal con supuesto de normalidad Yi = β0 + β1xi + ϵi 1 ≤ i ≤ n Supuestos: 1 ϵ1, . . . , ϵn independientes 2 E(ϵi) = 0 ∀i 3 V(ϵi) = σ2 ∀i 4 ϵi es normal ∀i. Los supuestos 1 a 4 son equivalentes a ϵ1, . . . , ϵn ∼ N (0, σ2) i.i.d. ¿Cómo se traducen estos supuestos en términos de las Y ′i s? Y1, . . . , Yn indep. con Yi ∼ N (β0 + β1xi, σ2) 30 / 39 Modelo Lineal con supuesto de normalidad Yi = β0 + β1xi + ϵi 1 ≤ i ≤ n Supuestos: 1 ϵ1, . . . , ϵn independientes 2 E(ϵi) = 0 ∀i 3 V(ϵi) = σ2 ∀i 4 ϵi es normal ∀i. Los supuestos 1 a 4 son equivalentes a ϵ1, . . . , ϵn ∼ N (0, σ2) i.i.d. ¿Cómo se traducen estos supuestos en términos de las Y ′i s? Y1, . . . , Yn indep. con Yi ∼ N (β0 + β1xi, σ2) 30 / 39 Modelo Lineal con supuesto de normalidad Yi = β0 + β1xi + ϵi 1 ≤ i ≤ n Supuestos: 1 ϵ1, . . . , ϵn independientes 2 E(ϵi) = 0 ∀i 3 V(ϵi) = σ2 ∀i 4 ϵi es normal ∀i. Los supuestos 1 a 4 son equivalentes a ϵ1, . . . , ϵn ∼ N (0, σ2) i.i.d. ¿Cómo se traducen estos supuestos en términos de las Y ′i s? Y1, . . . , Yn indep. con Yi ∼ N (β0 + β1xi, σ2) 30 / 39 Modelo Lineal con supuesto de normalidad Yi = β0 + β1xi + ϵi 1 ≤ i ≤ n Supuestos: 1 ϵ1, . . . , ϵn independientes 2 E(ϵi) = 0 ∀i 3 V(ϵi) = σ2 ∀i 4 ϵi es normal ∀i. Los supuestos 1 a 4 son equivalentes a ϵ1, . . . , ϵn ∼ N (0, σ2) i.i.d. ¿Cómo se traducen estos supuestos en términos de las Y ′i s? Y1, . . . , Yn indep. con Yi ∼ N (β0 + β1xi, σ2) 30 / 39 Modelo Lineal con supuesto de normalidad Yi = β0 + β1xi + ϵi 1 ≤ i ≤ n Supuestos: 1 ϵ1, . . . , ϵn independientes 2 E(ϵi) = 0 ∀i 3 V(ϵi) = σ2 ∀i 4 ϵi es normal ∀i. Los supuestos 1 a 4 son equivalentes a ϵ1, . . . , ϵn ∼ N (0, σ2) i.i.d. ¿Cómo se traducen estos supuestos en términos de las Y ′i s? Y1, . . . , Yn indep. con Yi ∼ N (β0 + β1xi, σ2) 30 / 39 Modelo Lineal con supuesto de normalidad Yi = β0 + β1xi + ϵi 1 ≤ i ≤ n Supuestos: 1 ϵ1, . . . , ϵn independientes 2 E(ϵi) = 0 ∀i 3 V(ϵi) = σ2 ∀i 4 ϵi es normal ∀i. Los supuestos 1 a 4 son equivalentes a ϵ1, . . . , ϵn ∼ N (0, σ2) i.i.d. ¿Cómo se traducen estos supuestos en términos de las Y ′i s? Y1, . . . , Yn indep. con Yi ∼ N (β0 + β1xi, σ2) 30 / 39 Distribución de los EMC A partir de ahora, asumiremos el modelo con el supuesto de normalidad. Distribución de β̂1 β̂1 = ∑n i=1(xi − xn)(Yi − Y n)∑n i=1(xi − xn)2 β̂1 ∼ N ( β1, σ2∑n i=1(xi − xn)2 ) Distribución de β̂0 β̂0 = Y n − β̂1xn β̂0 ∼ N ( β0, σ 2 [ 1 n + x2n∑n i=1(xi − xn)2 ]) 31 / 39 Distribución de los EMC A partir de ahora, asumiremos el modelo con el supuesto de normalidad. Distribución de β̂1 β̂1 = ∑n i=1(xi − xn)(Yi − Y n)∑n i=1(xi − xn)2 β̂1 ∼ N ( β1, σ2∑n i=1(xi − xn)2 ) Distribución de β̂0 β̂0 = Y n − β̂1xn β̂0 ∼ N ( β0, σ 2 [ 1 n + x2n∑n i=1(xi − xn)2 ]) 31 / 39 Distribución de los EMC A partir de ahora, asumiremos el modelo con el supuesto de normalidad. Distribución de β̂1 β̂1 = ∑n i=1(xi − xn)(Yi − Y n)∑n i=1(xi − xn)2 β̂1 ∼ N ( β1, σ2∑n i=1(xi − xn)2 ) Distribución de β̂0 β̂0 = Y n − β̂1xn β̂0 ∼ N ( β0, σ 2 [ 1 n + x2n∑n i=1(xi − xn)2 ]) 31 / 39 Distribución de los EMC A partir de ahora, asumiremos el modelo con el supuesto de normalidad. Distribución de β̂1 β̂1 = ∑n i=1(xi − xn)(Yi − Y n)∑n i=1(xi − xn)2 β̂1 ∼ N ( β1, σ2∑n i=1(xi − xn)2 ) Distribución de β̂0 β̂0 = Y n − β̂1xn β̂0 ∼ N ( β0, σ 2 [ 1 n + x2n∑n i=1(xi − xn)2 ]) 31 / 39 Distribución de los EMC A partir de ahora, asumiremos el modelo con el supuesto de normalidad. Distribución de β̂1 β̂1 = ∑n i=1(xi − xn)(Yi − Y n)∑n i=1(xi − xn)2 β̂1 ∼ N ( β1, σ2∑n i=1(xi − xn)2 ) Distribución de β̂0 β̂0 = Y n − β̂1xn β̂0 ∼ N ( β0, σ 2 [ 1 n + x2n∑n i=1(xi − xn)2 ]) 31 / 39 Distribución de los EMC A partir de ahora, asumiremos el modelo con el supuesto de normalidad. Distribución de β̂1 β̂1 = ∑n i=1(xi − xn)(Yi − Y n)∑n i=1(xi− xn)2 β̂1 ∼ N ( β1, σ2∑n i=1(xi − xn)2 ) Distribución de β̂0 β̂0 = Y n − β̂1xn β̂0 ∼ N ( β0, σ 2 [ 1 n + x2n∑n i=1(xi − xn)2 ]) 31 / 39 Distribución de los EMC A partir de ahora, asumiremos el modelo con el supuesto de normalidad. Distribución de β̂1 β̂1 = ∑n i=1(xi − xn)(Yi − Y n)∑n i=1(xi − xn)2 β̂1 ∼ N ( β1, σ2∑n i=1(xi − xn)2 ) Distribución de β̂0 β̂0 = Y n − β̂1xn β̂0 ∼ N ( β0, σ 2 [ 1 n + x2n∑n i=1(xi − xn)2 ]) 31 / 39 Test para β1 Para responder si TV está asociado con las ventas, necesitamos un test para H0 : β1 = 0 vs. H1 : β1 ̸= 0 . Estad́ıstico: T = β̂1√ σ̂2∑n i=1(xi−xn)2 = β̂1 ŜE(β̂1) ∼ tn−2 bajo H0 con σ̂2 = RSE2 = 1n−2 ∑n i=1 e 2 i RR de nivel exato α: R = {|T | > tn−2,α/2} p-valor = P(|Tn−2| ≥ |Tobs|) = 2P(Tn−2 ≥ |Tobs|) con Tn−2 ∼ tn−2 32 / 39 Test para β1 Para responder si TV está asociado con las ventas, necesitamos un test para H0 : β1 = 0 vs. H1 : β1 ̸= 0 . Estad́ıstico: T = β̂1√ σ̂2∑n i=1(xi−xn)2 = β̂1 ŜE(β̂1) ∼ tn−2 bajo H0 con σ̂2 = RSE2 = 1n−2 ∑n i=1 e 2 i RR de nivel exato α: R = {|T | > tn−2,α/2} p-valor = P(|Tn−2| ≥ |Tobs|) = 2P(Tn−2 ≥ |Tobs|) con Tn−2 ∼ tn−2 32 / 39 Test para β1 Para responder si TV está asociado con las ventas, necesitamos un test para H0 : β1 = 0 vs. H1 : β1 ̸= 0 . Estad́ıstico: T = β̂1√ σ̂2∑n i=1(xi−xn)2 = β̂1 ŜE(β̂1) ∼ tn−2 bajo H0 con σ̂2 = RSE2 = 1n−2 ∑n i=1 e 2 i RR de nivel exato α: R = {|T | > tn−2,α/2} p-valor = P(|Tn−2| ≥ |Tobs|) = 2P(Tn−2 ≥ |Tobs|) con Tn−2 ∼ tn−2 32 / 39 Test para β1 Para responder si TV está asociado con las ventas, necesitamos un test para H0 : β1 = 0 vs. H1 : β1 ̸= 0 . Estad́ıstico: T = β̂1√ σ̂2∑n i=1(xi−xn)2 = β̂1 ŜE(β̂1) ∼ tn−2 bajo H0 con σ̂2 = RSE2 = 1n−2 ∑n i=1 e 2 i RR de nivel exato α: R = {|T | > tn−2,α/2} p-valor = P(|Tn−2| ≥ |Tobs|) = 2P(Tn−2 ≥ |Tobs|) con Tn−2 ∼ tn−2 32 / 39 Test para β1 Para responder si TV está asociado con las ventas, necesitamos un test para H0 : β1 = 0 vs. H1 : β1 ̸= 0 . Estad́ıstico: T = β̂1√ σ̂2∑n i=1(xi−xn)2 = β̂1 ŜE(β̂1) ∼ tn−2 bajo H0 con σ̂2 = RSE2 = 1n−2 ∑n i=1 e 2 i RR de nivel exato α: R = {|T | > tn−2,α/2} p-valor = P(|Tn−2| ≥ |Tobs|) = 2P(Tn−2 ≥ |Tobs|) con Tn−2 ∼ tn−2 32 / 39 Test para β1 Para responder si TV está asociado con las ventas, necesitamos un test para H0 : β1 = 0 vs. H1 : β1 ̸= 0 . Estad́ıstico: T = β̂1√ σ̂2∑n i=1(xi−xn)2 = β̂1 ŜE(β̂1) ∼ tn−2 bajo H0 con σ̂2 = RSE2 = 1n−2 ∑n i=1 e 2 i RR de nivel exato α: R = {|T | > tn−2,α/2} p-valor = P(|Tn−2| ≥ |Tobs|) = 2P(Tn−2 ≥ |Tobs|) con Tn−2 ∼ tn−2 32 / 39 Test para β1 Para responder si TV está asociado con las ventas, necesitamos un test para H0 : β1 = 0 vs. H1 : β1 ̸= 0 . Estad́ıstico: T = β̂1√ σ̂2∑n i=1(xi−xn)2 = β̂1 ŜE(β̂1) ∼ tn−2 bajo H0 con σ̂2 = RSE2 = 1n−2 ∑n i=1 e 2 i RR de nivel exato α: R = {|T | > tn−2,α/2} p-valor = P(|Tn−2| ≥ |Tobs|) = 2P(Tn−2 ≥ |Tobs|) con Tn−2 ∼ tn−2 32 / 39 IC para β1 Para responder cuán alta es la asociación entre TV y ventas, necesitamos β̂1 y un IC para β1. Pivote: P = β̂1 − β1√ σ̂2∑n i=1(xi−xn)2 = β̂1 − β1 ŜE(β̂1) ∼ tn−2 con σ̂2 = RSE2 = 1n−2 ∑n i=1 e 2 i Intervalo de Confianza: IC = (β̂1 ± tn−2,α/2ŜE(β̂1)) 33 / 39 IC para β1 Para responder cuán alta es la asociación entre TV y ventas, necesitamos β̂1 y un IC para β1. Pivote: P = β̂1 − β1√ σ̂2∑n i=1(xi−xn)2 = β̂1 − β1 ŜE(β̂1) ∼ tn−2 con σ̂2 = RSE2 = 1n−2 ∑n i=1 e 2 i Intervalo de Confianza: IC = (β̂1 ± tn−2,α/2ŜE(β̂1)) 33 / 39 IC para β1 Para responder cuán alta es la asociación entre TV y ventas, necesitamos β̂1 y un IC para β1. Pivote: P = β̂1 − β1√ σ̂2∑n i=1(xi−xn)2 = β̂1 − β1 ŜE(β̂1) ∼ tn−2 con σ̂2 = RSE2 = 1n−2 ∑n i=1 e 2 i Intervalo de Confianza: IC = (β̂1 ± tn−2,α/2ŜE(β̂1)) 33 / 39 IC para β1 Para responder cuán alta es la asociación entre TV y ventas, necesitamos β̂1 y un IC para β1. Pivote: P = β̂1 − β1√ σ̂2∑n i=1(xi−xn)2 = β̂1 − β1 ŜE(β̂1) ∼ tn−2 con σ̂2 = RSE2 = 1n−2 ∑n i=1 e 2 i Intervalo de Confianza: IC = (β̂1 ± tn−2,α/2ŜE(β̂1)) 33 / 39 IC para β1 Para responder cuán alta es la asociación entre TV y ventas, necesitamos β̂1 y un IC para β1. Pivote: P = β̂1 − β1√ σ̂2∑n i=1(xi−xn)2 = β̂1 − β1 ŜE(β̂1) ∼ tn−2 con σ̂2 = RSE2 = 1n−2 ∑n i=1 e 2 i Intervalo de Confianza: IC = (β̂1 ± tn−2,α/2ŜE(β̂1)) 33 / 39 IC para β1 Para responder cuán alta es la asociación entre TV y ventas, necesitamos β̂1 y un IC para β1. Pivote: P = β̂1 − β1√ σ̂2∑n i=1(xi−xn)2 = β̂1 − β1 ŜE(β̂1) ∼ tn−2 con σ̂2 = RSE2 = 1n−2 ∑n i=1 e 2 i Intervalo de Confianza: IC = (β̂1 ± tn−2,α/2ŜE(β̂1)) 33 / 39 Test e IC para β0 Son idénticos a los de β1 reemplazando β̂1 y ŜE(β̂1) por β̂0 y ŜE(β̂0) 34 / 39 IC para β1 en el ejemplo IC = (β̂1 ± tn−2,α/2ŜE(β̂1)) Necesitamos... β̂1 = 0.0475 tn−2,α/2 = t198,0.025 = qt(1 - 0.025, df = 198) = 1.97 ŜE(β̂1) = √ σ̂2∑n i=1(xi−xn)2 → necesitamos σ̂ = RSE = √ 1 n−2 ∑n i=1 e 2 i√∑n i=1(xi − xn)2 35 / 39 IC para β1 en el ejemplo IC = (β̂1 ± tn−2,α/2ŜE(β̂1)) Necesitamos... β̂1 = 0.0475 tn−2,α/2 = t198,0.025 = qt(1 - 0.025, df = 198) = 1.97 ŜE(β̂1) = √ σ̂2∑n i=1(xi−xn)2 → necesitamos σ̂ = RSE = √ 1 n−2 ∑n i=1 e 2 i√∑n i=1(xi − xn)2 35 / 39 IC para β1 en el ejemplo IC = (β̂1 ± tn−2,α/2ŜE(β̂1)) Necesitamos... β̂1 = 0.0475 tn−2,α/2 = t198,0.025 = qt(1 - 0.025, df = 198) = 1.97 ŜE(β̂1) = √ σ̂2∑n i=1(xi−xn)2 → necesitamos σ̂ = RSE = √ 1 n−2 ∑n i=1 e 2 i√∑n i=1(xi − xn)2 35 / 39 IC para β1 en el ejemplo IC = (β̂1 ± tn−2,α/2ŜE(β̂1)) Necesitamos... β̂1 = 0.0475 tn−2,α/2 = t198,0.025 = qt(1 - 0.025, df = 198) = 1.97 ŜE(β̂1) = √ σ̂2∑n i=1(xi−xn)2 → necesitamos σ̂ = RSE = √ 1 n−2 ∑n i=1 e 2 i√∑n i=1(xi − xn)2 35 / 39 IC para β1 en el ejemplo IC = (β̂1 ± tn−2,α/2ŜE(β̂1)) Necesitamos... β̂1 = 0.0475 tn−2,α/2 = t198,0.025 = qt(1 - 0.025, df = 198) = 1.97 ŜE(β̂1) = √ σ̂2∑n i=1(xi−xn)2 → necesitamos σ̂ = RSE = √ 1 n−2 ∑n i=1 e 2 i√∑n i=1(xi − xn)2 35 / 39 IC para β1 en el ejemplo IC = (β̂1 ± tn−2,α/2ŜE(β̂1)) Necesitamos... β̂1 = 0.0475 tn−2,α/2 = t198,0.025 = qt(1 - 0.025, df = 198) = 1.97 ŜE(β̂1) = √ σ̂2∑n i=1(xi−xn)2 → necesitamos σ̂ = RSE = √ 1 n−2 ∑n i=1 e 2 i√∑n i=1(xi − xn)2 35 / 39 IC para β1 en el ejemplo IC = (β̂1 ± tn−2,α/2ŜE(β̂1)) Necesitamos... β̂1 = 0.0475 tn−2,α/2 = t198,0.025 = qt(1 - 0.025, df = 198) = 1.97 ŜE(β̂1) = √ σ̂2∑n i=1(xi−xn)2 → necesitamos σ̂ = RSE = √ 1 n−2 ∑n i=1 e 2 i√∑n i=1(xi − xn)2 35 / 39 IC para β1 en el ejemplo IC = (β̂1 ± tn−2,α/2ŜE(β̂1)) Necesitamos... β̂1 = 0.0475 tn−2,α/2 = t198,0.025 = qt(1 - 0.025, df = 198) = 1.97 ŜE(β̂1) = √ σ̂2∑n i=1(xi−xn)2 → necesitamos σ̂ = RSE = √ 1 n−2 ∑n i=1 e 2 i√∑n i=1(xi − xn)2 35 / 39 IC para β1 en el ejemplo IC = (β̂1 ± tn−2,α/2ŜE(β̂1)) Necesitamos... β̂1 = 0.0475 tn−2,α/2 = t198,0.025 = qt(1 - 0.025, df = 198) = 1.97 ŜE(β̂1) = √ σ̂2∑n i=1(xi−xn)2 → necesitamos σ̂ = RSE = √ 1 n−2 ∑n i=1 e 2 i √∑n i=1(xi − xn)2 35 / 39 IC para β1 en el ejemplo IC = (β̂1 ± tn−2,α/2ŜE(β̂1)) Necesitamos... β̂1 = 0.0475 tn−2,α/2 = t198,0.025 = qt(1 - 0.025, df = 198) = 1.97 ŜE(β̂1) = √ σ̂2∑n i=1(xi−xn)2 → necesitamos σ̂ = RSE = √ 1 n−2 ∑n i=1 e 2 i√∑n i=1(xi − xn)2 35 / 39 RSE en summary 1 ajusteTV <- lm(sales ~ TV, data = datos) 2 summary(ajusteTV) 3 # Call: 4 # lm(formula = sales ~ TV, data = datos) 5 # 6 # Residuals: 7 # Min 1Q Median 3Q Max 8 # -8.3860 -1.9545 -0.1913 2.0671 7.2124 9 # 10 # Coefficients: 11 # Estimate Std. Error t value Pr(>t) 12 # (Intercept) 7.032594 0.457843 15.36 <2e-16 *** 13 # TV 0.047537 0.002691 17.67 <2e-16 *** 14 # --- 15 # Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’ 0.05 ’.’ 0.1 ’ ’ 1 16 # 17 # Residual standard error: 3.259 on 198 degrees of freedom 18 # Multiple R-squared: 0.6119 , Adjusted R-squared: 0.6099 19 # F-statistic: 312.1 on 1 and 198 DF, p-value: < 2.2e-16 RSE = 3.259 36 / 39RSE en summary 1 ajusteTV <- lm(sales ~ TV, data = datos) 2 summary(ajusteTV) 3 # Call: 4 # lm(formula = sales ~ TV, data = datos) 5 # 6 # Residuals: 7 # Min 1Q Median 3Q Max 8 # -8.3860 -1.9545 -0.1913 2.0671 7.2124 9 # 10 # Coefficients: 11 # Estimate Std. Error t value Pr(>t) 12 # (Intercept) 7.032594 0.457843 15.36 <2e-16 *** 13 # TV 0.047537 0.002691 17.67 <2e-16 *** 14 # --- 15 # Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’ 0.05 ’.’ 0.1 ’ ’ 1 16 # 17 # Residual standard error: 3.259 on 198 degrees of freedom 18 # Multiple R-squared: 0.6119 , Adjusted R-squared: 0.6099 19 # F-statistic: 312.1 on 1 and 198 DF, p-value: < 2.2e-16 RSE = 3.259 36 / 39 RSE y ŜE(β̂1) en summary 1 ajusteTV <- lm(sales ~ TV, data = datos) 2 summary(ajusteTV) 3 # Call: 4 # lm(formula = sales ~ TV, data = datos) 5 # 6 # Residuals: 7 # Min 1Q Median 3Q Max 8 # -8.3860 -1.9545 -0.1913 2.0671 7.2124 9 # 10 # Coefficients: 11 # Estimate Std. Error t value Pr(>t) 12 # (Intercept) 7.032594 0.457843 15.36 <2e-16 *** 13 # TV 0.047537 0.002691 17.67 <2e-16 *** 14 # --- 15 # Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’ 0.05 ’.’ 0.1 ’ ’ 1 16 # 17 # Residual standard error: 3.259 on 198 degrees of freedom 18 # Multiple R-squared: 0.6119 , Adjusted R-squared: 0.6099 19 # F-statistic: 312.1 on 1 and 198 DF, p-value: < 2.2e-16 RSE = 3.259, ŜE(β̂1) = 0.002691 37 / 39 IC para β1 en el ejemplo ICβ1(95%) = (0.0475± 1.970.0027) = (0.042, 0.053) En R: 1 confint(ajusteTV) 2 # 3 # 2.5 % 97.5 % 4 # (Intercept) 6.12971927 7.93546783 5 # TV 0.04223072 0.05284256 Interpretación: por cada $1000 que aumenta la inversión en publicidad en TV, las ventas predichas aumentan entre 42 y 53 unidades con un 95% de confianza. 38 / 39 IC para β1 en el ejemplo ICβ1(95%) = (0.0475± 1.970.0027) = (0.042, 0.053) En R: 1 confint(ajusteTV) 2 # 3 # 2.5 % 97.5 % 4 # (Intercept) 6.12971927 7.93546783 5 # TV 0.04223072 0.05284256 Interpretación: por cada $1000 que aumenta la inversión en publicidad en TV, las ventas predichas aumentan entre 42 y 53 unidades con un 95% de confianza. 38 / 39 IC para β1 en el ejemplo ICβ1(95%) = (0.0475± 1.970.0027) = (0.042, 0.053) En R: 1 confint(ajusteTV) 2 # 3 # 2.5 % 97.5 % 4 # (Intercept) 6.12971927 7.93546783 5 # TV 0.04223072 0.05284256 Interpretación: por cada $1000 que aumenta la inversión en publicidad en TV, las ventas predichas aumentan entre 42 y 53 unidades con un 95% de confianza. 38 / 39 Ejercicios de la práctica que pueden hacer Práctica 5: Ej 1 a 5. 39 / 39
Compartir