Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
308 MATLAB Regresión lineal simple usando notación matricial >> x=[1 39 ; 1 43 ; 1 21; 1 64; 1 57; 1 43; 1 38; 1 75;1 34;1 52] Matriz de diseño X x = 1 39 1 43 1 21 1 64 1 57 1 43 1 38 1 75 1 34 1 52 >> y=[ 65; 75; 52; 82; 92; 80; 73; 98; 56; 75] Vector de observaciones y = 65 75 52 82 92 80 73 98 56 75 >> [b, bint, e, eint, stats] = regress(y,x, 0.05) Regresión lineal simple α = 0.05 b = 35.8294 Coeficientes β0 , β1 del modelo 0.8363 de mínimos cuadrados bint = 20.3497 51.3092 Intervalos de confianza para β0 , β1 0.5199 1.1527 e = Vector de residuales -3.4443 3.2106 -1.3913 -7.3512 8.5027 8.2106 5.3920 -0.5503 -8.2629 -4.3159 stats = Coeficiente de determinación R2, valor 0.8228 37.1456 0.0003 del estadístico F, valor p de la prueba F Uso del modelo de mínimos cuadrados >> yp=b(1) + b(2)*50 Evaluar el modelo con x = 50 yp = 77.6433 309 Matriz de correlación de los datos de la muestra >> mc = corrcoef(x(:,2),y) Vectores columnas X, Y mc = 1.0000 0.9071 Coeficiente de correlación lineal 0.9071 1.0000 r = 0.9071 Gráfico de los puntos muestrales y la recta de regresión >> clf >> scatter(x(:,2),y,'filled'),grid on Gráfico de dispersión >> hold on, ezplot('35.8294+0.8363*x',[20, 80]) Gráfico de la recta de regresión >> legend('Recta de regresion','Datos muestrales',2) Rótulos Prueba de la normalidad del error de los residuales >> sce=sum(e.^2) Suma de los cuadrados de residuales sce = 334.1363 >> s2=sce/8 Estimación de la varianza S2 s2 = 41.7670 >> t=sort(e); Residuales ordenados >> f=normcdf(t, 0, sqrt(s2)); Modelo a probar ei ∼ N(0, σ2)r >> [h,p,ksstat,vc]=kstest(t, [t f ], 0.05,0) Prueba K-S, α = 0.05 h = 0 No se puede rechazar el modelo p = 0.9891 Valor p de la prueba ksstat = 0.1339 Valor del estadístico de prueba vc = 0.4093 Valor crítico de la región de rechazo Matriz de varianzas y covarianzas de los estimadores βi >> mvc = inv(x' *x)*s2 Usando notación matricial mvc = 45.0619 -0.8774 V(β0) = 45.0619, V(β1) = 0.0188 -0.8774 0.0188 Cov(β0 , β1) = -0.8774 310 12 REGRESIÓN LINEAL MÚLTIPLE Consideramos el caso de una variable Y que suponemos depende linealmente de otras k variables x1, x2, ... , xk . Para describir esta relación se propone un modelo de regresión lineal múltiple poblacional Definición: Modelo de regresión lineal múltiple Y = β0 + β1 x1 + β2 x2 + ... + βk xk + ε En donde β0, β2, . . . , βk son los parámetros que deben estimarse para el modelo, mientras que ε es el componente aleatorio de Y. Cuando k = 1, se obtiene el modelo de regresión lineal simple previamente estudiado. Suponer que se tiene una muestra aleatoria (x1,i, x2,i, ..., xk,i, yi), i = 1, 2, ..., n Para cada grupo de k valores x1,i, x2,i, ..., xk,i se tiene un resultado u observación yi. Este es uno de los posibles valores de la variable aleatoria Yi. Una variable aleatoria debe tener una distribución de probabilidad. La aleatoriedad de Yi está dada por εi. Se supondrá que para cada variable aleatoria Yi el componente aleatorio εi es una variable con la misma distribución de probabilidad, y que además son variables independientes. Para comprensión de conceptos se desarrolla paralelamente un ejemplo Ejemplo Se desea definir un modelo de regresión relacionando la calificación final en cierta materia con la calificación parcial y el porcentaje de asistencia a clases. Para el análisis se usará una muestra aleatoria de 6 estudiantes que han tomado esta materia. Diagramas de dispersión: y vs. x1, y vs. x2 Modelo teórico de regresión lineal múltiple propuesto Y = β0 + β1 x1 + β2 x2 + ε . Estudiante 1 2 3 4 5 6 Nota Parcial X1 67 65 78 60 64 61 % Asistencia X2 75 78 79 83 65 76 Nota Final Y 80 77 94 70 51 70 y vs. X1 y vs. X2 12 REGRESIÓN LINEAL MÚLTIPLE
Compartir