Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Estadística I Cuadernillo N°11 -2- www.grupolamatriz.com MEDIDAS DE ASOCIACIÓN Es muy común que en algún campo de investigación se requiera medir la relación entre las características de un determinado fenómeno o entre fenómenos diferentes. En la ciencia Estadística existen métodos que permiten determinar el tipo de relación entre dichas características, así como el grado de asociación de las mismas. Los objetivos de medición suelen ser: * Determinar si dos variables están correlacionadas, es decir, si los valores de una de las variables tienden a ser más altos o más bajos para valores más altos o más bajos de la otra variable. * Predecir el valor de una variable para un determinado valor de la otra variable. * Establecer en qué medida una variable está relacionada con otra. En este cuadernillo estudiaremos a las Medidas Estadísticas de Asociación, las cuales tienen como objetivo determinar el tipo de relación entre dos variables cuantitativas, y también medir el grado de relación que existe entre dichas variables. Medidas de Asociación www.grupolamatriz.com -3- Diagramas de Dispersión Nos indican como se encuentran distribuidos los datos. A partir de los diagramas de dispersión podemos establecer la necesidad de medir el grado de relación entre dos características o variables. Relación de dependencia directa perfecta. Relación de dependencia directa imperfecta. Relación de dependencia inversa perfecta. Relación de dependencia inversa imperfecta. Poca o No existe relación de dependencia. Medidas de Asociación -4- www.grupolamatriz.com Medida de asociación absoluta: Covariancia La covariancia entre dos variables X e Y nos indica el tipo de relación que existe entre dichas variables. Si la covarianza toma un valor positivo, nos indica que la asociación entre las variables es directa, esto significa que, para valores altos de una de las variables, también tendremos valores altos de la otra variable. Si la covarianza toma un valor negativo, nos indica que la asociación entre las variables es inversa, esto significa que, para valores altos de una de las variables, tendremos valores bajos de la otra variable. Si el valor de la covarianza es igual a cero, no podemos afirmar que no existe relación entre las variables. La covarianza puede tener un valor igual a cero y las variables pueden tener algún tipo de relación. Si X e Y son dos variables definidas sobre un mismo espacio probabilístico, la covariancia entre dichas variables se define como: Poblacional: = = = − − − − = = = = N N N i i x y i i x y i i i 1 i 1 i 1 XY X Y (X )(Y ) X Y N X Y N COV [X, Y] N N N Muestral: = = = − − − − = = = = − − − n n n i i i i i i i 1 i 1 i 1 XY X Y (X X)(Y Y) X Y nXY X Y n cov (X, Y) S n 1 n 1 n 1 Como ya lo mencionamos, de acuerdo al signo de la covariancia se puede decir que: Si: covarianza > 0 existe asociación directa (si una aumenta la otra aumenta). Si: covarianza = 0 no se puede asegurar que las variables sean independientes. Si: covarianza < 0 existe asociación inversa (si una aumenta la otra disminuye). Medidas de Asociación www.grupolamatriz.com -5- Medidas de asociación relativa: Correlación de Pearson El coeficiente de correlación de Pearson entre dos variables X e Y nos indica el grado de relación entre dichas variables. Si X e Y son dos variables definidas sobre un mismo espacio probabilístico, el coeficiente de correlación de Pearson entre X e Y se define como: Poblacional: , Y.X XY YX ]Y,X[Cov XY == donde: 1xy1 − Muestral: XY xy X Y X Y Scov(X, Y) r , S .S S .S = = donde: xy1 r 1− Además de acuerdo al valor de la correlación se puede decir que: Si: xy 1 existe alta o fuerte correlación directa. Si: xy ≈ 0 existe baja o débil correlación. Si: xy -1 existe alta o fuerte correlación inversa. Teorema Si X e Y son dos variables aleatorias independientes, entonces: Cov [X,Y] = 0 ; 0 xy = Correlación Negativa perfecta Correlación débil Correlación negativa fuerte Correlación negativa moderada Correlación negativa débil Correlación positiva débil Correlación positiva moderada Correlación positiva fuerte Correlación Positiva perfecta -1.00 -0.50 0 0.50 1.00 Correlación negativa Correlación positiva No se puede afirmar nada de la dependencia Medidas de Asociación -6- www.grupolamatriz.com Ejercicio #1: En una encuesta realizada a 80 familias elegidas al azar en el distrito de Jesús María acerca de la cantidad de celulares que tienen por familia y la cantidad de integrantes de la familia, se encontró la siguiente información: Número de miembros de la familia Número de equipos celulares por familia Total 1 2 3 4 5 2 3 12 5 0 0 20 3 1 10 19 10 0 40 4 0 0 8 10 2 20 Halle el valor de la covarianza y del coeficiente de correlación entre el número de miembros de la familia y el número de equipos celulares por familia. Interprete. Ejercicio #2: El Gerente de Recursos Humanos de un centro médico tiene que presentar un informe de los empleados a sueldo. Debido a que existen más de 100 empleados y que no tiene personal para reunir toda la información respecto a cada uno de los empleados en cuestión, decidió tomar una muestra aleatoria de 12 de ellos. Por cada empleado registró entre otras características, el sueldo mensual, el tiempo laboral en meses y la edad. Empleado Sueldo mensual (n.s.) Tiempo de servicio Edad (años) 1 1793 93 42 2 1941 104 33 3 2367 126 57 4 2467 98 30 5 1640 99 49 6 1706 96 35 7 1767 122 56 8 2186 130 46 9 1200 73 23 10 1706 110 67 11 1985 90 36 12 1749 81 29 Halle el valor de la covariancia y del coeficiente de correlación entre el sueldo mensual del empleado y el tiempo de servicio. Interprete. Medidas de Asociación www.grupolamatriz.com -7- Correlación de Spearman Charles Edward Spearman (1863-1945) fue un psicólogo británico que determinó el coeficiente de correlación que lleva su nombre, el cual nos permite correlacionar dos variables por rangos en lugar de medir el rendimiento separado de cada una de ellas. Coeficiente de Correlación por rangos de Spearman (rS) Es una medida de asociación lineal entre variables cuantitativas, que utiliza los rangos (número de orden), de cada grupo de elementos y compara dichos rangos. n 2 i i 1 S 2 6 d r 1 ; -1 r 1 n (n 1) == − − Siendo di igual a la diferencia entre los rangos de las dos variables. di = rXi – rYi rXi = rango de orden i de la variable X. rYi = rango de orden i de la variable Y. n = número de elementos de la muestra. Procedimiento: 1. Numerar cada elemento de la muestra desde 1 hasta n (n=tamaño de la muestra). 2. Asignar a cada valor de la variable un rango (número de orden). La asignación debe ser de menor a mayor valor de la variable. La asignación debe ser desde 1 hasta n. La asignación debe ser por separado cada variable. NOTA: Si existen valores numéricamente iguales se denominan empates. De deben corregir los empates utilizando el rango promedio entre ellos. 3. Calcular las diferencias de los rangos asignados luego de las correcciones. 4. Reemplazar en la fórmula los valores obtenidos. El coeficiente de correlación de Spearman es aconsejable utilizarlo cuando las distribuciones de las variables: * No son Normales. * Presentan valores extremos (que afectan al coeficiente de correlación de Pearson). Observación: 1. El coeficiente de Spearman puede ser utilizado paravariables de tipo ordinal. 2. Si no hay empates, el coeficiente de Spearman es igual al coeficiente de Pearson. Ejercicio #1: Los siguientes datos corresponden a las calificaciones finales de 10 alumnos de dos cursos distintos de primer ciclo de la Universidad Pura Vida. Alumno 1 2 3 4 5 6 7 8 9 10 Curso A 11 9 14 16 11 13 17 20 12 14 Curso B 17 8 8 17 11 17 15 17 14 12 Determine el valor del coeficiente de correlación de Spearman. Rpta. 0,564 Ejercicio #2: La siguiente tabla contiene la longitud de ala (Xi) y la longitud de cola (Yi) de 12 aves de la misma especie y con, aproximadamente, el mismo tiempo de vida. Ave 1 2 3 4 5 6 7 8 9 10 11 12 Xi 10,4 10,8 11,1 10,2 10,3 10,2 10,7 10,5 10,8 11,2 10,6 10,4 Yi 7,4 7,6 7,9 7,2 7,4 7,1 7,4 7,2 7,8 7,7 7,8 8,3 Determine el valor del coeficiente de correlación de Spearman. Rpta. 0,853
Compartir