Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Análisis de la varianza Bioestadística 2020 DS Text Box Introducción • En esta sección, presentaremos otra prueba estadística para testear si hay diferencias en las medias de distintos grupos: el análisis de la varianza. • Sin embargo, antes de incursionar en dicha técnica, dedicaremos la primera parte de esta sección a presentar y discutir estrategias para verificar que los supuestos de normalidad y homogeneidad de varianzas, claves en casi todas las pruebas de hipótesis paramétricas, se cumplan. Usuario1 Highlight Supuestos de las pruebas de hipótesis • Todas las pruebas de hipótesis que hemos visto hasta ahora, y las que desarrollaremos de aquí en más, son pruebas denominadas “paramétricas” y, muchas de ellas, se basan en asumir que los datos evaluados provienen de poblaciones normalmente distribuidas. • Para que estas pruebas puedan ser utilizadas, y los resultados obtenidos tengan validez, es necesario verificar que se cumplan determinados supuestos. • Los supuestos más fuertes son 3: 1. Independencia 2. Normalidad 3. Homogeneidad de varianzas Usuario1 Highlight Usuario1 Highlight Independencia • La mayor parte de las pruebas estadísticas asumen que se parte de una muestra de observaciones independientes. • Esto quiere decir que el valor de cada observación no se ve afectado por el valor de las otras observaciones. • La falta de independencia puede generar que nuestra prueba estadística tenga un exceso de falsos positivos (es decir, que aumente la probabilidad de cometer error de tipo I). • La falta de independencia proviene de un incorrecto diseño de experimentos. • Es difícil de detectar este problema, principalmente cuando se desconoce cómo fue hecho el experimento del cual se obtuvieron los datos que se están analizando. Usuario1 Highlight Usuario1 Highlight Soluciones a la falta de independencia • A diferencia de la falta de normalidad y de homogeneidad de varianzas, no hay una forma rápida y sencilla de observar los datos y determinar su estos son o no independientes. • Es necesario tener pleno conocimiento de la biología del organismo bajo estudio, de modo de poder diseñar un experimento en el cual las observaciones sean independientes; • O bien para poder analizarlo correctamente, en el caso de que el experimento ya haya sido llevado a cabo. Usuario1 Highlight Usuario1 Highlight Normalidad • La mayoría de las pruebas estadísticas paramétricas asumen que los datos se distribuyen normalmente (es decir, que se ajustan a una curva de distribución con forma de campana de Gauss). • Una forma sencilla de verificar normalidad, principalmente cuando tenemos varios datos, es graficar un histograma y observar si las frecuencias se aproximan a una curva normal. • Sin embargo, hay métodos más elegantes y formales de probar normalidad. • Entre ellos, métodos estadísticos (pruebas de hipótesis no paramétricas, que determinan mediante un p-valor si los datos ajustan o no a una normal) y métodos gráficos. • Uno de los métodos gráficos más usados para probar normalidad es el gráfico de cuantil:cuantil, también llamado qq-plotnormal. Usuario1 Highlight Usuario1 Highlight Usuario1 Highlight Usuario1 Highlight Usuario1 Highlight qq-plot normal • Los gráficos de cuantil:cuantil (qqplots) permiten hacer un diagnostico de si existen diferencias entre la distribución observada en nuestra muestra y una distribución teórica. • Si la distribución con la que queremos comparar es la distribución normal, el gráfico se llamará qq-plotnormal. Usuario1 Highlight Usuario1 Highlight Usuario1 Highlight Cuantiles • Repasando un poco lo visto en secciones previas, vimos que los cuantiles son puntos tomados a intervalos regulares de una distribución. • Entre ellos, hicimos hincapié en los percentiles (cuantiles que dividen a la distribución, o al conjunto de datos, en 100 partes iguales) y los cuartiles (cuantiles que dividen a la distribución, o al conjunto de datos, en 4 partes iguales). • Sin embargo, hay infinitas posibilidades de n-iles: es decir, de formas de dividir una distribución, o conjunto de datos, en n partes iguales. Usuario1 Highlight Usuario1 Highlight Cómo se ve un qq-plot normal • Un qq-plotnormal presenta sobre el eje x los cuantiles esperados si nuestros datos se distribuyeran normalmente, y en el eje y los cuantiles observados para nuestros datos. • Se grafican los n puntos (siendo n nuestro tamaño muestral total) en dicho gráfico, y se observa. • Si la distribución de nuestros datos se asemeja mucho a la distribución esperada (es decir, a normal), los puntos se alinearán sobre la diagonal, formando una línea recta: Usuario1 Highlight Usuario1 Highlight Cómo (y por qué) se ve un qqplot de datos que no ajustan a distribución normal 1 • Podemos observar varias maneras en las cuales los datos no se ajustan a la recta central. Las causas son las siguientes: • Si la parte central de los puntos sí se ajustan a la recta diagonal, pero la cola izquierda queda muy por debajo de la recta y la cola derecha muy por encima, estamos ante el caso de un conjunto de datos que están totalmente agrupados en el medio, quedando muy pocos datos en las colas de la distribución (curtosis positiva) Histograma Cuantiles esperados Cu an til es ob se rv ad os Muchos datos agrupados en el centro Fr ec ue nc ia s a bs ol . Usuario1 Highlight Cómo (y por qué) se ve un qqplot de datos que no ajustan a distribución normal 2 • Si gran parte de los puntos se ajusta a la recta diagonal, pero la parte izquierda de los puntos queda por debajo de la recta, estamos ante un conjunto de datos con asimetría negativa (cola a la izquierda) Cuantiles esperados Cu an til es ob se rv ad os Datos con asimetría negativa Histograma Usuario1 Highlight Cómo (y por qué) se ve un qqplot de datos que no ajustan a distribución normal 3 • Si gran parte de los puntos se ajusta a la recta diagonal, pero la parte derecha de los puntos queda por encima de la recta, estamos ante un conjunto de datos con asimetría positiva (cola a la derecha) Cuantiles esperados Cu an til es ob se rv ad os Datos con asimetría negativa Histograma Usuario1 Highlight Homogeneidad de varianzas • las pruebas estadísticas (paramétricas) asumen que los datos son homocedásticos (es decir, que todos los grupos que queremos comparar tienen la misma varianza). • Si las varianzas no son iguales entre grupos, la probabilidad de obtener un falso positivo por azar será mayor que el nivel de significancia establecido. • Este problema se hace aun mayor cuando tenemos un diseño de experimentos desbalanceados (es decir, cuando los tamaños muestrales de cada grupo son diferentes entre sí). • Es por ello que es necesario siempre testear que las varianzas sean homogéneas entre grupos. Usuario1 Highlight Usuario1 Highlight Usuario1 Highlight Homogeneidad de varianzas • Hay diversos métodos estadísticos para probar la homogeneidad de varianzas: 1. desde pruebas de hipótesis (como la prueba de Barlett, usado solo cuando estamos seguros de que los datos vienen de una distribución normal o la de Levene, menos sensible que Barlett pero que puede usarse con datos que no ajustan a normal) a 2. métodos gráficos. Usuario1 Highlight Usuario1 Highlight Usuario1 Highlight Pruebas de hipótesis para verificar homogeneidad de varianzas: noción general • Son pruebas no paramétricas, cuya hipótesis nula plantea que: 1. Nula: “las varianzas entre grupos son homogéneas” • La hipótesis alternativa plantea que: 2. Alternativa: “las varianzas entre grupos NO son homogéneas”. • Obviamente, si obtenemos para estas pruebas un p-valor < 0,05, quiere decir que las varianzas no son homogéneas. • Por el contrario, si obtenemos un p-valor > 0,05, quiere decir que las varianzas sí son homogéneas entre grupos, y podemos confiar en los resultados que nos arroje la prueba de hipótesis que hagamos a continuación.Usuario1 Highlight Usuario1 Highlight Método gráfico para determinar homogeneidad de varianzas • Se usa una gráfica de dispersión: a) En el eje Y, para simplificar la comprensión y visualización, en lugar de graficar los datos observados, se grafican los residuos (es decir, cada dato menos la media del grupo al que pertenece). Residuo = x - 𝒙"i (siendo 𝑥$i la media (promedio) del grupo i al que el dato x pertenece) • Esto hace que haya valores por encima y por debajo de cero, pero que la media esperada sea cero. b) En el eje X se presentan los valores esperados (es decir, la media) para cada grupo. Usuario1 Highlight Usuario1 Highlight Usuario1 Highlight Usuario1 Highlight Método gráfico para determinar homogeneidad de varianzas • Si las varianzas entre grupos son homogéneas, esperaríamos que todos los residuos se distribuyan en forma aleatoria por encima y por debajo de cero, con una dispersión (rango) similar. • Si por el contrario encontramos que: 1. Los rangos de dispersión son muy diferentes entre grupos (en la práctica, por “muy diferente” entendemos que al menos uno de los rangos es más del doble de alguno de los otros rangos), 2. O si encontramos que ese gráfico de dispersión muestra un patrón (por ejemplo, una forma de embudo: a mayor valor de X, mayor o menor se hace la dispersión), • Esto será indicador de que esas varianzas entre grupos no son homogéneas. Usuario1 Highlight Usuario1 Highlight Método gráfico para determinar homogeneidad de varianzas • Si las varianzas entre grupos son homogéneas, esperaríamos que todos los residuos se distribuyan en forma aleatoria por encima y por debajo de cero, con una dispersión (rango) similar. • Si por el contrario encontramos que: 1. Los rangos de dispersión son muy diferentes entre grupos (en la práctica, por “muy diferente” entendemos que al menos uno de los rangos es más del doble de alguno de los otros rangos), 2. O si encontramos que ese gráfico de dispersión muestra un patrón (por ejemplo, una forma de embudo: a mayor valor de X, mayor o menor se hace la dispersión), • Esto será indicador de que esas varianzas entre grupos no son homogéneas. Algunos ejemplos: gráfico de residuos vs predichos OK Valores predichos (esperados) Re si du os o bs er va do s Notar que: - Los datos se “apilan” sobre 3 valores de x (esperados), así de de ahí deducimos que son solo 3 grupos los que estamos comparando). - Cada valor esperado (sobre el eje x) es la media de ese grupo. - Como esperamos, para cada grupo hay residuos > 0 y <0 - La dispersión (que tan separados están los puntos) de los residuos de ningún grupo es 2 veces mayor a la de otro grupo Grupo 1 Grupo 2 Grupo 3 Algunos ejemplos: gráfico de residuos vs predichos Incorrecto Valores predichos (esperados) Re si du os o bs er va do s Notar que: - Los datos se “apilan” sobre 3 valores de x (esperados), así de de ahí deducimos que son solo 3 grupos los que estamos comparando). - Cada valor esperado (sobre el eje x) es la media de ese grupo. - Como esperamos, para cada grupo hay residuos > 0 y <0 - La dispersión (que tan separados están los puntos) de los residuos de grupo 3 es MUCHO mayor a la de los otros grupos Grupo 1 Grupo 2 Grupo 3 Algunos ejemplos: gráfico de residuos vs predichos Incorrecto Valores predichos (esperados) Re si du os o bs er va do s Notar que: - Los datos se “apilan” sobre 3 valores de x (esperados), así de de ahí deducimos que son solo 3 grupos los que estamos comparando). - Cada valor esperado (sobre el eje x) es la media de ese grupo. - Como esperamos, para cada grupo hay residuos > 0 y <0 - La dispersión de los residuos sigue un patrón (embudo): a mayor X, menos dispersión Grupo 1 Grupo 2 Grupo 3 Análisis de la varianza (ANOVA) a un factor • El ANOVA a un factor se usa cuando tenemos una variable cuantitativa y una variable cualitativa que tiene 3 o más categorías, y queremos probar si las medias (de la variable cuantitativa) difieren entre las categorías de la variable categórica. • El ANOVA es la estrategia más usada para comparar medias entre grupos. Usuario1 Highlight Usuario1 Highlight Usuario1 Highlight Ejemplo • Tomemos el caso en el cual se quiere evaluar la eficacia de distintas dosis de un fármaco contra la hipertensión arterial, comparándola con la de una dieta sin sal. • Para ello se seleccionan al azar 25 hipertensos y se distribuyen aleatoriamente en 5 grupos. • Al primero de ellos no se le suministra ningún tratamiento (ST), al segundo una dieta con un contenido pobre en sal (BS), al tercero una dieta sin sal (SS), al cuarto el fármaco a una dosis determinada (FD1) y al quinto el mismo fármaco a otra dosis (FD2). Usuario1 Highlight Usuario1 Highlight Usuario1 Highlight Usuario1 Highlight Usuario1 Highlight Ejemplo • Las presiones arteriales sistólicas de los 25 sujetos al finalizar los tratamientos son: Grupo 1 (ST) Grupo 2 (BS) Grupo 3 (SS) Grupo 4 (FD1) Grupo 5 (FD2) 180 172 163 158 147 173 158 170 146 152 175 167 158 160 143 182 160 162 171 155 181 175 170 155 160 Ejemplo • Como se observa, tenemos una única variable cuantitativa (presión arterial sistólica, en mmHg) y una única variable cualitativa (tratamiento) con 5 categorías (ST, BS, SS, FD1 y FD2). • Este es un diseño balanceado, así que para cada categoría o grupo tenemos el mismo tamaño muestral (n=5). Grupo 1 (ST) Grupo 2 (BS) Grupo 3 (SS) Grupo 4 (FD1) Grupo 5 (FD2) 180 172 163 158 147 173 158 170 146 152 175 167 158 160 143 182 160 162 171 155 181 175 170 155 160 Usuario1 Highlight Antes de seguir con estadística inferencial, hagamos un poco de estadística descriptiva • Usando herramientas de estadística descriptiva, podemos hacer gráficos de cajas y bigotes (boxplots) para describir nuestros datos: Qué me pueden decir sobre estos datos al mirar el gráfico? Interpretando lo que nos dice el boxplot • A simple vista, podemos decir que los individuos que recibieron el T1 (sin tratamiento) tuvieron la mayor presión arterial (mmHg). En el extremo opuesto, vemos que los individuos que recibieron el tratamiento 5 (FD2) la presión más baja. • Sin embargo, para saber si esas diferencias que observamos “a ojo” son significativas, tenemos que hacer una prueba de hipótesis. • Vemos que los datos pertenecientes a T4 (FD1) tienen dos valores atípicos. • También observamos que T1 presenta una distribución asimétrica negativa, y T3 una distribución asimétrica positiva. Formulando hipótesis estadísticas para la prueba de ANOVA • Como siempre, la hipótesis nula plantea ausencia de cambios para el parámetro “Media poblacional”. Entonces, la hipótesis nula plantea que las medias (µ) entre estos grupos o categorías son iguales. • Por su parte, la hipótesis alternativa plantea que al menos una de estas medias difiere. • Cómo plantearían las hipótesis estadísticas en palabras para nuestro ejemplo? Usuario1 Highlight Formulando hipótesis estadísticas para la prueba de ANOVA: ejemplo • En nuestro ejemplo, las hipótesis en palabras plantearían que: • Nula: no hay diferencia en la presión arterial sistólica media (medida en mmHg) entre tratamientos • Alternativa: si hay diferencia en la presión arterial sistólica media (medida en mmHg) entre tratamientos. Formulando hipótesis estadísticas para la prueba de ANOVA: notación • En notación, tenemos que Nula: µ1 = µ2 = µ3 = … = µk (siendo k el número de categorías de la variable categórica) Alternativa: Alguna µi ≠ µj (Esto parece raro, pero i y j son dos valores genéricos, esta hipótesis dice que alguna de las medias difiere de las otras) • Cómo plantearían las hipótesis estadísticas en notación para nuestro ejemplo? Usuario1 Highlight Usuario1 Highlight Formulando hipótesis estadísticas para la prueba de ANOVA: notación (ejemplo) • En nuestro ejemplo, podemos formular que:Nula: µST = µBS = µSS = µFD1 = µFD2 Alternativa: Alguna µi ≠ µj (esto no cambia, es genérico) Siendo µ la presión arterial sistólica media (medida en mmHg) Usuario1 Highlight Cómo funciona la prueba de hipótesis para el ANOVA • La idea básica es calcular la media de las observaciones para cada grupo (categoría), y luego comparar la varianza entre esas medias con la varianza dentro de cada grupo (categoría). • Si la hipótesis nula fuera cierta, es decir, si las medias de todos los grupos fueran iguales, la varianza entre grupos debería ser igual a la varianza dentro de grupos. Usuario1 Highlight Usuario1 Highlight Usuario1 Highlight Cómo funciona la prueba de hipótesis para el ANOVA • De esta forma, el estadístico de prueba en el ANOVA es el cociente entre las varianzas entre grupos y las varianzas dentro de cada grupo. • Este estadístico de prueba se llama F de Fisher-Snedeccor, y se distribuye como una distribución también llamada F. • F = 𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑒𝑛𝑡𝑟𝑒 𝑔𝑟𝑢𝑝𝑜𝑠𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑑𝑒𝑛𝑡𝑟𝑜 𝑑𝑒 𝑔𝑟𝑢𝑝𝑜𝑠 Usuario1 Highlight Usuario1 Highlight Distribución F de Fisher Snedeccor • Es una distribución asimétrica positiva (es decir, su rango de valores va de 0 a + infinito). • Su forma depende de dos valores: (1) los grados de libertad del numerador y (2) los grados de libertad del denominador. • Los grados de libertad del numerador (es decir, de la varianza entre grupos o categorías) se calculan como: νN = número de grupos -1. • Por su parte, los grados de libertad del denominador (es decir, de la varianza dentro de grupos o categorías) se calculan como: νD = número total de datos – número de grupos. Usuario1 Highlight Usuario1 Highlight Usuario1 Highlight Usuario1 Highlight Distribución F de Fisher Snedeccor • Si bien la distribución F es asimétrica, a medida que aumentan los grados de libertad (tanto del numerador como del denominador), más tiende a parecerse a una campana Cálculo de grados de libertad en nuestro ejemplo • Cuánto valen (y cómo se calculan) los grados de libertad del numerador y del denominador en nuestro ejemplo? • Recordemos: 5 tratamientos (categorías), cada uno con 5 observaciones (25 datos en total) Cálculo de grados de libertad en nuestro ejemplo • Cuánto valen (y cómo se calculan) los grados de libertad del numerador y del denominador en nuestro ejemplo? • En nuestro ejemplo, tenemos 5 grupos o categorías (los 5 tratamientos) de modo que podemos calcular los grados de libertad del numerador como: νN = 5 - 1 = 4 • Por su parte, para el cálculo de los grados de libertad del denominador tenemos que el número total de datos es 25 (5 observaciones para cada tratamiento), de modo que: νD = 25 - 5 = 20 Usuario1 Highlight Usuario1 Highlight Cálculo del estadístico de prueba F • Como ya hemos mencionado, el estadístico de prueba F se calcula como: F = 𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑒𝑛𝑡𝑟𝑒 𝑔𝑟𝑢𝑝𝑜𝑠 𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑑𝑒𝑛𝑡𝑟𝑜 𝑑𝑒 𝑔𝑟𝑢𝑝𝑜𝑠 • Los cálculos de varianzas ya se han introducido previamente. • Repasando lo ya presentado brevemente, y adecuándolo a este caso en particular, tenemos que para calcularlas debemos primero estimar las distintas sumatorias de desvíos al cuadrado: Usuario1 Highlight Primero calculemos la sumatoria de desvios al cuadrado (entre grupos) • Las sumatorias de desvíos al cuadrado entre grupos (SEG) se calculan como: SEG = ∑𝒏i(𝒙"i - 𝒙")2 • Siendo ni el tamaño muestral del grupo i (de nuevo, esa “i” es genérica… representa a cada uno de los distintos grupos o categorías cuyas medias queremos comparar); 𝑥$i la media (promedio) de cada grupo i (es decir, de cada uno de los grupos); 𝑥$ es la media (promedio) de todos los datos juntos. Usuario1 Highlight Usuario1 Highlight Usuario1 Highlight Primero calculemos la sumatoria de desvios al cuadrado (dentro de grupos) • Las sumatorias de desvíos al cuadrado dentro de grupos (SDG) se calculan como: SDG = ∑(x - 𝒙"i)2 • Siendo x cada dato observado y 𝑥$ i la media (promedio) del cada grupo i al cual pertenece el dato x. Usuario1 Highlight Usuario1 Highlight Ya teniendo las sumatorias de desvios al cuadrado podemos calcular las varianzas • Para esto tenemos que: 1. Varianza entre grupos = 𝑆𝐸𝐺 𝑔𝑟𝑎𝑑𝑜𝑠 𝑑𝑒 𝑙𝑖𝑏𝑒𝑟𝑡𝑎𝑑 𝑒𝑛𝑡𝑟𝑒 𝑔𝑟𝑢𝑝𝑜𝑠 2. Varianza dentro de grupos = 𝑆𝐷𝐹 𝑔𝑟𝑎𝑑𝑜𝑠 𝑑𝑒 𝑙𝑖𝑏𝑒𝑟𝑡𝑎𝑑 𝑑𝑒𝑛𝑡𝑟𝑜 𝑑𝑒 𝑔𝑟𝑢𝑝𝑜𝑠 Usuario1 Highlight Cálculo del estadístico de prueba F • Ahora sí, ya podemos calcular nuestro estadístico de prueba F. • El p-valor de nuestra prueba de hipótesis será el área bajo la curva de distribución F (con νN, νD grados de libertad) que queda desde el valor del estadístico de prueba F hacia más infinito. Usuario1 Highlight Sumas de desvíos al cuadrado entre grupos: ejemplo • La media general de todos los datos (es decir, el promedio de estas 25 observaciones) es 𝑥$ = 163,72. • La media de cada grupo está en la tabla • De esta forma, podemos calcular: SEG = ∑𝑛i(𝑥$i - 𝑥$)2 = 5(178,2 - 163,72)2 + 5(166,4 - 163,72)2 + 5(164,6-163,72)2 +5(158-163,72)2 + 5(151,4-163,72)2 = 2010,64 Grupo 1 (ST) Grupo 2 (BS) Grupo 3 (SS) Grupo 4 (FD1) Grupo 5 (FD2) 180 172 163 158 147 173 158 170 146 152 175 167 158 160 143 182 160 162 171 155 181 175 170 155 160 �̅�st=178,2 �̅�BS=166,4 �̅�SS=164,6 �̅�FD1=158 �̅�FD2=151,4 Usuario1 Highlight Usuario1 Highlight Sumas de desvíos al cuadrado dentro de grupos: ejemplo • Como ya dijimos, se calcula como la sumatoria del cuadrado de cada dato menos la media del grupo al que pertenece • SDG = ∑(x - 𝑥$ i)2 = (180 – 178,2)2 + (173 – 178,2)2 + (175 – 178,2)2 + (182 – 178,2)2 + (181 – 178,2)2 + (172 – 166,4)2 + (158 – 166,4)2 + … + (160 – 151,4)2 = 894,4 Grupo 1 (ST) Grupo 2 (BS) Grupo 3 (SS) Grupo 4 (FD1) Grupo 5 (FD2) 180 172 163 158 147 173 158 170 146 152 175 167 158 160 143 182 160 162 171 155 181 175 170 155 160 �̅�st=178,2 �̅�BS=166,4 �̅�SS=164,6 �̅�FD1=158 �̅�FD2=151,4 Usuario1 Highlight Usuario1 Highlight Cálculo de las varianzas y del estadístico F: ejemplo • Para obtener las varianzas tenemos: Varianza entre grupos = 𝑆𝐸𝐺 𝑔𝑟𝑎𝑑𝑜𝑠 𝑑𝑒 𝑙𝑖𝑏𝑒𝑟𝑡𝑎𝑑 𝑒𝑛𝑡𝑟𝑒 𝑔𝑟𝑢𝑝𝑜𝑠 = 2020,64 (5−1) = 502,66 Varianza dentro de grupos = 𝑆𝐷𝐹 𝑔𝑟𝑎𝑑𝑜𝑠 𝑑𝑒 𝑙𝑖𝑏𝑒𝑟𝑡𝑎𝑑 𝑑𝑒𝑛𝑡𝑟𝑜 𝑑𝑒 𝑔𝑟𝑢𝑝𝑜𝑠 = 894,4 (25−5) = 44,72 • De esta forma, nuestro estadístico de prueba F se obtiene como: F = 𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑒𝑛𝑡𝑟𝑒 𝑔𝑟𝑢𝑝𝑜𝑠 𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑑𝑒𝑛𝑡𝑟𝑜 𝑑𝑒 𝑔𝑟𝑢𝑝𝑜𝑠 = 502,66 44,72 = 11,24 Cálculo del p-valor: ejemplo • Para calcular el p-valor, debemos calcular el área que queda bajo la curva de distribución F con (4 y 20 grados de libertad), desde el punto F=11,24 hasta más infinito. • Podemos usar la APP. Distribución F, con ν1= GL numerador y ν2= GL denominador • Nos da un valor muy pequeño: p-valor = 0,000061. • El área sombreada no se ve, por ser tan pequeña… Usuario1 Highlight Armado de tabla de ANOVA • Todos estos valores suelen ser representados en una tabla DE ANOVA, así que así lo haremos: • Notar que la fila de “total” solo contiene la sumatoria de los datos para la columna SC (2010,64+894,4=2905,04) y GL (20+4=24). SC GL Varianza F p-valor Entre grupos 2010,64 4 502,66 11,24 0,000061 Dentro de grupos 894,4 20 44,72 Total 2905,04 24 Usuario1 Highlight Supuestos • El ANOVA, como otras pruebas paramétricas, asume que las observaciones se distribuyen normalmente, y que los datos son homocedásticos (es decir, que las desviaciones estándar entre grupos son iguales). • Siempre, antes de concluir para un ANOVA, debemos verificar que se cumplan estos supuestos. • Lo haremos como ya hemos visto al comienzo de esta clase: usando métodos gráficos. Usuario1 Highlight Gráfico de cuantil:cuantil (qq-plot normal) para probar normalidad • Los puntos se deben ajustar a una recta diagonal. • Por suerte el ANOVA no esmuy sensible a la falta de normalidad, así que aun cuando los datos no sean 100% normales, podemos aplicar el ANOVA (siempre y cuando las varianzas sean homogeneas). • Igualmente en nuestro ejemplo los datos ajustan a recta diagonal Usuario1 Highlight Gráfico de residuos versus predichos para probar homogeneidad de varianzas • No debemos observar una dispersión mucho mayor, o mucho menor, en alguno de los grupos respecto del resto, ni un patrón evidente de dispersión. • También se podría hacer en forma analítica, con la prueba de Levene o Barlett, en la cual esperamos obtener un p-valor > 0,05 (es decir, no rechazar la hipótesis nula que plantea que las muestras son homocedásticas). • En nuestro ejemplo, las varianzas parecer ser bastante homogeneas: Valores esperados (predichos) Re sid uo s T5 T4 T3 T2 T1 Concluyendo (hasta acá) • Como podrán observar, los supuestos de normalidad y homogeneidad de varianzas se cumplen para nuestros datos, entonces podemos confiar en nuestras conclusiones. • De esta forma, podemos concluir que: “la prueba de hipótesis fue estadísticamente significativa. Al menos una de las presiones sistólicas medias para alguno de los tratamientos aplicados difiere del resto (p-valor = 0,000061). Como siempre, podemos estar en lo cierto o cometer error de tipo I. En cuyo caso, tenemos una probabilidad de 0,000061 de estar cometiendo ese tipo de error”. Análisis adicionales • Si rechazamos la hipótesis nula (es decir, sabemos que al menos una de las medias de los tratamientos difiere del resto), lo más probable es que queramos saber cuál/es es la/s media/s que difiere/n del resto! • Y el p-valor no nos lo dice… solo nos dice que “alguna media difiere” • Para saber cuál es el tratamiento cuya media difiere, debemos hacer una prueba posterior, llamada “comparaciones múltiples”, que nos permite justamente determinar qué media/s difiere/n. • También, podemos estimar cuál es la magnitud del efecto del tratamiento. Usuario1 Highlight Comparaciones múltiples entre grupos • Existen distintas estrategias o métodos para hacer comparaciones múltiples: Bonferroni, Tukey, LSD de Fisher, entre otras. • Todos tienen sus ventajas y desventajas. • Sin embargo, y más allá del nombre o de la estrategia en si, todas tienen en común que buscan controlar la probabilidad de cometer error de tipo I. Método de Tukey • Este método hace comparaciones entre todos los pares de medias posibles. • Esta estrategia calcula cuál es la diferencia mínima significativa (DMS) para cada par de medias que compara. • Esta DMS dependerá del tamaño de la muestra en cada grupo, la variación promedio dentro de los grupos y el número total de grupos. • Para un diseño equilibrado, todas las DMS serán iguales; para un diseño desequilibrado, los pares de grupos con tamaños de muestra más pequeños tendrán DMS más grandes. Usuario1 Highlight Usuario1 Highlight Usuario1 Highlight Usuario1 Highlight Método de Tukey • Si la diferencia observada entre un par de medias es mayor que la DMS, el par de medias es significativamente diferente. • La forma más común de mostrar los resultados de la prueba de Tukey (o se cualquier prueba de comparaciones múltiples) es señalar a todos los grupos cuyas medias no difieran significativamente con la misma letra, y aquellos que si difieren con letras diferentes. Tukey en nuestro ejemplo • En nuestro ejemplo, la DMS (calculada con software) es igual a 12,656 • Como el diseño del experimento es balanceado, la DMS es la misma para todas las comparaciones de medias • La prueba de Tukey hace diez (10) comparaciones de medias: T2-T1 (166,4 - 178,2= -11,8); T3-T1 (164,6 - 178,2 = -13,6); T4-T1 (158 – 178,2 = -20,2); T5-T1 (151,4 – 178,2 = -26,8); T3-T2 (-1,8); T4-T2 (-8,4); T5-T2 (- 15,0); T4-T3 (-6-6); T5-T3 (-13,2); T5-T4 (-6,6). Usuario1 Highlight Tukey en nuestro ejemplo • Par definir si estas diferencias son significativas, los valores absolutos (es decir, sin signo) de cada par de diferencias de medias se comparan con el DMS: a) si la diferencia es mayor al DMS, esas dos medias serán estadísticamente diferentes y se marcarán con letras diferentes. b) Si esa diferencia es menor al DMS, esas medias NO serán estadísticamente diferentes y se marcarán con la misma letra. Usuario1 Highlight Usuario1 Highlight Tukey en nuestro ejemplo • De esta forma, nos queda: Tratamiento Media grupo Letra (Tukey) T1 (ST) 178,2 C T2 (BS) 166,4 BC T3 (SS) 164,6 B T4 (FD1) 158 AB T5 (FD2) 151,4 A Qué nos dice esta tabla respecto de la diferencia de medias entre grupos? Cuáles difieren y cuales no? Tukey en nuestro ejemplo • Al mirar la tabla anterior podemos concluir que: 1. las medias de presión arterial (mmHg) entre T4 y T5 (droga en dos dosis) no fueron significativamente entre si (ya que ambas llevan la letra A) 2. La media de presión arterial (mmHg) de T5 (FD2) fue significativamente diferente de T3 (SS), T2 (BS) y T1 (ST), ya que llevan letras diferentes (T5 tiene A y los otros tratamientos tienen B o C) 3. La media de presión arterial (mmHg) de T4 (FD1) solo difirió significativamente de T1 (ST). Con el resto de los tratamientos no se observan diferencias significativas (ya que comparten letras: A o B) 4. Las medias de presión arterial (mmHg) de T2 (BS) y T3 (SS) fueron diferentes de T1 (ST). Usuario1 Highlight Usuario1 Highlight Usuario1 Highlight Usuario1 Highlight Tukey en nuestro ejemplo: gráfico • Esto mismo se puede representar gráficamente usando un diagrama de barras. • Cada barra representa un tratamiento. • En el eje X se indican los tratamientos y en el eje Y la variable cuantitativa. • La altura de la barra muestra la media de ese grupo para la variable cuantitativa. • Las barras con letras diferentes indican diferencias significativas entre sus medias.
Compartir