Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
Diseño de experimentos – p. 1/112 Diseño completamente al azar Diseño de experimentos – p. 2/112 Ejemplo Suponga que tenemos 4 dietas diferentes que queremos comparar. Las dietas están etiquetadas A,B,C y D. Estamos interesados en estudiar si las dietas afectan la tasa de coagulación en conejos. La tasa de coagulación es el tiempo en segundos que tarda una cortada en dejar de sangrar. Tenemos 16 conejos para el experimento, por lo que usaremos 4 en cada dieta. Los conejos están en una jaula grande hasta que se inicie el experimento, momento en que se transferirán a otras jaulas. Cómo asignamos los conejos a los cuatro grupos tratamiento? Diseño de experimentos – p. 3/112 Método 1 Supongamos que los conejos se atrapan "al azar". Atrapamos cuatro conejos y los asignamos a la dieta A. Atrapamos otros cuatro y los asignamos a la dieta B y así sucesivamente. Dado que los conejos fueron "atrapados al azar", esto producirá un diseño completamente al azar. Diseño de experimentos – p. 4/112 Método 1 No es necesariamente cierto. Los primeros cuatro conejos atrapados pueden ser los más lentos y débiles, aquellos menos capaces de escapar. Esto puede sesgar los resultados. Si los resultados del experimento dan desventaja a la dieta A, no habrá forma de determinar si los resultados son a consecuencia de la dieta A o del hecho de haber asignado los conejos más débiles a esa dieta por nuestro "proceso de aleatorización". Diseño de experimentos – p. 5/112 Método 2 Atrape a todos los conejos y etiquételos del 1 al 16. Seleccione cuatro números aleatorios (sin reemplazo) del 1 al 16 y ponga los conejos con esa etiqueta en una jaula que recibirá la dieta A. Entonces, seleccione otros cuatro números aleatorios y ponga los conejos correspondientes en otra jaula que recibirá la dieta B. Así sucesivamente hasta tener cuatro jaulas con cuatro conejos en cada una. Diseño de experimentos – p. 6/112 Método 2 No hay repeticiones. El diseño es un diseño completamente al azar pero no tiene repeticiones. Hay 16 conejos, pero los conejos en cada jaula no son independientes. Si un conejo come mucho, los otros en la jaula tienen menos para comer. La unidad experimental es la menor unidad de material experimental a la cual se le aplica un tratamiento en forma independiente. En este caso, las jaulas son las unidades experimentales. Para un diseño completamente al azar con repeticiones, cada conejo debe estar en su propia jaula. Diseño de experimentos – p. 7/112 Método 3 En una urna ponga las letras A,B,C y D en pedazos de papel separados. Atrape un conejo, saque un pedazo de papel al azar de la urna y asigne el conejo a la dieta que indique el papel. No reemplace el papel. Atrape el segundo conejo y seleccione al azar otro pedazo de papel de la urna de los tres que quedan. Asigne el conejo a la dieta correspondiente. Continue hasta que los primeros cuatro conejos sean asignados a una de las cuatro dietas. De esta manera, todos los conejos lentos tienen diferentes dietas. Coloque otra vez los cuatro pedazos de papel en la urna y repita el procedimiento hasta que los 16 conejos estén asignados a una dieta. Diseño de experimentos – p. 8/112 Método 3 Este no es un diseño completamente al azar. Ya que se seleccionaron los conejos en bloques de 4, y cada uno asignado a una de las dietas, el diseño es el bloques al azar. El tratamiento es Dieta pero se ha bloqueado a través del grado de "atrapabilidad". Diseño de experimentos – p. 9/112 Método 4 Atrape a todos los conejos y márquelos del 1 al 16. Ponga 16 piezas de papel en una urna, con las letras A, B, C y D repetidas cuatro veces cada una. Ponga otros 16 pedazos de papel numerados del 1 al 16 en otra urna. Tome un pedazo de papel de cada urna. El conejo con el número seleccionado es asignado a la dieta seleccionada. Para hacer más fácil de recordar cuál conejo tiene cuál dieta, las jaulas se acomodan como se muestra abajo: A A A A B B B B C C C C D D D D Diseño de experimentos – p. 10/112 Método 4 El método 4 tiene algunas deficiencias. La asignación de los conejos a los tratamientos es un diseño completamente al azar. Sin embargo, el arreglo de las jaulas crea un sesgo en los resultados. Puede haber cambios climáticos y de luz que afecten de forma diferencial a los tratamientos, de tal manera que, cualquier diferencia observada no puede ser atribuida a la dieta, sino que podría ser resultado de la posición de la jaula. La posición de la jaula no es parte del tratamiento, pero debe ser considerada. En un diseño completamente al azar, todos los conejos tienen la misma probabilidad de recibir cualquier dieta y en cualquier posición de la jaula. Diseño de experimentos – p. 11/112 Método 5 Marque las jaulas del 1 al 16. 1 5 9 13 2 6 10 14 3 7 11 15 4 8 12 16 Ponga 16 pedazos de papel en una urna, numerados del 1 al 16. En otra urna ponga 16 pedazos de papel, marcados con las letras A, B C y D. Atrape un conejo. Seleccione un número y una letra de cada urna. Ponga el conejo en la jaula indicada por el número escogido y asígnelo a la dieta indicada por la letra. Repita sin reemplazo hasta que todos los conejos hayan sido asignados a una dieta y una jaula. Diseño de experimentos – p. 12/112 Método 5 Si, por ejemplo, el primer número seleccionado fué 7 y la primera letra B, entonces el primer conejo se pone en la jaula 7 y se alimenta con la dieta B. 1 5 9 13 2 6 10 14 3 7 B 11 15 4 8 12 16 Diseño de experimentos – p. 13/112 Método 5 Un ejemplo de asignación completa es el siguiente: 1 C 5 A 9 B 13 D 2 D 6 B 10 D 14 C 3 C 7 B 11 A 15 D 4 A 8 A 12 C 16 B Note que el diseño completamente al azar no toma en cuenta las diferencias en la altura de las jaulas. Es solamente una asignación completamente al azar. En este ejemplo vemos que la mayoría de los conejos con la dieta A están en jaulas de la parte de abajo y los de la dieta D están en la parte superior. Un diseño completamente al azar supone que estas posiciones no producen una diferencia sistemática en la respuesta (tiempo de coagulación). Si creemos que la posición afecta la respuesta, deberíamos usar un diseño de bloques al azar. Diseño de experimentos – p. 14/112 Diseño completamente al azar, un factor Ejemplo: Disminución del crecimiento de bacterias en carne almacenada. La vida en estante de carne almacenada es el tiempo en que el corte empacado se mantiene bien, nutritivo y vendible. El empaque estándar con aire del medio ambiente tiene una vida de 48 horas. Después se deteriora por contaminación bacterial, degradación del color y encogimiento. El empaque al vacío detiene el crecimiento bacterial, sin embargo, se pierde calidad. Estudios recientes sugieren que al controlar ciertos gases de la atmósfera se alarga la vida en estante. Diseño de experimentos – p. 15/112 Diseño completamente al azar, un factor Hipótesis de investigación: Algunas formas de gases controlados pueden mejorar la efectividad del empacamiento para carne. Diseño de tratamientos: Un factor con 4 niveles: 1. Aire ambiental con envoltura plástica 2. Empacado al vacío 3. Mezcla de gases: ■ 1% CO (monóxido de carbono) ■ 40% O2 (oxígeno) ■ 59% N (nitrógeno) 4. 100% CO2 (bióxido de carbono) Diseño experimental: Completamente al azar. Diseño de experimentos – p. 16/112 Diseño completamente al azar, un factor Tres bisteces de res, aproximadamente del mismo tamaño (75 grs.) se asignaron aleatoriamente a cada tratamiento. Cada bistec se empaca separadamente con su condición asignada. Variable de respuesta: Se mide el número de bacterias psichnotropicas en la carne después de 9 días de almacenamiento a 4◦C. Estas bacterias se encuentran en la superficie de la carne y aparecen cuando la carne se echó a perder. La medición fué el logaritmo del número de bacterias por cm2. Diseño de experimentos – p. 17/112 Diseño completamente al azar, un factor Cómo aleatorizar? Se obtiene una permutación aleatoria de los números 1 a 12. Para esto se toma una secuenciade números de 2 dígitos de una tabla de números aleatorios y se les asigna el rango que les corresponda. Por ejemplo: # aleatorio 52 56 20 99 44 34 62 60 31 57 40 78 rango 6 7 1 12 5 3 10 9 2 8 4 11 trat 1 1 1 2 2 2 3 3 3 4 4 4 u.e. 1 2 3 4 5 6 7 8 9 10 11 12 trat 1 3 2 4 2 1 1 4 3 3 4 2 Diseño de experimentos – p. 18/112 Diseño completamente al azar, un factor Modelo estadístico para el experimento El modelo estadístico para estudios comparativos supone que hay una población de referencia de u.e. En muchos casos la población es conceptual. En el ejemplo, es posible imaginar una población de carne empacada. Cada unidad de la población tiene un valor de la variable de respuesta, y, la cual tiene media µ y varianza σ2. Se supone una población de referencia para cada tratamiento considerado en el estudio, y las variables en el experimento se suponen seleccionadas aleatoriamente de dicha población de referencia, como resultado de la aleatorización. Nota. Para estudios observacionales, suponemos que las unidades observadas se seleccionaron aleatoriamente de cada una de las poblaciones. Diseño de experimentos – p. 19/112 Diseño completamente al azar, un factor Diseño de experimentos – p. 20/112 Diseño completamente al azar, un factor Modelo estadístico lineal para un diseño completamente al azar. Modelo de medias: yij = µi + ǫij i = 1, 2, . . . , t j = 1, 2, . . . , r donde yij es la observación de la j-ésima u.e. del i-ésimo tratamiento, µi es la media del i-ésimo tratamiento, ǫij es el error experimental de la unidad ij. Suponemos que hay t tratamientos y r repeticiones en cada uno. En el ejemplo de la carne empacada, tenemos: Diseño de experimentos – p. 21/112 Diseño completamente al azar, un factor bistec trata obser log yij Modelo miento vación (conteo/cm2) 6 1 1 7.66 y11 µ1 + ǫ11 7 1 2 6.98 y12 µ1 + ǫ12 1 1 3 7.80 y13 µ1 + ǫ13 12 2 1 5.26 y21 µ2 + ǫ21 5 2 2 5.44 y22 µ2 + ǫ22 3 2 3 5.80 y23 µ2 + ǫ23 10 3 1 7.41 y31 µ3 + ǫ31 9 3 2 7.33 y32 µ3 + ǫ32 2 3 3 7.04 y33 µ3 + ǫ33 8 4 1 3.51 y41 µ4 + ǫ41 4 4 2 2.91 y42 µ4 + ǫ42 11 4 3 3.66 y43 µ4 + ǫ43 Diseño de experimentos – p. 22/112 Diseño completamente al azar, un factor El modelo: yij = µi + ǫij lo llamaremos modelo completo ya que incluye una media separada para cada una de las poblaciones definidas por los tratamientos. Si no hay diferencia entre las medias de las poblaciones, es decir, µ1 = µ2 = µ3 = µ4 = µ se genera el modelo reducido yij = µ + ǫij que establece que las observaciones provienen de la misma población con media µ. Diseño de experimentos – p. 23/112 Diseño completamente al azar, un factor El modelo reducido representa la hipótesis de no diferencia entre las medias H0 : µ1 = µ2 = µ3 = µ4 = µ El modelo completo representa la hipótesis alternativa: Ha : µi 6= µk i 6= k El investigador debe determinar cuál de los dos modelos describe mejor a los datos en el experimento. Diseño de experimentos – p. 24/112 Diseño completamente al azar, un factor yij = µ + ǫij yij = µi + ǫij Diseño de experimentos – p. 25/112 Diseño completamente al azar, un factor Pregunta de investigación: Hay más crecimiento bacterial con algunos métodos de empacado que con otros? Pregunta estadística: Cuál modelo describe mejor los resultados del experimento? Se requiere un método para estimar los parámetros de los dos modelos y con base en algun criterio objetivo determinar cuál modelo o hipótesis estadística se ajusta mejor a los datos del experimento. Diseño de experimentos – p. 26/112 Diseño completamente el azar, un factor Los estimadores de mínimos cuadrados son aquellos que resultan de minimizar la suma de cuadrados de los errores experimentales. Si los errores experimentales son independientes con media cero y varianzas homogéneas, los estimadores de mínimos cuadrados son insesgados y tienen varianza mínima. Nota. El muestreo aleatorio en los estudios observacionales y la aleatorización en los experimentales aseguran la suposición de independencia. Diseño de experimentos – p. 27/112 Estimadores para el modelo completo yij = µi + ǫij i = 1, . . . , t j = 1, . . . , r ǫij = yij − µi SSEc = t∑ i=1 r∑ j=1 ǫ2ij = t∑ i=1 r∑ j=1 (yij − µi)2 La SSEc es una medida de qué tan bien se ajusta el modelo a los datos. Queremos determinar los estimadores µ̂i tales que se minimice esta SSEc. Vamos a tener t ecuaciones normales, una para cada tratamiento, encontradas a partir de derivar la SSEc con respecto a cada µi e igualarlas a cero. Diseño de experimentos – p. 28/112 Estimadores para el modelo completo Para una i: ∂ ∂µi r∑ j=1 (yij − µi)2 = −2 r∑ j=1 (yij − µi) igualando a cero −2 r∑ j=1 (yij − µ̂i) = 0 r∑ j=1 yij − rµ̂i = 0 µ̂i = ∑r j=1 yij r = ȳi. Diseño de experimentos – p. 29/112 Estimadores para el modelo completo Por lo tanto, µ̂i = ȳi i = 1, . . . , t Entonces, SSEc = t∑ i=1 r∑ j=1 (yij − µ̂i)2 = t∑ i=1 r∑ j=1 (yij − ȳi.)2 = t∑ i=1 r∑ j=1 (yij − ȳi.)2 Diseño de experimentos – p. 30/112 Estimadores para el modelo completo La varianza muestral del i-ésimo tratamiento es: S2i = ∑r j=1 (yij − ȳi.) 2 r − 1 es una estimador de σ2 de los datos del i-ésimo grupo. S2 = ∑t i=1 [ ∑r j=1 (yij − ȳi.) 2 ] t(r − 1) = SSEc t(r − 1) es un estimador combinado (pooled) de σ2 de todos los datos del experimento. Es un buen estimador si podemos hacer la suposición de que σ2 es homogénea en todos los grupos. Diseño de experimentos – p. 31/112 Estimadores para el modelo completo Para los datos del ejemplo: tratamiento comercial vacío mezcla CO2 7.66 5.26 7.41 3.51 6.98 5.44 7.33 2.91 7.80 5.80 7.04 3.66 µ̂i = ȳi. 7.48 5.50 7.26 3.36 ∑r j=1 (yij − ȳi.) 2 0.3848 0.1512 0.0758 0.3150 SSEc = 0.3848 + 0.1512 + 0.0758 + 0.3150 = 0.9268 S2 = SSEc t(r − 1) = 0.9268 4(2) = 0.11585 Diseño de experimentos – p. 32/112 Estimadores para el modelo reducido yij = µ + ǫij ǫij = yij − µ SSEr = t∑ i=1 r∑ j=1 ǫ2ij = t∑ i=1 r∑ j=1 (yij − µ)2 ∂ ∂µ t∑ i=1 r∑ j=1 (yij − µ)2 = −2 t∑ i=1 r∑ j=1 (yij − µ) igualando a cero t∑ i=1 r∑ j=1 µ̂ = t∑ i=1 r∑ j=1 yij rtµ = y.. µ̂ = y.. rt = ȳ.. Diseño de experimentos – p. 33/112 Estimadores para el modelo reducido Entonces, SSEr = t∑ i=1 r∑ j=1 (yij − µ̂)2 = t∑ i=1 r∑ j=1 (yij − ȳ..)2 Para el ejemplo, µ̂ = ȳ.. = 70.80 12 = 5.90 Diseño de experimentos – p. 34/112 Modelo reducido Modelo completo yij = µ + ǫij yij = µi + ǫij Observado Estimado Diferencia Estimado Diferencia Tratamiento y µ̂ (yij − µ̂) µ̂i (yij − µ̂i) Comercial 7.66 5.90 1.76 7.48 0.18 6.98 5.90 1.08 7.48 -0.50 7.80 5.90 1.90 7.48 0.32 Vacío 5.26 5.90 -0.64 5.50 -0.24 5.44 5.90 -0.46 5.50 -0.06 5.80 5.90 -0.10 5.50 0.30 Mezcla 7.41 5.90 1.51 7.26 0.15 7.33 5.90 1.43 7.26 0.07 7.04 5.90 1.14 7.26 -0.22 CO2 3.51 5.90 -2.39 3.36 0.15 2.91 5.90 -2.99 3.36 -0.45 3.66 5.90 -2.24 3.36 0.30 SSEr = 33.7996 SSEc = 0.9268 Diseño de experimentos – p. 35/112 Diseño completamente al azar, un factor Siguiendo con el ejemplo: Modelo completo yij = µi + ǫij SSEc = ∑ i ∑ j(yij − ȳi.)2 = 0.9268 Modelo reducido yij = µ + ǫij SSEr = ∑ i ∑ j(yij − ȳ..)2 = 33.7996 Diferencia: SSEr − SSEc = ∑ i ∑ j (yij − ȳ..)2 − ∑ i ∑ j (yij − ȳi.)2 haciendo álgebra = ∑ i ∑ j (ȳi. − ȳ..)2 = r ∑ i (ȳi. − ȳ..)2 En el ejemplo: SSEr − SSEc = 32.8728 Diseño de experimentos – p. 36/112 Diseño completamente al azar, un factor SSEr − SSEc = SSt suma de cuadrados de tratamientos. Representa la reducción en SSE al haber incluido tratamientos en el modelo, también se le conoce como reducción en suma de cuadrados debida a tratamientos. Llamaremos SStotal = SSEr ya que es la suma de cuadrados de las diferencias de cada observación y la media general ȳ.. Entonces, tenemos la partición: SStotal = SSt + SSEc ∑ i ∑ j (yij − ȳ..)2 = ∑ i ∑ j (ȳi. − ȳ..)2 + ∑ i ∑ j (yij − ȳi.)2 desviación de la desviación de la desviación de la observación ij media del grupo observaciónij con respecto a con respecto a con respecto a la media general la media general la media de su grupo Diseño de experimentos – p. 37/112 Diseño completamente al azar, un factor ∑ i ∑ j (yij − ȳ..)2 = ∑ i ∑ j [(yij − ȳi.) + (ȳi. − ȳ..)]2 = ∑ i ∑ j (yij − ȳi.)2 + ∑ i ∑ j (ȳi. − ȳ..)2 −2 ∑ i ∑ j (yij − ȳi.)(ȳi. − ȳ..) ∑ i ∑ j (yij − ȳi.)(ȳi. − ȳ..) = ∑ i (ȳi. − ȳ..) ∑ j (yij − ȳi.) = ∑ i (ȳi. − ȳ..)(yi. − rȳi.) = 0 Diseño de experimentos – p. 38/112 Diseño completamente al azar, un factor Grados de libertad. Representan el número de piezas de información independientes en las sumas de cuadrados. En general, es el número de observaciones menos el número de parámetros estimados de los datos. Sea n = rt, el tamaño de muestra total. Así, SStotal = ∑t i ∑r j(yij − ȳ..)2 donde ȳ.. es el estimador de µ, tiene n − 1 g.l. SSE = ∑t i ∑r j(yij − ȳi.)2 se estimaron t parámetros (µ1, µ2, . . . , µt) por lo tanto tiene n − t g.l. SSt = SStotal − SSE = (n − 1) − (n − t) = t − 1 g.l. Diseño de experimentos – p. 39/112 Tabla de Análisis de Varianza ANOVA F.V. g.l. SS CM Tratamientos t − 1 SSt CMt = SSt/t − 1 Error n − t SSE CME = SSE/n − t = σ̂2 Total n − 1 SStotal Se puede demostrar que: E (CME) = σ2 E (CMt) = σ 2 + 1 t − 1 t∑ i=1 r(µi − µ̄)2; µ̄ = ∑ i µi/t Diseño de experimentos – p. 40/112 Tabla de Análisis de Varianza Si suponemos ǫij ∼ NID(0, σ2) i = 1, . . . , t j = 1, . . . , r en el modelo completo yij = µi + ǫij Entonces, yij ∼ NID(µi, σ2). Se puede demostrar que: SStotal σ2 = ∑ i ∑ j(yij − ȳ..)2 σ2 ∼ χ2n−1 SSE σ2 = ∑ i ∑ j(yij − ȳi.)2 σ2 ∼ χ2n−t Cuando H0 : µ1 = µ2 = . . . = µt es cierta SSt σ2 = ∑ i r(ȳi. − ȳ..)2 σ2 ∼ χ2t−1 Diseño de experimentos – p. 41/112 Tabla de Análisis de Varianza Por el Teorema de Cochran (Montgomery, 2001, pág. 69), SSt y SSE son independientes, por lo tanto cuando H0 es cierta, F0 = SSt/σ 2(t − 1) SSE/σ2(n − t) = CMt CME ∼ Ft−1,n−t Además, E (CMt) = σ2 + θ2t = σ 2 cuando θ2t = 0 que es cuando H0 es cierta. Es decir, E (CMt) = E (CME) cuando H0 es cierta E (CMt) > E (CME) cuando H0 no es cierta Entonces, si CMt > CME, o sea, valores grandes de F0 llevan a rechazar la hipótesis nula H0 : µ1 = µ2 = . . . = µt. Por lo tanto, la región de rechazo es: F0 > F α t−1,n−t Diseño de experimentos – p. 42/112 Tabla de Análisis de Varianza ANOVA F.V. g.l. SS CM F E(CM) Tratamientos t − 1 SSt CMt = SStt−1 CMt CME σ 2 + θ2t Error n − t SSE CME = SSEn−t σ2 Total n − 1 SStotal SSt = t∑ i=1 r (ȳi. − ȳ..)2 SSE = t∑ i=1 r∑ j=1 (yij − ȳi.)2 SStotal = t∑ i=1 r∑ j=1 (yij − ȳ..)2 Diseño de experimentos – p. 43/112 Tabla de Análisis de Varianza En el ejemplo de empacado de carne: F.V. g.l. SS CM F Pr > F trat 3 32.8728 10.958 94.55 0.000 error 8 0.9268 0.1159 total 11 33.7996 Por lo tanto, se rechaza la hipótesis H0 : µ1 = µ2 = . . . = µ4, es decir, hay algún método de empaque que tiene diferente comportamiento en promedio. Diseño de experimentos – p. 44/112 Diseño completamente al azar, un factor Se quieren comparar t niveles de un factor, lo que implica t tratamientos y se dispone de ni u.e. para el tratamiento i, i = 1, . . . , t. Hay dos situaciones: 1. Los t tratamientos son escogidos específicamente por el investigador. En esta situación deseamos probar hipótesis acerca de las medias de los tratamientos y nuestras conclusiones se aplicarán solamente a los niveles del factor considerados en el análisis. Las conclusiones no se pueden extender a tratamientos similares que no fueron explícitamente considerados. Este es el modelo de efectos fijos . 2. Los t tratamientos son una muestra aleatoria de una población de tratamientos. En esta situación nos gustaría poder extender las conclusiones (las cuales están basadas en la muestra de tratamientos considerada) a todos los tratamientos de la población. Este es el modelo de efectos aleatorios . Diseño de experimentos – p. 45/112 Diseño completamente al azar, un factor A las cantidades n1, n2, . . . , nt se les llama repeticiones de cada tratamiento. Si ni = r ∀i se dice que el diseño es balanceado . yij es la respuesta de la u.e. j del tratamiento i, i = 1, . . . , t j = 1, . . . , ni. Diseño de experimentos – p. 46/112 Diseño completamente al azar Estructura de los datos. tratamientos 1 2 3 ... t y11 y21 y31 ... yt1 y12 y22 y32 ... yt2 y13 y23 y33 ... yt3 . . . ... . . . . ... . . . . ... . y1n1 y2n2 y3n3 ... ytnt y1. y2. y3. ... yt. totales ȳ1. ȳ2. ȳ3. ... ȳt. medias Diseño de experimentos – p. 47/112 Diseño completamente al azar n = t∑ i=1 ni yi. = ni∑ j=1 yij i = 1, . . . , t total tratamiento i ȳi. = ∑ni j=1 yij ni i = 1, . . . , t media tratamiento i y.. = t∑ i=1 ni∑ j=1 yij = t∑ i=1 yi. total de las observaciones ȳ.. = y.. n media general Diseño de experimentos – p. 48/112 Diseño completamente al azar Se tienen t muestras aleatorias independientes de tamaños n1, n2, . . . , nt respectivamente. y11, y12, . . . , y1n1 es una muestra aleatoria de N(µ1, σ 2) y21, y22, . . . , y2n2 es una muestra aleatoria de N(µ2, σ 2) yt1, yt2, . . . , ytnt es una muestra aleatoria de N(µt, σ 2) Diseño de experimentos – p. 49/112 Diseño completamente al azar Las observaciones en cada una de estas muestras se pueden representar por el modelo lineal simple yij = µi + ǫij i = 1, . . . , t j = 1, . . . , ni con ǫij error experimental en la observación j-ésima del tratamiento i-ésimo. Estamos suponiendo independencia entre y dentro de las muestras, es decir, ǫij son independientes y ǫij ∼ N(0, σ2). Diseño de experimentos – p. 50/112 Diseño completamente al azar Otra forma de verlo Como suponemos que las u.e. son homogéneas, es decir, el promedio de respuesta de todas las u.e. es el mismo (µ) antes de aplicar los tratamientos, y si se observan en condiciones similares, las respuestas las podemos modelar como yij = µ + ǫij Diseño de experimentos – p. 51/112 Modelo de efectos Entonces al aplicar el tratamiento i-ésimo a un grupo (de tamaño ni) de u.e. se introduce un efecto (τi) de ese tratamiento en las variables por observar. El modelo se puede escribir como: Modelo de efectos yij = µ + τi + ǫij i = 1, . . . , t j = 1, . . . , ni donde µ es la media general, común a todas las u.e. τi es el efecto del tratamiento i-ésimo Diseño de experimentos – p. 52/112 Modelo de efectos Diseño de experimentos – p. 53/112 Modelo de efectos El modelo de efectos implica que se empieza el experimento con u.e. con la misma capacidad de respuesta (µ) y con la misma varianza (σ2). La aplicación de los tratamientos tiene el efecto de alterar las medias, que ahora son µi = µ + τi, pero supone que no se modifican las varianzas. En este caso, la hipótesis a probar es: H0 : τ1 = τ2 = . . . = τt = 0 Ha : τi 6= 0 para al menos una i Diseño de experimentos – p. 54/112 Modelo de efectos Estimadores de mínimos cuadrados: yij = µ + τi + ǫij i = 1, . . . , t j = 1, . . . , ni SSE = t∑ i=1 ni∑ j=1 ǫ2ij = t∑ i=1 ni∑ j=1 (yij − µ − τi)2 ∂ ∂µ t∑ i=1 ni∑ j=1 (yij − µ − τi)2 = −2 t∑ i=1 ni∑ j=1 (yij − µ − τi) ∂ ∂τi t∑ i=1 ni∑ j=1 (yij − µ − τi)2 = −2 ni∑ j=1 (yij − µ − τi) i = 1, . . . , t Diseño de experimentos – p. 55/112 Modelo de efectos Igualando a cero: t∑ i=1 ni∑ j=1 yij = nµ̂ + t∑ i=1 niτ̂i n1∑ j=1 y1j = n1µ̂ + n1τ̂1 n2∑ j=1 y2j = n2µ̂ + n2τ̂2 . . . . . . nt∑ j=1 ytj = ntµ̂ + ntτ̂t Las ecuaciones normales no son linealmente independientes, por lo tanto no hay una solución única. Esto ocurre porque el modelo de efectos está sobreparametrizado. Diseño de experimentos – p. 56/112 Modelo de efectos Se añade una ecuación linealmente independiente: a) ∑t i=1 τ̂i = 0 µ̂ = ȳ.. τ̂i = ȳi. − ȳ.. i = 1, . . . , t b) µ̂ = 0 µ̂ = 0 τ̂i = ȳi. i = 1, . . . , t c) τ̂1 = 0 µ̂ = ȳ1. τ̂i = ȳi. − ȳ1. i = 2, . . . , t Diseño de experimentos – p. 57/112 Modelo de efectosHay un número infinito de posibles restricciones que se pueden usar para resolver las ecuaciones normales. Entonces Cuál usar? No importa ya que en cualquier caso µ̂ + τi = ȳi. Aunque no podemos obtener estimadores únicos de los parámetros del modelo de efectos, podemos obtener estimadores únicos de funciones de estos parámetros. A estas funciones se les llama funciones lineales linealmente estimables. Diseño de experimentos – p. 58/112 Diseño completamente al azar, Tabla de ANOVA F.V. g.l. SS CM F E(CM) Tratamientos t − 1 SSt CMt = SStt−1 CMt CME σ 2 + ∑ i ni(τi−τ̄) 2 t−1 Error n − t SSE CME = SSEn−t σ2 Total n − 1 SStotal SSt = t∑ i=1 ni (ȳi. − ȳ..)2 = t∑ i=1 y2i. ni − y 2 .. n SSE = t∑ i=1 ni∑ j=1 (yij − ȳi.)2 = t∑ i=1 ni∑ j=1 y2ij − t∑ i=1 y2i. ni SStotal = t∑ i=1 ni∑ j=1 (yij − ȳ..)2 = t∑ i=1 ni∑ j=1 y2ij − y2.. n n = t∑ i=1 ni Diseño de experimentos – p. 59/112 Intervalos de confianza µ̂i = ȳi. S 2 ȳi. = S2 ni con S2 = CME = σ̂2 Sȳi. = √ CME ni Como suponemos que yij ∼ N ( µi, σ 2 ) entonces ȳi. ∼ N ( µi, σ 2/ni ) como estimamos la varianza: ȳi. − µi Sȳi. ∼ tn−t Por lo tanto, un intervalo del (1 − α)100% de confianza para µi es ȳi. ± t1−α/2n−t (Sȳi.) Diseño de experimentos – p. 60/112 Contrastes En el ejemplo del empacado de carne teníamos: Comercial Al vacío CO,O2,N CO2 µ̂i = ȳi. 7.48 5.50 7.26 3.36 S2 = CME = 0.116 con 8 g.l. Una vez que rechazamos la hipótesis H0 : µ1 = µ2 = µ3 = µ4 Qué sigue? Diseño de experimentos – p. 61/112 Contrastes Se podrían contestar preguntas como: ■ Es más efectiva la creación de una atmósfera artificial que el aire ambiente con plástico para reducir el crecimiento de bacterias? ■ Son más efectivos los gases que el vacío? ■ Es más efectivo el tratamiento de CO2 puro que la mezcla CO,O2 y N? Un contraste es una función lineal de los parámetros µi definido como C = t∑ i=1 kiµi = k1µ1 + k2µ2 + . . . + ktµt donde ∑t i=1 ki = 0. Diseño de experimentos – p. 62/112 Contrastes Los contrastes para las preguntas anteriores son: ■ comercial vs. atmósfera artificial C1 = µ1 − 1 3 (µ2 + µ3 + µ4) ■ vacío vs. gases C2 = µ2 − 1 2 (µ3 + µ4) ■ mezcla de gases vs. CO2 puro C3 = µ3 − µ4 Diseño de experimentos – p. 63/112 Contrastes El estimador del contraste C = t∑ i=1 kiµi es Ĉ = t∑ i=1 kiµ̂i = t∑ i=1 kiȳi. Si suponemos que yij ∼ N ( µi, σ 2 ) entonces ȳi. ∼ N ( µi, σ 2/ni ) Por lo tanto, Ĉ = t∑ i=1 kiȳi. ∼ N ( t∑ i=1 kiµi, σ 2 t∑ i=1 ki ni ) Diseño de experimentos – p. 64/112 Contrastes Ya que: E ( t∑ i=1 kiȳi. ) = t∑ i=1 kiE (ȳi.) = t∑ i=1 kiµi V ( t∑ i=1 kiȳi. ) = ︸︷︷︸ m.indep t∑ i=1 k2i V (ȳi.) = t∑ i=1 k2i σ2 ni = σ2 t∑ i=1 k2i ni V̂ ( Ĉ ) = σ̂2 t∑ i=1 k2i ni = CME t∑ i=1 k2i ni Diseño de experimentos – p. 65/112 Contrastes Entonces, ∑t i=1 kiȳi. − ∑t i=1 kiµi √ CME ∑t i=1 k 2 i /ni ∼ tg.l.error De aquí un intervalo del 100(1 − α)% de confianza para el contraste C es: Ĉ ± t1−α/2g.l.error √ √ √ √CME t∑ i=1 k2i /ni Diseño de experimentos – p. 66/112 Contrastes Además, Ĉ − C √ σ2 ∑t i=1 k 2 i /ni ∼ N (0, 1) Si H0 : ∑t i=1 kiµi = 0, es decir, H0 : C = 0 es cierta, entonces, Ĉ2 σ2 ∑t i=1 k 2 i /ni ∼ χ21 Sea SSc = Ĉ2 ∑t i=1 k 2 i /ni entonces SSc/σ 2 SSE/σ2(n − t) = Ĉ2/ ∑t i=1 k 2 i /ni CME ∼ F1,n−t Por lo tanto, para probar H0 : C = 0 se rechaza si Fc > Fα1,n−t Diseño de experimentos – p. 67/112 Contrastes El número de contrastes que se pueden hacer es muy grande, sin embargo, esta técnica tiene su mayor utilidad cuando se aplica a comparaciones planeadas antes de realizar el experimento. Una clase de contrastes, conocida como Contrastes ortogonales (como son los del ejemplo anterior) tienen propiedades especiales con respecto a la partición de sumas de cuadrados y grados de libertad y con respecto a su relación entre ellos. La ortogonalidad implica que un contraste no aporta información acerca de otro. Dos contrastes, con coeficientes {ki}, {li} son ortogonales si t∑ i=1 kili ni = 0 Diseño de experimentos – p. 68/112 Contrastes Para t tratamientos existe un conjunto de t − 1 contrastes ortogonales, los cuales hacen una partición de la suma de cuadrados de tratamientos en t − 1 componentes independientes, cada uno con 1 g.l. Por lo tanto las pruebas realizadas con contrastes ortogonales son independientes. En el ejemplo anterior, los contrastes son ortogonales. k1 k2 k3 k4 C1 1 -1/3 -1/3 -1/3 C2 0 1 -1/2 -1/2 C3 0 0 1 -1 Diseño de experimentos – p. 69/112 ANOVA La tabla de ANOVA incorporando las pruebas de hipótesis de los 3 contrastes es: F.V. g.l. SS CM F Pr > F trat 3 32.8728 10.958 94.55 0.000 C1 1 10.01 10.01 86.29 0.000 C2 1 0.07 0.07 0.62 0.453 C3 1 22.82 22.82 196.94 0.000 error 8 0.9268 0.1159 total 11 33.7996 Se rechaza H0 : µ1 = µ2 = µ3 = µ4 Se rechaza H01 : µ1 = 13 (µ2 + µ3 + µ4) No se rechaza H02 : µ2 = 12 (µ3 + µ4) Se rechaza H03 : µ3 = µ4 SSC1 = Ĉ1 2 1 r ∑4 i=1 k 2 i = (2.11)2 12+3(−1/3)2 3 = 4.4521 0.4444 = 10.01 Diseño de experimentos – p. 70/112 Otro ejemplo En un experimento se van a comparar los % de carbohidratos en cuatro marcas de pan, para lo cual se van a hacer 18 determinaciones: 5 en la marca A, 3 en la B, 4 en la C y 6 en la D. En este caso, cada marca de pan es un tratamiento (t = 4) y se tienen n1 = 5, n2 = 3, n3 = 4, n4 = 6. Para obtener las respuestas se tomarán muestras aleatorias de los tamaños ni especificados de cada marca y se harán determinaciones de los porcentajes mediante un procedimiento (hasta donde sea posible) idéntico en las 18 u.e. Note que en este ejemplo no estamos en libertad de asignar las u.e. a los tratamientos, ya que las poblaciones (las 4 marcas) existen independientemente de la acción del experimentador. No obstante lo anterior, basta que las muestras aleatorias de las 4 poblaciones sean independientes para que el análisis bajo el modelo que se propone sea válido. Este es un estudio observacional , no experimental. Diseño de experimentos – p. 71/112 Otro ejemplo Tratamiento (marca) A B C D 63 60 59 70 68 65 66 69 71 61 58 62 70 59 71 69 70 66 ni 5 3 4 6 yi. 341 186 242 408 ȳi. 68.2 62.0 60.5 68.0 Diseño de experimentos – p. 72/112 Otro ejemplo Pruebe la hipótesis de igualdad de medias H0 : µ1 = µ2 = µ3 = µ4. Conteste las siguientes preguntas: ■ Son diferentes en promedio los porcentajes de carbohidratos en las marcas B y C? ■ Es diferente el porcentaje de carbohidratos de la marca A al promedio de las marcas C y D? ■ Suponga que las marcas A y B están hechas con harina integral y las marcas C y D con harina blanca. El promedio del porcentaje de carbohidratos de las marcas A y B es igual al promedio de C y D? Hacerlo con SPSS, JMP, STATA Diseño de experimentos – p. 73/112 Comparaciones múltiples En muchas situaciones prácticas, se desea comparar pares de medias. Podemos determinar cuáles medias difieren probando las diferencias entre todos los pares de medias de tratamientos. Es decir, estamos interesados en contrastes de la forma Γ = µi − µj ∀i 6= j Lo primero que se nos viene a la mente es hacer una prueba t para cada par de medias, es decir, probar H0 : µi = µj Ha : µi 6= µj ∀i 6= j Diseño de experimentos – p. 74/112 Comparaciones múltiples Si suponemos varianzas iguales, se tiene la estadística de prueba tc = ȳi. − ȳj. sp √ 1 ni + 1nj y se rechaza H0 al nivel de significancia α si tc ≤ tα/2ni+nj−2 ó tc ≥ t 1−α/2 ni+nj−2 Esto es equivalente a decir que se rechaza H0 si |tc| = |ȳi. − ȳj.| sp √ 1 ni + 1nj > t 1−α/2 ni+nj−2 o equivalente a |ȳi. − ȳj.| > t1−α/2ni+nj−2 sp √ 1 ni + 1 nj Diseño de experimentos – p. 75/112 Comparaciones múltiples Esta prueba conocida como Diferencia Mínima Significativa (DMS ó LSD) en el contexto de ANOVA, lo que hace es comparar el valor absoluto de la diferencia de cada par de medias con DMS: Si |ȳi. − ȳj.| > DMS = t1−α/2glerror √CME ( 1 ni + 1 nj ) se rechaza H0 : µi = µj . CME es el cuadrado medio del error que es una estimación ponderada de la varianza basada en t estimaciones de la varianza. El utilizar este procedimiento no es conveniente por que el nivel de significancia global, es decir, para el conjunto de todas las pruebas, resulta muy superior al nivel de significancia (α) planeado. Diseño de experimentos – p. 76/112 Comparaciones múltiples Por ejemplo, si se tienen 4 medias de tratamientos, entonces se tienen ( 4 2 ) = 4! 2!2! = 6 pares a comparar, es decir, 6 pruebas de hipótesis a realizar, con lo que se pueden cometer 0, 1, 2, 3, 4, 5, ó 6 errores Tipo I, si todas las medias son iguales. Se define otra forma de error tipo I basado en los riesgos acumulados asociados a la familia de pruebas bajo consideración. Este es el error tipo I del experimento αE que es el riesgo de cometer el error tipo I al menos una vez. La probabilidad de error tipo I del experimento puede evaluarse para una familia de pruebas independientes. Diseño de experimentos – p. 77/112 Comparaciones múltiples Sin embargo, todas las pruebas a pares usando la DMS no son independientes, puesto que el CME es el mismo en cada una de las estadísticas de prueba y el numerador contiene las mismas medias en varias de las estadísticas de prueba. Aún así, se puede evaluar el límite superior de la probabilidad de error tipo I del experimento, suponiendo n pruebas independientes. Suponga que la H0 es cierta para cada una de las n = ( t 2 ) pruebas y que son independientes. Sea αc = P (error tipo I) en una sola prueba (comparación) con (1 − αc) = P (decisión correcta). Diseño de experimentos – p. 78/112 Comparaciones múltiples La probabilidad de cometer x errores tipo I está dada por la distribución binomial como: P (X = x) = ( n x ) αxc (1 − αc)n−x P (X = x) = n! (n − x)!x!α x c (1 − αc)n−x x = 0, 1, 2, . . . , n La probabilidad de no cometer ningún error tipo I es P (X = 0) = (1 − αc)n Diseño de experimentos – p. 79/112 Comparaciones múltiples La probabilidad de cometer al menos 1 error tipo I es P (X ≥ 1) = 1 − P (X = 0) = 1 − (1 − αc)n es decir, la máxima probabilidad de cometer al menos un error tipo I entre las n comparaciones es: αE = 1 − (1 − αc)n de aquí αc = 1 − (1 − αE)1/n Diseño de experimentos – p. 80/112 Comparaciones múltiples # de pruebas αE cuando αc cuando indep. n αc = 0.05 αE = 0.05 1 0.05 0.05 2 0.098 0.025 3 0.143 0.017 4 0.185 0.013 5 0.226 0.010 10 0.401 0.005 Por el razonamiento anterior es que han surgido una serie de pruebas de diferentes autores para hacer comparaciones múltiples tratando de mantener la P (error tipo I del experimento) = α Diseño de experimentos – p. 81/112 Bonferroni αE ≤ nαc n comparaciones, la igualdad se dá cuando las pruebas son independientes. Entonces, αc = αE/n Si queremos αE = 0.05 entonces, αc = 0.05/n y se hacen las pruebas t para los pares de medias con un nivel de significancia αc en cada una de ellas. Diseño de experimentos – p. 82/112 Tukey Conocida como la prueba de la Diferencia Mínima Significativa Honesta (DMSH) DMSH = qαt,glerror √ CME r si ni = r ∀i DMSH = qαt,glerror √ CME 2 ( 1 ni + 1 nj ) Si |ȳi. − ȳj.| > DMSH se rechaza H0 : µi = µj . qαν1,ν2 se obtiene de las "tablas de rangos estudentizados". Diseño de experimentos – p. 83/112 Tukey Para el ejemplo del empaque de carne: Comercial Al vacío CO,O2,N CO2 ȳi. 7.48 5.50 7.26 3.36 S2 = CME = 0.116 con 8g.l. t = 4, r = 3 DMSH = q0.054,8 √ 0.116 3 = (4.53)(0.197) = 0.891 |ȳ1. − ȳ2.| = 1.98∗∗ |ȳ1. − ȳ3.| = 0.22 |ȳ1. − ȳ4.| = 4.12∗∗ |ȳ2. − ȳ3.| = 1.76∗∗ |ȳ2. − ȳ4.| = 2.14∗∗ |ȳ3. − ȳ4.| = 3.90∗∗ Diseño de experimentos – p. 84/112 Student-Newman-Keuls (SNK) Se calcula un conjunto de valores críticos kp = q α p,fSȳi. p = 2, 3, . . . , t donde qαp,f es el percentil 1 − α de la distribución del rango estudentizado para el número p de medias involucradas en la comparación y f g.l. del error, y Sȳi. = √ CME r Para el ejemplo de la carne empacada: p 2 3 4 q.05p,8 3.26 4.04 4.53 kp 0.642 0.796 0.892 Diseño de experimentos – p. 85/112 Student-Newman-Keuls (SNK) Comercial Al vacío CO,O2,N CO2 ȳi. 7.48 5.50 7.26 3.36 Medias ordenadas: ȳ4. = 3.36 ȳ2. = 5.50 ȳ3. = 7.26 ȳ1. = 7.48 |ȳ4. − ȳ1.| = 4.12 > k∗∗4 |ȳ4. − ȳ3.| = 3.90 > k∗∗3 |ȳ4. − ȳ2.| = 2.14 > k∗∗2 |ȳ2. − ȳ1.| = 1.98 > k∗∗3 |ȳ2. − ȳ3.| = 1.76 > k∗∗2 |ȳ3. − ȳ1.| = 0.22 < K2(N.S.) Diseño de experimentos – p. 86/112 Duncan Es similar a la de SNK. Los promedios de los t tratamientos se ordenan en forma ascendente y el error estándar de cada promedio se determina con Sȳi. = √ CME r si ni = r ∀i Para muestras de diferente tamaño, se reemplaza la r por la media armónica (nh) de los {ni} nh = t ∑t i=1 ( 1 ni ) Diseño de experimentos – p. 87/112 Duncan De las tablas de Duncan de rangos significativos se obtienen los valores de rαp,f para p = 2, 3, . . . , t. p es el número de medias involucradas en la comparación, α es el nivel de significancia y f los grados de libertad del error. Se calculan Rp = r α p,fSȳi. p = 2, 3, . . . , t Para el ejemplo de la carne empacada: p 2 3 4 r.05p,8 3.26 3.39 3.47 Rp 0.642 0.668 0.684 Diseño de experimentos – p. 88/112 Duncan Comercial Al vacío CO,O2,N CO2 ȳi. 7.48 5.50 7.26 3.36 Medias ordenadas: ȳ4. = 3.36 ȳ2. = 5.50 ȳ3. = 7.26 ȳ1. = 7.48 |ȳ4. − ȳ1.| = 4.12 > R∗∗4 |ȳ4. − ȳ3.| = 3.90 > R∗∗3 |ȳ4. − ȳ2.| = 2.14 > R∗∗2 |ȳ2. − ȳ1.| = 1.98 > R∗∗3 |ȳ2. − ȳ3.| = 1.76 > R∗∗2 |ȳ3. − ȳ1.| = 0.22 < R2(N.S.) Diseño de experimentos – p. 89/112 Dunnett Para comparar las medias de los tratamientos con la media del tratamiento control. Suponga que el tratamiento t es el control, queremos probar las hipótesis H0 : µi = µt Ha : µi 6= µt i = 1, 2, . . . , t − 1 H0 : µi = µt se rechaza si |ȳi. − ȳt.| > D = dα(t − 1, glerror) √ CME r con dα(k, ν) es el percentil 1 − α de las tablas de Dunnett. Para el ejemplo de la carne empacada, el tratamiento 1 es el control. Comercial Al vacío CO,O2,N CO2 ȳi. 7.48 5.50 7.26 3.36 Diseño de experimentos – p. 90/112 Dunnett d0.05,3,8 = 2.42 D = 2.42 (√ CME r ) = 0.477 |ȳ2. − ȳ1.| = 1.98 > D∗∗ |ȳ3. − ȳ1.| = 0.22 < D(N.S.) |ȳ4. − ȳ1.| = 4.12 > D∗∗ Diseño de experimentos – p. 91/112 Scheffé Scheffé (1953) propuso un método para probar todos los posibles contrastes. Considere cualquier contraste C = t∑ i=1 kiµi estimado con Ĉ = t∑ i=1 kiȳi. con error estándar SC = √ √ √ √CME [ t∑ i=1 k2i ni ] La hipótesis nula pra el contraste H0 : C = 0 se rechaza si |C| > S(αE) donde S(αE) = SC √ (t − 1)FαEt−1,g.l.error Diseño de experimentos – p. 92/112 Análisis de residuales Tenemos el modelo yij = µi + ǫij ó yij = µ + τi + ǫij ǫij ∼ NID ( 0, σ2 ) Suposiciones: ■ errores normales ■ independientes ■ varianza constante La prueba F del análisis de varianza es robusta a falta de normalidad. Diseño de experimentos – p. 93/112 Análisis de residuales Si los errores experimentales están correlacionados, el error estándar estará mal estimado. La independencia se justifica aleatorizando las u.e. a los tratamientos en experimentos y seleccionando muestras aleatorias en estudios observacionales. Si no hay homogeneidad de varianzas el estimador de σ2 es malo, aunque se ha visto en estudios que si el diseño es balanceado no efecta mucho. También si los tamaños de muestra mayores corresponden a las poblaciones con mayor varianza. Diseño de experimentos – p. 94/112 Análisis de residuales, Normalidad Residuales eij = yij − ŷij ŷij = µ̂ + τi = µ̂i = ȳi. eij = yij − ȳi. ■ Prueba no parámetrica ( Kolmogorov-Smirnov ) ■ Histograma (muestras grandes) ■ gráfica en papel normal ■ análisis de residuales estandarizados para detectar outliers. Si ǫij ∼ N(0, σ2) entonces ǫij−0σ ∼ N(0, 1). Sean dij = eij√ CME , esperamos que: 68% de los residuales estandarizados estén entre -1 y 1 95 % estén entre -2 y 2 Virtualmentetodos estén entre -3 y 3. Diseño de experimentos – p. 95/112 Análisis de residuales, Homogeneidad de varianzas Prueba de Bartlett H0 : σ 2 1 = σ 2 2 = . . . = σ 2 t Ha : no H0 Estadística de Prueba: U = 1 C [ (n − t)ln(σ̂2) − ∑ i (ni − 1)ln(σ̂2i ) ] donde σ̂2 = ∑ i (ni − 1)σ̂2i n − t σ̂ 2 i = ∑ j (yij − ȳi.)2 ni − 1 C = 1 + 1 3(t − 1) ( ∑ i 1 ni − 1 − 1 n − t ) H0 se rechaza si U > χ2α,t−1 (prueba sensible a falta de normalidad) Diseño de experimentos – p. 96/112 Análisis de residuales, Homogeneidad de varianzas Prueba de Levene Se calcula dij = |yij − ỹi.| i = 1, . . . , t j = 1, . . . , ni donde ỹi. es la mediana de las observaciones en el tratamiento i. Se evalúa si el promedio de estas observaciones dij es igual para todos los tratamientos, es decir, se hace un ANOVA para probar igualdad de medias de dij . Diseño de experimentos – p. 97/112 Prueba de Welch La prueba F usual es robusta ante heteroscedasticidad (varianzas diferentes) si los tamaños de muestra son muy parecidos o, si los tamaños de muestra más grandes corresponden a las poblaciones con varianzas más grandes. Sin embargo, se han construído algunas procedimientos de prueba de igualdad de medias (H0 : µ1 = µ2 = . . . = µt) como por ejemplo el desarrollado por Welch, conocido como la prueba de Welch. Sean Wi = ni/σ̂2i ȳ ∗ = ∑ i Wiȳi./ ∑ i Wi y Λ = ∑ i (1 − Wi/W.)2 ni − 1 donde W. = ∑ i Wi. Diseño de experimentos – p. 98/112 Prueba de Welch Entonces Fc = ∑ i Wi (ȳi.−ȳ ∗)2 t−1 1 + 2(t − 2)Λ/(t2 − 1) tiene aproximadamente una distribución F con ν1 = t − 1 y ν2 = (t2 − 1)/3Λ grados de libertad. H0 : µ1 = µ2 = . . . = µt se rechaza al nivel de significancia α si Fc > F α ν1,ν2 . Diseño de experimentos – p. 99/112 Transformaciones Se utilizan las transformaciones para cambiar la escala de las observaciones para que se cumplan las suposiciones del modelo lineal y dar inferencias válidas del análisis de varianza. Cuando las transformaciones son necesarias, se hace el análisis y se hacen las inferencias en la escala transformada pero se presentan tablas de medias en la escala de medición original. 1. Distribución Poisson. Mediciones que son conteos (número de plantas en cierta área, insectos en plantas, accidentes por unidad de tiempo) tienen distribución Poisson. La transformación x = √ y + a, a ∈ ℜ es la adecuada. Diseño de experimentos – p. 100/112 Transformaciones 2. Distribución binomial. Observaciones del número de éxitos en n ensayos independientes tiene distribución binomial (proporción de semillas germinadas, proporción de plantas con flores en un transecto). π̂ = y/n La transformación x = sin−1 √ π̂ es la adecuada. Las transformaciones del tipo potencia alteran la simetría o asimetría de las distribuciones de las observaciones. Si suponemos que la desviación estándar de y es proporcional a alguna potencia de la media, es decir, σy ∝ µβ Una transformación de las observaciones, del estilo: x = yp Diseño de experimentos – p. 101/112 Transformaciones Da una relación σx ∝ µp+β−1 Si p = 1 − β entonces la desviación estándar de la variable transformada x será constante, ya que p + β − 1 = 0 y σx ∝ µ0. La transformación de Box-Cox x = (yp − 1)/p p 6= 1 x = logey p = 1 El estimador de p se encuentra maximizando L(p) = −1 2 loge [CME(p)] donde CME(p) es el cuadrado medio del error del análisis de varianza usando la transformación x = (yp − 1)/p para el valor dado p. Diseño de experimentos – p. 102/112 Transformaciones Se determina CME(p) para un conjunto de valores de p, se grafica CME(p) vs. p y se toma el valor de p que corresponde al valor mínimo de CME(p). JMP calcula la transformación de Box-Cox, da una gráfica de p vs. CME y da la opción de guardar los datos transformados en el archivo. La dificultad de utilizar esta transformación es la interpretación. Diseño de experimentos – p. 103/112 Ejemplo Los siguientes datos son el número de errores en un examen de sujetos bajo la influencia de dos drogas. El grupo 1 es un grupo control (sin droga), a los sujetos del grupo 2 se les dió la droga 1, a los del grupo 3 la droga 2 y a los del grupo 4 las dos drogas. Grupo 1 Grupo 2 Grupo 3 Grupo 4 (sin droga) (droga 1) (droga 2) (dos drogas) 1 12 12 13 8 10 4 14 9 13 11 14 9 13 7 17 4 12 8 11 1 10 10 14 1 12 13 5 14 Diseño de experimentos – p. 104/112 Ejemplo Correr el ejemplo con SPSS y JMP. 1. Probar homogeneidad de varianzas. (Bartlett y Levene) 2. Hacer prueba de Welch 3. Probar con algunas transformaciones, checando normalidad y homogeneidad de varianzas ej2_1_messy.sav ej2_1_messy.jmp ej2_1_messy.txt Diseño de experimentos – p. 105/112 Relación entre Regresión y ANOVA Cualquier modelo de ANOVA se puede escribir como un modelo de regresión lineal. Suponga el ejemplo de la carne empacada tratamiento comercial vacío mezcla CO2 7.66 5.26 7.41 3.51 6.98 5.44 7.33 2.91 7.80 5.80 7.04 3.66 Un diseño completamente al azar con un solo factor (método de empacado) con 4 niveles (4 tratamientos) y 3 repeticiones en cada tratamiento (diseño balanceado). Diseño de experimentos – p. 106/112 Relación entre Regresión y ANOVA Modelo ANOVA completamente al azar un solo factor balanceado: yij = µi + ǫij = µ + τi + ǫij { i = 1, 2, 3, 4 j = 1, 2, 3 El modelo de regresión equivalente es: yij = β0 + β1x1j + β2x2j + β3x3j + ǫij { i = 1, 2, 3, 4 j = 1, 2, 3 Diseño de experimentos – p. 107/112 Relación entre Regresión y ANOVA Donde las variables x1j , x2j , x3j están definidas como: x1j = { 1 si la observación j es del tratamiento 1 0 en otro caso x2j = { 1 si la observación j es del tratamiento 2 0 en otro caso x3j = { 1 si la observación j es del tratamiento 3 0 en otro caso Diseño de experimentos – p. 108/112 Relación entre Regresión y ANOVA La relación entre los parámetros del modelo ANOVA y el modelo de regresión es: Si la observación viene del tratamiento 1, entonces x1j = 1, x2j = 0, x3j = 0 y el modelo de regresión es y1j = β0 + β1(1) + β2(0) + β3(0) + ǫ1j = β0 + β1 + ǫ1j y el modelo ANOVA es: y1j = µ1 + ǫ1j = µ + τ1 + ǫ1j Por lo tanto: β0 + β1 = µ1 = µ + τ1 Diseño de experimentos – p. 109/112 Relación entre Regresión y ANOVA Similarmente, para las observaciones del tratamiento 2 y2j = β0 + β1(0) + β2(1) + β3(0) + ǫ2j = β0 + β2 + ǫ2j y la relación entre los parámetros es: βo + β2 = µ2 = µ + τ2 Lo mismo para las observaciones del tratamiento 3 y3j = β0 + β1(0) + β2(0) + β3(1) + ǫ3j = β0 + β3 + ǫ3j y la relación entre los parámetros es: βo + β3 = µ3 = µ + τ3 Diseño de experimentos – p. 110/112 Relación entre Regresión y ANOVA Finalmente, considere las observaciones del tratamiento 4, para las cuales el modelo de regresión es: y4j = β0 + β1(0) + β2(0) + β3(0) + ǫ4j = β0 + ǫ4j entonces β0 = µ4 = µ + τ4 Por lo tanto, β0 = µ4 β1 = µ1 − µ4 β2 = µ2 − µ4 β3 = µ3 − µ4 Diseño de experimentos – p. 111/112 Relación entre Regresión y ANOVA Entonces, para probar la hipótesis H0 : µ1 = µ2 = µ3 = µ4 tendríamos que probar H0 : β1 = β2 = β3 = 0, lo cual se puede hacer con cualquier paquete de cómputo estadístico. Para el ejemplo de la carne empacada: tratamiento y x1 x2 x3 1 7.66 1 0 0 1 6.98 1 0 0 1 7.80 1 0 0 2 5.26 0 1 0 2 5.44 0 1 0 2 5.80 0 1 0 3 7.41 0 0 1 3 7.33 0 0 1 3 7.04 0 0 1 4 3.51 0 0 0 4 2.91 0 0 0 4 3.66 0 0 0 Diseño de experimentos – p. 112/112 Relación entre Regresión y ANOVA Si pedimos una regresión y = β0 + β1x1 + β2x2 + β3x3 + ǫ y pedimos una tabla de análisis de varianza del modelo yij = µ + τi + ǫij las dos tablas ANOVA son idénticas. Ejemplo Método 1 Método 1 Método 2 Método 2 Método 3 Método 3 Método 4 Método 4 Método 5 Método 5 Método 5 Diseño completamente al azar, un factor Diseño completamente al azar, un factor Diseño completamente al azar, un factor Diseño completamente al azar, un factor Diseño completamente al azar, un factor Diseño completamente al azar, un factor Diseño completamente al azar, un factorDiseño completamente al azar, un factor Diseño completamente al azar, un factor Diseño completamente al azar, un factor Diseño completamente al azar, un factor Diseño completamente al azar, un factor Diseño completamente el azar, un factor Estimadores para el modelo completo Estimadores para el modelo completo Estimadores para el modelo completo Estimadores para el modelo completo Estimadores para el modelo completo Estimadores para el modelo reducido Estimadores para el modelo reducido Diseño completamente al azar, un factor Diseño completamente al azar, un factor Diseño completamente al azar, un factor Diseño completamente al azar, un factor Tabla de Análisis de Varianza Tabla de Análisis de Varianza Tabla de Análisis de Varianza Tabla de Análisis de Varianza Tabla de Análisis de Varianza Diseño completamente al azar, un factor Diseño completamente al azar, un factor Diseño completamente al azar Diseño completamente al azar Diseño completamente al azar Diseño completamente al azar Diseño completamente al azar Modelo de efectos Modelo de efectos Modelo de efectos Modelo de efectos Modelo de efectos Modelo de efectos Modelo de efectos Diseño completamente al azar, Tabla de ANOVA Intervalos de confianza Contrastes Contrastes Contrastes Contrastes Contrastes Contrastes Contrastes Contrastes Contrastes ANOVA Otro ejemplo Otro ejemplo Otro ejemplo Comparaciones múltiples Comparaciones múltiples Comparaciones múltiples Comparaciones múltiples Comparaciones múltiples Comparaciones múltiples Comparaciones múltiples Comparaciones múltiples Bonferroni Tukey Tukey Student-Newman-Keuls (SNK) Student-Newman-Keuls (SNK) Duncan Duncan Duncan Dunnett Dunnett Scheffé Análisis de residuales Análisis de residuales Análisis de residuales, Normalidad Análisis de residuales, Homogeneidad de varianzas Análisis de residuales, Homogeneidad de varianzas Prueba de Welch Prueba de Welch Transformaciones Transformaciones Transformaciones Transformaciones Ejemplo Ejemplo Relación entre Regresión y ANOVA Relación entre Regresión y ANOVA Relación entre Regresión y ANOVA Relación entre Regresión y ANOVA Relación entre Regresión y ANOVA Relación entre Regresión y ANOVA Relación entre Regresión y ANOVA Relación entre Regresión y ANOVA
Compartir