Logo Studenta

completamente-al-azar

¡Este material tiene más páginas!

Vista previa del material en texto

Diseño de experimentos – p. 1/112
Diseño completamente al azar
Diseño de experimentos – p. 2/112
Ejemplo
Suponga que tenemos 4 dietas diferentes que queremos
comparar. Las dietas están etiquetadas A,B,C y D.
Estamos interesados en estudiar si las dietas afectan la tasa
de coagulación en conejos. La tasa de coagulación es el
tiempo en segundos que tarda una cortada en dejar de
sangrar.
Tenemos 16 conejos para el experimento, por lo que usaremos
4 en cada dieta.
Los conejos están en una jaula grande hasta que se inicie el
experimento, momento en que se transferirán a otras jaulas.
Cómo asignamos los conejos a los cuatro grupos
tratamiento?
Diseño de experimentos – p. 3/112
Método 1
Supongamos que los conejos se atrapan "al azar". Atrapamos
cuatro conejos y los asignamos a la dieta A. Atrapamos otros
cuatro y los asignamos a la dieta B y así sucesivamente.
Dado que los conejos fueron "atrapados al azar", esto
producirá un diseño completamente al azar.
Diseño de experimentos – p. 4/112
Método 1
No es necesariamente cierto.
Los primeros cuatro conejos atrapados pueden ser los más
lentos y débiles, aquellos menos capaces de escapar. Esto
puede sesgar los resultados.
Si los resultados del experimento dan desventaja a la dieta A,
no habrá forma de determinar si los resultados son a
consecuencia de la dieta A o del hecho de haber asignado los
conejos más débiles a esa dieta por nuestro "proceso de
aleatorización".
Diseño de experimentos – p. 5/112
Método 2
Atrape a todos los conejos y etiquételos del 1 al 16.
Seleccione cuatro números aleatorios (sin reemplazo) del 1 al
16 y ponga los conejos con esa etiqueta en una jaula que
recibirá la dieta A.
Entonces, seleccione otros cuatro números aleatorios y ponga
los conejos correspondientes en otra jaula que recibirá la dieta
B.
Así sucesivamente hasta tener cuatro jaulas con cuatro
conejos en cada una.
Diseño de experimentos – p. 6/112
Método 2
No hay repeticiones.
El diseño es un diseño completamente al azar pero no tiene
repeticiones.
Hay 16 conejos, pero los conejos en cada jaula no son
independientes. Si un conejo come mucho, los otros en la
jaula tienen menos para comer.
La unidad experimental es la menor unidad de material
experimental a la cual se le aplica un tratamiento en forma
independiente. En este caso, las jaulas son las unidades
experimentales. Para un diseño completamente al azar con
repeticiones, cada conejo debe estar en su propia jaula.
Diseño de experimentos – p. 7/112
Método 3
En una urna ponga las letras A,B,C y D en pedazos de papel
separados.
Atrape un conejo, saque un pedazo de papel al azar de la urna
y asigne el conejo a la dieta que indique el papel. No
reemplace el papel. Atrape el segundo conejo y seleccione al
azar otro pedazo de papel de la urna de los tres que quedan.
Asigne el conejo a la dieta correspondiente.
Continue hasta que los primeros cuatro conejos sean
asignados a una de las cuatro dietas. De esta manera, todos
los conejos lentos tienen diferentes dietas.
Coloque otra vez los cuatro pedazos de papel en la urna y
repita el procedimiento hasta que los 16 conejos estén
asignados a una dieta.
Diseño de experimentos – p. 8/112
Método 3
Este no es un diseño completamente al azar.
Ya que se seleccionaron los conejos en bloques de 4, y cada
uno asignado a una de las dietas, el diseño es el bloques al
azar.
El tratamiento es Dieta pero se ha bloqueado a través del
grado de "atrapabilidad".
Diseño de experimentos – p. 9/112
Método 4
Atrape a todos los conejos y márquelos del 1 al 16. Ponga 16
piezas de papel en una urna, con las letras A, B, C y D
repetidas cuatro veces cada una.
Ponga otros 16 pedazos de papel numerados del 1 al 16 en
otra urna. Tome un pedazo de papel de cada urna. El conejo
con el número seleccionado es asignado a la dieta
seleccionada.
Para hacer más fácil de recordar cuál conejo tiene cuál dieta,
las jaulas se acomodan como se muestra abajo:
A A A A
B B B B
C C C C
D D D D
Diseño de experimentos – p. 10/112
Método 4
El método 4 tiene algunas deficiencias. La asignación de los
conejos a los tratamientos es un diseño completamente al
azar. Sin embargo, el arreglo de las jaulas crea un sesgo en
los resultados.
Puede haber cambios climáticos y de luz que afecten de forma
diferencial a los tratamientos, de tal manera que, cualquier
diferencia observada no puede ser atribuida a la dieta, sino
que podría ser resultado de la posición de la jaula.
La posición de la jaula no es parte del tratamiento, pero debe
ser considerada. En un diseño completamente al azar, todos
los conejos tienen la misma probabilidad de recibir cualquier
dieta y en cualquier posición de la jaula.
Diseño de experimentos – p. 11/112
Método 5
Marque las jaulas del 1 al 16.
1 5 9 13
2 6 10 14
3 7 11 15
4 8 12 16
Ponga 16 pedazos de papel en una urna, numerados del 1 al
16. En otra urna ponga 16 pedazos de papel, marcados con
las letras A, B C y D.
Atrape un conejo. Seleccione un número y una letra de cada
urna. Ponga el conejo en la jaula indicada por el número
escogido y asígnelo a la dieta indicada por la letra.
Repita sin reemplazo hasta que todos los conejos hayan sido
asignados a una dieta y una jaula.
Diseño de experimentos – p. 12/112
Método 5
Si, por ejemplo, el primer número seleccionado fué 7 y la
primera letra B, entonces el primer conejo se pone en la jaula
7 y se alimenta con la dieta B.
1 5 9 13
2 6 10 14
3 7 B 11 15
4 8 12 16
Diseño de experimentos – p. 13/112
Método 5
Un ejemplo de asignación completa es el siguiente:
1 C 5 A 9 B 13 D
2 D 6 B 10 D 14 C
3 C 7 B 11 A 15 D
4 A 8 A 12 C 16 B
Note que el diseño completamente al azar no toma en cuenta
las diferencias en la altura de las jaulas. Es solamente una
asignación completamente al azar.
En este ejemplo vemos que la mayoría de los conejos con la
dieta A están en jaulas de la parte de abajo y los de la dieta D
están en la parte superior. Un diseño completamente al azar
supone que estas posiciones no producen una diferencia
sistemática en la respuesta (tiempo de coagulación).
Si creemos que la posición afecta la respuesta, deberíamos
usar un diseño de bloques al azar.
Diseño de experimentos – p. 14/112
Diseño completamente al azar, un factor
Ejemplo: Disminución del crecimiento de bacterias en carne
almacenada.
La vida en estante de carne almacenada es el tiempo en que
el corte empacado se mantiene bien, nutritivo y vendible.
El empaque estándar con aire del medio ambiente tiene una
vida de 48 horas. Después se deteriora por contaminación
bacterial, degradación del color y encogimiento.
El empaque al vacío detiene el crecimiento bacterial, sin
embargo, se pierde calidad.
Estudios recientes sugieren que al controlar ciertos gases de
la atmósfera se alarga la vida en estante.
Diseño de experimentos – p. 15/112
Diseño completamente al azar, un factor
Hipótesis de investigación: Algunas formas de gases
controlados pueden mejorar la efectividad del
empacamiento para carne.
Diseño de tratamientos: Un factor con 4 niveles:
1. Aire ambiental con envoltura plástica
2. Empacado al vacío
3. Mezcla de gases:
■ 1% CO (monóxido de carbono)
■ 40% O2 (oxígeno)
■ 59% N (nitrógeno)
4. 100% CO2 (bióxido de carbono)
Diseño experimental: Completamente al azar.
Diseño de experimentos – p. 16/112
Diseño completamente al azar, un factor
Tres bisteces de res, aproximadamente del mismo tamaño (75
grs.) se asignaron aleatoriamente a cada tratamiento. Cada
bistec se empaca separadamente con su condición asignada.
Variable de respuesta: Se mide el número de
bacterias psichnotropicas en la carne después de 9
días de almacenamiento a 4◦C.
Estas bacterias se encuentran en la superficie de la
carne y aparecen cuando la carne se echó a perder.
La medición fué el logaritmo del número de
bacterias por cm2.
Diseño de experimentos – p. 17/112
Diseño completamente al azar, un factor
Cómo aleatorizar?
Se obtiene una permutación aleatoria de los números 1 a 12. Para esto se
toma una secuenciade números de 2 dígitos de una tabla de números
aleatorios y se les asigna el rango que les corresponda.
Por ejemplo:
# aleatorio 52 56 20 99 44 34 62 60 31 57 40 78
rango 6 7 1 12 5 3 10 9 2 8 4 11
trat 1 1 1 2 2 2 3 3 3 4 4 4
u.e. 1 2 3 4 5 6 7 8 9 10 11 12
trat 1 3 2 4 2 1 1 4 3 3 4 2
Diseño de experimentos – p. 18/112
Diseño completamente al azar, un factor
Modelo estadístico para el experimento
El modelo estadístico para estudios comparativos supone que
hay una población de referencia de u.e. En muchos casos la
población es conceptual. En el ejemplo, es posible imaginar
una población de carne empacada.
Cada unidad de la población tiene un valor de la variable de
respuesta, y, la cual tiene media µ y varianza σ2.
Se supone una población de referencia para cada tratamiento
considerado en el estudio, y las variables en el experimento se
suponen seleccionadas aleatoriamente de dicha población de
referencia, como resultado de la aleatorización.
Nota. Para estudios observacionales, suponemos que las
unidades observadas se seleccionaron aleatoriamente de
cada una de las poblaciones.
Diseño de experimentos – p. 19/112
Diseño completamente al azar, un factor
Diseño de experimentos – p. 20/112
Diseño completamente al azar, un factor
Modelo estadístico lineal para un diseño completamente al
azar.
Modelo de medias:
yij = µi + ǫij i = 1, 2, . . . , t j = 1, 2, . . . , r
donde
yij es la observación de la j-ésima u.e. del i-ésimo tratamiento,
µi es la media del i-ésimo tratamiento,
ǫij es el error experimental de la unidad ij.
Suponemos que hay t tratamientos y r repeticiones en cada
uno.
En el ejemplo de la carne empacada, tenemos:
Diseño de experimentos – p. 21/112
Diseño completamente al azar, un factor
bistec trata obser log yij Modelo
miento vación (conteo/cm2)
6 1 1 7.66 y11 µ1 + ǫ11
7 1 2 6.98 y12 µ1 + ǫ12
1 1 3 7.80 y13 µ1 + ǫ13
12 2 1 5.26 y21 µ2 + ǫ21
5 2 2 5.44 y22 µ2 + ǫ22
3 2 3 5.80 y23 µ2 + ǫ23
10 3 1 7.41 y31 µ3 + ǫ31
9 3 2 7.33 y32 µ3 + ǫ32
2 3 3 7.04 y33 µ3 + ǫ33
8 4 1 3.51 y41 µ4 + ǫ41
4 4 2 2.91 y42 µ4 + ǫ42
11 4 3 3.66 y43 µ4 + ǫ43
Diseño de experimentos – p. 22/112
Diseño completamente al azar, un factor
El modelo:
yij = µi + ǫij
lo llamaremos modelo completo ya que incluye una media
separada para cada una de las poblaciones definidas por los
tratamientos.
Si no hay diferencia entre las medias de las poblaciones, es
decir,
µ1 = µ2 = µ3 = µ4 = µ
se genera el modelo reducido
yij = µ + ǫij
que establece que las observaciones provienen de la misma
población con media µ.
Diseño de experimentos – p. 23/112
Diseño completamente al azar, un factor
El modelo reducido representa la hipótesis de no diferencia
entre las medias
H0 : µ1 = µ2 = µ3 = µ4 = µ
El modelo completo representa la hipótesis alternativa:
Ha : µi 6= µk i 6= k
El investigador debe determinar cuál de los dos modelos
describe mejor a los datos en el experimento.
Diseño de experimentos – p. 24/112
Diseño completamente al azar, un factor
yij = µ + ǫij yij = µi + ǫij
Diseño de experimentos – p. 25/112
Diseño completamente al azar, un factor
Pregunta de investigación: Hay más crecimiento bacterial
con algunos métodos de empacado que con otros?
Pregunta estadística: Cuál modelo describe mejor los
resultados del experimento?
Se requiere un método para estimar los parámetros de los dos
modelos y con base en algun criterio objetivo determinar cuál
modelo o hipótesis estadística se ajusta mejor a los datos del
experimento.
Diseño de experimentos – p. 26/112
Diseño completamente el azar, un factor
Los estimadores de mínimos cuadrados son aquellos que
resultan de minimizar la suma de cuadrados de los errores
experimentales.
Si los errores experimentales son independientes con media
cero y varianzas homogéneas, los estimadores de mínimos
cuadrados son insesgados y tienen varianza mínima.
Nota. El muestreo aleatorio en los estudios observacionales y
la aleatorización en los experimentales aseguran la suposición
de independencia.
Diseño de experimentos – p. 27/112
Estimadores para el modelo completo
yij = µi + ǫij i = 1, . . . , t j = 1, . . . , r
ǫij = yij − µi
SSEc =
t∑
i=1
r∑
j=1
ǫ2ij =
t∑
i=1
r∑
j=1
(yij − µi)2
La SSEc es una medida de qué tan bien se ajusta el modelo a
los datos.
Queremos determinar los estimadores µ̂i tales que se
minimice esta SSEc.
Vamos a tener t ecuaciones normales, una para cada
tratamiento, encontradas a partir de derivar la SSEc con
respecto a cada µi e igualarlas a cero.
Diseño de experimentos – p. 28/112
Estimadores para el modelo completo
Para una i:
∂
∂µi
r∑
j=1
(yij − µi)2 = −2
r∑
j=1
(yij − µi)
igualando a cero
−2
r∑
j=1
(yij − µ̂i) = 0
r∑
j=1
yij − rµ̂i = 0
µ̂i =
∑r
j=1 yij
r
= ȳi.
Diseño de experimentos – p. 29/112
Estimadores para el modelo completo
Por lo tanto,
µ̂i = ȳi i = 1, . . . , t
Entonces,
SSEc =
t∑
i=1
r∑
j=1
(yij − µ̂i)2
=
t∑
i=1
r∑
j=1
(yij − ȳi.)2
=
t∑
i=1


r∑
j=1
(yij − ȳi.)2


Diseño de experimentos – p. 30/112
Estimadores para el modelo completo
La varianza muestral del i-ésimo tratamiento es:
S2i =
∑r
j=1 (yij − ȳi.)
2
r − 1
es una estimador de σ2 de los datos del i-ésimo grupo.
S2 =
∑t
i=1
[
∑r
j=1 (yij − ȳi.)
2
]
t(r − 1) =
SSEc
t(r − 1)
es un estimador combinado (pooled) de σ2 de todos los
datos del experimento.
Es un buen estimador si podemos hacer la suposición de que
σ2 es homogénea en todos los grupos.
Diseño de experimentos – p. 31/112
Estimadores para el modelo completo
Para los datos del ejemplo:
tratamiento comercial vacío mezcla CO2
7.66 5.26 7.41 3.51
6.98 5.44 7.33 2.91
7.80 5.80 7.04 3.66
µ̂i = ȳi. 7.48 5.50 7.26 3.36
∑r
j=1 (yij − ȳi.)
2 0.3848 0.1512 0.0758 0.3150
SSEc = 0.3848 + 0.1512 + 0.0758 + 0.3150 = 0.9268
S2 =
SSEc
t(r − 1) =
0.9268
4(2)
= 0.11585
Diseño de experimentos – p. 32/112
Estimadores para el modelo reducido
yij = µ + ǫij
ǫij = yij − µ
SSEr =
t∑
i=1
r∑
j=1
ǫ2ij =
t∑
i=1
r∑
j=1
(yij − µ)2
∂
∂µ
t∑
i=1
r∑
j=1
(yij − µ)2 = −2
t∑
i=1
r∑
j=1
(yij − µ)
igualando a cero
t∑
i=1
r∑
j=1
µ̂ =
t∑
i=1
r∑
j=1
yij
rtµ = y..
µ̂ =
y..
rt
= ȳ..
Diseño de experimentos – p. 33/112
Estimadores para el modelo reducido
Entonces,
SSEr =
t∑
i=1
r∑
j=1
(yij − µ̂)2 =
t∑
i=1
r∑
j=1
(yij − ȳ..)2
Para el ejemplo,
µ̂ = ȳ.. =
70.80
12
= 5.90
Diseño de experimentos – p. 34/112
Modelo reducido Modelo completo
yij = µ + ǫij yij = µi + ǫij
Observado Estimado Diferencia Estimado Diferencia
Tratamiento y µ̂ (yij − µ̂) µ̂i (yij − µ̂i)
Comercial 7.66 5.90 1.76 7.48 0.18
6.98 5.90 1.08 7.48 -0.50
7.80 5.90 1.90 7.48 0.32
Vacío 5.26 5.90 -0.64 5.50 -0.24
5.44 5.90 -0.46 5.50 -0.06
5.80 5.90 -0.10 5.50 0.30
Mezcla 7.41 5.90 1.51 7.26 0.15
7.33 5.90 1.43 7.26 0.07
7.04 5.90 1.14 7.26 -0.22
CO2 3.51 5.90 -2.39 3.36 0.15
2.91 5.90 -2.99 3.36 -0.45
3.66 5.90 -2.24 3.36 0.30
SSEr = 33.7996 SSEc = 0.9268
Diseño de experimentos – p. 35/112
Diseño completamente al azar, un factor
Siguiendo con el ejemplo:
Modelo completo yij = µi + ǫij SSEc =
∑
i
∑
j(yij − ȳi.)2 = 0.9268
Modelo reducido yij = µ + ǫij SSEr =
∑
i
∑
j(yij − ȳ..)2 = 33.7996
Diferencia:
SSEr − SSEc =
∑
i
∑
j
(yij − ȳ..)2 −
∑
i
∑
j
(yij − ȳi.)2
haciendo álgebra
=
∑
i
∑
j
(ȳi. − ȳ..)2 = r
∑
i
(ȳi. − ȳ..)2
En el ejemplo: SSEr − SSEc = 32.8728
Diseño de experimentos – p. 36/112
Diseño completamente al azar, un factor
SSEr − SSEc = SSt suma de cuadrados de tratamientos.
Representa la reducción en SSE al haber incluido
tratamientos en el modelo, también se le conoce como
reducción en suma de cuadrados debida a tratamientos.
Llamaremos SStotal = SSEr ya que es la suma de cuadrados
de las diferencias de cada observación y la media general ȳ..
Entonces, tenemos la partición:
SStotal = SSt + SSEc
∑
i
∑
j
(yij − ȳ..)2 =
∑
i
∑
j
(ȳi. − ȳ..)2 +
∑
i
∑
j
(yij − ȳi.)2
desviación de la desviación de la desviación de la
observación ij media del grupo observaciónij
con respecto a con respecto a con respecto a
la media general la media general la media de su grupo
Diseño de experimentos – p. 37/112
Diseño completamente al azar, un factor
∑
i
∑
j
(yij − ȳ..)2 =
∑
i
∑
j
[(yij − ȳi.) + (ȳi. − ȳ..)]2
=
∑
i
∑
j
(yij − ȳi.)2 +
∑
i
∑
j
(ȳi. − ȳ..)2
−2
∑
i
∑
j
(yij − ȳi.)(ȳi. − ȳ..)
∑
i
∑
j
(yij − ȳi.)(ȳi. − ȳ..) =
∑
i
(ȳi. − ȳ..)
∑
j
(yij − ȳi.)
=
∑
i
(ȳi. − ȳ..)(yi. − rȳi.) = 0
Diseño de experimentos – p. 38/112
Diseño completamente al azar, un factor
Grados de libertad. Representan el número de piezas de
información independientes en las sumas de cuadrados.
En general, es el número de observaciones menos el número
de parámetros estimados de los datos.
Sea n = rt, el tamaño de muestra total.
Así, SStotal =
∑t
i
∑r
j(yij − ȳ..)2 donde ȳ.. es el estimador de
µ, tiene n − 1 g.l.
SSE =
∑t
i
∑r
j(yij − ȳi.)2 se estimaron t parámetros
(µ1, µ2, . . . , µt) por lo tanto tiene n − t g.l.
SSt = SStotal − SSE = (n − 1) − (n − t) = t − 1 g.l.
Diseño de experimentos – p. 39/112
Tabla de Análisis de Varianza
ANOVA
F.V. g.l. SS CM
Tratamientos t − 1 SSt CMt = SSt/t − 1
Error n − t SSE CME = SSE/n − t = σ̂2
Total n − 1 SStotal
Se puede demostrar que:
E (CME) = σ2
E (CMt) = σ
2 +
1
t − 1
t∑
i=1
r(µi − µ̄)2; µ̄ =
∑
i
µi/t
Diseño de experimentos – p. 40/112
Tabla de Análisis de Varianza
Si suponemos ǫij ∼ NID(0, σ2) i = 1, . . . , t j = 1, . . . , r
en el modelo completo yij = µi + ǫij
Entonces, yij ∼ NID(µi, σ2).
Se puede demostrar que:
SStotal
σ2
=
∑
i
∑
j(yij − ȳ..)2
σ2
∼ χ2n−1
SSE
σ2
=
∑
i
∑
j(yij − ȳi.)2
σ2
∼ χ2n−t
Cuando H0 : µ1 = µ2 = . . . = µt es cierta
SSt
σ2
=
∑
i r(ȳi. − ȳ..)2
σ2
∼ χ2t−1
Diseño de experimentos – p. 41/112
Tabla de Análisis de Varianza
Por el Teorema de Cochran (Montgomery, 2001, pág. 69), SSt
y SSE son independientes, por lo tanto cuando H0 es cierta,
F0 =
SSt/σ
2(t − 1)
SSE/σ2(n − t) =
CMt
CME
∼ Ft−1,n−t
Además, E (CMt) = σ2 + θ2t = σ
2 cuando θ2t = 0 que es
cuando H0 es cierta. Es decir,
E (CMt) = E (CME) cuando H0 es cierta
E (CMt) > E (CME) cuando H0 no es cierta
Entonces, si CMt > CME, o sea, valores grandes de F0
llevan a rechazar la hipótesis nula H0 : µ1 = µ2 = . . . = µt.
Por lo tanto, la región de rechazo es:
F0 > F
α
t−1,n−t
Diseño de experimentos – p. 42/112
Tabla de Análisis de Varianza
ANOVA
F.V. g.l. SS CM F E(CM)
Tratamientos t − 1 SSt CMt = SStt−1
CMt
CME σ
2 + θ2t
Error n − t SSE CME = SSEn−t σ2
Total n − 1 SStotal
SSt =
t∑
i=1
r (ȳi. − ȳ..)2
SSE =
t∑
i=1
r∑
j=1
(yij − ȳi.)2
SStotal =
t∑
i=1
r∑
j=1
(yij − ȳ..)2
Diseño de experimentos – p. 43/112
Tabla de Análisis de Varianza
En el ejemplo de empacado de carne:
F.V. g.l. SS CM F Pr > F
trat 3 32.8728 10.958 94.55 0.000
error 8 0.9268 0.1159
total 11 33.7996
Por lo tanto, se rechaza la hipótesis H0 : µ1 = µ2 = . . . = µ4,
es decir, hay algún método de empaque que tiene diferente
comportamiento en promedio.
Diseño de experimentos – p. 44/112
Diseño completamente al azar, un factor
Se quieren comparar t niveles de un factor, lo que implica t
tratamientos y se dispone de ni u.e. para el tratamiento i,
i = 1, . . . , t. Hay dos situaciones:
1. Los t tratamientos son escogidos específicamente por el
investigador. En esta situación deseamos probar hipótesis
acerca de las medias de los tratamientos y nuestras
conclusiones se aplicarán solamente a los niveles del
factor considerados en el análisis. Las conclusiones no se
pueden extender a tratamientos similares que no fueron
explícitamente considerados. Este es el modelo de
efectos fijos .
2. Los t tratamientos son una muestra aleatoria de una
población de tratamientos. En esta situación nos gustaría
poder extender las conclusiones (las cuales están basadas
en la muestra de tratamientos considerada) a todos los
tratamientos de la población. Este es el modelo de
efectos aleatorios .
Diseño de experimentos – p. 45/112
Diseño completamente al azar, un factor
A las cantidades n1, n2, . . . , nt se les llama repeticiones de
cada tratamiento.
Si ni = r ∀i se dice que el diseño es balanceado .
yij es la respuesta de la u.e. j del tratamiento i,
i = 1, . . . , t j = 1, . . . , ni.
Diseño de experimentos – p. 46/112
Diseño completamente al azar
Estructura de los datos.
tratamientos
1 2 3 ... t
y11 y21 y31 ... yt1
y12 y22 y32 ... yt2
y13 y23 y33 ... yt3
. . . ... .
. . . ... .
. . . ... .
y1n1 y2n2 y3n3 ... ytnt
y1. y2. y3. ... yt. totales
ȳ1. ȳ2. ȳ3. ... ȳt. medias
Diseño de experimentos – p. 47/112
Diseño completamente al azar
n =
t∑
i=1
ni
yi. =
ni∑
j=1
yij i = 1, . . . , t total tratamiento i
ȳi. =
∑ni
j=1 yij
ni
i = 1, . . . , t media tratamiento i
y.. =
t∑
i=1
ni∑
j=1
yij =
t∑
i=1
yi. total de las observaciones
ȳ.. =
y..
n
media general
Diseño de experimentos – p. 48/112
Diseño completamente al azar
Se tienen t muestras aleatorias independientes de tamaños
n1, n2, . . . , nt respectivamente.
y11, y12, . . . , y1n1 es una muestra aleatoria de N(µ1, σ
2)
y21, y22, . . . , y2n2 es una muestra aleatoria de N(µ2, σ
2)
yt1, yt2, . . . , ytnt es una muestra aleatoria de N(µt, σ
2)
Diseño de experimentos – p. 49/112
Diseño completamente al azar
Las observaciones en cada una de estas muestras se pueden
representar por el modelo lineal simple
yij = µi + ǫij i = 1, . . . , t j = 1, . . . , ni
con ǫij error experimental en la observación j-ésima del
tratamiento i-ésimo.
Estamos suponiendo independencia entre y dentro de las
muestras, es decir, ǫij son independientes y ǫij ∼ N(0, σ2).
Diseño de experimentos – p. 50/112
Diseño completamente al azar
Otra forma de verlo
Como suponemos que las u.e. son homogéneas, es decir, el
promedio de respuesta de todas las u.e. es el mismo (µ) antes
de aplicar los tratamientos, y si se observan en condiciones
similares, las respuestas las podemos modelar como
yij = µ + ǫij
Diseño de experimentos – p. 51/112
Modelo de efectos
Entonces al aplicar el tratamiento i-ésimo a un grupo (de
tamaño ni) de u.e. se introduce un efecto (τi) de ese
tratamiento en las variables por observar.
El modelo se puede escribir como:
Modelo de efectos
yij = µ + τi + ǫij i = 1, . . . , t j = 1, . . . , ni
donde
µ es la media general, común a todas las u.e.
τi es el efecto del tratamiento i-ésimo
Diseño de experimentos – p. 52/112
Modelo de efectos
Diseño de experimentos – p. 53/112
Modelo de efectos
El modelo de efectos implica que se empieza el experimento
con u.e. con la misma capacidad de respuesta (µ) y con la
misma varianza (σ2).
La aplicación de los tratamientos tiene el efecto de alterar las
medias, que ahora son µi = µ + τi, pero supone que no se
modifican las varianzas.
En este caso, la hipótesis a probar es:
H0 : τ1 = τ2 = . . . = τt = 0
Ha : τi 6= 0 para al menos una i
Diseño de experimentos – p. 54/112
Modelo de efectos
Estimadores de mínimos cuadrados:
yij = µ + τi + ǫij i = 1, . . . , t j = 1, . . . , ni
SSE =
t∑
i=1
ni∑
j=1
ǫ2ij =
t∑
i=1
ni∑
j=1
(yij − µ − τi)2
∂
∂µ
t∑
i=1
ni∑
j=1
(yij − µ − τi)2 = −2
t∑
i=1
ni∑
j=1
(yij − µ − τi)
∂
∂τi
t∑
i=1
ni∑
j=1
(yij − µ − τi)2 = −2
ni∑
j=1
(yij − µ − τi) i = 1, . . . , t
Diseño de experimentos – p. 55/112
Modelo de efectos
Igualando a cero:
t∑
i=1
ni∑
j=1
yij = nµ̂ +
t∑
i=1
niτ̂i
n1∑
j=1
y1j = n1µ̂ + n1τ̂1
n2∑
j=1
y2j = n2µ̂ + n2τ̂2
. . . . . .
nt∑
j=1
ytj = ntµ̂ + ntτ̂t
Las ecuaciones normales no son linealmente independientes,
por lo tanto no hay una solución única. Esto ocurre porque el
modelo de efectos está sobreparametrizado.
Diseño de experimentos – p. 56/112
Modelo de efectos
Se añade una ecuación linealmente independiente:
a)
∑t
i=1 τ̂i = 0
µ̂ = ȳ..
τ̂i = ȳi. − ȳ.. i = 1, . . . , t
b) µ̂ = 0
µ̂ = 0
τ̂i = ȳi. i = 1, . . . , t
c) τ̂1 = 0
µ̂ = ȳ1.
τ̂i = ȳi. − ȳ1. i = 2, . . . , t
Diseño de experimentos – p. 57/112
Modelo de efectosHay un número infinito de posibles restricciones que se
pueden usar para resolver las ecuaciones normales. Entonces
Cuál usar?
No importa ya que en cualquier caso
µ̂ + τi = ȳi.
Aunque no podemos obtener estimadores únicos de los
parámetros del modelo de efectos, podemos obtener
estimadores únicos de funciones de estos parámetros.
A estas funciones se les llama funciones lineales
linealmente estimables.
Diseño de experimentos – p. 58/112
Diseño completamente al azar, Tabla de ANOVA
F.V. g.l. SS CM F E(CM)
Tratamientos t − 1 SSt CMt = SStt−1
CMt
CME σ
2 +
∑
i ni(τi−τ̄)
2
t−1
Error n − t SSE CME = SSEn−t σ2
Total n − 1 SStotal
SSt =
t∑
i=1
ni (ȳi. − ȳ..)2 =
t∑
i=1
y2i.
ni
− y
2
..
n
SSE =
t∑
i=1
ni∑
j=1
(yij − ȳi.)2 =
t∑
i=1
ni∑
j=1
y2ij −
t∑
i=1
y2i.
ni
SStotal =
t∑
i=1
ni∑
j=1
(yij − ȳ..)2 =
t∑
i=1
ni∑
j=1
y2ij −
y2..
n
n =
t∑
i=1
ni
Diseño de experimentos – p. 59/112
Intervalos de confianza
µ̂i = ȳi. S
2
ȳi. =
S2
ni
con S2 = CME = σ̂2 Sȳi. =
√
CME
ni
Como suponemos que
yij ∼ N
(
µi, σ
2
)
entonces
ȳi. ∼ N
(
µi, σ
2/ni
)
como estimamos la varianza:
ȳi. − µi
Sȳi.
∼ tn−t
Por lo tanto, un intervalo del (1 − α)100% de confianza para µi
es
ȳi. ± t1−α/2n−t (Sȳi.)
Diseño de experimentos – p. 60/112
Contrastes
En el ejemplo del empacado de carne teníamos:
Comercial Al vacío CO,O2,N CO2
µ̂i = ȳi. 7.48 5.50 7.26 3.36
S2 = CME = 0.116 con 8 g.l.
Una vez que rechazamos la hipótesis H0 : µ1 = µ2 = µ3 = µ4
Qué sigue?
Diseño de experimentos – p. 61/112
Contrastes
Se podrían contestar preguntas como:
■ Es más efectiva la creación de una atmósfera artificial que el
aire ambiente con plástico para reducir el crecimiento de
bacterias?
■ Son más efectivos los gases que el vacío?
■ Es más efectivo el tratamiento de CO2 puro que la mezcla
CO,O2 y N?
Un contraste es una función lineal de los parámetros µi
definido como
C =
t∑
i=1
kiµi = k1µ1 + k2µ2 + . . . + ktµt
donde
∑t
i=1 ki = 0.
Diseño de experimentos – p. 62/112
Contrastes
Los contrastes para las preguntas anteriores son:
■ comercial vs. atmósfera artificial
C1 = µ1 −
1
3
(µ2 + µ3 + µ4)
■ vacío vs. gases
C2 = µ2 −
1
2
(µ3 + µ4)
■ mezcla de gases vs. CO2 puro
C3 = µ3 − µ4
Diseño de experimentos – p. 63/112
Contrastes
El estimador del contraste
C =
t∑
i=1
kiµi es Ĉ =
t∑
i=1
kiµ̂i =
t∑
i=1
kiȳi.
Si suponemos que
yij ∼ N
(
µi, σ
2
)
entonces
ȳi. ∼ N
(
µi, σ
2/ni
)
Por lo tanto,
Ĉ =
t∑
i=1
kiȳi. ∼ N
(
t∑
i=1
kiµi, σ
2
t∑
i=1
ki
ni
)
Diseño de experimentos – p. 64/112
Contrastes
Ya que:
E
(
t∑
i=1
kiȳi.
)
=
t∑
i=1
kiE (ȳi.) =
t∑
i=1
kiµi
V
(
t∑
i=1
kiȳi.
)
=
︸︷︷︸
m.indep
t∑
i=1
k2i V (ȳi.) =
t∑
i=1
k2i
σ2
ni
= σ2
t∑
i=1
k2i
ni
V̂
(
Ĉ
)
= σ̂2
t∑
i=1
k2i
ni
= CME
t∑
i=1
k2i
ni
Diseño de experimentos – p. 65/112
Contrastes
Entonces,
∑t
i=1 kiȳi. −
∑t
i=1 kiµi
√
CME
∑t
i=1 k
2
i /ni
∼ tg.l.error
De aquí un intervalo del 100(1 − α)% de confianza para el
contraste C es:
Ĉ ± t1−α/2g.l.error
√
√
√
√CME
t∑
i=1
k2i /ni
Diseño de experimentos – p. 66/112
Contrastes
Además,
Ĉ − C
√
σ2
∑t
i=1 k
2
i /ni
∼ N (0, 1)
Si H0 :
∑t
i=1 kiµi = 0, es decir, H0 : C = 0 es cierta, entonces,
Ĉ2
σ2
∑t
i=1 k
2
i /ni
∼ χ21
Sea
SSc =
Ĉ2
∑t
i=1 k
2
i /ni
entonces
SSc/σ
2
SSE/σ2(n − t) =
Ĉ2/
∑t
i=1 k
2
i /ni
CME
∼ F1,n−t
Por lo tanto, para probar H0 : C = 0 se rechaza si Fc > Fα1,n−t
Diseño de experimentos – p. 67/112
Contrastes
El número de contrastes que se pueden hacer es muy grande,
sin embargo, esta técnica tiene su mayor utilidad cuando se
aplica a comparaciones planeadas antes de realizar el
experimento.
Una clase de contrastes, conocida como Contrastes
ortogonales (como son los del ejemplo anterior) tienen
propiedades especiales con respecto a la partición de sumas
de cuadrados y grados de libertad y con respecto a su relación
entre ellos. La ortogonalidad implica que un contraste no
aporta información acerca de otro.
Dos contrastes, con coeficientes {ki}, {li} son ortogonales si
t∑
i=1
kili
ni
= 0
Diseño de experimentos – p. 68/112
Contrastes
Para t tratamientos existe un conjunto de t − 1 contrastes
ortogonales, los cuales hacen una partición de la suma de
cuadrados de tratamientos en t − 1 componentes
independientes, cada uno con 1 g.l. Por lo tanto las pruebas
realizadas con contrastes ortogonales son independientes.
En el ejemplo anterior, los contrastes son ortogonales.
k1 k2 k3 k4
C1 1 -1/3 -1/3 -1/3
C2 0 1 -1/2 -1/2
C3 0 0 1 -1
Diseño de experimentos – p. 69/112
ANOVA
La tabla de ANOVA incorporando las pruebas de hipótesis de
los 3 contrastes es:
F.V. g.l. SS CM F Pr > F
trat 3 32.8728 10.958 94.55 0.000
C1 1 10.01 10.01 86.29 0.000
C2 1 0.07 0.07 0.62 0.453
C3 1 22.82 22.82 196.94 0.000
error 8 0.9268 0.1159
total 11 33.7996
Se rechaza H0 : µ1 = µ2 = µ3 = µ4
Se rechaza H01 : µ1 = 13 (µ2 + µ3 + µ4)
No se rechaza H02 : µ2 = 12 (µ3 + µ4)
Se rechaza H03 : µ3 = µ4
SSC1 =
Ĉ1
2
1
r
∑4
i=1 k
2
i
=
(2.11)2
12+3(−1/3)2
3
=
4.4521
0.4444
= 10.01
Diseño de experimentos – p. 70/112
Otro ejemplo
En un experimento se van a comparar los % de carbohidratos
en cuatro marcas de pan, para lo cual se van a hacer 18
determinaciones: 5 en la marca A, 3 en la B, 4 en la C y 6 en
la D.
En este caso, cada marca de pan es un tratamiento (t = 4) y
se tienen n1 = 5, n2 = 3, n3 = 4, n4 = 6. Para obtener las
respuestas se tomarán muestras aleatorias de los tamaños ni
especificados de cada marca y se harán determinaciones de
los porcentajes mediante un procedimiento (hasta donde sea
posible) idéntico en las 18 u.e.
Note que en este ejemplo no estamos en libertad de asignar
las u.e. a los tratamientos, ya que las poblaciones (las 4
marcas) existen independientemente de la acción del
experimentador. No obstante lo anterior, basta que las
muestras aleatorias de las 4 poblaciones sean independientes
para que el análisis bajo el modelo que se propone sea válido.
Este es un estudio observacional , no experimental.
Diseño de experimentos – p. 71/112
Otro ejemplo
Tratamiento (marca)
A B C D
63 60 59 70
68 65 66 69
71 61 58 62
70 59 71
69 70
66
ni 5 3 4 6
yi. 341 186 242 408
ȳi. 68.2 62.0 60.5 68.0
Diseño de experimentos – p. 72/112
Otro ejemplo
Pruebe la hipótesis de igualdad de medias
H0 : µ1 = µ2 = µ3 = µ4.
Conteste las siguientes preguntas:
■ Son diferentes en promedio los porcentajes de
carbohidratos en las marcas B y C?
■ Es diferente el porcentaje de carbohidratos de la marca A al
promedio de las marcas C y D?
■ Suponga que las marcas A y B están hechas con harina
integral y las marcas C y D con harina blanca. El promedio
del porcentaje de carbohidratos de las marcas A y B es igual
al promedio de C y D?
Hacerlo con SPSS, JMP, STATA
Diseño de experimentos – p. 73/112
Comparaciones múltiples
En muchas situaciones prácticas, se desea comparar pares de
medias. Podemos determinar cuáles medias difieren probando
las diferencias entre todos los pares de medias de
tratamientos.
Es decir, estamos interesados en contrastes de la forma
Γ = µi − µj ∀i 6= j
Lo primero que se nos viene a la mente es hacer una prueba t
para cada par de medias, es decir, probar
H0 : µi = µj
Ha : µi 6= µj ∀i 6= j
Diseño de experimentos – p. 74/112
Comparaciones múltiples
Si suponemos varianzas iguales, se tiene la estadística de
prueba
tc =
ȳi. − ȳj.
sp
√
1
ni
+ 1nj
y se rechaza H0 al nivel de significancia α si
tc ≤ tα/2ni+nj−2 ó tc ≥ t
1−α/2
ni+nj−2
Esto es equivalente a decir que se rechaza H0 si
|tc| =
|ȳi. − ȳj.|
sp
√
1
ni
+ 1nj
> t
1−α/2
ni+nj−2
o equivalente a
|ȳi. − ȳj.| > t1−α/2ni+nj−2 sp
√
1
ni
+
1
nj
Diseño de experimentos – p. 75/112
Comparaciones múltiples
Esta prueba conocida como Diferencia Mínima Significativa
(DMS ó LSD) en el contexto de ANOVA, lo que hace es
comparar el valor absoluto de la diferencia de cada par de
medias con DMS:
Si
|ȳi. − ȳj.| > DMS = t1−α/2glerror
√CME
(
1
ni
+
1
nj
)
se rechaza H0 : µi = µj .
CME es el cuadrado medio del error que es una estimación
ponderada de la varianza basada en t estimaciones de la
varianza.
El utilizar este procedimiento no es conveniente por que el
nivel de significancia global, es decir, para el conjunto de todas
las pruebas, resulta muy superior al nivel de significancia (α)
planeado.
Diseño de experimentos – p. 76/112
Comparaciones múltiples
Por ejemplo, si se tienen 4 medias de tratamientos, entonces
se tienen (
4
2
)
=
4!
2!2!
= 6
pares a comparar, es decir, 6 pruebas de hipótesis a realizar,
con lo que se pueden cometer 0, 1, 2, 3, 4, 5, ó 6 errores Tipo I,
si todas las medias son iguales.
Se define otra forma de error tipo I basado en los riesgos
acumulados asociados a la familia de pruebas bajo
consideración.
Este es el error tipo I del experimento αE que es el riesgo de
cometer el error tipo I al menos una vez.
La probabilidad de error tipo I del experimento puede
evaluarse para una familia de pruebas independientes.
Diseño de experimentos – p. 77/112
Comparaciones múltiples
Sin embargo, todas las pruebas a pares usando la DMS no
son independientes, puesto que el CME es el mismo en cada
una de las estadísticas de prueba y el numerador contiene las
mismas medias en varias de las estadísticas de prueba.
Aún así, se puede evaluar el límite superior de la probabilidad
de error tipo I del experimento, suponiendo n pruebas
independientes.
Suponga que la H0 es cierta para cada una de las n =
(
t
2
)
pruebas y que son independientes.
Sea αc = P (error tipo I) en una sola prueba (comparación)
con (1 − αc) = P (decisión correcta).
Diseño de experimentos – p. 78/112
Comparaciones múltiples
La probabilidad de cometer x errores tipo I está dada por la
distribución binomial como:
P (X = x) =
(
n
x
)
αxc (1 − αc)n−x
P (X = x) =
n!
(n − x)!x!α
x
c (1 − αc)n−x x = 0, 1, 2, . . . , n
La probabilidad de no cometer ningún error tipo I es
P (X = 0) = (1 − αc)n
Diseño de experimentos – p. 79/112
Comparaciones múltiples
La probabilidad de cometer al menos 1 error tipo I es
P (X ≥ 1) = 1 − P (X = 0) = 1 − (1 − αc)n
es decir, la máxima probabilidad de cometer al menos un error
tipo I entre las n comparaciones es:
αE = 1 − (1 − αc)n de aquí
αc = 1 − (1 − αE)1/n
Diseño de experimentos – p. 80/112
Comparaciones múltiples
# de pruebas αE cuando αc cuando
indep. n αc = 0.05 αE = 0.05
1 0.05 0.05
2 0.098 0.025
3 0.143 0.017
4 0.185 0.013
5 0.226 0.010
10 0.401 0.005
Por el razonamiento anterior es que han surgido una serie de
pruebas de diferentes autores para hacer comparaciones
múltiples tratando de mantener la
P (error tipo I del experimento) = α
Diseño de experimentos – p. 81/112
Bonferroni
αE ≤ nαc
n comparaciones, la igualdad se dá cuando las pruebas son
independientes.
Entonces,
αc = αE/n
Si queremos αE = 0.05 entonces, αc = 0.05/n y se hacen las
pruebas t para los pares de medias con un nivel de
significancia αc en cada una de ellas.
Diseño de experimentos – p. 82/112
Tukey
Conocida como la prueba de la Diferencia Mínima Significativa
Honesta (DMSH)
DMSH = qαt,glerror
√
CME
r
si ni = r ∀i
DMSH = qαt,glerror
√
CME
2
(
1
ni
+
1
nj
)
Si |ȳi. − ȳj.| > DMSH se rechaza H0 : µi = µj .
qαν1,ν2 se obtiene de las "tablas de rangos estudentizados".
Diseño de experimentos – p. 83/112
Tukey
Para el ejemplo del empaque de carne:
Comercial Al vacío CO,O2,N CO2
ȳi. 7.48 5.50 7.26 3.36
S2 = CME = 0.116 con 8g.l. t = 4, r = 3
DMSH = q0.054,8
√
0.116
3
= (4.53)(0.197) = 0.891
|ȳ1. − ȳ2.| = 1.98∗∗
|ȳ1. − ȳ3.| = 0.22
|ȳ1. − ȳ4.| = 4.12∗∗
|ȳ2. − ȳ3.| = 1.76∗∗
|ȳ2. − ȳ4.| = 2.14∗∗
|ȳ3. − ȳ4.| = 3.90∗∗
Diseño de experimentos – p. 84/112
Student-Newman-Keuls (SNK)
Se calcula un conjunto de valores críticos
kp = q
α
p,fSȳi. p = 2, 3, . . . , t
donde qαp,f es el percentil 1 − α de la distribución del rango
estudentizado para el número p de medias involucradas en la
comparación y f g.l. del error, y Sȳi. =
√
CME
r
Para el ejemplo de la carne empacada:
p 2 3 4
q.05p,8 3.26 4.04 4.53
kp 0.642 0.796 0.892
Diseño de experimentos – p. 85/112
Student-Newman-Keuls (SNK)
Comercial Al vacío CO,O2,N CO2
ȳi. 7.48 5.50 7.26 3.36
Medias ordenadas:
ȳ4. = 3.36 ȳ2. = 5.50 ȳ3. = 7.26 ȳ1. = 7.48
|ȳ4. − ȳ1.| = 4.12 > k∗∗4
|ȳ4. − ȳ3.| = 3.90 > k∗∗3
|ȳ4. − ȳ2.| = 2.14 > k∗∗2
|ȳ2. − ȳ1.| = 1.98 > k∗∗3
|ȳ2. − ȳ3.| = 1.76 > k∗∗2
|ȳ3. − ȳ1.| = 0.22 < K2(N.S.)
Diseño de experimentos – p. 86/112
Duncan
Es similar a la de SNK. Los promedios de los t tratamientos se
ordenan en forma ascendente y el error estándar de cada
promedio se determina con
Sȳi. =
√
CME
r
si ni = r ∀i
Para muestras de diferente tamaño, se reemplaza la r por la
media armónica (nh) de los {ni}
nh =
t
∑t
i=1
(
1
ni
)
Diseño de experimentos – p. 87/112
Duncan
De las tablas de Duncan de rangos significativos se obtienen
los valores de rαp,f para p = 2, 3, . . . , t.
p es el número de medias involucradas en la comparación, α
es el nivel de significancia y f los grados de libertad del error.
Se calculan
Rp = r
α
p,fSȳi. p = 2, 3, . . . , t
Para el ejemplo de la carne empacada:
p 2 3 4
r.05p,8 3.26 3.39 3.47
Rp 0.642 0.668 0.684
Diseño de experimentos – p. 88/112
Duncan
Comercial Al vacío CO,O2,N CO2
ȳi. 7.48 5.50 7.26 3.36
Medias ordenadas:
ȳ4. = 3.36 ȳ2. = 5.50 ȳ3. = 7.26 ȳ1. = 7.48
|ȳ4. − ȳ1.| = 4.12 > R∗∗4
|ȳ4. − ȳ3.| = 3.90 > R∗∗3
|ȳ4. − ȳ2.| = 2.14 > R∗∗2
|ȳ2. − ȳ1.| = 1.98 > R∗∗3
|ȳ2. − ȳ3.| = 1.76 > R∗∗2
|ȳ3. − ȳ1.| = 0.22 < R2(N.S.)
Diseño de experimentos – p. 89/112
Dunnett
Para comparar las medias de los tratamientos con la media del
tratamiento control.
Suponga que el tratamiento t es el control, queremos probar
las hipótesis
H0 : µi = µt
Ha : µi 6= µt i = 1, 2, . . . , t − 1
H0 : µi = µt se rechaza si
|ȳi. − ȳt.| > D = dα(t − 1, glerror)
√
CME
r
con dα(k, ν) es el percentil 1 − α de las tablas de Dunnett.
Para el ejemplo de la carne empacada, el tratamiento 1 es el
control.
Comercial Al vacío CO,O2,N CO2
ȳi. 7.48 5.50 7.26 3.36
Diseño de experimentos – p. 90/112
Dunnett
d0.05,3,8 = 2.42
D = 2.42
(√
CME
r
)
= 0.477
|ȳ2. − ȳ1.| = 1.98 > D∗∗
|ȳ3. − ȳ1.| = 0.22 < D(N.S.)
|ȳ4. − ȳ1.| = 4.12 > D∗∗
Diseño de experimentos – p. 91/112
Scheffé
Scheffé (1953) propuso un método para probar todos los
posibles contrastes.
Considere cualquier contraste
C =
t∑
i=1
kiµi estimado con Ĉ =
t∑
i=1
kiȳi.
con error estándar
SC =
√
√
√
√CME
[
t∑
i=1
k2i
ni
]
La hipótesis nula pra el contraste H0 : C = 0 se rechaza si
|C| > S(αE)
donde
S(αE) = SC
√
(t − 1)FαEt−1,g.l.error
Diseño de experimentos – p. 92/112
Análisis de residuales
Tenemos el modelo
yij = µi + ǫij ó yij = µ + τi + ǫij
ǫij ∼ NID
(
0, σ2
)
Suposiciones:
■ errores normales
■ independientes
■ varianza constante
La prueba F del análisis de varianza es robusta a falta de
normalidad.
Diseño de experimentos – p. 93/112
Análisis de residuales
Si los errores experimentales están correlacionados, el error
estándar estará mal estimado. La independencia se justifica
aleatorizando las u.e. a los tratamientos en experimentos y
seleccionando muestras aleatorias en estudios
observacionales.
Si no hay homogeneidad de varianzas el estimador de σ2 es
malo, aunque se ha visto en estudios que si el diseño es
balanceado no efecta mucho. También si los tamaños de
muestra mayores corresponden a las poblaciones con mayor
varianza.
Diseño de experimentos – p. 94/112
Análisis de residuales, Normalidad
Residuales
eij = yij − ŷij
ŷij = µ̂ + τi = µ̂i = ȳi.
eij = yij − ȳi.
■ Prueba no parámetrica ( Kolmogorov-Smirnov )
■ Histograma (muestras grandes)
■ gráfica en papel normal
■ análisis de residuales estandarizados para detectar outliers.
Si ǫij ∼ N(0, σ2) entonces ǫij−0σ ∼ N(0, 1). Sean
dij =
eij√
CME
, esperamos que:
68% de los residuales estandarizados estén entre -1 y 1
95 % estén entre -2 y 2
Virtualmentetodos estén entre -3 y 3.
Diseño de experimentos – p. 95/112
Análisis de residuales, Homogeneidad de varianzas
Prueba de Bartlett
H0 : σ
2
1 = σ
2
2 = . . . = σ
2
t
Ha : no H0
Estadística de Prueba:
U =
1
C
[
(n − t)ln(σ̂2) −
∑
i
(ni − 1)ln(σ̂2i )
]
donde σ̂2 =
∑
i
(ni − 1)σ̂2i
n − t σ̂
2
i =
∑
j
(yij − ȳi.)2
ni − 1
C = 1 +
1
3(t − 1)
(
∑
i
1
ni − 1
− 1
n − t
)
H0 se rechaza si U > χ2α,t−1 (prueba sensible a falta de
normalidad)
Diseño de experimentos – p. 96/112
Análisis de residuales, Homogeneidad de varianzas
Prueba de Levene
Se calcula
dij = |yij − ỹi.| i = 1, . . . , t j = 1, . . . , ni
donde ỹi. es la mediana de las observaciones en el
tratamiento i.
Se evalúa si el promedio de estas observaciones dij es igual
para todos los tratamientos, es decir, se hace un ANOVA para
probar igualdad de medias de dij .
Diseño de experimentos – p. 97/112
Prueba de Welch
La prueba F usual es robusta ante heteroscedasticidad
(varianzas diferentes) si los tamaños de muestra son muy
parecidos o, si los tamaños de muestra más grandes
corresponden a las poblaciones con varianzas más grandes.
Sin embargo, se han construído algunas procedimientos de
prueba de igualdad de medias (H0 : µ1 = µ2 = . . . = µt) como
por ejemplo el desarrollado por Welch, conocido como la
prueba de Welch.
Sean Wi = ni/σ̂2i ȳ
∗ =
∑
i Wiȳi./
∑
i Wi y
Λ =
∑
i
(1 − Wi/W.)2
ni − 1
donde W. =
∑
i Wi.
Diseño de experimentos – p. 98/112
Prueba de Welch
Entonces
Fc =
∑
i Wi
(ȳi.−ȳ
∗)2
t−1
1 + 2(t − 2)Λ/(t2 − 1)
tiene aproximadamente una distribución F con
ν1 = t − 1 y ν2 = (t2 − 1)/3Λ grados de libertad.
H0 : µ1 = µ2 = . . . = µt se rechaza al nivel de significancia α si
Fc > F
α
ν1,ν2 .
Diseño de experimentos – p. 99/112
Transformaciones
Se utilizan las transformaciones para cambiar la escala de las
observaciones para que se cumplan las suposiciones del
modelo lineal y dar inferencias válidas del análisis de varianza.
Cuando las transformaciones son necesarias, se hace el
análisis y se hacen las inferencias en la escala transformada
pero se presentan tablas de medias en la escala de medición
original.
1. Distribución Poisson. Mediciones que son conteos
(número de plantas en cierta área, insectos en plantas,
accidentes por unidad de tiempo) tienen distribución Poisson.
La transformación x =
√
y + a, a ∈ ℜ es la adecuada.
Diseño de experimentos – p. 100/112
Transformaciones
2. Distribución binomial. Observaciones del número de
éxitos en n ensayos independientes tiene distribución binomial
(proporción de semillas germinadas, proporción de plantas
con flores en un transecto). π̂ = y/n
La transformación x = sin−1
√
π̂ es la adecuada.
Las transformaciones del tipo potencia alteran la simetría o
asimetría de las distribuciones de las observaciones.
Si suponemos que la desviación estándar de y es proporcional
a alguna potencia de la media, es decir,
σy ∝ µβ
Una transformación de las observaciones, del estilo:
x = yp
Diseño de experimentos – p. 101/112
Transformaciones
Da una relación
σx ∝ µp+β−1
Si p = 1 − β entonces la desviación estándar de la variable
transformada x será constante, ya que p + β − 1 = 0 y σx ∝ µ0.
La transformación de Box-Cox
x = (yp − 1)/p p 6= 1
x = logey p = 1
El estimador de p se encuentra maximizando
L(p) = −1
2
loge [CME(p)]
donde CME(p) es el cuadrado medio del error del análisis de
varianza usando la transformación x = (yp − 1)/p para el valor
dado p.
Diseño de experimentos – p. 102/112
Transformaciones
Se determina CME(p) para un conjunto de valores de p, se
grafica CME(p) vs. p y se toma el valor de p que corresponde
al valor mínimo de CME(p).
JMP calcula la transformación de Box-Cox, da una gráfica de p
vs. CME y da la opción de guardar los datos transformados
en el archivo.
La dificultad de utilizar esta transformación es la interpretación.
Diseño de experimentos – p. 103/112
Ejemplo
Los siguientes datos son el número de errores en un examen
de sujetos bajo la influencia de dos drogas. El grupo 1 es un
grupo control (sin droga), a los sujetos del grupo 2 se les dió la
droga 1, a los del grupo 3 la droga 2 y a los del grupo 4 las dos
drogas.
Grupo 1 Grupo 2 Grupo 3 Grupo 4
(sin droga) (droga 1) (droga 2) (dos drogas)
1 12 12 13
8 10 4 14
9 13 11 14
9 13 7 17
4 12 8 11
1 10 10 14
1 12 13
5 14
Diseño de experimentos – p. 104/112
Ejemplo
Correr el ejemplo con SPSS y JMP.
1. Probar homogeneidad de varianzas. (Bartlett y Levene)
2. Hacer prueba de Welch
3. Probar con algunas transformaciones, checando
normalidad y homogeneidad de varianzas
ej2_1_messy.sav
ej2_1_messy.jmp
ej2_1_messy.txt
Diseño de experimentos – p. 105/112
Relación entre Regresión y ANOVA
Cualquier modelo de ANOVA se puede escribir como un
modelo de regresión lineal.
Suponga el ejemplo de la carne empacada
tratamiento comercial vacío mezcla CO2
7.66 5.26 7.41 3.51
6.98 5.44 7.33 2.91
7.80 5.80 7.04 3.66
Un diseño completamente al azar con un solo factor (método
de empacado) con 4 niveles (4 tratamientos) y 3 repeticiones
en cada tratamiento (diseño balanceado).
Diseño de experimentos – p. 106/112
Relación entre Regresión y ANOVA
Modelo ANOVA completamente al azar un solo factor
balanceado:
yij = µi + ǫij = µ + τi + ǫij
{
i = 1, 2, 3, 4
j = 1, 2, 3
El modelo de regresión equivalente es:
yij = β0 + β1x1j + β2x2j + β3x3j + ǫij
{
i = 1, 2, 3, 4
j = 1, 2, 3
Diseño de experimentos – p. 107/112
Relación entre Regresión y ANOVA
Donde las variables x1j , x2j , x3j están definidas como:
x1j =
{
1 si la observación j es del tratamiento 1
0 en otro caso
x2j =
{
1 si la observación j es del tratamiento 2
0 en otro caso
x3j =
{
1 si la observación j es del tratamiento 3
0 en otro caso
Diseño de experimentos – p. 108/112
Relación entre Regresión y ANOVA
La relación entre los parámetros del modelo ANOVA y el
modelo de regresión es:
Si la observación viene del tratamiento 1, entonces
x1j = 1, x2j = 0, x3j = 0 y el modelo de regresión es
y1j = β0 + β1(1) + β2(0) + β3(0) + ǫ1j
= β0 + β1 + ǫ1j
y el modelo ANOVA es:
y1j = µ1 + ǫ1j = µ + τ1 + ǫ1j
Por lo tanto:
β0 + β1 = µ1 = µ + τ1
Diseño de experimentos – p. 109/112
Relación entre Regresión y ANOVA
Similarmente, para las observaciones del tratamiento 2
y2j = β0 + β1(0) + β2(1) + β3(0) + ǫ2j
= β0 + β2 + ǫ2j
y la relación entre los parámetros es:
βo + β2 = µ2 = µ + τ2
Lo mismo para las observaciones del tratamiento 3
y3j = β0 + β1(0) + β2(0) + β3(1) + ǫ3j
= β0 + β3 + ǫ3j
y la relación entre los parámetros es:
βo + β3 = µ3 = µ + τ3
Diseño de experimentos – p. 110/112
Relación entre Regresión y ANOVA
Finalmente, considere las observaciones del tratamiento 4,
para las cuales el modelo de regresión es:
y4j = β0 + β1(0) + β2(0) + β3(0) + ǫ4j
= β0 + ǫ4j
entonces β0 = µ4 = µ + τ4
Por lo tanto,
β0 = µ4
β1 = µ1 − µ4
β2 = µ2 − µ4
β3 = µ3 − µ4
Diseño de experimentos – p. 111/112
Relación entre Regresión y ANOVA
Entonces, para probar la hipótesis H0 : µ1 = µ2 = µ3 = µ4
tendríamos que probar H0 : β1 = β2 = β3 = 0, lo cual se puede
hacer con cualquier paquete de cómputo estadístico.
Para el ejemplo de la carne empacada:
tratamiento y x1 x2 x3
1 7.66 1 0 0
1 6.98 1 0 0
1 7.80 1 0 0
2 5.26 0 1 0
2 5.44 0 1 0
2 5.80 0 1 0
3 7.41 0 0 1
3 7.33 0 0 1
3 7.04 0 0 1
4 3.51 0 0 0
4 2.91 0 0 0
4 3.66 0 0 0
Diseño de experimentos – p. 112/112
Relación entre Regresión y ANOVA
Si pedimos una regresión y = β0 + β1x1 + β2x2 + β3x3 + ǫ y
pedimos una tabla de análisis de varianza del modelo
yij = µ + τi + ǫij las dos tablas ANOVA son idénticas.
	Ejemplo
	Método 1
	Método 1
	Método 2
	Método 2
	Método 3
	Método 3
	Método 4
	Método 4
	Método 5
	Método 5
	Método 5
	Diseño completamente al azar, un factor
	Diseño completamente al azar, un factor
	Diseño completamente al azar, un factor
	Diseño completamente al azar, un factor
	Diseño completamente al azar, un factor
	Diseño completamente al azar, un factor
	Diseño completamente al azar, un factorDiseño completamente al azar, un factor
	Diseño completamente al azar, un factor
	Diseño completamente al azar, un factor
	Diseño completamente al azar, un factor
	Diseño completamente al azar, un factor
	Diseño completamente el azar, un factor
	Estimadores para el modelo completo
	Estimadores para el modelo completo
	Estimadores para el modelo completo
	Estimadores para el modelo completo
	Estimadores para el modelo completo
	Estimadores para el modelo reducido
	Estimadores para el modelo reducido
	Diseño completamente al azar, un factor
	Diseño completamente al azar, un factor
	Diseño completamente al azar, un factor
	Diseño completamente al azar, un factor
	Tabla de Análisis de Varianza
	Tabla de Análisis de Varianza
	Tabla de Análisis de Varianza
	Tabla de Análisis de Varianza
	Tabla de Análisis de Varianza
	Diseño completamente al azar, un factor
	Diseño completamente al azar, un factor
	Diseño completamente al azar
	Diseño completamente al azar
	Diseño completamente al azar
	Diseño completamente al azar
	Diseño completamente al azar
	Modelo de efectos
	Modelo de efectos
	Modelo de efectos
	Modelo de efectos
	Modelo de efectos
	Modelo de efectos
	Modelo de efectos
	Diseño completamente al azar, Tabla de ANOVA
	Intervalos de confianza
	Contrastes
	Contrastes
	Contrastes
	Contrastes
	Contrastes
	Contrastes
	Contrastes
	Contrastes
	Contrastes
	ANOVA
	Otro ejemplo
	Otro ejemplo
	Otro ejemplo
	Comparaciones múltiples
	Comparaciones múltiples
	Comparaciones múltiples
	Comparaciones múltiples
	Comparaciones múltiples
	Comparaciones múltiples
	Comparaciones múltiples
	Comparaciones múltiples
	Bonferroni
	Tukey
	Tukey
	Student-Newman-Keuls (SNK)
	Student-Newman-Keuls (SNK)
	Duncan
	Duncan
	Duncan
	Dunnett
	Dunnett
	Scheffé
	Análisis de residuales
	Análisis de residuales
	Análisis de residuales, Normalidad
	Análisis de residuales, Homogeneidad de varianzas
	Análisis de residuales, Homogeneidad de varianzas
	Prueba de Welch
	Prueba de Welch
	Transformaciones
	Transformaciones
	Transformaciones
	Transformaciones
	Ejemplo
	Ejemplo
	Relación entre Regresión y ANOVA
	Relación entre Regresión y ANOVA
	Relación entre Regresión y ANOVA
	Relación entre Regresión y ANOVA
	Relación entre Regresión y ANOVA
	Relación entre Regresión y ANOVA
	Relación entre Regresión y ANOVA
	Relación entre Regresión y ANOVA

Continuar navegando