Logo Studenta

Clase_10_2021

¡Este material tiene más páginas!

Vista previa del material en texto

Análisis	de	la	varianza
Bioestadística 2020
DS
Text Box
Introducción
• En	esta	sección,	presentaremos	otra	prueba	estadística	para	testear	si	hay	diferencias	en	
las	medias	de	distintos	grupos:	el	análisis	de	la	varianza.	
• Sin	embargo,	antes	de	incursionar	en	dicha	técnica,	dedicaremos	la	primera	parte	de	esta	
sección	a	presentar	y	discutir	estrategias	para	verificar	que	los	supuestos	de	normalidad	
y	homogeneidad	de	varianzas,	claves	en	casi	todas	las	pruebas	de	hipótesis	paramétricas,	
se	cumplan.
Usuario1
Highlight
Supuestos	de	las	pruebas	de	hipótesis
• Todas	las	pruebas	de	hipótesis	que	hemos	visto	hasta	ahora,	y	las	que	desarrollaremos	
de	aquí	en	más,	son	pruebas	denominadas	“paramétricas”	y,	muchas	de	ellas,	se	basan	
en	asumir	que	los	datos	evaluados	provienen	de	poblaciones	normalmente	distribuidas.	
• Para	que	estas	pruebas	puedan	ser	utilizadas,	y	los	resultados	obtenidos	tengan	validez,	
es	necesario	verificar	que	se	cumplan	determinados	supuestos.	
• Los	supuestos	más	fuertes	son	3:
1. Independencia
2. Normalidad
3. Homogeneidad	de	varianzas
Usuario1
Highlight
Usuario1
Highlight
Independencia
• La	mayor	parte	de	las	pruebas	estadísticas	asumen	que	se	parte	de	una	muestra	de	observaciones	
independientes.	
• Esto	quiere	decir	que	el	valor	de	cada	observación	no	se	ve	afectado	por	el	valor	de	las	otras	
observaciones.	
• La	falta	de	independencia	puede	generar	que	nuestra	prueba	estadística	tenga	un	exceso	de	
falsos	positivos	(es	decir,	que	aumente	la	probabilidad	de	cometer	error	de	tipo	I).
• La	falta	de	independencia	proviene	de	un	incorrecto	diseño	de	experimentos.	
• Es	difícil	de	detectar	este	problema,	principalmente	cuando	se	desconoce	cómo	fue	
hecho	el	experimento	del	cual	se	obtuvieron	los	datos	que	se	están	analizando.	
Usuario1
Highlight
Usuario1
Highlight
Soluciones	a	la	falta	de	independencia
• A	diferencia	de	la	falta	de	normalidad	y	de	homogeneidad	de	varianzas,	no	hay	una	
forma	rápida	y	sencilla	de	observar	los	datos	y	determinar	su	estos	son	o	no	
independientes.	
• Es	necesario	tener	pleno	conocimiento	de	la	biología	del	organismo	bajo	estudio,	de	
modo	de	poder	diseñar	un	experimento	en	el	cual	las	observaciones	sean	
independientes;	
• O bien	para	poder	analizarlo	correctamente,	en	el	caso	de	que	el	experimento	ya	haya	
sido	llevado	a	cabo.		
Usuario1
Highlight
Usuario1
Highlight
Normalidad
• La	mayoría	de	las	pruebas	estadísticas	paramétricas	asumen	que	los	datos	se	distribuyen	
normalmente	(es	decir,	que	se	ajustan	a	una	curva	de	distribución	con	forma	de	campana	
de	Gauss).	
• Una	forma	sencilla	de	verificar	normalidad,	principalmente	cuando	tenemos	varios	datos,	
es	graficar	un	histograma	y	observar	si	las	frecuencias	se	aproximan	a	una	curva	normal.		
• Sin	embargo,	hay	métodos	más	elegantes	y	formales	de	probar	normalidad.	
• Entre	ellos,	métodos	estadísticos	(pruebas	de	hipótesis	no	paramétricas,	que	determinan	
mediante	un	p-valor	si	los	datos	ajustan	o	no	a	una	normal)	y	métodos	gráficos.	
• Uno	de	los	métodos	gráficos	más	usados	para	probar	normalidad	es	el	gráfico	de	
cuantil:cuantil,	también	llamado	qq-plotnormal.
Usuario1
Highlight
Usuario1
Highlight
Usuario1
Highlight
Usuario1
Highlight
Usuario1
Highlight
qq-plot normal
• Los	gráficos	de	cuantil:cuantil (qqplots)	permiten	hacer	un	diagnostico	de	si	existen	
diferencias	entre	la	distribución	observada	en	nuestra	muestra	y	una	distribución	teórica.	
• Si	la	distribución	con	la	que	queremos	comparar	es	la	distribución	normal,	el	gráfico	se	
llamará	qq-plotnormal.	
Usuario1
Highlight
Usuario1
Highlight
Usuario1
Highlight
Cuantiles
• Repasando	un	poco	lo	visto	en	secciones	previas,	vimos	que	los	cuantiles son	puntos	
tomados	a	intervalos	regulares	de	una	distribución.	
• Entre	ellos,	hicimos	hincapié	en	los	percentiles	(cuantiles que	dividen	a	la	distribución,	o	
al	conjunto	de	datos,	en	100	partes	iguales)	y	los	cuartiles	(cuantiles que	dividen	a	la	
distribución,	o	al	conjunto	de	datos,	en	4	partes	iguales).	
• Sin	embargo,	hay	infinitas	posibilidades	de	n-iles:	es	decir,	de	formas	de	dividir	una	
distribución,	o	conjunto	de	datos,	en	n	partes	iguales.	
Usuario1
Highlight
Usuario1
Highlight
Cómo	se	ve	un	qq-plot	normal
• Un	qq-plotnormal	presenta	sobre	el	eje	x	los	cuantiles esperados	si	nuestros	datos	se	
distribuyeran	normalmente,	y	en	el	eje	y	los	cuantiles observados	para	nuestros	datos.
• Se	grafican	los	n	puntos	(siendo	n	nuestro	tamaño	muestral total)	en	dicho	gráfico,	y	se	
observa.
• Si	la	distribución	de	nuestros	datos	se	asemeja	mucho	a	la	distribución	esperada	(es	
decir,	a	normal),	los	puntos	se	alinearán	sobre	la	diagonal,	formando	una	línea	recta:
Usuario1
Highlight
Usuario1
Highlight
Cómo	(y	por	qué)	se	ve	un	qqplot	de	datos	que	no	
ajustan	a	distribución	normal	1
• Podemos	observar	varias	maneras	en	las	cuales	los	datos	no	se	ajustan	a	la	recta	central.	
Las	causas	son	las	siguientes:
• Si	la	parte	central	de	los	puntos	sí	se	ajustan	a	la	recta	diagonal,	pero	la	cola	izquierda	
queda	muy	por	debajo	de	la	recta	y	la	cola	derecha	muy	por	encima,	estamos	ante	el	
caso	de	un	conjunto	de	datos	que	están	totalmente	agrupados	en	el	medio,	quedando	
muy	pocos	datos	en	las	colas	de	la	distribución	(curtosis positiva)
Histograma Cuantiles esperados
Cu
an
til
es
ob
se
rv
ad
os
Muchos datos	agrupados	en	el	centro
Fr
ec
ue
nc
ia
s	a
bs
ol
.
Usuario1
Highlight
Cómo	(y	por	qué)	se	ve	un	qqplot	de	datos	que	no	
ajustan	a	distribución	normal	2
• Si	gran	parte	de		los	puntos	se	ajusta	a	la	recta	diagonal,	pero	la	parte	izquierda	
de	los	puntos	queda	por	debajo	de	la	recta,	estamos	ante	un	conjunto	de	datos	
con	asimetría	negativa	(cola	a	la	izquierda)
Cuantiles esperados
Cu
an
til
es
ob
se
rv
ad
os
Datos	con	asimetría	negativa
Histograma
Usuario1
Highlight
Cómo	(y	por	qué)	se	ve	un	qqplot	de	datos	que	no	
ajustan	a	distribución	normal	3
• Si	gran	parte	de		los	puntos	se	ajusta	a	la	recta	diagonal,	pero	la	parte	derecha	de	
los	puntos	queda	por	encima	de	la	recta,	estamos	ante	un	conjunto	de	datos	con	
asimetría	positiva	(cola	a	la	derecha)
Cuantiles esperados
Cu
an
til
es
ob
se
rv
ad
os
Datos	con	asimetría	negativa
Histograma
Usuario1
Highlight
Homogeneidad	de	varianzas
• las	pruebas	estadísticas	(paramétricas)	asumen	que	los	datos	son	homocedásticos (es	
decir,	que	todos	los	grupos	que	queremos	comparar	tienen	la	misma	varianza).	
• Si	las	varianzas	no	son	iguales	entre	grupos,	la	probabilidad	de	obtener	un	falso	positivo	
por	azar	será	mayor	que	el	nivel	de	significancia	establecido.	
• Este	problema	se	hace	aun	mayor	cuando	tenemos	un	diseño	de	experimentos	
desbalanceados	(es	decir,	cuando	los	tamaños	muestrales de	cada	grupo	son	diferentes	
entre	sí).	
• Es	por	ello	que	es	necesario	siempre	testear	que	las	varianzas	sean	homogéneas	entre	
grupos.	
Usuario1
Highlight
Usuario1
Highlight
Usuario1
Highlight
Homogeneidad	de	varianzas
• Hay	diversos	métodos	estadísticos	para	probar	la	homogeneidad	de	varianzas:	
1. desde	pruebas	de	hipótesis	(como	la	prueba	de	Barlett,	usado	solo	cuando	
estamos	seguros	de	que	los	datos	vienen	de	una	distribución	normal	o	la	de	
Levene,	menos	sensible	que	Barlett pero	que	puede	usarse	con	datos	que	no	
ajustan	a	normal)	a	
2. métodos	gráficos.	
Usuario1
Highlight
Usuario1
Highlight
Usuario1
Highlight
Pruebas	de	hipótesis	para	verificar	homogeneidad	de	
varianzas:	noción	general
• Son	pruebas	no	paramétricas,	cuya	hipótesis	nula	plantea	que:
1. Nula:	“las	varianzas	entre	grupos	son	homogéneas”
• La	hipótesis	alternativa	plantea	que:
2. Alternativa:	“las	varianzas	entre	grupos	NO	son	homogéneas”.	
• Obviamente,	si	obtenemos	para	estas	pruebas	un	p-valor	<	0,05,	quiere	decir	que	las	
varianzas	no	son	homogéneas.	
• Por	el	contrario,	si	obtenemos	un	p-valor	> 0,05,	quiere	decir	que	las	varianzas	sí	son	
homogéneas	entre	grupos,	y	podemos	confiar en	los	resultados	que	nos	arroje	la	prueba	
de	hipótesis	que	hagamos	a	continuación.Usuario1
Highlight
Usuario1
Highlight
Método	gráfico	para	determinar	homogeneidad	de	
varianzas
• Se	usa	una	gráfica	de	dispersión:
a)	En	el	eje	Y, para	simplificar	la	comprensión	y	visualización,	en	lugar	de	graficar	los	datos	
observados,	se	grafican	los	residuos (es	decir,	cada	dato	menos	la	media	del	grupo	al	que	
pertenece).	
Residuo	=		x	- 𝒙"i	
(siendo	𝑥$i	la	media	(promedio)	del	grupo	i	al	que	el	dato	x	pertenece)
• Esto	hace	que	haya	valores	por	encima	y	por	debajo	de	cero,	pero	que	la	media	esperada	sea	
cero.	
b)	En	el	eje	X	se	presentan	los	valores	esperados	(es	decir,	la	media)	para	cada	grupo.
Usuario1
Highlight
Usuario1
Highlight
Usuario1
Highlight
Usuario1
Highlight
Método	gráfico	para	determinar	homogeneidad	de	
varianzas
• Si	las	varianzas	entre	grupos	son	homogéneas,	esperaríamos	que	todos	los	residuos	se	
distribuyan	en	forma	aleatoria	por	encima	y	por	debajo	de	cero,	con	una	dispersión	(rango)	
similar.	
• Si	por	el	contrario	encontramos	que:
1. Los	rangos	de	dispersión	son	muy	diferentes	entre	grupos	(en	la	práctica,	por	“muy	
diferente”	entendemos	que	al	menos	uno	de	los	rangos	es	más	del	doble	de	alguno	de	
los	otros	rangos),	
2. O	si	encontramos	que	ese	gráfico	de	dispersión	muestra	un	patrón	(por	ejemplo,	una	
forma	de	embudo:	a	mayor	valor	de	X,	mayor	o	menor	se	hace	la	dispersión),
• Esto	será	indicador	de	que	esas	varianzas	entre	grupos	no	son	homogéneas.
Usuario1
Highlight
Usuario1
Highlight
Método	gráfico	para	determinar	homogeneidad	de	
varianzas
• Si	las	varianzas	entre	grupos	son	homogéneas,	esperaríamos	que	todos	los	residuos	se	
distribuyan	en	forma	aleatoria	por	encima	y	por	debajo	de	cero,	con	una	dispersión	(rango)	
similar.	
• Si	por	el	contrario	encontramos	que:
1. Los	rangos	de	dispersión	son	muy	diferentes	entre	grupos	(en	la	práctica,	por	“muy	
diferente”	entendemos	que	al	menos	uno	de	los	rangos	es	más	del	doble	de	alguno	de	
los	otros	rangos),	
2. O	si	encontramos	que	ese	gráfico	de	dispersión	muestra	un	patrón	(por	ejemplo,	una	
forma	de	embudo:	a	mayor	valor	de	X,	mayor	o	menor	se	hace	la	dispersión),
• Esto	será	indicador	de	que	esas	varianzas	entre	grupos	no	son	homogéneas.
Algunos	ejemplos:	gráfico	de	residuos	vs	predichos	OK
Valores	predichos (esperados)
Re
si
du
os
	o
bs
er
va
do
s
Notar que:
- Los	datos	se	“apilan”	sobre	3	
valores	de	x	(esperados),	así	de	de	
ahí	deducimos	que	son	solo	3	
grupos	los	que	estamos	
comparando).	
- Cada	valor	esperado	(sobre	el	eje
x)	es	la	media	de	ese	grupo.
- Como	esperamos,	para	cada	
grupo	hay	residuos	>	0	y	<0
- La	dispersión	(que	tan	separados	
están	los	puntos)	de	los	residuos	
de	ningún	grupo	es	2	veces	mayor	
a	la	de	otro	grupo	
Grupo 1
Grupo 2
Grupo 3
Algunos	ejemplos:	gráfico	de	residuos	vs	predichos	
Incorrecto
Valores	predichos (esperados)
Re
si
du
os
	o
bs
er
va
do
s
Notar que:
- Los	datos	se	“apilan”	sobre	3	
valores	de	x	(esperados),	así	de	de	
ahí	deducimos	que	son	solo	3	
grupos	los	que	estamos	
comparando).	
- Cada	valor	esperado	(sobre	el	eje
x)	es	la	media	de	ese	grupo.
- Como	esperamos,	para	cada	
grupo	hay	residuos	>	0	y	<0
- La	dispersión	(que	tan	separados	
están	los	puntos)	de	los	residuos	
de	grupo	3	es	MUCHO	mayor	a	la	
de	los	otros	grupos	
Grupo 1
Grupo 2
Grupo 3
Algunos	ejemplos:	gráfico	de	residuos	vs	predichos	
Incorrecto
Valores	predichos (esperados)
Re
si
du
os
	o
bs
er
va
do
s
Notar que:
- Los	datos	se	“apilan”	sobre	3	
valores	de	x	(esperados),	así	de	de	
ahí	deducimos	que	son	solo	3	
grupos	los	que	estamos	
comparando).	
- Cada	valor	esperado	(sobre	el	eje
x)	es	la	media	de	ese	grupo.
- Como	esperamos,	para	cada	
grupo	hay	residuos	>	0	y	<0
- La	dispersión	de	los	residuos	
sigue	un	patrón	(embudo):	a	
mayor	X,	menos	dispersión	
Grupo 1 Grupo 2
Grupo 3
Análisis	de	la	varianza	(ANOVA)	a	un	factor
• El	ANOVA	a	un	factor	se	usa	cuando	tenemos	una	variable	
cuantitativa	y	una	variable	cualitativa que	tiene	3	o	más	categorías,	
y	queremos	probar	si	las	medias	(de	la	variable	cuantitativa)	difieren	
entre	las	categorías	de	la	variable	categórica.	
• El	ANOVA	es	la	estrategia	más	usada	para	comparar	medias entre	
grupos.	
Usuario1
Highlight
Usuario1
Highlight
Usuario1
Highlight
Ejemplo
• Tomemos	el	caso	en	el	cual	se	quiere	evaluar	la	eficacia	de	distintas	dosis	de	un	
fármaco	contra	la	hipertensión	arterial,	comparándola	con	la	de	una	dieta	sin	sal.	
• Para	ello	se	seleccionan	al	azar	25	hipertensos	y	se	distribuyen	aleatoriamente	en	
5	grupos.	
• Al	primero	de	ellos	no	se	le	suministra	ningún	tratamiento	(ST),	al	segundo	una	
dieta	con	un	contenido	pobre	en	sal	(BS),	al	tercero	una	dieta	sin	sal	(SS),	al	
cuarto	el	fármaco	a	una	dosis	determinada	(FD1)	y	al	quinto	el	mismo	fármaco	a	
otra	dosis	(FD2).	
Usuario1
Highlight
Usuario1
Highlight
Usuario1
Highlight
Usuario1
Highlight
Usuario1
Highlight
Ejemplo
• Las	presiones	arteriales	sistólicas	de	los	25	sujetos	al	finalizar	los	tratamientos	son:
Grupo	1	
(ST)
Grupo	2	
(BS)
Grupo	3	
(SS)
Grupo	4	
(FD1)
Grupo	5	
(FD2)
180 172 163 158 147
173 158 170 146 152
175 167 158 160 143
182 160 162 171 155
181 175 170 155 160
Ejemplo
• Como	se	observa,	tenemos	una	única	
variable	cuantitativa	(presión	arterial	
sistólica,	en	mmHg)	y	una	única	variable	
cualitativa	(tratamiento)	con	5	categorías	
(ST,	BS,	SS,	FD1	y	FD2).	
• Este	es	un	diseño	balanceado,	así	que	para	
cada	categoría	o	grupo	tenemos	el	mismo	
tamaño	muestral (n=5).	
Grupo	1	
(ST)
Grupo	2	
(BS)
Grupo	3	
(SS)
Grupo	4	
(FD1)
Grupo	5	
(FD2)
180 172 163 158 147
173 158 170 146 152
175 167 158 160 143
182 160 162 171 155
181 175 170 155 160
Usuario1
Highlight
Antes	de	seguir	con	estadística	inferencial,	hagamos	un	
poco	de	estadística	descriptiva
• Usando	herramientas	de	estadística	descriptiva,	podemos	hacer	gráficos	de	cajas	y	
bigotes	(boxplots)	para	describir	nuestros	datos:
Qué	me	pueden	
decir sobre	estos	
datos	al	mirar	el	
gráfico?
Interpretando	lo	que	nos	dice	el	boxplot
• A	simple	vista,	podemos	decir	que	los	individuos	que	recibieron	el	T1	(sin	tratamiento)	
tuvieron	la	mayor	presión	arterial	(mmHg).	En	el	extremo	opuesto,	vemos	que	los	
individuos	que	recibieron	el	tratamiento	5	(FD2)	la	presión	más	baja.	
• Sin	embargo,	para	saber	si	esas	diferencias	que	observamos	“a	ojo”	son	significativas,	
tenemos	que	hacer	una	prueba	de	hipótesis.	
• Vemos	que	los	datos	pertenecientes	a	T4	(FD1)	tienen	dos	valores	atípicos.	
• También	observamos	que	T1	presenta	una	distribución	asimétrica	negativa,	y	T3	una	
distribución	asimétrica	positiva.
Formulando	hipótesis	estadísticas	para	la	prueba	de	
ANOVA
• Como	siempre,	la	hipótesis	nula	plantea	ausencia	de	cambios	para	el	parámetro	“Media	
poblacional”.	Entonces,	la	hipótesis	nula	plantea	que	las	medias	(µ)	entre	estos	grupos	o	
categorías	son	iguales.	
• Por	su	parte,	la	hipótesis	alternativa	plantea	que	al	menos	una	de	estas	medias	difiere.	
• Cómo	plantearían	las	hipótesis	estadísticas	en	palabras	para	nuestro	ejemplo?
Usuario1
Highlight
Formulando	hipótesis	estadísticas	para	la	prueba	de	
ANOVA:	ejemplo
• En	nuestro	ejemplo,	las	hipótesis	en	palabras	plantearían	que:
• Nula:	no	hay	diferencia	en	la	presión	arterial	sistólica	media	(medida	
en	mmHg)	entre	tratamientos
• Alternativa:	si	hay	diferencia	en	la	presión	arterial	sistólica	media	
(medida	en	mmHg)	entre	tratamientos.
Formulando	hipótesis	estadísticas	para	la	prueba	de	
ANOVA:	notación
• En	notación,	tenemos	que
Nula:	µ1 =	µ2 =	µ3 =	…	=	µk
(siendo	k	el	número	de	categorías	de	la	variable	categórica)			
Alternativa:	Alguna	µi ≠ µj					
(Esto	parece	raro,	pero	i	y	j	son	dos	valores	genéricos,	esta	hipótesis	dice	que	alguna	de	las	
medias	difiere	de	las	otras)
• Cómo	plantearían	las	hipótesis	estadísticas	en	notación	para	nuestro	ejemplo?
Usuario1
Highlight
Usuario1
Highlight
Formulando	hipótesis	estadísticas	para	la	prueba	de	
ANOVA:	notación	(ejemplo)
• En	nuestro	ejemplo,	podemos	formular	que:Nula:	µST =	µBS =	µSS =	µFD1 =	µFD2
Alternativa:	Alguna	µi ≠ µj			(esto	no	cambia,	es	genérico)
Siendo	µ la	presión	arterial	sistólica	media	(medida	en	mmHg)
Usuario1
Highlight
Cómo	funciona	la	prueba	de	hipótesis para	el	ANOVA
• La	idea	básica	es	calcular	la	media	de	las	observaciones	para	cada	grupo	(categoría),	y	
luego	comparar	la	varianza	entre	esas	medias	con	la	varianza	dentro	de	cada	grupo	
(categoría).	
• Si	la	hipótesis	nula	fuera	cierta,	es	decir,	si	las	medias	de	todos	los	grupos	fueran	iguales,	
la	varianza	entre	grupos	debería	ser	igual	a	la	varianza	dentro	de	grupos.
Usuario1
Highlight
Usuario1
Highlight
Usuario1
Highlight
Cómo	funciona	la	prueba	de	hipótesis para	el	ANOVA
• De	esta	forma,	el	estadístico	de	prueba	en	el	ANOVA	es	el	cociente	entre	las	
varianzas	entre	grupos	y	las	varianzas	dentro	de	cada	grupo.	
• Este	estadístico	de	prueba	se	llama	F	de	Fisher-Snedeccor,	y	se	distribuye	como	
una	distribución	también	llamada	F.
• F	=	 𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎	𝑒𝑛𝑡𝑟𝑒	𝑔𝑟𝑢𝑝𝑜𝑠𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎	𝑑𝑒𝑛𝑡𝑟𝑜	𝑑𝑒	𝑔𝑟𝑢𝑝𝑜𝑠
Usuario1
Highlight
Usuario1
Highlight
Distribución	F	de	Fisher	Snedeccor
• Es	una	distribución	asimétrica	positiva	(es	decir,	su	rango	de	valores	va	de	0	a	+	infinito).	
• Su	forma	depende	de	dos	valores:	(1)	los	grados	de	libertad	del	numerador	y	(2)	los	
grados	de	libertad	del	denominador.	
• Los	grados	de	libertad	del	numerador	(es	decir,	de	la	varianza	entre	grupos	o	categorías)	
se	calculan	como:	
νN =	número	de	grupos	-1.
• Por	su	parte,	los	grados	de	libertad	del	denominador	(es	decir,	de	la	varianza	dentro	de	
grupos	o	categorías)	se	calculan	como:
νD =	número	total	de	datos	– número	de	grupos.
Usuario1
Highlight
Usuario1
Highlight
Usuario1
Highlight
Usuario1
Highlight
Distribución	F	de	Fisher	Snedeccor
• Si	bien	la	distribución	F	es	asimétrica,	a	medida	que	aumentan	los	grados	de	
libertad	(tanto	del	numerador	como	del	denominador),	más	tiende	a	parecerse	a	
una	campana
Cálculo	de	grados	de	libertad	en	nuestro	ejemplo
• Cuánto	valen	(y	cómo	se	calculan)	los	grados	de	libertad	del	numerador	y	del	
denominador	en	nuestro	ejemplo?	
• Recordemos:	5	tratamientos	(categorías),	cada	uno	con	5	observaciones	(25	datos	
en	total)
Cálculo	de	grados	de	libertad	en	nuestro	ejemplo
• Cuánto	valen	(y	cómo	se	calculan)	los	grados	de	libertad	del	numerador	y	del	
denominador	en	nuestro	ejemplo?	
• En	nuestro	ejemplo,	tenemos	5	grupos	o	categorías	(los	5	tratamientos)	de	modo	
que	podemos	calcular	los	grados	de	libertad	del	numerador	como:	
νN =	5	- 1	=	4
• Por	su	parte,	para	el	cálculo	de	los	grados	de	libertad	del	denominador	tenemos	
que	el	número	total	de	datos	es	25	(5	observaciones	para	cada	tratamiento),	de	
modo	que:	
νD =	25	- 5	=	20
Usuario1
Highlight
Usuario1
Highlight
Cálculo	del	estadístico	de	prueba	F
• Como	ya	hemos	mencionado,	el	estadístico	de	prueba	F	se	calcula	como:
F	=	 𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎	𝑒𝑛𝑡𝑟𝑒	𝑔𝑟𝑢𝑝𝑜𝑠
𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎	𝑑𝑒𝑛𝑡𝑟𝑜	𝑑𝑒	𝑔𝑟𝑢𝑝𝑜𝑠
• Los	cálculos	de	varianzas	ya	se	han	introducido	previamente.	
• Repasando	lo	ya	presentado	brevemente,	y	adecuándolo	a	este	caso	en	
particular,	tenemos	que	para	calcularlas	debemos	primero	estimar	las	
distintas	sumatorias	de	desvíos	al	cuadrado:
Usuario1
Highlight
Primero	calculemos	la	sumatoria	de	desvios al	cuadrado	
(entre	grupos)
• Las	sumatorias	de	desvíos	al	cuadrado	entre	grupos	(SEG)	se	calculan	como:
SEG	=	∑𝒏i(𝒙"i - 𝒙")2
• Siendo	ni el	tamaño	muestral del	grupo	i	(de	nuevo,	esa	“i”	es	genérica…	representa	a	
cada	uno	de	los	distintos	grupos	o	categorías	cuyas	medias	queremos	comparar);	𝑥$i	la	
media	(promedio)	de	cada	grupo	i	(es	decir,	de	cada	uno	de	los	grupos);	𝑥$	es	la	media	
(promedio)	de	todos	los	datos	juntos.
Usuario1
Highlight
Usuario1
Highlight
Usuario1
Highlight
Primero	calculemos	la	sumatoria	de	desvios al	cuadrado	
(dentro	de	grupos)
• Las	sumatorias	de	desvíos	al	cuadrado	dentro	de	grupos	(SDG)	se	calculan	como:
SDG	=	∑(x	- 𝒙"i)2
• Siendo	x	cada	dato	observado	y	𝑥$ i	la	media	(promedio)	del	cada	grupo	i	al	cual	
pertenece	el	dato	x.	
Usuario1
Highlight
Usuario1
Highlight
Ya	teniendo	las	sumatorias	de	desvios al	
cuadrado	podemos	calcular	las	varianzas
• Para	esto	tenemos	que:
1. Varianza	entre	grupos	=	 𝑆𝐸𝐺
𝑔𝑟𝑎𝑑𝑜𝑠	𝑑𝑒	𝑙𝑖𝑏𝑒𝑟𝑡𝑎𝑑	𝑒𝑛𝑡𝑟𝑒	𝑔𝑟𝑢𝑝𝑜𝑠
2. Varianza	dentro	de	grupos	=	 𝑆𝐷𝐹
𝑔𝑟𝑎𝑑𝑜𝑠	𝑑𝑒	𝑙𝑖𝑏𝑒𝑟𝑡𝑎𝑑	𝑑𝑒𝑛𝑡𝑟𝑜	𝑑𝑒	𝑔𝑟𝑢𝑝𝑜𝑠
Usuario1
Highlight
Cálculo	del	estadístico	de	prueba	F
• Ahora	sí,	ya	podemos	calcular	nuestro	estadístico	de	prueba	F.	
• El	p-valor	de	nuestra	prueba	de	hipótesis	será	el	área	bajo	la	curva	de	
distribución	F	(con	νN,	νD	grados	de	libertad)	que	queda	desde	el	valor	
del	estadístico	de	prueba	F	hacia	más	infinito.
Usuario1
Highlight
Sumas	de	desvíos	al	cuadrado	entre	grupos:	ejemplo
• La	media	general	de	todos	los	datos	(es	decir,	el	
promedio	de	estas	25	observaciones)	es	
𝑥$ =	163,72.
• La	media	de	cada	grupo	está	en	la	tabla
• De	esta	forma,	podemos	calcular:
SEG	=	∑𝑛i(𝑥$i - 𝑥$)2		= 5(178,2	- 163,72)2 +	5(166,4	-
163,72)2 +	5(164,6-163,72)2 +5(158-163,72)2 +	
5(151,4-163,72)2 =	2010,64
Grupo 1
(ST)
Grupo 2
(BS)
Grupo 3
(SS)
Grupo 4
(FD1)
Grupo 5
(FD2)
180 172 163 158 147
173 158 170 146 152
175 167 158 160 143
182 160 162 171 155
181 175 170 155 160
�̅�st=178,2 �̅�BS=166,4 �̅�SS=164,6 �̅�FD1=158 �̅�FD2=151,4
Usuario1
Highlight
Usuario1
Highlight
Sumas	de	desvíos	al	cuadrado	dentro	de	grupos:	
ejemplo
• Como	ya	dijimos,	se	calcula	como	la	
sumatoria	del	cuadrado	de	cada	dato	menos	
la	media	del	grupo	al	que	pertenece
• SDG	=	∑(x	- 𝑥$ i)2	=		(180	– 178,2)2 +	(173	–
178,2)2 +	(175	– 178,2)2 +	(182	– 178,2)2 +	
(181	– 178,2)2 +	(172	– 166,4)2 +	(158	–
166,4)2 +	…	+	(160	– 151,4)2 = 894,4
Grupo 1
(ST)
Grupo 2
(BS)
Grupo 3
(SS)
Grupo 4
(FD1)
Grupo 5
(FD2)
180 172 163 158 147
173 158 170 146 152
175 167 158 160 143
182 160 162 171 155
181 175 170 155 160
�̅�st=178,2 �̅�BS=166,4 �̅�SS=164,6 �̅�FD1=158 �̅�FD2=151,4
Usuario1
Highlight
Usuario1
Highlight
Cálculo	de	las	varianzas	y	del	estadístico	F:	ejemplo
• Para	obtener	las	varianzas	tenemos:
Varianza	entre	grupos	=	 𝑆𝐸𝐺
𝑔𝑟𝑎𝑑𝑜𝑠	𝑑𝑒	𝑙𝑖𝑏𝑒𝑟𝑡𝑎𝑑	𝑒𝑛𝑡𝑟𝑒	𝑔𝑟𝑢𝑝𝑜𝑠
=	2020,64
(5−1)
=	502,66
Varianza	dentro	de	grupos	=	 𝑆𝐷𝐹
𝑔𝑟𝑎𝑑𝑜𝑠	𝑑𝑒	𝑙𝑖𝑏𝑒𝑟𝑡𝑎𝑑	𝑑𝑒𝑛𝑡𝑟𝑜	𝑑𝑒	𝑔𝑟𝑢𝑝𝑜𝑠
=	 894,4
(25−5)
=	44,72
• De	esta	forma,	nuestro	estadístico	de	prueba	F	se	obtiene	como:
F	=	 𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎	𝑒𝑛𝑡𝑟𝑒	𝑔𝑟𝑢𝑝𝑜𝑠
𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎	𝑑𝑒𝑛𝑡𝑟𝑜	𝑑𝑒	𝑔𝑟𝑢𝑝𝑜𝑠
=	502,66
44,72
=	11,24
Cálculo	del	p-valor:	ejemplo
• Para	calcular	el	p-valor,	debemos	calcular	el	área	que	queda	
bajo	la	curva	de	distribución	F	con	(4	y	20	grados	de	libertad),	
desde	el	punto	F=11,24	hasta	más	infinito.	
• Podemos	usar	la	APP.	Distribución	F,	con	ν1=	GL	numerador	y	
ν2=	GL	denominador
• Nos	da	un	valor	muy	pequeño:	p-valor	=	0,000061.
• El	área	sombreada	no	se	ve,	por	ser	tan	pequeña…
Usuario1
Highlight
Armado	de	tabla	de	ANOVA
• Todos	estos	valores	suelen	ser	representados	en	una	tabla	DE	
ANOVA,	así	que	así	lo	haremos:
• Notar	que	la	fila	de	“total”	solo	contiene	la	sumatoria	de	los	datos	
para	la	columna	SC	(2010,64+894,4=2905,04)	 y	GL	(20+4=24).
SC GL Varianza F p-valor
Entre grupos 2010,64 4 502,66 11,24 0,000061
Dentro de grupos 894,4 20 44,72
Total 2905,04 24
Usuario1
Highlight
Supuestos
• El	ANOVA,	como	otras	pruebas	paramétricas,	asume	que	las	observaciones	se	
distribuyen	normalmente,	y	que	los	datos	son	homocedásticos (es	decir,	que	las	
desviaciones	estándar	entre	grupos	son	iguales).	
• Siempre,	antes	de	concluir	para	un	ANOVA,	debemos	verificar	que	se	cumplan	estos	
supuestos.	
• Lo	haremos	como	ya	hemos	visto	al	comienzo	de	esta	clase:	usando	métodos	gráficos.
Usuario1
Highlight
Gráfico	de	cuantil:cuantil (qq-plot normal)	para	probar	
normalidad
• Los	puntos	se	deben	ajustar	a	una	recta	diagonal.	
• Por	suerte	el	ANOVA	no	esmuy	sensible	a	la	falta	de	normalidad,	así	que	aun	
cuando	los	datos	no	sean	100%	normales,	podemos	aplicar	el	ANOVA	(siempre	y	
cuando	las	varianzas	sean	homogeneas).
• Igualmente	en	nuestro	ejemplo	los	datos	ajustan	a	recta	diagonal
Usuario1
Highlight
Gráfico	de	residuos	versus	predichos	para	probar	
homogeneidad	de	varianzas
• No	debemos	observar	una	dispersión	mucho	mayor,	o	mucho	menor,	en	alguno	de	los	
grupos	respecto	del	resto,	ni	un	patrón	evidente	de	dispersión.	
• También	se	podría	hacer	en	forma	analítica,	con	la	prueba	de	Levene o	Barlett,	en	la	cual	
esperamos	obtener	un	p-valor	>	0,05	(es	decir,	no	rechazar	la	hipótesis	nula	que	plantea	
que	las	muestras	son	homocedásticas).
• En	nuestro	ejemplo,	las	varianzas	parecer	ser	bastante	homogeneas:
Valores esperados	(predichos)
Re
sid
uo
s
T5
T4
T3
T2
T1
Concluyendo	(hasta	acá)
• Como	podrán	observar,	los	supuestos	de	normalidad	y	homogeneidad	de	
varianzas	se	cumplen	para	nuestros	datos,	entonces	podemos	confiar	en	nuestras	
conclusiones.
• De	esta	forma,	podemos	concluir	que:	“la	prueba	de	hipótesis	fue	
estadísticamente	significativa.	Al	menos	una	de	las	presiones	sistólicas	medias	
para	alguno	de	los	tratamientos	aplicados	difiere	del	resto	(p-valor	=	0,000061).	
Como	siempre,	podemos	estar	en	lo	cierto	o	cometer	error	de	tipo	I.	En	cuyo	
caso,	tenemos	una	probabilidad	de	0,000061	de	estar	cometiendo	ese	tipo	de	
error”.
Análisis	adicionales
• Si	rechazamos	la	hipótesis	nula	(es	decir,	sabemos	que	al	menos	una	de	las	
medias	de	los	tratamientos	difiere	del	resto),	lo	más	probable	es	que	queramos	
saber	cuál/es	es	la/s	media/s	que	difiere/n	del	resto!	
• Y	el	p-valor	no	nos	lo	dice…	solo	nos	dice	que	“alguna	media	difiere”
• Para	saber	cuál	es	el	tratamiento	cuya	media	difiere,	debemos	hacer	una	prueba	
posterior,	llamada	“comparaciones	múltiples”,	que	nos	permite	justamente	
determinar	qué	media/s	difiere/n.	
• También,	podemos	estimar	cuál	es	la	magnitud	del	efecto	del	tratamiento.
Usuario1
Highlight
Comparaciones	múltiples	entre	grupos
• Existen	distintas	estrategias	o	métodos	para	hacer	comparaciones	múltiples:	
Bonferroni,	Tukey,	LSD	de	Fisher,	entre	otras.	
• Todos	tienen	sus	ventajas	y	desventajas.	
• Sin	embargo,	y	más	allá	del	nombre	o	de	la	estrategia	en	si,	todas	tienen	en	
común	que	buscan	controlar	la	probabilidad	de	cometer	error	de	tipo	I.
Método	de	Tukey
• Este	método	hace	comparaciones	entre	todos	los	pares	de	medias	posibles.	
• Esta	estrategia	calcula	cuál	es	la	diferencia	mínima	significativa	(DMS)	para	cada	
par	de	medias	que	compara.	
• Esta	DMS		dependerá	del	tamaño	de	la	muestra	en	cada	grupo,	la	variación	
promedio	dentro	de	los	grupos	y	el	número	total	de	grupos.	
• Para	un	diseño	equilibrado,	todas	las	DMS	serán	iguales;	para	un	diseño	
desequilibrado,	los	pares	de	grupos	con	tamaños	de	muestra	más	pequeños	
tendrán	DMS	más	grandes.	
Usuario1
Highlight
Usuario1
Highlight
Usuario1
Highlight
Usuario1
Highlight
Método	de	Tukey
• Si	la	diferencia	observada	entre	un	par	de	medias	es	mayor	que	la	
DMS,	el	par	de	medias	es	significativamente	diferente.
• La	forma	más	común	de	mostrar	los	resultados	de	la	prueba	de	Tukey
(o	se	cualquier	prueba	de	comparaciones	múltiples)	es	señalar	a	
todos	los	grupos	cuyas	medias	no	difieran	significativamente	con	la	
misma	letra,	y	aquellos	que	si	difieren	con	letras	diferentes.	
Tukey en	nuestro	ejemplo
• En	nuestro	ejemplo,	la	DMS	(calculada	con	software)	es	igual	a	12,656	
• Como	el	diseño	del	experimento	es	balanceado,	la	DMS	es	la	misma	para	
todas	las	comparaciones	de	medias
• La	prueba	de	Tukey hace	diez	(10)	comparaciones	de	medias:	
T2-T1	(166,4	- 178,2=	-11,8);	T3-T1	(164,6	- 178,2	=	-13,6);	T4-T1	(158	– 178,2	
=	-20,2);	T5-T1	(151,4	– 178,2	=	-26,8);	T3-T2	(-1,8);	T4-T2	(-8,4);	T5-T2	(-
15,0);	T4-T3	(-6-6);	T5-T3	(-13,2);	T5-T4	(-6,6).	
Usuario1
Highlight
Tukey en	nuestro	ejemplo
• Par	definir	si	estas	diferencias	son	significativas,	los	valores	absolutos	(es	
decir,	sin	signo)	de	cada	par	de	diferencias	de	medias	se	comparan	con	el	
DMS:	
a) si	la	diferencia	es	mayor	al	DMS,	esas	dos	medias	serán	estadísticamente	
diferentes	y	se	marcarán	con	letras	diferentes.	
b) Si	esa	diferencia	es	menor	al	DMS,	esas	medias	NO	serán	
estadísticamente	diferentes	y	se	marcarán	con	la	misma	letra.		
Usuario1
Highlight
Usuario1
Highlight
Tukey en	nuestro	ejemplo
• De	esta	forma,	nos	queda:
Tratamiento Media	grupo Letra	(Tukey)
T1	(ST) 178,2 C
T2	(BS) 166,4 BC
T3	(SS) 164,6 B
T4	(FD1) 158 AB
T5	(FD2) 151,4 A
Qué	nos	dice	esta	tabla	respecto de	la	diferencia	de	medias	
entre	grupos?	Cuáles	difieren	y	cuales	no?
Tukey en	nuestro	ejemplo
• Al	mirar	la	tabla	anterior	podemos	concluir	que:
1. las	medias	de	presión	arterial	(mmHg)	entre	T4	y	T5	(droga	en	dos	dosis)	no	fueron	
significativamente	entre	si	(ya	que	ambas	llevan	la	letra	A)
2. La	media	de	presión	arterial	(mmHg)	de	T5	(FD2)	fue	significativamente	diferente	de	T3	(SS),	T2	
(BS)	y	T1	(ST),	ya	que	llevan	letras	diferentes	(T5	tiene	A	y	los	otros	tratamientos	tienen	B	o	C)
3. La	media	de	presión	arterial	(mmHg)	de	T4	(FD1)	solo	difirió	significativamente	de	T1	(ST).	Con	
el	resto	de	los	tratamientos	no	se	observan	diferencias	significativas	(ya	que	comparten	letras:	
A	o	B)
4. Las	medias	de	presión	arterial	(mmHg)	de	T2	(BS)	y	T3	(SS)	fueron	diferentes	de	T1	(ST).
Usuario1
Highlight
Usuario1
Highlight
Usuario1
Highlight
Usuario1
Highlight
Tukey en	nuestro	ejemplo:	gráfico
• Esto	mismo	se	puede	representar	
gráficamente	usando	un	diagrama	de	
barras.	
• Cada	barra	representa	un	tratamiento.	
• En	el	eje	X	se	indican	los	tratamientos	y	
en	el	eje	Y	la	variable	cuantitativa.	
• La	altura	de	la	barra	muestra	la	media	de	
ese	grupo	para	la	variable	cuantitativa.	
• Las	barras	con	letras	diferentes	indican	
diferencias	significativas	entre	sus	
medias.

Continuar navegando