Logo Studenta

Cap 4 - Pardo y San Martin - Analisis de datos en psicologia II

¡Este material tiene más páginas!

Vista previa del material en texto

PARTE SEGUNDA 
Análisis de datos cuantitativos 
Estudiados Jos conceptos fundamentales relacionados con Ja inferencia estadísti-
ca, Ja estimación y el contraste, nuestro interés quedará centrado a partir de ahora 
en Ja descripción de diferentes procedimientos inferenciales concretos. Estos proce-
dimientos concretos, a Jos que generalmente llamaremos técnicas de análisis, poseen 
peculiaridades específicas dependiendo del tipo de situación experimental para la 
que han sido diseñados: unos procedimientos permiten comparar dos grupos, otros 
permiten comparar más de dos grupos; unos procedimientos permiten analizar 
datos obtenidos con grupos de sujetos diferentes, otros permiten analizar datos 
obtenidos con los mismos sujetos; unos procedimientos aprovechan las propiedades 
cuantitativas de Jos datos, otros se limitan a las propiedades cualitativas de Jos 
mismos; etc. 
Atendiendo a estas peculiaridades, podríamos agrupar o clasificar las diferentes 
técnicas de análisis de datos utilizando diferentes criterios. De entre ellos, nosotros 
hemos optado aquí por clasificar Jos procedimientos inferenciales o técnicas de 
análisis basándonos en el tipo de datos que permiten manipular. Este criterio nos ha 
llevado distinguir entre a) técnicas de análisis para datos cuantitativos; b) técnicas de 
análisis para datos semicuantitativos; y c) técnicas de análisis para datos cualitativos. 
Con datos cuantitativos nos estamos refiriendo a datos obtenidos utilizando una 
escala de medida de intervalo o de razón. Con datos semicuantitativos nos referimos 
a datos obtenidos utilizando una escala de medida ordinal. Con datos cualitativos 
nos referimos, por último, a datos cuyas propiedades se corresponden con las del 
nivel de medida nominal. Cualquier otra clasificación podría resultar igualmente 
válida. Esta nuestra obedece al hecho de que Jos datos obtenidos con una escala de 
medida concreta poseen ciertas propiedades que no se dan en Jos obtenidos con 
otra escala de medida diferente; lo cual queda reflejado de forma definitiva en el 
hecho de que los procedimientos de análisis diseñados para cada tipo de datos 
poseen, según tendremos ocasión de comprobar, peculiaridades propias. 
En esta segunda parte nos vamos a ocupar de Ja descripción de los procedimien-
tos de análisis diseñados para el tratamiento de datos de tipo cuantitativo. Cual-
quiera que sea el nivel de medida de Jos datos con Jos que trabajemos, las técnicas 
de análisis de mayor utilidad son, generalmente, las que permiten comparar grupos 
de sujetos y estudiar Ja relación entre dos o más variables. Con datos cuantitativos, 
en concreto, para comparar grupos y estudiar la relación entre variables nos 
serviremos de Jos estadísticos media y correlación, pues esos son Jos estadísticos que 
© Ediciones Pirámide 
182 / Análisis de datos en psicología 11 
resulta relevante estudiar (al menos en una primera aproximación) cuando el nivel 
de medida de los datos es de intervalo o razón (es decir, esos son los estadísticos 
que nos proporcionan la información más completa en esos niveles de medida). 
Es muy importante señalar en este momento que, aunque el tipo de datos 
disponibles condiciona en gran medida el tipo de análisis que es posible efectuar, la 
elección de la técnica de análisis apropiada viene también, y tal vez principalmente, 
condicionada por el diseño de investigación utilizado. Por supuesto, éste no es el 
lugar para profundizar en el concepto de diseño de investigación (ver, para ello, 
León y Montero, 1997), pero sí nos parece necesario recordar brevemente algunas 
ideas básicas de especial utilidad para el resto de los contenidos que siguen. 
Los diseños experimentales y cuasiexperimentales (o selectivos), que son a los 
que se aplican las técnicas de análisis incluidas en esta parte, pueden ser 
clasificados, en primer lugar, atendiendo al número de variables independientes 
utilizadas. Si sólo hay una variable independiente (VI), el diseño es de un factor o 
unifactorial; si hay dos o más VI, el diseño es factorial. También pueden distinguirse 
los diseños por el número de variables dependientes utilizadas, pero nosotros aquí 
únicamente haremos referencia a diseños con una variable dependiente. 
En los diseños unifactoriales resulta útil establecer una distinción relacionada 
con el número de valores o niveles de la VI. Una VI puede tomar dos valores o más; 
cuando toma dos valores hablamos de diseños de dos muestras; cuando toma más 
de dos valores, hablamos de diseños de J muestras. Un caso especial lo constituye 
aquel en el que no existe ninguna VI; simplemente medimos una variable para 
estudiarla y ver qué ocurre con ella; hablamos entonces de diseño de una muestra. 
Una última característica de los diseños tiene que ver con el tipo de muestras 
que se utilizan. En Diseño de investigaciones (León y Montero, 1997) se establece la 
distinción entre diseños con sujetos diferentes y diseños con los mismos sujetos. 
Dentro de los diseños con sujetos diferentes podemos distinguir entre diseños de 
grupos aleatorios y diseños de bloques aleatorios. En primer lugar, desde el punto 
de vista del análisis de datos, hablar de grupos aleatorios es equivalente a hablar de 
muestras independientes: se forman tantos grupos de sujetos (de cualquier tamaño y, 
por tanto, no necesariamente del mismo) como niveles tiene la VI y cada grupo es 
asignado aleatoriamente a cada uno de los niveles de la VI. Así mismo, hablar de 
bloques aleatorios (en el caso de más de un sujeto por nivel y bloque) equiva-
le también a hablar de muestras independientes. Por tanto, las técnicas de análisis de 
datos para muestras independientes permiten analizar tanto los datos de un diseño 
de grupos aleatorios como los datos de un diseño de bloques aleatorios con más de 
un sujeto por nivel y bloque. 
En segundo lugar, hablar de diseños con los mismos sujetos equivale, en el 
contexto del análisis de datos, a hablar de muestras relacionadas: a los mismos 
sujetos se les toma J ( J = niveles de la VI) medidas. En estos casos hablamos de 
diseños intrasujetos o de medidas repetidas: bien porque se miden J variables 
diferentes en los mismos sujetos, bien porque la misma variable es medida en los 
mismos sujetos en J momentos diferentes. Así mismo, hablamos de muestras 
relacionadas cuando, como en el caso de los diseños de bloques aleatorios con un 
© Ediciones Pirámide 
Análisis de datos cuantitativos / 183 
sujeto por nivel y bloque, esas J medidas no se toman al mismo sujeto sino a J 
sujetos igualados o emparejados utilizando algún criterio considerado relevante. Por 
tanto, las técnicas de análisis de datos para muestras relacionadas permiten analizar 
tanto los datos de un diseño con los mismos sujetos (diseños intrasujetos o de 
medidas repetidas) como los datos de un diseño de bloques aleatorios con un sujeto 
por nivel y bloque. 
Por ejemplo, en una investigación sobre memoria se quiere evaluar el efecto de 
cierto distractor sobre el recuerdo; tenemos una VI con dos niveles: presencia del 
distractor y ausencia del distractor; y tenemos una variable dependiente: el recuerdo 
(el cual puede medirse de diferentes maneras). Para evaluar el efecto del distractor 
sobre el recuerdo podemos proceder de tres maneras diferentes: l) seleccionando 
dos grupos de sujetos y asignado cada uno de ellos a cada nivel de la VI; 2) 
seleccionando un solo grupo de sujetos y aplicando a todos ellos ambos niveles de 
la VI; 3) seleccionando un grupo de pares 1 de sujetos igualados en alguna variable 
considerada de interés (CI, edad, nivel de estudios, etc.) y asignando al azar un 
miembro de cada par a cada uno de los niveles de la VI. En el caso l estaríamos 
utilizando dos muestras independientes (grupos aleatorios); en los casos 2 y 3, dos 
muestras relacionadas (medidas repetidas en el caso 2 y bloques aleatorios con un 
sujeto por nivel y bloque en el caso 3). En los tres casos podemos determinar si 
existe efecto del distractor comparandoel recuerdo obtenido con distractor y el 
obtenido sin distractor. En general, es preferible (cuando es posible) el uso de 
muestras relacionadas pues de esa forma se elimina variación debida a las diferen-
cias entre sujetos 2 • 
Conviene señalar, para terminar esta breve introducción, que el concepto 
de muestra no debe ser confundido con el concepto de grupo. En el contexto del 
análisis de datos, muestra se refiere, no a grupo de sujetos, sino a un conjunto de 
datos. Siempre hay una muestra de datos para cada nivel de la VI. En los diseños 
de grupos aleatorios muestra y grupo coinciden: cada grupo de sujetos genera una 
muestra de datos. Pero en los diseños de medidas repetidas, por ejemplo, muestra y 
grupo no coinciden: cada grupo genera más de una muestra de datos. Resulta 
posible, por tanto, disponer de más de una muestra de datos con un único grupo de 
sujetos. 
1 Decimos pares porque los niveles de la VI son dos. Si fueran tres, seleccionaríamos tríos de sujetos, 
etcétera. 
2 Si utilizamos muestras independientes, la variabilidad en el recuerdo medio puede deberse no sólo 
a las condiciones del experimento, sino a factores no sujetos a control como el sexo, la edad, el CI, el 
nivel cultural, etc. Si se utilizan los mismos sujetos o sujetos emparejados, es mucho más probable que 
la variabilidad observada se deba a las condiciones experimentales. 
© Ediciones Pirámide 
Contrastes de hipótesis 
sobre medias 
4.1. Contraste de hipótesis sobre una media. 
4 
4.2. Contraste de hipótesis sobre dos medias independientes. 
4.2.1. Suponiendo varianzas iguales. 
4.2.2. Suponiendo varianzas distintas. 
4.3. Contraste de hipótesis sobre dos medias relacionadas. 
4.3.1. Observaciones perdidas. 
4.4. Tamaño del efecto en los contrastes sobre medias. 
Apéndice 4. 
Distribución muestra! de Y, - Y2 suponiendo a, = a2 • 
Contraste de hipótesis sobre igualdad de varianzas. 
Cálculo de la potencia en los contrastes sobre medias. 
Ejercicios. 
4.1. Contraste de hipótesis sobre una media 
El contraste de hipótesis sobre una media sirve para tomar decisiones acerca del 
verdadero valor poblacional que corresponde a la media de una variable. Nos 
encontramos, por tanto, ante un diseño con una muestra. Ya hemos estudiado en el 
capítulo 1 (apartado 1.3.2) la distribución muestral de la media. Además, al describir 
la lógica general del contraste de hipótesis, hemos utilizado ejemplos referidos a la 
media. Esto ayudará, sin duda, a que los procedimientos concretos diseñados para 
contrastar hipótesis sobre la media sean fácilmente asimilables ahora. 
Sabemos que si extraemos una muestra aleatoria de tamaño n de una población 
normal N(µ, u) y calculamos la media Y, esa media es un estadístico (una variable 
aleatoria) distribuido normalmente N(µ, u/Jn). Sabemos también, por el teorema 
central del límite, que, aun desconociendo la forma de la población de donde 
extraemos la muestra, el estadístico Ytiende a distribuirse normalmente N(µ,u/Jn) 
a medida que el tamaño de la muestran va aumentando. Y también sabemos, por 
último, que, bajo las mencionadas circunstancias, la transformación: 
(Y-µ) 
Z=--
u/Jn 
(4.1.) 
se distribuye según el modelo normal N(O, 1), por lo que podemos utilizar la 
distribución normal estandarizada para conocer las probabilidades asociadas a los 
diferentes valores de Y. 
Precisamente el conocimiento de esas probabilidades es el que nos proporciona 
la posibilidad de tomar decisiones respecto al parámetro µ. Para ello, basta con 
seguir los pasos descritos en el capítulo anterior al hablar de la lógica del contraste 
de hipótesis. En el ejemplo 3.2 hemos seguido esos pasos. Y el ejemplo 4.1 que 
aparece a continuación también los sigue. 
EJEMPLO 4.1. En un centro de educación especial se utiliza un método de 
comprensión lectora con el que se viene obteniendo un promedio de 6 y una 
desviación típica de 2 en una prueba estandarizada de comprensión lectora. Un 
educador especialista en problemas de lectura ofrece al centro la posibilidad de utilizar 
© Ediciones Pirámide 
188 / Análisis de datos en psicología 11 
un nuevo método que, según él, es más económico y eficaz. El centro estaría dispuesto 
a adoptar ese nuevo método siempre que no se demostrara que con él el rendimiento 
es inferior al obtenido con el método antiguo. Se selecciona una muestra aleatoria de 
36 niños y, durante un periodo de tiempo, se aplica el nuevo método. Tras la 
instrucción, se pasa la prueba estandarizada de comprensión lectora y se obtiene una 
media de 5. Si asumimos que la desviación típica es la misma con los dos métodos, 
¿qué decisión deberá tomarse? (oc = 0,01). 
l. Hipótesis: H 0 : µ ~ 6; H 1: µ < 6 (contraste unilateral izquierdo). 
2. Supuestos: No conocemos la distribución de las puntuaciones en comprensión 
lectora, pero la muestra es lo bastante grande (n > 30) como para suponer que la 
distribución muestral de la media será normal; la muestra es aleatoria; u= 2. 
3. Estadístico de contraste: 
Y-µ 5-6 
Z=--=--= -3 
u/Jn 2/fi 
4. Distribución muestra(: Z se distribuye N(O, 1). 
5. Zona crítica: Z ~ z0 ,01 = -2,33. 
6. Decisión: Como - 3 < - 2,33, rechazamos H 0 • Concluimos que el promedio 
obtenido con el nuevo método es significativamente inferior al obtenido con el 
método antiguo; en consecuencia, el centro decidirá no adoptar el nuevo método. 
La situación descrita en el ejemplo anterior, aunque simple y útil para exponer 
la lógica del contraste de hipótesis, es bastante infrecuente en la investigación 
empírica. Generalmente, si conocemos la desviación típica a de una población, 
también conoceremos la media µ de esa población y, por tanto, no necesitaremos 
hacer ningún tipo de inferencia sobre ella. Por otra parte, si conociendo ambos 
parámetros deseamos ver si la media ha cambiado como consecuencia de, por 
ejemplo, algún tipo de intervención, lo razonable será suponer que también la 
varianza habrá podido cambiar y, por tanto, dejado de ser conocida. 
Estas consideraciones sugieren que, al contrastar hipótesis sobre la media de 
una población, la situación con la que generalmente nos encontraremos será aquella 
en la cual los parámetros poblacionales (tanto µ como a) serán desconocidos. 
Y cuando esto es así, la forma de proceder difiere de la descrita en el último ejemplo. 
Si de una población normal extraemos una muestra aleatoria de tamaño n y 
calculamos en ella el estadístico media Y, la transformación: 
Y-µ 
T=----
Sn_ifJn 
Y-µ 
S,J~ 
(4.2) 
© Ediciones Pirámide 
Contraste de hipótesis sobre medias / 189 
es una variable aleatoria que se distribuye 1 según el modelo probabilístico t de 
Student con n - 1 grados de libertad. Por tanto, podemos utilizar Ja transformación 
T y Ja distribución de probabilidad t de Student para conocer las probabilidades 
asociadas al estadístico Y cuando desconocemos cr; Jo cual nos permitirá tomar 
decisiones sobre el parámetroµ. El procedimiento que debemos seguir, de acuerdo 
con la lógica expuesta en el capítulo anterior, puede quedar resumido según se 
muestra en el cuadro 4.1. 
CUADRO 4.1 
Contraste de hipótesis sobre una media. Resumen del procedimiento 
1. Hipótesis: 
a) Contraste bilateral: H0: µ = µ 0; H 1: µ ':#. µ 0• 
b) Contraste unilateral derecho: H0: µ :S µ 0; H1: µ > µ 0• 
e) Contraste unilateral izquierdo: H0: µ ~ µ 0 ; H1: µ < µ 0• 
2. Supuestos: 
a) Población de partida normal. 
b) Muestra aleatoria de tamaño n. 
3. Estadístico de contraste 2: 
T= Y-µº =-----
S,/...ffi""=l 
4. Distribución muestra]: T se distribuye t11 _ 1• 
5. Zona crítica: 
a) Contraste bilateral: T:S al'.!.t11 _ 1 y T~ 1_a12f11 _1. 
b) Contraste unilateral derecho: T ~ 1_ªt11 _ 1• 
e) Contraste unilateral izquierdo: T:S ªt11 _ 1. 
6. Regla de decisión: se rechaza H0 si el estadístico de contraste cae en la zona crí-
tica; en caso contrario, se mantiene. 
1 Ver, en el capítulo 1, el apartado referido a la distribución muestral de la media (apartado 1.3.2.). 
2 Si el tamaño muestra( es lobastante grande, este procedimiento coincide con el descrito en el 
ejemplo 4.1, donde a es un valor conocido (lo cual significa que, a medida que el tamaño muestra! va 
aumentando, va resultando irrelevante el hecho de que a sea conocida o desconocida). Recordemos que, 
a medida que el tamaño de la muestra va aumentando, la distribución t de Student se va pareciendo más 
y más a la normal. Por ejemplo, el percentil 95 de la distribución normal estandarizada vale 1,645; y en 
la distribución t. con 11 = 10, el percentil 95 vale 1,812; con n = 50. 1,676: con n = 90, 1,662; etc. Si el 
tamaño muestral es lo bastante grande, siempre resulta imposible utilizar la distribución normal para cono-
cer las probabilidades asociadas a la media, tanto si conocemos a como si no. 
© Ediciones Pirámide 
190 / Análisis de datos en psicología 11 
En lugar de establecer un nivel de significación y a partir de él una zona crítica, 
podemos proceder, alternativamente, sirviéndonos del nivel crítico (p). Recordemos 
que el nivel crítico representa la probabilidad asociada al valor concreto adoptado 
por el estadístico de contraste. Si el contraste es bilateral, el nivel crítico viene dado 
por p = 2[P(T :;;.-:: ltkl)], siendo tk el valor concreto tomado por el estadístico T; si el 
contraste es unilateral derecho, el nivel crítico vale p = P(T :;;.-:: tk); y si el contraste es 
unilateral izquierdo, el nivel crítico vale p = P(T ~ tk). Calculado el nivel crítico, p, 
decidiremos rechazar H 0 si p es menor que a (pues si p es menor que a eso 
significará que la probabilidad de obtener un valor tan extremo o más que el 
encontrado es menor que el riesgo que estamos dispuestos a asumir en nuestra 
decisión). 
Y, alternativamente también, podemos, de acuerdo con lo expuesto en el 
apartado 3.6 sobre la relación entre estimación por intervalos y contraste de 
hipótesis, tomar una decisión sobre el valor del parámetro µ construyendo un 
intervalo de confianza a partir del estadístico Y: 
(4.3) 
El rango de valores comprendidos entre L¡ y L, equivale al rango de valores de 
Y que nos llevarían a mantener H 0 en un contraste bilateral. Por tanto, rechazare-
mos H 0 si el valor propuesto en ella para el parámetro µ no se encuentra dentro del 
intervalo definido por L¡ y L,. 
EJEMPLO 4.2. De acuerdo con los datos recogidos durante los últimos años por 
un psicólogo escolar, los estudiantes de COU que no reciben orientación vocacional 
obtienen una media de 190 en una prueba de madurez (Y). El psicólogo opina que los 
estudiantes que sí reciben orientación vocacional obtienen un promedio superior en la 
mencionada prueba. Para obtener alguna evidencia sobre su sospecha, toma una 
muestra aleatoria de 65 estudiantes de COU que habían recibido orientación voca-
cional y les pasa la prueba de madurez. Obtiene una media de 198 y una desviación 
típica de 24. ¿Podemos pensar, con un nivel de significación de 0,05, que estos datos 
apoyan la opinión del psicólogo? 
l. Hipótesis: H0 : µ ~ 190 
H 1: µ > 190 (contraste unilateral derecho). 
2. Supuestos: suponemos que la distribución de las puntuaciones en la prueba de 
madurez es normal y que la muestra es aleatoria. 
3. Estadístico de contraste: 
Y-µ 
T=----
s./Jn"=i 
198 - 190 
---=2,667 
24/j64 
© Ediciones Pirámide 
Contraste de hipótesis sobre medias / 191 
4. Distribución muestra!: T se distribuye según t 64. 
5. Zona crítica: T ~ 0 •95 t64 ~ 1,67. 
6. Decisión: Como 2,667 > 1,67, rechazamos H 0 • Concluimos que el promedio 
obtenido en la prueba de madurez por los estudiantes de COU que reciben 
orientación vocacional es significativamente superior al obtenido por los estudian-
tes que no la reciben. Los datos, por tanto, apoyan la opinión del psicólogo. 
7. Nivel crítico 3: p = P(T~ 2,667) < 0,005 ( <ix). También nos lleva al rechazo de H 0 . 
4.2. Contraste de hipótesis sobre dos medias independientes 
A pesar de su simplicidad, el contraste de hipótesis sobre dos medias indepen-
dientes es una técnica de análisis de datos frecuentemente utilizada en la investiga-
ción empírica. Cuando, por ejemplo, se desea evaluar la eficacia de algún tratamien-
to o algún tipo de intervención, se seleccionan aleatoriamente dos grupos de sujetos; 
a uno de ellos se le aplica el tratamiento y al otro no; tras esto, se comparan las 
medias de los dos grupos en la variable de interés para determinar si difieren o no y, 
por tanto, si el tratamiento aplicado es o no eficaz. Si se dan las condiciones 
apropiadas, el contraste de hipótesis sobre dos medias independientes es el idóneo 
para comparar dos grupos de sujetos en alguna variable de interés. 
Al trabajar con dos medias independientes lo estamos haciendo con dos 
poblaciones distintas de las que extraemos, independientemente, dos muestras 
aleatorias de tamaños n1 y n2• En cada una de esas muestras medimos la variable 
aleatoria Y¡, calculamos el estadístico Y en cada una de ellas (tendremos Y1 y Y2 ) y 
utilizamos esa información muestral para determinar si las dos poblaciones poseen 
o no la misma media µ (es decir, utilizamos la información muestra! Y1 y Y2 para 
determinar si µ 1 es o no igual a µ 2 ). Por supuesto, dado que Y1 y Y2 son valores 
muestrales, difícilmente serán iguales (incluso aunque las poblaciones de donde 
proceden sus respectivas muestras tengan la misma media: µ 1 = µ 2 ); pero la 
cuestión que interesa responder es si esas medias muestrales son lo bastante 
diferentes como para pensar que proceden de poblaciones con diferente media. Es 
decir, si esas medias muestrales son lo bastante diferentes como para pensar que los 
grupos comparados difieren significativamente en la variable estudiada. Veamos 
cómo proceder. 
Del mismo modo que la media muestra! nos proporciona la mejor estimación de 
la media poblacional, la mejor estimación que podemos obtener sobre la diferencia 
entre dos medias poblacionales es justamente la diferencia entre dos medias 
3 La tabla de la distribución t que aparece en el apéndice final no es lo bastante amplia como para 
permitirnos obtener el nivel crítico exacto. Sin embargo, esto no debe ser considerado un inconveniente 
importante; es suficiente con disponer de información relativa a si el nivel crítico es mayor o menor que 
el nivel de significación establecido. 
© Ediciones Pirámide 
192 / Análisis de datos en psicología 11 
muestrales. Pero según sabemos ya, una estimación de este tipo (una estimación 
puntual) está sujeta a error muestral (ver apartado 2.2.1 ). No existe ninguna garantía 
de que la estimación efectuada sea correcta. 
Podemos extraer dos muestras de tamaños n1 y n2 (una de cada población) y 
calcular Y1 - Y2 . El valor de Y1 - Y2 dependerá, obviamente, de las muestras 
concretas extraídas. Si repetimos el proceso de nuevo, obtendremos un nuevo valor 
para Y1 - Y2 que será, seguramente, diferente del anterior. Y si repetimos el proceso 
un número indefinido de veces obtendremos todos los posibles valores de Y1 - Y2 y 
la frecuencia con la que cada uno de ellos se repite; es decir, obtendremos la 
distribución muestral de Y 1 - Y 2 , la cual nos permitirá conocer las probabilidades 
asociadas a cada valor de Y1 - Y2 • En consecuencia, para efectuar inferencias sobre 
µ 1 - µ 2 , podemos basarnos en Y1 - Y2 y en su distribución muestral y, de esta 
manera (al igual que ocurría al estimarµ a partir de Y) conocer el error de nuestra 
estimación. Veamos, pues, cuáles son las características de la distribución muestral 
de Y1 - Y2. 
Si de la población 1 extraemos una muestra aleatoria de tamaño n1 y de la 
población 2 extraemos, independientemente, una muestra aleatoria de tamaño n2 , y 
en ambas muestras medimos la variable aleatoria Y¡, tendremos, de acuerdo con lo 
que ya sabemos: 
E(Y) = µ1 
(4.4) 
<To 
CTy, = '~ 
- V 11, 
Como Y1 - Y2 es una variable aleatoria resultado de combinar linealmente dos 
variables aleatorias independientes, tendremos: 
(4.5) 
2 2 
2 2 2 O'¡ 0'2 
O'- - = O'- + O'- = - + -
Y, - Y, Y, Y, n1 n2 
Ahorabien, si las dos distribuciones poblaciones mencionadas son normales, 
también serán normales las distribuciones muestrales de Y1 y Y2; y puesto que 
Y1 - Y2 es combinación lineal de Y1 y Y2, también la distribución muestral de 
Y1 - Y2 será normal. Y todavía más, de acuerdo con el teorema central del límite, a 
medida que los tamaños muestrales n1 y n2 vayan aumentando, las distribuciones 
muestrales de Y1 y Y2 tenderán a la normalidad, cualquiera que sea la forma de las 
distribuciones poblacionales originales. Y lo mismo ocurrirá, consecuentemente, con 
Y1 - Y2 . De modo que el estadístico Y1 - Y2, bajo las mencionadas circunstancias, 
se distribuirá normalmente con: 
(4.6) 
© Ediciones Pirámide 
Contraste de hipótesis sobre medias / 193 
Por tanto, la transformación: 
(Y1 - Y2) - E(Y1 - Y2) 
Z=~~~~~~~~~- (4.7) 
O"y, - Y, 
se distribuirá N(O, 1), es decir, según la distribución normal estandarizada. Y co-
nociendo la distribución muestral del estadístico Y1 - Y2 podemos, sirviéndonos 
de la lógica del contraste de hipótesis ya expuesta, diseñar un procedimiento para 
contrastar hipótesis referidas al parámetro µ 1 - µ 2 • El ejemplo 4.3 ilustra este 
procedimiento. 
EJEMPLO 4.3. La distribución de las puntuaciones en una eseala de actitudes 
hacia el aborto es, tanto en la población de varones como en la de mujeres, normal 
con media 12 y desviación típica 4. Un psicólogo social sospecha que, en los últimos 
años, las mujeres han pasado a tener una actitud más favorable hacia el aborto 
(puntuaciones más altas en la escala) que los hombres. Para obtener alguna evidencia 
sobre su sospecha, selecciona aleatoriamente un grupo de 30 varones y otro de 30 
mujeres y les pasa la mencionada escala, obteniendo los siguientes resultados: Y,, = 11, 
Y., = 13. ¿Podemos afirmar, con un nivel de significación de 0,05, que las mujeres 
muestran actitudes más favorables hacia el aborto que los hombres? 
t. Hipótesis: H 0 : µ. ;;;?: µ.,; H 1: µ. < µ., (contraste unilateral izquierdo). 
2. Supuestos: Las puntuaciones en la escala se distribuyen normalmente en las 
dos poblaciones, con <1 = 4; las muestras se han extraído de forma aleatoria e 
independientemente una de otra. 
3. Estadístico de contraste: 
(Y1 - f 2) - (µ 1 - µ 2) (11 - 13) - (12 - 12) 
Z= = =-194 
J<Jf/n 1 + u~/n2 )16/30 + 16/30 ' 
4. Distribución muestra(: Z se distribuye N(O, 1). 
5. Zona crítica: Z:;;;; z0 ,05 = -1,65. 
6. Decisión: Como -1,94 < -1,65, rechazamos H 0 . Concluimos que el promedio 
obtenido por las mujeres es significativamente más alto que el obtenido por los 
varones (con IX = 0,05). Los datos, por tanto, apoyan la sospecha del psicólogo. 
7. Nivel crítico: p = P(Z:;;;; -1,94) = 0,0262 (<IX). También nos lleva al rechazo 
de H 0 . 
© Ediciones Pirámide 
194 / Análisis de datos en psicología 11 
4.2.1. Suponiendo varianzas iguales 
El estadístico presentado en la ecuación (4.7) y utilizado en el ejemplo 4.3 posee 
una utilidad bastante escasa, pues raramente la investigación empírica genera 
situaciones en las que, siendo desconocidas las medias poblacionales (razón por la 
cual se efectúa un contraste de hipótesis sobre ellas), las varianzas poblacionales 
resulten conocidas. Lo habitual es, más bien, que las varianzas poblacionales sean, 
al igual que las medias, desconocidas; en cuyo caso el error típico de la distribución 
muestra! de Y1 - Y2 será igualmente desconocido y hará falta estimarlo. 
Si suponemos (y este supuesto, al que llamaremos homocedasticidad o igualdad 
de varianzas, es, como veremos más adelante, muy importante) que las varianzas 
poblacionales son iguales (es decir, si suponemos que ai = ªª = a2 ) sólo será 
necesario estimar un parámetro: a 2 . Y puesto que los dos estimadores insesgados de 
que disponemos (Si y Sª) son independientes, lo apropiado será utilizar ambos 
estimadores para obtener una única estimación de a 2 , pues lo más probable es que 
la combinación ponderada de ambos estimadores nos proporcione una estimación 
más exacta de a 2 que la de cada uno por separado. Esta estrategia nos conduce a: 
• 2 (n 1 - l)Si + (n 2 - l)S~ a = ---------
n1 + n2 - 2 
(4.8) 
como estimador ponderado insesgado de a 2 . Por tanto: 
(4.9) 
será un estimador insesgado de uy _y. 
A partir de aquí, es fácil demo~tr~r 4 que 
(4.10) 
se distribuye según el modelo de probabildad t de Student con n 1 + n2 - 2 grados 
de libertad. Podemos, pues, utilizar la ecuación (4.10) para conocer las probabilida-
des asociadas al estadístico Y1 - Y2 cuando, desconociendo las varianzas poblacio-
nales ai y uª, suponemos que son iguales. Es decir, podemos poner a prueba 
hipótesis referidas a µ 1 - µ 2 a partir de la información proporcionada por el 
estadístico T. El procedimiento puede resumirse según se muestra en el cuadro 4.2. 
4 Ver, en el apéndice 4, el apartado referido a la distribución muestra! de Y1 - Y2 cuando suponemos 
a 1 = a 2 • Puede resultar útil, para entender el contenido de este apartado, recordar algunos conceptos del 
capítulo 1 relacionados con las distribuciones muestrales de la media y de la varianza. 
© Ediciones Pirámide 
Contraste de hipótesis sobre medias / 195 
CUADRO 4.2 
Contraste de hipótesis sobre dos medias independientes. 
Resumen del procedimiento 
1. Hipótesis 5: 
a) Contraste bilateral: H0 : µ 1 - J1 2 = k: H 1: µ 1 -11 2 #- k. 
b) Contraste unilateral derecho: H0 : µ 1 - µ 2 ~ k: H 1: J1 1 - J1 2 > k. 
e) Contraste unilateral izquierdo: H0 : µ 1 - µ1 ~ k: H 1: J1 1 - µ2 < k. 
2. Supuestos: 
a) Dos poblaciones de partida normales con cr 1 y u 2 desconocidas pero supuestas 
iguales. 
b) Dos muestras aleatorias de tamaños 11 1 y 11 2 extraídas independientemente. 
3. Estadístico de contraste 6 : 
4. Distribución muestra!: T se distribuye según r., +n,- 2• 
5. Zona crítica: 
a) Contraste bilateral: T ~ 212 t 01 +n, - 2 y T ~ 1 -2 2t., +n, - 2· 
b) Contraste unilateral derecho: T~ i-.Cn,+n,-2· 
e) Contraste unilateral izquierdo: T ~ 2 101 +n, _ 2 . 
5 Generalmente k = O, pues la hipótesis que habitualmente interesa contrastar es si las medias de 
ambas poblaciones son iguales. De modo que µ 1 - µ2 = k será, generalmente, 11 1 - µ2 = O, lo cual 
equivale a µ 1 = µ 2• 
6 Puesto que, generalmente, la hipótesis nula afirmará µ 1 = µ 2 , la expresión µ 1 - µ2 desaparecerá del 
numerador del estadístico de contraste, es decir, de la ecuación (4.10). Esto será así incluso en un 
contraste unilateral con Ha: µ 1 ,,;; µ2 o Ha: µ 1 ;;;. µ 2 , pues, según hemos explicado ya en el capítulo 3, el 
modelo estadístico del que nos servimos para efectuar el contraste de hipótesis se construye a partir del 
signo «=»contenido en Ha. 
Además, cuando los tamaños muestra/es son iguales (o aproximadamente iguales), es decir, cuando 
n1 = n2 = n, la ecuación (4.9) equivale a: 
ªr,-r, = 
y el estadístico T de la ecuación (4.10) queda reducido a: 
(Y1 - Y2) - (µ1 - µ1) 
T=--------
j(S~ + SD/n 
© Ediciones Pirámide 
196 / Análisis de datos en psicologfa 11 
('{'ADRO 4.::!. f conti1111aciá11 J 
6. Regla de decisión: se rechaza /10 si el estadistico de contraste cae en la zona 
critica: en caso contrario. se mantiene. 
7. Nivel critico: 
al Contraste bilateral: p = 2[P(T ~ l1k1l]. siendo 11 el valor concreto tomado por 
el estadistico T. 
hl Contraste unilateral derecho: p = P( T ~ t kl· 
d Contraste unilateral izquierdo: p = P(T ~ tkl· 
8. Intervalo de confianza: 
L;=ll\- >"11+, 11,,,.,,, 1 , Sfn 1 +S~n1 
L,=(}\->"11+ 1 , 11., .• , 1 ,sf11 1 +S~11 1 
(4.11) 
EJEMPLO 4.4. Se ha llevado a cabo un experimento para determinar si los dibujos 
actúan como facilitadores o entorpecedores del aprendizaje de palabras en niños de 3 
y 4 años. Se han seleccionado aleatoriamente 80 niños de una escuela infantil y a la 
mitad de ellos se les ha intentado enseñar nuevas palabras sin utilizar ilustraciones 
(grupo 1) y a la otra mitad se les ha intentado enseñar las mismas palabras ilustradas 
con sencillos dibujos (grupo 2). Tras el entrenamiento se ha evaluado elnúmero de 
palabras aprendidas por cada niño y se han obtenido los siguientes resultados: 
Y; S; 
Grupo 1 19 16 
Grupo 2 30 21 
A la vista de estos resultados y utilizando un nivel de significación de 0,05, ¿qué 
podemos decir sobre la hipótesis de que ambas muestras proceden de poblaciones con 
la misma media? 
l. Hipótesis: H 0 : µ 1 = µ 2 ; H 1: µ 1 "# µ 2 (contraste bilateral). 
2. Supuestos: Independientemente de que las poblaciones de origen sean normales, 
los tamaños muestrales son lo bastante grandes como para garantizar que Y1 - Y2 
se distribuirá normalmente; suponemos varianzas poblacionales iguales; las mues-
tras se han extraído de forma aleatoria e independientemente una de otra. 
3. Estadístico de contraste: 
19 - 30 
----;:======--;:::::=== = - 2,64 
39(16)2 + 39(21)2 J 1 + 1 
40+40-2 40 40 
© Ediciones Pirámide 
Contraste de hipótesis sobre medias / 197 
4. Distribución muestra): T se distribuye según t 78 . 
5. Zona crítica: T~ 0 ,025 t 78 ~ -1,99. 
6. Decisión: Como -2,64 < -1,99, rechazamos H0 • Concluimos que el promedio de 
palabras aprendidas utilizando ilustraciones es mayor que el obtenido sin ilustra-
ciones (con oc= 0,05). 
7. Nivel crítico: p = 2[P(T~ 2,64)] ~ 0,01 (<oc). También nos lleva al rechazo de H0 • 
El procedimiento que acabamos de describir es, bajo el nombre de prueba t 
sobre diferencia de medias, el tradicionalmente pre¡;entado en todos los manuales de 
estadística para comparar las medias de dos grupos independientes. No obstante, a 
pesar de su amplia difusión (y, en muchos casos, indiscriminada utilización), el 
procedimiento no parece estar completamente libre de inconvenientes. 
Por un lado, para que T se distribuya según el modelo t de Student con 
n1 + n2 - 2 grados de libertad es necesario que las poblaciones originales sean 
normales. Por lo que se refiere a este supuesto, si los tamaños muestrales son 
razonablemente grandes (mayores de 20 o 25) e iguales o aproximadamente iguales, 
el incumplimiento de esta condición no tiene consecuencias relevantes sobre las 
conclusiones del contraste (ver, por ejemplo, Sawilowsky y Blair, 1992). De manera 
que, con tamaños apropiados, el procedimiento sigue siendo válido independiente-
mente de la forma de las poblaciones de origen (incluso con poblaciones sensible-
mente alejadas de la normalidad). 
Sin embargo, en lo relativo al supuesto de homocedasticidad (varianzas pobla-
cionales iguales), las cosas no parecen tan favorables. Si los tamaños muestrales son 
iguales y el supuesto de normalidad no se incumple, el procedimiento es válido 
incluso con varianzas poblacionales muy diferentes (ver Ramsey, 1980). Pero si, aun 
siendo normales las poblaciones de origen, los tamaños de las muestras son muy 
diferentes, suponer que las varianzas poblacionales son iguales puede conducir a 
conclusiones equivocadas 7 (ver, por ejemplo, Boneau, 1960). 
Estas consideraciones sirven para alertarnos sobre la necesidad de planificar 
cuidadosamente la utilización de la ecuación (4.10). En primer lugar, es conveniente 
que los tamaños muestrales sean grandes para poder garantizar que, independiente-
mente de la forma de las poblaciones de origen, la distribución muestra! de Y1 - Y2 
se aproxime al modelo de distribución de probabilidad normal. En segundo lugar, 
es conveniente también que los tamaños muestrales sean iguales, pues si son iguales 
7 Ya sabemos que los supuestos de un contraste de hipótesis son las condiciones necesarias para que 
un determinado estadístico de contraste siga la distribución muestra! propuesta. Cuando decimos que un 
estadístico se ve afectado por la violación o incumplimiento de algún supuesto, o que la violación de 
algún supuesto tiene consecuencias no deseables sobre las conclusiones del contraste queremos significar 
con ello que ese estadístico ya no sigue exactamente la distribución muestra! propuesta. Esto se traduce 
en que la probabilidad de cometer un error de tipo I (es decir, ot) cambia, pasando a ser mayor o menor 
que el valor propuesto. 
© Ediciones Pirámide 
198 / Análisis de datos en psicología 11 
podremos suponer sin riesgo grave que las varianzas poblacionales también lo son. 
Ahora bien, si nos vemos en la necesidad de trabajar con muestras de diferente 
tamaño, no podremos suponer, sin más, que las varianzas poblacionales son iguales. 
Es justamente en esos casos donde hay que ser prudentes en el uso del estadístico T. 
Una estrategia bastante útil en la práctica consiste en: a) utilizar T (la ecuación 
[ 4.10]) si los tamaños muestrales son iguales o aproximadamente iguales, o b) 
utilizar alguno de los procedimientos alternativos que presentamos en el siguiente 
apartado si los tamaños muestrales son distintos. En cualquiera de los casos, 
conviene que los tamaños muestrales sean razonablemente grandes. 
4.2.2. Suponiendo varianzas distintas 
Si las varianzas poblacionales no son iguales, carece de sentido obtener una 
única estimación de las mismas a partir de la combinación ponderada de los dos 
estimadores disponibles: Si y S~. Más bien, cada uno de ellos deberá ser considera-
do un estimador de la varianza de su propia población. Podemos, así, definir el 
estadístico: 
(4.12) 
donde Si y S~ son los estimadores insesgados de sus respectivas varianzas poblacio-
nales (las cuales, no lo olvidemos, no suponemos iguales). El problema de esta 
forma de proceder es que el estadístico T' no se distribuye, necesariamente, según el 
modelo de probabilidad t de Student con n1 + n2 - 2 grados de libertad. Pero se 
trata de un problema poco importante, pues disponemos de algunos procedimientos 
que nos permiten conocer de forma aproximada la distribución muestral de T'. 
Los primeros intentos de obtener la distribución exacta de T' fueron iniciados 
por Behrens y continuados por Fisher (de ahí que el problema de la heterogeneidad 
de varianzas sea referido en muchos contextos como el problema Behrens-Fisher). 
Pero las soluciones prácticas fueron aportadas por otros autores. Cochran y Cox 
(1957), por ejemplo, fueron de los primeros en diseñar un método de aproximación 
a los puntos críticos de la distribución de T' definida por Behrens y Fisher. El 
método propuesto por Cochran y Cox consiste en obtener los puntos críticos de la 
distribución de T' mediante: 
tcritico = (4.13) 
donde t 1 y t 2 se refieren a los puntos de la distribución t de Student (con n 1 - 1 y 
n2 - 1 grados de libertad, respectivamente) que dejan por debajo de sí una 
© Ediciones Pirámide 
Contraste de hipótesis sobre medias / 199 
probabilidad p; y siendo p igual a oc si se trata de un contraste unilateral izquierdo; 
a l - oc si se trata de un contraste unilateral derecho; y a oc/2 (para el punto crítico 
izquierdo) y l - oc/2 (para el punto crítico derecho) si se trata de un contraste 
bilateral. Comparando T' con tcriiico podemos tomar decisiones respecto a µ 1 - µ 2 
en los términos ya conocidos. 
Welch (1938) ha propuesto 8 una aproximación alternativa que acapara las 
preferencias de muchos investigadores. En esta aproximación T' se concibe como 
una variable aleatoria distribuida según la t de Student, pero con un número 
desconocido de grados de libertad. La solución pasa por determinar los grados de 
libertad (y/') que corresponden a la distribución de T' mediante la ecuación: 
(4.14) 
El resultado obtenido para gl' se redondea al entero más próximo 9 . Se obtienen 
así unos grados de libertad comprendidos entre un mínimo y un máximo conocidos: 
el mínimo es el valor más pequeño de n 1 - l y n2 - l; el máximo es n 1 +ni - 2. 
Comparando el valor de T' con los correspondientes puntos críticos de la distribu-
ción t de Student con y/' grados de libertad podemos tomar decisiones respecto a 
µ¡ - µi. 
La solución propuesta por Welch posee una ventaja práctica. Dado que los 
valores de la distribución t van disminuyendo a medida que van aumentando los 
grados de libertad, antes de calcular g/' podemos evaluar T' utilizando el g/' mínimo 
(es decir, el menorde n1 - l y ni - l); si rechazamos H 0 : µ 1 = µi, también Ja 
rechazaremos con el valor proporcionado por (4.14) para g/' (y, por tanto, no será 
necesario calcular el valor exacto de gl'); si no rechazamos H 0 : µ 1 - µi, podemos 
evaluar T' con el g/' máximo (n 1 + ni - 2); si seguimos sin rechazar H 0 , tampoco la 
rechazaremos calculando el valor exacto de g/'. De modo que el único caso en el 
que necesitaremos hacer uso de (4.14) para calcular el valor exacto de g/' será aquel 
en el que manteniendo H 0 con el g/' mínimo, la rechacemos con el g/' máximo. 
" Satterthwaitc ( 1946) ha llegado. al parecer de forma independiente. a la misma solución propuesta 
por Welch. 
" El propio Welch (1947) ha sugerido posteriormente que hacer: 
f (~+~)2] 111 112 g/' = - 2 . (SU11 1)2 + (S~/11 2 ) 2 
111 - 1 112 - 1 
puede ofrecer una solución más exacta para g/'. No obstante, la diferencia entre ambas soluciones es, en 
la mayor parte de los casos, insignificante. 
© Ediciones Pirámide 
200 / Análisis de datos en psicología 11 
Si estamos interesados en obtener el intervalo de confianza para µ 1 - ¡t2 , el 
propio Welch (1938; ver Fenstad, 1983) ha diseñado un procedimiento válido para 
el caso en que no podamos suponer que las varianzas poblacionales son iguales. El 
intervalo de confianza de Welch viene dado por: 
(4.15) 
donde ti es el cuantil 100(1 - a./2) de la distribución t de Student con ni - 1 grados 
de libertad y mi= (ni - 3)/(ni- 1). El subíndicej se refiere a los grupos:j = 1,2. Se 
rechaza la hipótesis H 0 : µ 1 = µ2 si el intervalo construido no incluye el cero. En las 
condiciones en las que T es aplicable (normalidad, homocedasticidad), el intervalo 
de confianza de Welch coincide con T. Pero si las varianzas poblacionales no son 
iguales, entonces el intervalo propuesto por Welch muestra mejor comportamiento 
que T. 
El ejemplo 4.5 ilustra los procedimientos recién expuestos para aproximarse al 
problema de la heterogeneidad de varianzas. Se trata de una réplica del ejemplo 4.4, 
pero utilizando tamaños muestrales diferentes. 
EJEMPLO 4.5. Se ha llevado a cabo un experimento para determinar si los dibujos 
actúan como facilitadores o entorpecedores del aprendizaje de palabras en niños de 3 
y 4 años. Se han seleccionado aleatoriamente 80 niños de una escuela infantil. A 50 de 
ellos se les ha intentado enseñar nuevas palabras sin utilizar ilustraciones (grupo 1) y a 
los 30 restantes se les ha intentado enseñar las mismas palabras ilustradas con 
sencillos dibujos (grupo 2). Tras el entrenamiento, se ha evaluado el número medio de 
palabras aprendidas por cada niño y se han obtenido los siguientes resultados: 
Y1 = 19, Y2 = 30, S 1 = 16, S2 = 21. A la vista de estos resultados y utilizando un nivel 
de significación de 0,05, ¿qué podemos decir sobre la hipótesis de que ambas muestras 
proceden de poblaciones con la misma media? 
2. Supuestos: independientemente de que las poblaciones de origen sean normales, 
los tamaños muestrales son lo bastante grandes como para garantizar que Y1 - Y2 
se distribuirá normalmente; las muestras se han extraído de forma aleatoria e 
independientemente una de otra (como los tamaños muestrales son distintos, 
decidimos no suponer homocedasticidad). 
3. Estadistico de contraste: 
19- 30 
-----;::==== -2,47 
162 21 2 
-+-
50 30 
© Ediciones Pirámide 
Contraste de hipótesis sobre medias / 201 
4. Distribución muestra): T se distribuye según la t de Student con: 
(~+~)2 
50 30 
g/' = = 49,19 
. (162/50)2 (21 2/30)2 
---+---
50 - 1 30 - 1 
grados de libertad. Redondeando al entero más próximo: g/' = 49. 
5. Zona crítica: T ~ 0 ,02 5t 49 ::::::: - 2,0 l. 
6. Decisión: Como -2,47 < -2,01, rechazamos H0 • Concluimos que el promedio de 
palabras aprendidas utilizando ilustraciones es mayor que el obtenido sin ilustra-
ciones (con oc = 0,05). 
Por supuesto, en esta situación concreta no es necesario calcular el valor exacto 
de g/'. Con el g/' mínimo, es decir, con n2 - 1 = 29 grados de libertad, ya rechaza-
mos H0 • 
7. Nivel crítico: p = 2[P(T ~ 2,47)] < 0,02 (<oc). 
8. Intervalo de confianza: 
r1Fi = 0 •975 t49J(n 1 - 3)/(n 1 - 1) = 2,01J47/49 = 1,968 
t2.J;;; = o,91st29J(n2 - 3)/(n2 - 1) = 2,045J27fi.9 = 1,973 
Vemos que máx[ti~] = 1,973. Por tanto, el intervalo de confianza vendrá 
definido, de acuerdo con ( 4.15), por los límites: 
(19-30)± 1,973 
162 21 2 
----+----
50(0,9592) 30(0,9310) 
Es decir, por los límites: 
L; = (19 - 30) - 9,07 = -20,07 
L, = (19 - 30) + 9,07 = -1,93 
Puesto que el intervalo construido no incluye el cero, decidimos rechazar H0 con 
un nivel de riesgo de 0,05. 
Utilizando la solución propuesta por Cochran y Cox, los puntos críticos de la 
distribución muestra( de T serán, de acuerdo con (4.13): 
© Ediciones Pirámide 
-2,01(16)2 -2,045(21)2 
----+-----
50 30 
tcritico(izquicrdo) = ----1-6-2--2-1-2--- = -2,036 
-+-
50 30 
202 / Análisis de datos en psicología // 
2,01(16)2 2,045(21)2 
---+----
50 30 
lcritico(derecho) = -------- = 2,036 
162 21 2 
-+-
50 30 
lo cual nos lleva a exactamente la misma conclusión alcanzada mediante el 
procedimiento de Welch. 
4.3. Contraste de hipótesis sobre dos medias relacionadas 
En los contrastes de hipótesis sobre dos medias independientes descritos en el 
apartado 4.2, Y1 e Y2 son tratadas como variables aleatorias independientes. En la 
práctica, esta independencia queda garantizada asignado al primer tratamiento un 
grupo de sujetos aleatoriamente seleccionado y al segundo tratamiento otro grupo 
de sujetos diferente del anterior y también aleatoriamente seleccionado. Hay 
ocasiones, sin embargo, en las que resulta conveniente, e incluso deseable, que Y1 e 
Y2 sean variables aleatorias relacionadas. En estos casos es cuando hablamos de 
muestras relacionadas. 
Ya hemos señalado que hablamos de dos muestras relacionadas cuando un 
grupo de sujetos es evaluado dos veces. Si queremos comparar el rendimiento de un 
grupo de sujetos con problemas de aprendizaje en dos tareas de habilidad diferen-
tes, podemos evaluar el rendimiento de cada sujeto en ambas tareas y comparar los 
promedios obtenidos en ellas; tendremos dos muestras de puntuaciones relaciona-
das porque ambas pertenecen a los mismos sujetos: los sujetos menos afectados por 
problemas de aprendizaje tenderán a puntuar alto en ambas tareas, mientras que 
los sujetos más afectados tenderán a puntuar bajo en ambas tareas. 
Las medidas repetidas no son la única forma (aunque tal vez sí la más frecuente) 
de generar muestras relacionadas. También tenemos dos muestras relacionadas 
cuando, en lugar de medir a los mismos sujetos en dos ocasiones, utilizamos pares 
de sujetos. Por ejemplo, en un estudio sobre relaciones maritales podría intere-
sarnos preguntar a los miembros de una muestra de matrimonios por su grado 
de satisfacción marital a fin de evaluar si los maridos se sienten, en promedio, más 
satisfechos o menos que sus esposas. Aquí, a cada individuo sólo le tomamos una 
medida, pero cada matrimonio, como una unidad, contribuye con un par de 
puntuaciones. Parece razonable asumir que si un miembro de una pareja se siente 
muy satisfecho con su matrimonio, el otro miembro de la pareja también se sentirá 
satisfecho, y viceversa; por lo que las puntuaciones de ambas muestras estarán 
relacionadas. 
Muchos diseños experimentales utilizan muestras relacionadas. Y todos ellos 
tienen una cosa en común: el conocimiento de una de las puntuaciones de un par 
nos proporciona alguna -puede que no mucha, pero alguna- información sobre 
© Ediciones Pirámide 
Contraste de hipótesis sobre medias / 203 
la otra puntuación del mismo par. Por esta razón utilizamos el término muestras 
relacionadas 10. 
Cuando éste es el caso, puesto que las puntuaciones de cada par pertenecen al 
mismo sujeto o a dos sujetos emparejados, podemos transformar las puntuaciones 
originales en diferencias: D¡ = Y¡ 1 - Y¡ 2 , haciendo así que a cada sujeto o par 
corresponda una única puntuación. Estas puntuacionesD¡ informan sobre el 
cambio producido entre las puntuaciones de cada par: D; valdrá cero cuando las 
dos puntuaciones del mismo par sean iguales; será menor que cero cuando la 
segunda puntuación del par sea mayor que la primera (lo que indicará que se ha 
producido una ganancia); y será mayor que cero cuando la segunda puntuación del 
par sea menor que la primera (lo que indicará que se ha producido una pérdida). 
Tendremos así una única variable D; con media D de la que podremos servirnos 
para efectuar inferencias sobre µ0 = µ 1 - µ 2 • 
Así pues, desde el punto de vista del análisis de datos, en el contraste sobre dos 
medias relacionadas disponemos de una única población (la población de las 
diferencias) con media µ0 y varianza u~. Si de esa población extraemos aleatoria-
mente n observaciones D;, el estadístico D = "í:.D;/n será una variable aleatoria con 
valor esperado E(D) = E(Y1 - Y2 ) = µ 1 - µ 2 = µ0 y error típico UiJ = u0/ Jn. Nos 
encontramos, por tanto, ante una situación idéntica a la descrita en el apartado 4.2 
al hablar del contraste de hipótesis sobre una media. Si conociéramos UiJ, la 
transformación: 
iJ - E(D) D - (µ1 - µ1) Z= =~~~~~-
UiJ Uo/Jn 
(4.16) 
nos permitiría conocer las probabilidades asociadas a D y, a partir de ellas, 
podríamos tomar decisiones respecto a µ 1 - µ 2. Pero como lo habitual es que UiJ 
sea un valor desconocido, tendremos que estimarlo mediante: 
• So 
O'jj = -
Jn 
(4.17) 
donde S0 se refiere a la desviación típica insesgada de la muestra de n diferencias. 
Es decir: S~ = "í:.(D; - D)2/(n - 1). 
De esta forma, el estadístico: 
(4.18) 
'º El término muestras relacionadas se aplica de forma genérica tanto si utilizamos un grupo de 
sujetos al que tomamos dos medidas, como si utilizamos sujetos emparejados. Para referirnos a las 
situaciones en las que se utilizan los mismos sujetos también utilizaremos el término medidas repetidas 
¡en el contexto de los diseños se habla de diseños con los mismos sujetos o diseños intrasujetos). Y para 
referirnos a las situaciones en las que se utilizan sujetos emparejados (pares, tríos, etc.) también 
utilizaremos el término muestras dependientes (en el contexto de los diseños, se habla de bloques con 
un sujeto por nivel y bloque). 
© Ediciones Pirámide 
204 / Análisis de datos en psicología 11 
se distribuirá, si la población de diferencias es normal o el tamaño muestra) lo 
bastante grade 11 , según el modelo t de Student con n - 1 grados de libertad (siendo 
n el número de diferencias D;). Podemos, en consecuencia, utilizar la ecuación (4.18) 
para diseñar un procedimiento que nos permita contrastar hipótesis referidas a 
µ 1 - µ 2 cuando disponemos de dos muestras relacionadas (cuadro 4.3). 
CUADR04.3. 
Contraste de hipátesis sohre dos medias relacionadas. Res11111en del procedimiento 
l. Hipótesis 12: 
a) Contraste bilateral: H0 : µ 0 = µ 1 - µ 2 = c50 ; H 1: µ0 = µ 1 - µ 2 # Ó0 • 
b) Contraste unilateral derecho: H0 : µ0 = J1 1 - µ2 ~ 80 ; H 1: Jln = J1 1 - J1 2 > 80 . 
e) Contraste unilateral izquierdo: H0 : µ0 = µ 1 - µ2 ~ c50 ; H 1: Jln = µ 1 - µ 2 < 80 . 
2. Supuestos: 
a) La población de diferencias es normal. 
b) Muestra aleatoria de n pares o diferencias. 
3. Estadístico de contraste: 
fj -(µ¡ - µ2) 
T=-----
So/Jn 
(siendo S0 = J~(D; - l5)2/(n - 1)) 
4. Distribución muestral: T se distribuye según la t de Student con n - 1 grados de 
libertad. 
5. Zona crítica: 
a) Contraste bilateral: T ~ •121. _ 1 y T ~ 1 - • 121. - 1. 
b) Contraste unilateral derecho: T ~ 1 -.t.- 1• 
e) Contraste unilateral izquierdo: T ~ .r._ 1. 
6. Regla de decisión: se rechaza H 0 si el estadístico de contraste cae en la zona 
crítica; en caso contrario, se mantiene. 
7. Nivel crítico: 
a) Contraste bilateral: p = 2[P(T ~ lttl)], siendo tk el valor concreto tomado por 
el estadístico T. 
b) Contraste unilateral derecho: p = P(T ~ ltl· 
e) Contraste unilateral izquierdo: p = P(T ~ ltl· 
1 1 Recordemos los supuestos relacionados con la distribución muestra! de la media (apartado 1.3.2.). 
12 Al igual que en el contraste sobre dos medias independientes. generalmente 60 = O, pues la 
hipótesis que habitualmente tendrá sentido contrastar será H0 : µ 1 = µ,. es decir, µ0 =O. 
© Ediciones Pirámide 
Contraste de hipótesis sobre medias / 205 
CU ADRO 4.3. (continuación) 
8. Intervalo de confianza: 
L; = i5 +,!t., y /,_, = jj + 1 '!111 (4.19} 
" 11 "11 
EJEMPLO 4.6. Según sugieren algunos trabajos, los niños con problemas percepti-
vos aumentan su rendimiento, con entrenamiento adecuado, en preguntas del test de 
Raven que habitualmente no resuelven por carecer de las estrategias adecuadas. Con el 
fin de obtener evidencia adicional sobre esta afirmación, un investigador seleccionó 
una muestra aleatoria de 10 niños con problemas perceptivos y les pasó el test de 
Raven para obtener una medida inicial de los 10 niños en el test. Después los entrenó 
durante 2 meses en tareas similares, pero no iguales, a las planteadas por el test de 
Raven y, terminado el entrenamiento, volvió a pasarles el test para obtener una 
medida post-tratamiento. Los resultados obtenidos aparecen en la tabla 4.1. 
TABLA 4.1 
Sujetos 1 2 3 4 5 6 7 8 9 10 
Antes 70 72 80 75 77 80 74 81 76 73 
Después 74 73 84 75 84 95 88 86 80 79 
¿Hay evidencia suficiente en los datos para afirmar, con un nivel de significación de 
0,01, que el tipo de entrenamiento efectuado consigue aumentar el rendimiento en el 
test Raven de los sujetos con problemas perceptivos? 
l. Hipótesis: H0: Jlantes ~ Jldespues; H 1: Jlantes < Jldespues (contraste unilateral izquierdo). 
2. Supuestos: suponemos que la población de las diferencias antes-después es normal 
y que la muestra de 10 pares es aleatoria. 
3. Estadístico de contraste: construir una tabla como la 4.2 nos facilita los cálculos 
necesarios para la obtención del estadístico de contraste. 
TABLA 4.2 
Sujetos 1 2 3 4 5 6 7 8 9 10 I 
Antes 70 72 80 75 77 80 74 81 76 73 758 
Después 74 73 84 75 84 95 88 86 80 79 818 
D; -4 -1 -4 o -7 -15 -14 -5 -4 -6 -60 
Df 16 1 16 o 49 225 196 25 16 36 580 
© Ediciones Pirámide 
206 / Análisis de datos en psicología 11 
- 758 
Yantes = - = 75,8 
10 
fj = Y.ntes - f.tespués = 7,58 - 81,8 = -6 
- 818 
l'después = - = 81,8 
10 
580 10 s2 =--(-6)2 =22 = s;_ 1 =--22=24,44 = s._ 1 =Sd=4,94 
n 10 10 - 1 
l5 - (µ¡ - µ2) -6 - o 
T = = = -3,84 
Sv/Jn 4,94/j!O 
4. Distribución muestra): T se distribuye según t 9• 
5. Zona crítica: T ~ o.o 1 t 9 = - 2,821. 
6. Decisión: Como -3,84 < -2,821, rechazamos H0 • Concluimos que el entrena-
miento efectuado consigue mejorar el rendimiento medio de los sujetos con 
problemas perceptivos. 
7. Nivel crítico: p = P(T~ td < 0,005. Por tanto, p <'.X. 
4.3.1. Observaciones perdidas 
Al trabajar con muestras relacionadas (más concretamente, con medidas repeti-
das) el sujeto que participa en el pre-test también lo hace en el post-test. En una 
situación ideal, dispondremos de un par de puntuaciones para todos y cada uno de 
los sujetos participantes en el experimento. Pero las situaciones ideales no siempre 
(o, mejor, raramente) se presentan. Desafortunadamente, es frecuente que alguno de 
los sujetos que participan en el pre-test no lo haga en el post-test. En un experimen-
to concreto podemos encontrarnos, por ejemplo, con que de los 50 sujetos seleccio-
nados para el pre-test sólo 42 han completado el post-test. 
Si utilizamos sujetos emparejados podemos encontrarnos con el mismo proble-
ma. En un estudio sobre satisfacción marital, por ejemplo, puede ocurrir que al 
entrevistar a un conjunto de matrimonios, uno de los dos miembros no colabore 
por alguna razón. Nos encontraremos así con pares en los que faltarán datos 
referidos al marido o a la mujer. 
La forma habitual de proceder en estos casos en los que nos encontramos con 
observaciones perdidas consiste en eliminar los pares incompletos (es decir, los 
pares en los que falta una de las dos puntuaciones) y trabajar con los pares 
restantes. Silos pares eliminados son proporcionalmente pocos (no más allá del 1 O 
© Ediciones Pirámide 
Contraste de hipótesis sobre medias / 207 
o el 15 por 100) y la pérdida se ha producido de forma aleatoria, la supresión de los 
pares incompletos puede constituir un procedimiento simple y eficaz. 
Si la mera supresión implica gran pérdida de información, existen procedimien-
tos alternativos a ella diseñados específicamente para este tipo de situaciones. El 
lector interesado en profundizar en este problema puede consultar el excelente 
trabajo de Little y Rubio (1987). 
4.4. El tamaño del efecto en los contrastes sobre medias 
En el capítulo 3, apartado 3.4, hemos adelantado ya el concepto de tamaño del 
efecto para referimos al grado en que el efecto estudiado está presente en la 
población (es decir, para referimos al grado en que una hipótesis nula es falsa: el 
grado en que dos grupos difieren, el grado de eficacia de un tratamiento, etc.). 
También hemos señalado en ese mismo apartado que la significación estadística de 
un resultado empírico es un concepto muy diferente de la significación o importancia 
real de ese resultado. 
Ahora es el momento de insistir en una importante idea: aunque un contraste de 
hipótesis nos permite afirmar si una hipótesis nula es falsa, no nos permite, sin 
embargo, conocer si el efecto estudiado posee o no, de hecho, alguna relevancia. 
Un contraste de hipótesis no nos permite precisar el grado de falsedad de una 
hipótesis nula; para ello necesitamos otro tipo de medidas que, en el contexto de 
los contrastes sobre medias, se denominan medidas del tamaño del efecto. 
Ya hemos hablado del nivel crítico (p) como de un índice que puede aportarnos 
más ieformación que el mero rechazo de una hipótesis tras la obtención de un 
estadístico significativo (ver apartado 3.4). Pero debemos advertir que el nivel crítico 
no es una medida apropiada del tamaño del efecto. Si al comparar, por ejemplo, un 
grupo control con un grupo experimental, rechazamos la hipótesis H 0 : µe = µ. con 
un nivel crítico tan pequeño como p = 0,0001, seguramente nos sentiremos inclina-
dos a concluir que H 0 es muy falsa y que, por tanto, entre µe y µ. existe una gran 
distancia (es decir, un gran efecto del tratamiento administrado al grupo experimen-
tal). Pero esa conclusión no sería necesariamente correcta. Puesto que la potencia 
de un contraste va creciendo conforme los tamaños muestrales aumentan (ver 
apéndice 3), si los tamaños muestrales son muy grandes, podremos llegar a esa 
conclusión incluso cuando la diferencia entre µe yµ. sea insignificante (si ne y n. son 
muy grandes en relación a s; y s:, T será muy grande incluso cuando la diferencia 
~ - Y. sea muy pequeña). Parece pues que la utilización del nivel crítico como 
medida del tamaño del efecto (es decir, como medida de la verdadera diferencia entre 
µe y µ.) posee, precisamente por su relación con los tamafios muestrales, serios 
inconvenientes. 
Para superar estos inconvenientes, se han propuesto numerosos y variados 
índices intentando ofrecer una adecuada cuantificación del tamaño del efecto. En el 
contexto de los contrastes sobre medias, quizá el más popular de estos índices sea el 
© Ediciones Pirámide 
208 / Análisis de datos en psicología 11 
consistente en estandarizar la diferencia entre las dos medias poblacionales compa-
radas (Cohen, 1969, Glass, 1976): 
(4.20) 
el cual puede ser estimado mediante 13 : 
(4.21) 
Si existe grupo control, Glass (1976) propone sustituir a en (4.21) por la 
desviación típica insesgada del grupo control. Pero Hedges (1981) ha demostrado 
que utilizar la desviación típica del grupo control conduce a un estimador d sesga-
do y que ese sesgo se ve reducido, tanto si hay grupo control como si no, utilizando 
como estimador de a el promedio ponderado de las desviaciones típicas insesgadas 
de los dos grupos comparados 14: 
a= (n 1 - l)Si + (n 2 - l)S~ 
n1 + n2 - 2 
(4.22) 
Si deseamos obtener el tamaño del efecto a partir de algún informe de investiga-
ción publicado nos encontraremos, muy propablemente, con que la información 
proporcionada se limita a las medias, los tamaños muestrales y el valor del 
estadístico de contraste; raramente se ofrece el valor de las desviaciones típicas. No 
1 3 Esta formulación de {¡ está referida al caso de dos medias; en el caso de los contrastes sobre una 
media: 
. lµo - µ,I 
Ó=---
<1 
donde µ0 se refiere al valor propuesto paraµ en H0 , µ 1 se refiere al valor propuesto para µ 1 enH 1 (valor 
que estimamos mediante ñ. y u se refiere a la desviación típica poblacional (valor que estimamos 
mediaPtt: S._ 1 ). 
14 Aunque utilizando (4.22) d sigue siendo un estimador sesgado, el sesgo puede ser eliminado 
(suponiendo que se dan las condiciones de aplicación del estadístico T: normalidad y homocedasticidad) 
multiplicando d por un término corrector llamado c(m) (Hedges, 1982): 
3 
c(m)~ l---
4m- 1 
siendo m = n1 + n2 - 2. Por supuesto, con tamaños muestrales razonablemente grandes la diferencia 
entre utilizar o no el término corrector c(m) es insignificante (ver, por ejemplo, Bangert, Kulik y Kulik, 
1983), de modo que, con tamaños muestrales razonablemente grandes, la discusión sobre la elección de 
uno u otro estimador carece de relevancia. 
© Ediciones Pirámide 
Contraste de hipótesis sobre medias / 209 
obstante, basándonos en la ecuación que relaciona el estimador d con el estadístico 
de contraste T: 
(4.23) 
podemos obtener una estimación del tamaño del efecto incluso a partir de informes 
de investigación en los que no se ofrece el valor de las desviaciones típicas 
muestrales. 
Podremos captar mejor el significado del parámetro fJ si observamos las dis-
tribuciones de la figura 4.1. fJ expresa la diferencia entre dos medias poblacionales en 
términos de la desviación típica poblacional (seguimos suponiendo que las distri-
buciones poblacionales son normales y que sus varianzas son iguales). Una diferen-
cia de una desviación típica (b = 1) es en realidad una puntuación z = 1 de la distribu-
ción N(O, 1), lo que significa que puede ser interpretada como que el 84,13 por 100 
(pues P(Z ~ 1) = 0,8413) de los sujetos del grupo con menor media están por debajo 
de la media del otro grupo. De igual forma, una diferencia de dos desviaciones 
típicas (b = 2) significa que el 97,72 por 100 (P(Z ~ 2) = 0,9772) de los sujetos del 
grupo con menor media se encuentran por debajo de la media del otro grupo. 
Ó=2 
Figura 4.1.-Tamaño del efecto expresado por el parámetro b (distancia entre las medias poblacionales 
en número de desviaciones típicas). 
Las ecuaciones recién propuestas son apropiadas para estimar el tamaño del 
efecto en los diseños con muestras independientes. Con muestras relacionadas, 
Gibbons, Hedeker y Davis (1993) proponen utilizar como estimador del tamaño del 
efecto: 
(4.24) 
donde fj se refiere a la media de las n diferencias D¡ y <10 a la desviación típica de 
esas n diferencias. Es decir: 
© Ediciones Pirámide 
¿vi 
D=-i-= Y1 - Y2 
n 
(4.25) 
21 O / Análisis de datos en psicología 11 
De nuevo podemos encontrarnos con que en los informes de investigación 
publicados no aparezca el valor de la desviación típica de las diferencias. En esos 
casos, todavía es posible obtener d' calculando la desviación típica de las diferencias 
a partir de los datos disponibles, pues: 
vJn 
Sv=--
T 
(4.26) 
Otra medida del tamaño del efecto muy utilizada en los diseños de dos muestras 
es el coeficiente de correlación r de Pearson (inicialmente propuesto para tal 
finalidad por Friedman, 1968; y muy recomendado, entre otros, por Rosenthal, 
1984). Tanto si se está trabajando con muestras independientes como si se está 
haciendo con muestras relacionadas, la correlación se calcula entre las puntuaciones 
de la variable dependiente (la variable en la cual se desea comparar a los dos 
grupos) y la variable grupo (variable dicotómica cuyos niveles vienen definidos por 
la pertenencia a uno u otro grupo) 15. El cálculo de r es directo a partir del 
estadístico T: 
r = jT2/(T2 + gl) (4.27) 
donde gl = n1 + n2 - 2 (es decir, los grados de libertad asociados al estadístico T). 
Elevando al cuadrado el coeficiente de correlación r se obtiene la proporción de 
varianza de la variable continua que es explicada por la variable dicotómica (es 
decir, la proporción de varianza de la variable dependiente que es explicada por la 
pertenencia a uno de los dos grupos). 
Las preferencias por una u otra medida del tamaño del efecto (d o r) están 
divididas. Quizá la utilización de d está más extendida; tiene la ventaja de ser 
fácilmente interpretable al tratarse de una distancia estandarizada, pero su uso 
requiere suponer que las distribuciones poblacionales son normales y homocedásti-
cas. La interpretación de r es menos intuitiva para el profesional no experto en 
estadística (proporción de varianza explicada), pero tiene una propiedad muy 
deseable en un índice estadísico: posee un mínimo y un máximo. De cualquier 
manera, conocer, en una situación concreta, la equivalencia entre ambas medidas es 
una tarea poco costosa, pues una es fácilmente transformable en la otra mediante: 
d= 
,2 
p(l - p)(l - r 2 ) 
d 
r = ----;======= Jd2 + 1/[p(l - p)] 
(4.28) 
(4.29) 
15 Cuando el coeficiente de correlación r de Pearson se aplica a una variable dicotómica (es decir, a 
una variable con dos valores, O y 1; en nuestro caso: O = pertenencia al primer grupo. 1 = pertenencia al 
segundo grupo) y a una variable continua, recibe el nombre de correlación hiserial-puntual (ver San 
Martín y Pardo, 1989, págs. 464-470). 
© Ediciones Pirámide 
Contraste de hipótesis sobre medias / 211 
siendo p = n¡/(n 1 +ni); es decir, siendo p la proporción de sujetos que pertenecen al 
primer grupo (o, indistintamente, p = ni/(n 1 + ni); es decir, la proporción de sujetos 
que pertenecen al segundo grupo). 
Por supuesto, los dos índices comentados (d y r) no son los únicos disponibles 
para obtener una medida del tamaño del efecto (aunque, sin duda, los más 
utilizados). El lector interesado en conocer otros índices puede consultar, por 
ejemplo, Levy ( 1967; proporción de casos incorrectamente clasificados), Rosenthal y 
Rubín, (1982; binomial e.ffect size display, BESO), McGraw y Wong (1992; common 
language, CL), etc. También se han diseñado estimadores no-parámetricos del 
tamaño del efecto (ver, por ejemplo, Kraemer y Andrews, 1982; o Hedges y Olkin, 
1984). 
EJEMPLO 4.7. En el ejemplo 4.4 nos hemos servido de dos grupos de tamaño 
n 1 =ni = 40 para estudiar el efecto de Ja utilización de ilustraciones en el aprendizaje 
de palabras. Tras rechazar la hipótesis de igualdad de medias hemos concluido que los 
niños a los que se les enseñan palabras con ilustraciones aprenden más palabras que 
los niños a Jos que no se les enseña con ilustraciones. ¿Cómo podemos ahora 
cuantificar el tamaño de efecto? Es decir, ¿cómo podemos cuantificar la mejora 
obtenida en el aprendizaje de palabras como consecuencia de la utilización de 
ilustraciones? 
Recordemos que las medias y desviaciones típicas obtenidas con cada grupo fueron 
las siguientes: 
y 
1 Grupo 1 19 
Grupo 2 30 
Por tanto: 
IY1 - Yil 
d=-----;:======= 
(n 1 - l)S~ +(ni - l)S~ 
n1 +ni - 2 
-2,64i 
sn- 1 
16 
21 
119 - 301 --:::===== = 0,59 
39(16)i + 39(21 )i 
40+40-2 
~ 
r = '-Í T2+9/ = ----=0,29 -2,64i + 78 
En la tabla de la distribución normal estandarizada nos encontramos que 
P(Z ~ 0,59) = 0,7224, por lo que d = 0,59 nos está indicando que el 72 por 100 de Jos 
niños no entrenados con ilustraciones está por debajo del promedio de Jos niños 
entrenados con ilustraciones (o, lo que es lo mismo, el 28 por 100 de Jos niños no 
entrenados con ilustraciones supera el promedio de los niños sí entrenados). 
© Ediciones Pirámide 
212 / Análisis de datos en psicologfa 11 
Por otro lado, elevando al cuadrado r = 0,29 obtenemos r 2 = 0,084, lo que 
significa que sólo el 8,4 por 100 de la varianza de las puntuaciones en aprendizaje está 
explicado por el tipo de entrenamiento. 
Aunque las medias de ambos grupos difieren más de lo que es esperable por azar 
(razón por la cual hemos rechazado H 0 en el ejemplo 4.4), el tamaño de efecto no 
parece demasiado grande. Siguiendo las sugerencias de Cohen (por ejemplo, 1992, pág. 
157), que clasifica el tamaño del efecto como pequeño (d ~ 0,20; r ~ O, 10), medio 
(d ~ 0,50; r ~ 0,30) y grande (d ~ 0,80; r ~ 0,50), podríamos calificar el tamaño del 
efecto encontrado en este ejemplo como de medio. 
AP~NDICE 4 
Distribución muestra! de Y, - Y2 suponiendo a, = a2 
Según sabemos 16: 
En consecuencia: 
(n - os;_. 
-----x2 
(12 - ·- 1 
(n 1 - l)Si 
----=x;,-• 
(12 
(n2 - l)S~ 
Y 2 = x;,-• 
(1 
Y de acuerdo con la propiedad aditiva 1 7 de x2 : 
x;, -1 + x;,-. = x;, +n,-2 
Por tanto: 
(n 1 - l)Si + (n 2 - l)S~ 2 
2 =x.,+.,-2 
(1 
(4.30) 
Recordemos ahora 18 que una variable T sigue el modelo de distribución de probabilidad 
t de Student si: 
z 
T=-;:.::::;::== Jx 2/(n - 1) 
16 Ver, en el capítulo 1, el apartado sobre la distribución muestra( de la varianza (apartado 1.3.3). 
17 Ver Análisis de datos en psicología I (Botella, León y San Martín, 1993, págs. 328-329). 
18 Ver Análisis de datos en psicología I (Botella, León y San Martín, 1993, pág. 331). 
© Ediciones Pirámide 
Contraste de hipótesis sobre medias / 213 
siendo Z una variable distribuida normalmente y xi una variable distribuida según xi con 
n - 1 grados de libertad. En consecuencia, haciendo, de acuerdo con las ecuaciones (4.7) y 
(4.30): 
z = 0'1 - Yi) - (µ. - µil 
Jui/n 1 + ui/ni 
la variable aleatoria: 
i (n 1 - l)Sf + (n 1 - l)S~ 
y X = ---------
ui 
(4.31) 
se distribuirá según el modelo t de Student con n1 +ni - 2 grados de libertad. Simplificando 
(4.31) nos queda: 
(4.32) 
El paso de (4.31) a (4.32) es posible únicamente si las varianzas poblacionales uf y u~ son 
iguales, es decir si uf =u~= ui y, por tanto, uf/u~ = l. Sólo de esa manera la ecuación (4.31) 
tiene solución y por esta razón decimos que, en el contraste sobre dos medias independientes 
con varianzas poblacionales desconocidas, necesitamos suponer que esas varianzas poblacio-
nales son iguales (supuesto éste al que nos hemos referido ya como igualdad de varianzas u 
homocedasticidad). 
Contraste sobre igualdad de varianzas 
Aunque hasta ahora hemos hablado de la heterogeneidad de varianzas como de algo 
relacionado con la prueba T sobre diferencia de medias y, por tanto, como algo poco 
deseable, lo cierto es que la heterogeneidad de varianzas puede constituir, ella misma, un 
resultado experimental relevante. Esto significa que, en ocasiones, el estudio de la variabili-
dad puede ser un fin en sí misma y no sólo un paso previo para la comparación de medias 
(ver, por ejemplo, Bryk y Raudenbush, 1988). 
Imaginemos que deseamos evaluar el nivel de desarrollo cognitivo alcanzado por dos 
grupos de niños que han seguido programas de instrucción diferentes. Si estamos interesados 
simplemente en constatar cuál de los dos grupos ha alcanzado, en promedio, mayor nivel de 
desarrollo, podemos limitarnos a comparar las medias de ambos grupos con alguno de los 
procedimientos ya estudiados. Pero esta forma de proceder pasaría por alto una cuestión de 
cierta importancia: podría ocurrir que uno de los métodos de instrucción consiguiera 
incrementar el nivel de desarrollo de los niños de forma generalizada (todos los niños 
mejoran su nivel de desarrollo) y que el otro método de instrucción consiguiera el mismo 
objetivo con sólo unos pocos niños, aunque de forma más marcada. Estas diferencias entre 
© Ediciones Pirámide 
214 / Análisis de datos en psicología 11 
ambos métodos no quedarían reflejadas en las medias, pero sí en las varianzas, por lo que 
sólo acompañando el contraste de medias con un contraste de varianzas podríamos obtener 
información real sobre lo que ha ocurrido. . 
Existen diferentes procedimientos para contrastar la hipótesis de que dosvarianzas 
poblacionales son iguales. Uno de los más simples, debido a Levene (1960), consiste en 
transformar los valores originales Y¡i U se refiere al j-ésimo grupo: j = 1,2; i se refiere al i-
ésimo sujeto; por tanto: i = 1, 2, ... , n1 cuando j = 1, i = 1, 2, ... , n2 cuando j = 2) en puntuacio-
nes diferenciales en valor absoluto: 
Dij= 11-;i - }ji 
Se obtienen así unas nuevas puntuaciones que reflejan el grado de variabilidad presente 
en cada muestra (cuanto mayor sea la varianza de una muestra, mayores serán las puntuacio-
nes Dij y mayor, en consecuencia, su media). Sobre esas puntuaciones se aplica el estadístico 
T sobre diferencia de medias (ecuación [ 4.10]) para contrastar, a partir de: 
t5 1 = "LD; 1/n 1 
D2 = "LD;2/n2 
la hipótesis de que ambas muestras proceden de poblaciones con la misma media, es decir: 
H0 : Jlv;, = µ0 ;,. Si las varianzas poblacionales son iguales, las medias D1 y D2 serán 
parecidas; si las varianzas poblacionales son distintas, las medias D1 y D2 serán distintas. Por 
tanto, si el estadístico T nos lleva al rechazo de H 0 : µ 01 = 11 0 ,. podremos concluir que las 
varianzas poblacionales son distintas (es decir, podremos rechazar H 0 : af = an. 
Este y otros procedimientos 19 se han propuesto como alternativas a la tradicional prueba 
F sobre igualdad de varianzas 20 (Hartley, 1940, 1950): 
F = s;;s~ (4.33) 
donde Si representa la varianza insesgada más grande de las dos que se están comparando 
y S~ la más pequeña. Si las poblaciones de partida son normales, este estadístico F sigue el 
modelo de distribución de probabilidad F de Fisher-Snedecor con ng - 1 y nP - 1 grados de 
libertad (siendo ng y nP los tamaños muestrales correspondientes a Sg y Sp). De modo que 
podremos utilizarlo para tomar decisiones respecto a H 0 : ai = ªª· En concreto, rechazare-
mos la hipótesis de igualdad de varianzas si F toma un valor mayor que el punto crítico 
l -2¡2Fn9 -1.np-1· 
EJEMPLO 4.6. En el ejemplo 4.5 hemos utilizado dos muestras de diferente 
tamaño (n 1 = 50 y n2 = 30) en las que hemos obtenido Si = 162 y S~ = 21 2 . Con estos 
datos podemos contrastar la hipótesis de igualdad de varianzas utilizando la prueba F 
y un nivel de significación de 0,02. Veamos: 
l. Hipótesis: H 0 : ai = ªª; H 1: ai # ªª (contraste bilateral). 
19 Ver, por ejemplo, O'Brien, 1981; en Conover et al. (1981) se comparan 60 procedimientos para 
contrastar la igualdad de varianzas. 
20 Aunque todavía muchos de los grandes programas de análisis estadístico incluyen el estadístico F 
sobre igualdad de varianzas, lo cierto es que otros procedimientos, como el propuesto por Levene, son 
más robustos y potentes. 
© Ediciones Pirámide 
Contraste de hipótesis sobre medias / 215 
2. Supuestos: La prueba F exige normalidad en las poblaciones de origen; con los 
tamaños muestrales de que disponemos podemos suponer normalidad sin riesgo 
grave. 
3. Estadístico de contraste: 
s2 21 2 
F=_!__=-=172 s; 162 ' 
4. Distribución muestra): F se distribuye según la distribución F con n9 - 1 = 29 y 
nP - 1 = 49 grados de libertad. 
5. Zona crítica: F ~ 0 •99F 29•49 ~ 2,10. 
6. Decisión: Como 1,72 < 2,10, mantenemos H 0 • Concluimos que, con los datos 
disponibles, no existe evidencia suficiente para pensar que las varianzas poblacio-
nales son distintas. 
Si las muestras están relacionadas podemos contrastar la hipótesis H 0 : 11~ = 11~ recurrien-
do (ver, por ejemplo, Snedecor y Cochran, 1967) a: 
(F- l)Jn"=2 
T=---;:::==:-
2jF(l - r 2) 
(4.34) 
donde F = Sif S~ y r se refiere al coeficiente de correlación de Pearson entre las puntuaciones 
de ambas muestras. Este estadístico T sigue la distribución t de Student con n - 2 grados de 
libertad. 
Cálculo de la potencia en los contrastes sobre medias 
Recordemos (apartado 3.3) que la potencia de un contraste depende de tres factores: 1) la 
verdadera diferencia entre las afirmaciones establecidas en H 0 y H 1 (es decir, el tamaño del 
efecto), 2) el valor de :x (nivel de significación) y 3) el error típico de la distribución muestra) 
del estadístico de contraste utilizado (que según sabemos es tanto más pequeño cuanto 
mayor es el tamaño muestra) n). 
Las consideraciones del apartado 4.4 sobre el tamaño del efecto son de especial utilidad 
para estudiar los problemas relacionados con la potencia de una prueba de significación. 
Después de lo estudiado en él disponemos ya de todos los elementos de información 
necesarios para abordar ahora las cuestiones referidas al calculo de la potencia en los 
contrastes sobre medias. 
Una media 
El cálculo de la potencia, tal como será abordado aquí, consiste en obtener un valor, al 
que llamaremos ~ (delta mayúscula), a partir del cual es posible conocer directamente la 
© Ediciones Pirámide 
216 / Análisis de datos en psicología 11 
potencia de un contraste recurriendo a la tabla L del apéndice final. Para llegar a .1 
necesitamos el valor del tamaño del efecto {> y una función de n que depende de cada 
situación concreta. En el caso del contraste de hipótesis sobre una media: 
(4.35) 
siendo f> el tamaño del efecto obtenido a partir de: 
(4.36) 
El término 1µ0 - µ11 recoge la diferencia, en valor absoluto, que consideramos relevante 
detectar en nuestro estudio y para la cual deseamos conocer la potencia del contraste; y u es 
la desviación típica poblacional, que puede ser conocida o puede ser estimada a partir de la 
información procedente de estudios previos. 
La tabla L del apéndice final ofrece la potencia asociada a diferentes valores de .1 y oc. Las 
probabilidades oc de esa tabla corresponden a contrastes unilaterales. Si el contraste es 
bilateral debemos tomar la columna correspondiente a oc/2. 
Recordemos el ejemplo 4.1. Supongamos que nos interesa conocer la potencia del 
contraste para detectar una diferencia de 1 punto entre las medias de las puntuaciones en la 
prueba de compresión lectora. Tendremos: µ0 = 6; µ 1 = 5 (recordemos que el contraste era 
unilateral izquierdo); u = 2; n = 36; y oc = 0,01. Con estos datos obtenemos: 
lµo-µil 16-51 
f>= =--=05 
(J 2 , 
.1 = t>Jn = 0,5)36 = 3 
La tabla L, para .1 = 3 y :x = 0,01, nos ofrece una potencia de 0,75. Lo cual significa que, 
siendo µ = 5 el verdadero valor de la media poblacional, rechazaremos la hipótesis nula H 0 : 
µ = 6 en 75 de cada 100 veces que la contrastemos. 
La pregunta sobre la potencia de un contraste puede transformarse fácilmente en la 
pregunta sobre el tamaño muestra! necesario para alcanzar una determinada potencia. A 
partir de (4.35) obtenemos la ecuación necesaria para conocer ese tamaño muestra!: 
,12 
n=-
1>2 
(4.37) 
¿Qué tamaño muestra! necesitaríamos para alcanzar, en el contraste anterior, una 
potencia de 0,90? En la tabla L vemos que, con :x = 0,01, a una potencia de 0,90 le 
corresponde un valor .1 de 3,6. Por tanto: 
,12 3 62 
n = - = -'- = 5184 
f>2 0,52 , 
Necesitaríamos una muestra de 52 sujetos (redondeamos al entero mayor) para que, 
siendo µ = 5 el verdadero valor de µ, valga 0,90 la probabilidad de rechazar la hipótesis nula 
H 0 : µ = 6. 
© Ediciones Pirámide 
Contraste de hipótesis sobre medias / 217 
Si no conocemos u y la estimamos en (J a partir de s._ 1, todavía podemos obtener el 
valor de la potencia de un contraste bilateral mediante la siguinete aproximación (Hays, 
1988, págs. 304-306): 
(4.38) 
siendo z una variable distribuida N(O, 1). Utilizando la ecuación (4.38), la potencia viene dada 
por la probabilidad de obtener valores mayores o iguales que z. Por supuesto, esta 
aproximación será tanto mejor cuanto mayor sea el tamaño muestra!. Supongamos que al 
contrastar H0 : µ = 10 frente a H 1: µ f:- 10 con una muestra de 50 sujetos obtenemos una 
desviación típica insesgada de 3. Queremos conocer la potencia del contraste para detectar 
una diferencia de 1,5 puntos utilizando rx = 0,05. Tendremos: 
! = SJn = 0,5)65 = 4,03 
1 -o¡itgl - ! 
z :::::: -----;======= 
J1 + (1 -o¡itg,)i/(2gl) 
2,01 - 4,03 
-;:::==== = - 1,99 Ji + (2,0l)i/128 
En la

Continuar navegando