Logo Studenta

Cap 3 - Pardo y San Martin - Analisis de datos en psicologia II

¡Este material tiene más páginas!

Vista previa del material en texto

Contraste de hipótesis 
3.1. La lógica del contraste de hipótesis. 
3.1 .1. Las hipótesis estadísticas. 
3.1 .2. Los supuestos. 
3.1 .3. El estadístico de contraste. 
3.1.4. La regla de decisión. 
3.1 .5. La decisión. 
3.2. Errores de tipo 1 y 11. 
3.3. Potencia de un contraste. 
3.4. Nivel crítico y tamaño del efecto. 
3.5. Contrastes bilaterales y unilaterales. 
3.6. Estimación por intervalos y contraste de hipótesis. 
Apéndice 3. 
Curva de potencias. 
Efecto del tamaño de la muestra sobre la potencia. 
Ejercicios. 
3 
Debemos comenzar recordando que el objetivo último del análisis de datos es el 
de extraer conclusiones de tipo general a partir de unos pocos datos particulares. Es 
decir, el de extraer conclusiones sobre las propiedades de una población a partir de 
la información contenida en una muestra procedente de esa población. Ya hemos 
señalado que este salto de lo concreto (la muestra) a lo general (la población) se 
conoce con el nombre de if!ferencia estadística. 
Al comienzo del capítulo anterior hemos hecho referencia a dos formas básicas 
de inferencia estadística: la estimación de parámetros y el contraste de hipótesis. 
Hemos estudiado en ese capítulo lo relativo a la estimación de parámetros, a la que 
hemos caracterizado como el proceso consistente en asignar a las propiedades 
desconocidas de una población las propiedades conocidas de una muestra extraída 
de esa población. En este capítulo vamos a centrar nuestra atención sobre el 
contraste de hipótesis, al que podemos comenzar refiriéndonos como un proceso 
mediante el cual se trata de comprobar si una afirmación sobre alguna propiedad 
poblacional puede ser sostenida a la luz de la información muestra) disponible. 
En realidad, el contraste de hipótesis puede ser entendido como un método de 
toma de decisiones: un contraste de hipótesis, también llamado prueba de significa-
ción o prueba estadística, es un procedimiento que nos permite decidir si una 
proposición acerca de una población puede ser mantenida o debe ser rechazada. 
Como tal, el contraste de hipótesis debe ser ubicado en el propio corazón del 
método científico, formando parte esencial del mismo. Las líneas que siguen aclaran 
esta idea. 
En la investigación psicológica o de otro tipo, es frecuente encontrarse con 
problemas de conocimiento (ciertamente, no todos igual de relevantes) surgidos a 
partir de conocimientos ya existentes o a partir de la observación de nuevas 
situaciones: ¿produce el estímulo a tiempos de reacción más cortos que el estímu-
lo b? ¿Es la técnica terapéutica a más apropiada que la b para aliviar los síntomas de 
los pacientes depresivos? ¿Son los sujetos que se sienten inseguros más agresivos 
que los que se sienten seguros? ¿Rinden los sujetos motivados mejor que los no 
motivados? ¿Qué tipo de interacción entre los miembros de un grupo favorece más 
la eficacia en la resolución de los problemas? ¿Difieren los varones y las mujeres en 
inteligencia?, etc. Estos interrogantes son sólo un pequeño ejemplo de la multitud 
de problemas que se generan en la investigación psicológica. Tales interrogantes 
surgen, en general, en el seno de una teoría que intenta dar cuenta de alguna 
© Ediciones Pirámide 
128 / Análisis de datos en psicología 11 
parcela de la realidad y se plantean con la intención de cubrir alguna laguna 
concreta de conocimiento que esa teoría no cubre o para corroborar una parte o el 
total de esa teoría. 
Surgido el problema, el paso siguiente consiste en aventurar algún tipo de 
solución al mismo. Esta solución provisional suele tomar forma de afirmación 
directamente verificable (es decir, empíricamente contrastable; de no ser así, nos 
moveríamos en el terreno de la especulación y no en el de la ciencia) en la que se 
establece de forma operativa el comportamiento de la variable o las variables 
involucradas en el problema. Esa afirmación verificable recibe el nombre de 
hipótesis cient(fica (ver Pereda, 1987, capítulo 5). Así, ante la pregunta (problema de 
conocimiento) «¿difieren los varones y las mujeres en inteligencia?», podríamos 
aventurar la hipótesis de que «los varones y las mujeres no difieren en inteligencia». 
Por supuesto, deberíamos definir con precisión (operativamente) qué entendemos 
por «inteligencia» y cómo medirla. Sólo entonces nuestra afirmación sería una 
hipótesis científica. 
Hecho esto, estaríamos ya en condiciones de iniciar el proceso de verificación de 
esa hipótesis. Y el proceso de verificación habitualmente utilizado en las ciencias 
empíricas sigue los pasos que en este capítulo vamos a describir bajo la denomina-
ción de contraste de hipótesis 1• 
3.1. La lógica del contraste de hipótesis 
El primer paso del proceso de verificación de una hipótesis consiste en formular 
estadísticamente la hipótesis cient(fica que se desea contrastar; es decir, en transfor-
mar la hipótesis científica en hipótesis estadística. Esto supone que una hipótesis 
científica puede ser formulada en términos de la forma de una o varias distribucio-
nes poblacionales, o en términos del valor de uno o más parámetros de esa o esas 
distribuciones. Así, por ejemplo, la hipótesis científica «los varones y las mujeres no 
difieren en inteligencia» podría formularse, en términos estadísticos, de la siguiente 
manera: µv = µm; es decir: en la población de varones, el promedio µ de la 
distribución de la variable inteligencia es igual al promedio µ de esa misma 
distribución en la población de mujeres. 
Formulada la hipótesis estadística, el segundo paso del proceso de verificación 
consiste en buscar evidencia empírica relevante capaz de informar sobre si la hipótesis 
establecida es o no sostenible. Esto, en general, no resulta demasiado complicado de 
1 Por supuesto, no todas las hipótesis científicas requieren de la utilización del contraste de hipótesis 
para ser verificadas. Recordemos a este respecto lo dicho en la introducción sobre los fenómenos 
deterministas y aleatorios. Una afirmación del tipo «este sujeto posee una inteligencia superior a la 
media» puede ser verificada simplemente observando a ese sujeto. Sin embargo, una afirmación del tipo 
«las personas radicales poseen un nivel intelectual superior a la media» no puede ser verificada 
recurriendo a la observación: dificilmente podríamos observar a todas las personas radicales. Es 
justamente en las situaciones en las que no tenemos acceso a todos los elementos de la población donde 
se hace necesario recurrir a la inferencia estadística (y, por tanto, al contraste de hipótesis) para poder 
verificar una hipótesis científica. 
© Ediciones Pirámide 
Contraste de hipótesis / 129 
conseguir: parece razonable pensar que, si una hipótesis concreta referida a una 
distribución poblacional es correcta, al extraer una muestra de esa población 
debemos encontrarnos con un resultado muestra) similar al que esa hipótesis 
propone para la distribución poblacional. O lo que es lo mismo: una hipótesis será 
compatible con los datos empíricos cuando a partir de ella sea posible deducir o 
predecir un resultado muestra! (un estadístico) con cierta precisión. 
Supongamos que nuestra hipótesis consiste en afirmar que los varones y las 
mujeres no difieren en inteligencia. En términos estadísticos: µv = µm. Si nuestra 
hipótesis es correcta, debemos esperar que, al extraer una muestra aleatoria de la 
población de varones y otra de la de mujeres, las medias observadas X v y X m en 
inteligencia sean similares. Una discrepancia importante entre la afirmación pro-
puesta en nuestra hipótesis y el resultado muestral encontrado puede estar indicado 
dos cosas diferentes: bien nuestra hipótesis es correcta y la discrepancia observada 
es producto de fluctuaciones esperables por azar; bien nuestra hipótesis es incorrec-
ta y, por tanto, incapaz de proporcionarnos predicciones acertadas. La cuestión 
clave que se nos plantea en ese momento es la de determinar cuándo la discrepancia 
encontrada es lo bastante grande como para poder considerarque el resultado 
muestral observado es incompatible con la hipótesis formulada y, en consecuencia, 
para hacernos pensar que esa discrepancia encontrada no es explicable por fluctua-
ciones debidas al azar sino por el hecho de que la hipótesis planteada es incorrecta. 
Necesitamos, y este es el tercer paso del proceso, una regla de decisión. Y esa 
regla de decisión debe establecerse en términos de probabilidad. Si en el ejemplo 
planteado sobre la inteligencia de los varones y de las mujeres pudiéramos trabajar 
con las poblaciones completas de varones y mujeres (es decir, si pudiéramos medir 
la inteligencia de todos los varones y todas las mujeres), no tendríamos que recurrir 
a la teoría de la probabilidad porque tampoco sería necesario efectuar ningún tipo 
de contraste de hipótesis: conoceríamos los valores de µ,, y µm, y sabríamos si son 
iguales o no. Pero la necesidad de trabajar con muestras en lugar de poblacio-
nes nos obliga a establecer una regla de decisión en términos de probabilidad. 
Ahora bien, el número de reglas de decisión que podemos establecer en una 
situación particular es casi ilimitado. Por supuesto, unas reglas serán mejores o más 
útiles que otras y, probablemente, ninguna de ellas será lo bastante buena como 
para resultar de utilidad en todo tipo de situaciones. Afortunadamente, la teoría de 
la decisión se ha encargado de proporcionarnos unos cuantos principios elementales 
que podemos trasladar al contexto del contraste de hipótesis. En general, la regla de 
decisión que utilizaremos será una afirmación de este tipo: si el resultado muestral 
observado es, suponiendo correcta nuestra hipótesis, muy poco probable, considera-
remos que nuestra hipótesis es incompatible con los datos; por el contrario, si el 
resultado muestral observado es, suponiendo correcta nuestra hipótesis, probable, 
consideraremos que nuestra hipótesis es compatible con los datos 2 • 
Imaginemos que deseamos averiguar si un psicólogo posee o no la capacidad de 
detectar, por medio de la escritura, la presencia de trastornos de tipo neuróti\:O. 
2 Sobre el significado de los términos probable y poco probable volveremos más adelante. 
© Ediciones Pirámide 
130 / Análisis de datos en psicología 11 
Podemos formular Ja hipótesis de que «el psicólogo no posee tal capacidad». Si 
nuestra hipótesis es correcta, al presentar al psicólogo un par de muestras de 
escritura, una perteneciente a un sujeto con trastorno y otra perteneciente a uno sin 
trastorno, cabe esperar que éste responda al azar (repetimos: si nuestra hipótesis es 
correcta), por Jo que Ja probabilidad de que acierte será de 0,5. Por el contrario, si 
nuestra hipótesis es incorrecta (y, por tanto, el psicólogo sí posee Ja mencionada 
capacidad), al presentarle el mismo par de muestras de escritura, Ja probabilidad de 
que acierte será mayor de 0,5 (es decir, mayor que Ja probabilidad de acertar por 
azar). Según esto, podemos plantear Ja siguiente hipótesis estadística: 7racierto ~ 0,5 
(es decir, el psicólogo no posee Ja capacidad de diagnosticar a través de Ja escritura). 
Para someter a contraste esa hipótesis podemos presentar, en Jugar de un par de 
muestras de escritura, 10 pares. Si nuestra hipótesis es correcta, debemos encontrar-
nos con no más de 5 aciertos (es decir, con no más de los esperables por azar). Si 
nuestra hipótesis es incorrecta debemos encontrarnos con un número de aciertos 
superior a 5 (es decir, con más de Jos esperables por azar). En consecuencia, un 
número de aciertos de 5 o menos, nos llevará a pensar que Ja hipótesis planteada es 
compatible con Jos datos y a concluir que el psicólogo no posee Ja capacidad de 
diagnosticar a partir de la escritura. Por el contrario, un número de diagnósticos 
correctos superior a 5 nos llevará a pensar GUe Ja hipótesis planteada es incompati-
ble con Jos datos y a concluir que el psicólogo sí posee esa capacidad (pues si 
7raciertos ~ 0,5 es una afirmación incorrecta, entonces Ja afirmación correcta debe ser 
7raciertos > 0,5) 3 · 
Así pues. resumiendo: 
Un contraste de /1ipútesis es un proceso de decisión en el que una hipótesis 
formulada en términos estadísticos es puesta en relación con los datos 
empíricos para determinar si es o no compatible con ellos. 
Acabamos de exponer la lógica general de ese proceso. Ahora vamos a profundi-
zar en esa lógica estudiando más detalladamente cada uno de Jos pasos de que 
consta ese proceso 4 . 
3 Aunque este razonamiento será matizado más adelante, puede servirnos como primera aproxima-
ción a la lógica del contraste de hipótesis. 
4 En la inferencia estadística no existe un único punto de vista. Es frecuente encontrarse con la 
distinción entre el enfoque clásico, en el que se considera que la única información disponible sobre la 
población es la contenida en la muestra, y el enfoque bayesiano, en el que, además de la información 
muestra!, se hace uso de conocimientos previos. Las ideas sobre el contraste de hipótesis, tal como va ser 
expuesto aquí, introducidas inicialmente por Ronald A. Fisher en varios trabajos (1925, entre otros) y 
consolidadas más tarde por Neyman y Pearson (1932, 1933), deben ser enmarcadas dentro del enfoque 
clásico. 
© Ediciones Pirámide 
Contraste de hipótesis / 131 
3.1.1. Las hipótesis estadísticas 
Una hipótesis estadística es una afirmación sobre una o más distribuciones de 
probabilidad; más concretamente, sobre la forma de una o más distribuciones de 
probabilidad, o sobre el valor de uno o más parámetros de esas distribuciones. 
Las hipótesis estadísticas se suelen representar por la letra H seguida de una 
afirmación que da contenido a la hipótesis: 
H: la variable X se distribuye normalmente con µ = 100 y a = 15 
H: n = 0,5 
H: µ ~ 30 
H: Mdn 1 #- Mdn 2 
H: µ1 = µi = µ3 = µ4 
En general, una hipótesis estadística surge a partir de una hipótesis científica. 
Pero entre una hipótesis científica y una hipótesis estadística no existe una corres-
pondencia exacta. La primera proporciona la base para la formulación de la 
segunda, pero no son la misma cosa. Mientras una hipótesis científica se refiere a 
algún aspecto de la realidad, una hipótesis estadística se refiere a algún aspecto de 
una distribución de probabilidad. Esto significa, por ejemplo, que la expresión 
µ,. = µm que hemos presentado anteriormente no es la única formulación estadística 
posióle de la hipótesis científica «los varones y las mujeres no difieren en inteligen-
cia». En lugar del promedioµ, podríamos utilizar el promedio Mdn y establecer esta 
otra formulación estadística: Mdn,. = Mdnm. Y todavía podríamos transformar esa 
hipótesis científica en hipótesis estadística utilizando otras estrategias; por ejemplo: 
F,,(x) = F m(x), es decir, Ja función de distribución de la variable X = «inteligencia» 
es la misma en la población de varones y en la población de mujeres. Lo cual signifi-
ca que, dado un valor cualquiera de la distribución de la variable inteligencia, el 
número de sujetos que hay por debajo de ese valor en la población de los varones es 
el mismo que el número de sujetos que hay por debajo de ese valor en la población 
de las mujeres (lo que implica que los varones y las mujeres no difieren en 
inteligencia). 
Vemos, por tanto, que existen varias formas diferentes de expresar estadística-
mente una hipótesis científica concreta. A lo largo de este capítulo y de los que 
siguen estudiaremos qué hipótesis estadísticas podemos plantear, cómo debemos 
plantearlas y a qué tipo de hipótesis científicas corresponden. De momento, basta 
con saber que el primer paso en el proceso de verificación de una hipótesis consiste 
en formular en términos estadísticos la afirmación contenida en la hipótesis 
científica que se desea verificar. 
Dicho esto, es necesario advertir que, aunque hasta ahora hemos venido 
proponiendo ejemplos en los que hemos formulado una sola hipótesis, lo cierto es 
que todo contraste de hipótesis se hasa en la formulaci<'in de dos hipótesis: 
l. La hipótesis 1111/a.representada por H 0 • 
2. La hipótesis alternatirn. representada por H 1 • 
l · Edu.:mne~ P1ram1de 
132 / Análisis de datos en psicología 11 
La hipótesis nula H 0 es Ja hipótesis que se somete a contraste. Consiste 
generalmente en una afirmación concreta sobre Ja forma de una distribución de 
probabilidad o sobre el valor de alguno de los parámetros de esa distribución 5: 
H 0 : La variable X se distribuye normalmente con µ = 100 y u = 15 
Ho: 7t1 = 7t2 
Ho: µ¡ = µi 
H 0 : p =O 
H 0 : n = 0,5 
La hipótesis alternativa H 1 es Ja negación de Ja nula. H 1 incluye todo Jo que H 0 
excluye. Mientras H 0 suele ser una hipótesis exacta (tal cosa es igual a tal otra), H 1 
suele ser inexacta (tal cosa es distinta, mayor o menor que tal otra): 
H 1: La variable X no se distribuye normalmente con µ = 100 y u = 15 
H1:n1>7t2 
H1:µ1<µ2 
H 1: p#O 
H 1: n < 0,5 
Cuando en H 1 aparece el signo « # », decimos que el contraste es bilateral o 
bidireccional. Cuando en H 1 aparecen Jos signos « < » o « > » decimos que el 
contraste es unilateral o unidireccional. Más adelante trataremos detenidamente 
esta cuestión. 
Las hipótesis nula y alternativa suelen plantearse como hipótesis rivales. Son 
hipótesis exhaustivas y mutuamente exclusivas, Jo cual implica que si una es 
verdadera, Ja otra es necesariamente falsa. Considerando los ejemplos que hemos 
venido comentando, podemos plantear, con Jo que ya sabemos, las siguientes 
hipótesis: 
a) Ho:µv=µm 
H¡: µv "# µm 
b) H o: 1tacierto ~ 0,5 
H 1: 1tacierto > 0,5. 
Las hipótesis a se refieren al ejemplo sobre diferencias en inteligencia entre 
varones y mujeres. La hipótesis nula afirma que Jos varones y las mujeres no 
difieren en inteligencia; Ja hipótesis alternativa afirma que sí existen diferencias. Son 
hipótesis exhaustivas y mutuamente exclusivas. Las hipótesis b se refieren al 
ejemplo del psicólogo capaz de diagnosticar a través de Ja escritura. La hipótesis 
nula afirma que el psicólogo no posee esa capacidad; la hipótesis alternativa afirma 
que sí la posee. También estas dos hipótesis son exhaustivas y mutuamente 
exclusivas. 
~ El nombre de hipótesis nula para la hipótesis que se somete a contraste se debe a que, cuando se 
está trabajando con dos o más parámetros, H 0 suele afirmar que el valor de esos parámetros es el mismo, 
es decir, que la diferencia entre ellos es nula. 
© Ediciones Pirámide 
Contraste de hipótesis / 133 
Conviene no pasar por alto un detalle de especial importancia: el signo « = », 
tanto si va solo (µ. = µm) como si va acompañado (n ~ 0,5), siempre va en la 
hipótesis nula. Según hemos dicho, H0 es la hipótesis que se somete a contraste. 
Esto significa que es a partir de la afirmación concreta establecida en H 0 (y la única 
afirmación concreta establecida es la que corresponde al signo«=») desde donde se 
inicia todo el proceso de contrastación. Es decir, tanto si H 0 es exacta (µ" = µm) 
como si es inexacta (n ~ 0,5), todo el proceso de decisión va a estar basado en un 
modelo probabilístico construido a partir de la afirmación concreta correspondiente 
al signo « = » de H 0 . Ese modelo probabilístico, del que enseguida hablaremos, es 
del que nos vamos a servir más tarde para tomar una decisión respecto a H 0 
(¡siempre respecto a H0 !, como veremos repetidamente). 
3.1.2. Los supuestos 
Para que una hipótesis estadística pueda predecir un resultado muestral con 
cierta exactitud es necesario, en primer lugar, que la distribución poblacional con la 
que se va a trabajar esté completamente especificada. Por ejemplo, hipótesis del 
tipo: 
H: La variable X se distribuye normalmente con µ = 100 y u= 15 
H: n = 0,5 
son hipótesis que especifican por completo las distribuciones poblacionales a las 
que hacen referencia. La primera hipótesis define una distribución normal con 
parámetros conocidos. La segunda hipótesis permitiría especificar por completo una 
distribución binomial una vez establecido el tamaño de la muestra. A este tipo de 
hipótesis se les llama simples. 
Las hipótesis en las que la distribución poblacional no queda completamente 
especificada reciben el nombre de compuestas. Hipótesis del tipo: 
H: La variable X se distribuye normalmente con µ = 100 
H: n < 0,50 
son hipótesis compuestas pues en ninguna de ellas quedan completamente especifi-
cadas las distribuciones poblacionales a las que hacen referencia. La primera 
hipótesis define una distribución normal con media conocida pero con varianza 
desconocida. La segunda hipótesis, referida a una distribución binomial, no define 
una única distribución sino muchas diferentes. 
Lo ideal, por supuesto, sería poder plantear, siempre, hipótesis nulas simples, 
pues eso nos permitiría definir con precisión la distribución poblacional a partir de 
la cual se efectuarán las predicciones muestrales. Pero ocurre que ni los intereses del 
investigador se corresponden siempre con el contenido de una hipótesis simple, ni 
en todas las situaciones resulta posible formular hipótesis de ese tipo. Esto significa 
que, con frecuencia, la hipótesis nula plateada no será simple, sino compuesta. Lo 
cual nos obligará a establecer un conjunto de supuestos que, junto con la hipótesis, 
permitan especificar por completo la distribución poblacional de referencia. Sólo 
© Ediciones Pirámide 
134 / Análisis de datos en psicología 11 
entonces será posible predecir con cierta precisión qué es lo que podemos encon-
trarnos al extraer una muestra aleatoria de esa población. 
Un ejemplo sencillo nos ayudará a comprender mejor estas ideas. Supongamos 
que deseamos contrastar la hipótesis nula H 0 : µ = 30 frente a la alternativa H 1 : 
µ -:f. 30. En la hipótesis nula se hace referencia a una distribución poblacional con 
media 30, pero nada más; nada sabemos sobre su forma ni sobre su varianza. Para 
tomar una decisión respecto al valor de µ necesitamos recurrir a la evidencia 
muestral. En concreto, necesitamos extraer una muestra de tamaño n y calcular el 
valor de X. Si el valor de X es parecido a 30, diremos que la hipótesis nula 
planteada es compatible con los datos. Pero si el valor de X es muy diferente de 30 
diremos que la hipótesis nula es incompatible con los datos. Ahora bien, para 
decidir cuándo el valor tomado por X es lo bastante parecido a 30 debemos 
establecer, según veremos enseguida, una regla de decisión en términos de probabili-
dad. Y, según sabemos ya, para conocer las probabilidades asociadas a los diferen-
tes valores de X debemos servirnos de la distribución muestral de X. Esa distribu-
ción muestral es normal con parámetros µ y u/Jn. Como desconocemos u, pues 
nada se ha dicho de ella en la hipótesis, tendremos que estimarla, en cuyo caso la 
transformación T = (X - µ)/(S" _ d Jn) seguirá el modelo de probabilidad t de 
Student con n - 1 grados de libertad 6 ; de modo que la transformación T nos 
permitirá conocer las probabilidades asociadas a los diferentes valores de X. Ahora 
bien, para poder utilizar esa transformación, es decir, para que la transformación T 
se distribuya según la t de Student, es necesario que la distribución poblacional de 
partida sea normal y que la muestra utilizada para obtener X sea aleatoria. Y dado 
que nada de eso está afirmado en H 0 , necesitamos formularlo como supuesto. Sólo 
de este modo la distribución poblacional de partida quedará completamente 
especificada: se tratará de una distribución normal, con parámetros µ = 30 y u 
desconocida pero estimada a partir del valor tomado por sn - 1 en una muestra 
aleatoria extraída de esa población. Bajo estas condiciones, la distribución muestral 
de X es conocida y, por tanto, susceptible de ser utilizada para tomar una decisión 
sobre H 0 en términos de probabilidad. 
Otro ejemplo. Recordemos al psicólogo supuestamente capaz de detectar 
trastornos de tipo neurótico a través de la escritura. Para verificar si el psicólogo 
posee o no esa capacidad, planteábamos las hipótesis estadísticas: H 0 : nacierto ~ 0,5; 
H 1: 1tacierto > 0,5. Y para contrastarestas hipótesis presentábamos al psicólogo 1 O 
pares de muestras de escritura. Pues bien, si los 1 O pares de muestras de escritura se 
presentan de forma independiente y en cada presentación sólo hay dos resultados 
posibles (acierto-error) con 1tacierto = 0,5 en cada presentación, la variable número de 
aciertos tendrá una distribución de probabilidad completamente especificada 7 (la 
binomial, con parámetros n = 10 y n = 0,5) y eso nos permitirá poder tomar una 
decisión respecto a H 0 en términos de probabilidad. 
Vemos, por tanto, que los supuestos de un contraste de hipótesis hacen referen-
6 Puede consultarse, en el capítulo 1, el apartado 1.3.2 sobre la distribución muestra! de la media. 
7 Puede consultarse, en el capítulo 1, el apartado 1.3.4 sobre la distribución muestra! de la 
proporción. 
© Ediciones Pirámide 
Contraste de hipótesis / 135 
cia al conjunto de condiciones que deben cumplirse para poder tomar una decisión 
sobre la hipótesis nula H 0 basada en una distribución de probabilidad conocida. 
Pero ese conjunto de condiciones que hemos necesitado establecer no se refieren 
únicamente a la distribución poblacional de partida. También hacen referencia a 
ciertas características de los datos muestrales: si la muestra es aleatoria .... si las 
presentaciones son independientes ... Esto significa que, para apoyar nuestra decisión 
en una distribución de probabilidad conocida, necesitamos, por un lado, especificar 
por completo la distribución poblacional a partir de la cual se establecen las 
predicciones formuladas en H 0 (normalidad, simetría, etc.) y, por otro, definir las 
características de los datos con los que se contrastarán esas predicciones (muestra 
aleatoria, nivel de medida, etc). 
Resumiendo: 
Los supuestos de un contraste de hipótesis son un conjunto de afirmaciones 
que necesitamos establecer (sobre la población de partida y sobre la muestra 
utilizada) para conseguir determinar la distribución de probabilidad en la que 
se basará nuestra decisión sobre H 0 . 
Algunos de estos supuestos son más restrictivos o exigentes que otros. Para 
contrastar la hipótesis H 0 : µ = 30 del primer ejemplo comentado hemos necesitado 
suponer que la distribución poblacional de partida era normal y que la muestra 
extraída de ella era aleatoria. Sin embargo, para contrastar la hipótesis H 0 : 
1tacierto :::;; 0,5 del segundo ejemplo, sólo hemos necesitado suponer que las 1 O 
presentaciones eran independientes (muestra aleatoria de 10 elementos) y que la 
probabilidad de acierto en cada presentación era la misma (1tacierto = 0,5). Es más 
difícil conseguir que se cumplan los supuestos necesarios para contrastar H 0 : 
µ = 30 que los necesarios para contrastar 1tacierto = 0,5 y, en ese sentido, decimos de 
los supuestos del primer contraste que son mas restrictivos o exigentes que los del 
primero. 
Es importante tener presente que el incumplimiento de uno o varios supuestos 
podría invalidar el contraste y llevarnos a una decisión errónea. Conviene, por 
tanto, que los supuestos sean pocos y poco exigentes. Aun así, en muchas ocasiones 
nos veremos en la necesidad de establecer varios y muy exigentes. No obstante, 
veremos que existen procedimientos para comprobar el cumplimiento de la mayor 
parte de los supuestos que necesitemos establecer. 
3.1.3. El estadístico de contraste 
Un estadístico de contraste es un resultado muestra! que cumple la doble 
condición de 1) proporcionar información empírica relevante sobre la afirma-
ción propuesta en la hipótesis nula y 2) poseer una distribución muestra! 
conocida. 
~;) Ediciones Piramide 
1 36 / Análisis de datos en psicología 11 
Si la hipótesis que deseamos contrastar es H 0 : µ = 30, debemos recurrir a un 
estadístico que sea capaz de detectar cualquier desviación empírica de la afirmación 
establecida en H 0 • Obviamente, ni Sn, ni P. ni r _,,,, por citar algunos estadísticos 
conocidos, nos proporcionarán información relevante sobre µ. Para contrastar la 
hipótesis H 0 : µ = 30, lo razonable será utilizar la información muestra) proporcio-
nada por el estadístico X. Del mismo modo, si la hipótesis que deseamos contrastar 
es H 0 : 7t ~ 0,5, lo razonable será recurrir a un estadístico que pueda proporcionar-
nos información relevante sobre n, por ejemplo, X = «número de aciertos», o 
P = «proporción de aciertos», etc. 
La segunda condición que debe cumplir un resultado muestral para poder ser 
utilizado como estadístico de contraste es la de poseer una distribución muestra/ 
conocida. Un estadístico, no lo olvidemos, es una variable aleatoria y, como tal, 
tiene su propia función de probabilidad a la que denominamos distribución 
muestral. Es precisamente en la distribución muestra) del estadístico de contraste en 
la que nos vamos a apoyar para tomar una decisión respecto a H 0 en términos de 
probabilidad. 
Por tanto, una vez planteadas las hipótesis, es necesario seleccionar el estadísti-
co de contraste capaz de proporcionarnos información relevante sobre ellas y 
establecer los supuestos necesarios para conseguir determinar la distribución 
muestra) de ese estadístico. En nuestro ejemplo sobre el psicólogo supuestamente 
capaz de diagnosticar trastornos de tipo neurótico a través de la escritura habíamos 
planteado las siguientes hipótesis: H 0 : 1tacierto ~ 0,5; H 1: 1tacierto > 0,5. Existen dos 
estadísticos (en realidad los dos son el mismo, pues uno es transformación lineal del 
otro) capaces de proporcionarnos información relevante sobre las hipótesis plantea-
das (utilizaremos T para referirnos, de forma genérica, a un estadístico de contraste 
cualquiera): 
T 1 =X (número de aciertos o de diagnósticos correctos) 
T 2 = P (proporción de aciertos o de diagnósticos correctos) 
Suponiendo, según hemos señalado antes, que las presentaciones de los to pares 
de muestras de escritura son independientes y que la probabilidad de cada uno de 
los dos resultados posibles (acierto-error) es la misma en cada presentación, 
la distribución muestral de las variables o estadísticos de contraste X y P será la 
binomial con parámetros n = 10 y n = 0,5. Según esto, la probabilidad asociada 
a cada uno de los valores de X y P (tabla 3.1) vendrá dada por la función 8 : 
8 Por supuesto, las probabilidades asociadas a los estadisticos X y P también pueden obtenerse a 
partir de la tabla de la distribución binomial, con n = 10 y n: = 0,5, sin necesidad de realizar cálculos. 
© Ediciones Pirámide 
Contraste de hipótesis / 137 
TABLA 3.1 
Distribución muestra/ de X y P 
con n = 0,5 y n = l O 
X p f(x) 
o 0,0 0,001 
1 0,1 0,010 
2 0,2 0,044 
3 0,3 0,117 
4 0,4 0,205 
5 0,5 0,246 
6 0,6 0,205 
7 0,7 0,117 
8 0,8 0,044 
9 0,9 0,010 
10 1,0 0,001 
La distribución muestra! de X o de P (tabla 3.1) nos proporciona la probabili-
dad asociada a cada uno de sus posibles valores bajo H 0 : n = 0,5. Vemos, por 
ejemplo, que la probabilidad de encontrarnos, suponiendo n = 0,5, con 10 aciertos 
(es decir, con X = 10, o P = 1) vale 0,001. Y vemos también, por ejemplo, que la 
probabilidad de encontrarnos con 9 aciertos o más (es decir, con X ~ 9, o P ~ 0,9), 
siempre suponiendo n = 0,5, vale 0,010 + 0,001 = 0,011. En estas probabilidades 
nos apoyaremos más tarde para tomar una decisión respecto a H 0 . 
Así pues, los estadísticos X y P sirven como estadísticos de contraste para poner 
a prueba la hipótesis H 0 : 1tacierto:;;;; 0,5 porque ambos cumplen las condiciones 
exigidas a un estadístico de contraste: l) proporcionan información relevante sobre 
H 0 y 2) su distribución muestra! es conocida. 
3.1.4. La regla de decisión 
La regla de decisión es el criterio que vamos a utilizar para decidir si la hipótesis 
nula planteada debe o no ser rechazada. Este criterio se basa en la partición de la 
distribución muestra! del estadístico de contraste en dos zonas mutuamente exclusi-
vas: la zona de rechazo y la zona de aceptación. 
La zona de rechazo, también llamada zona crítica, es el área de la distribución 
muestra) quecorresponde a los valores del estadístico de contraste que se encuen-
tran tan alejados de la afirmación establecida en H 0 , que es muy poco probable que 
ocurran si H 0 , como se supone, es verdadera. Su probabilidad es oc, valor al que ya 
en el capítulo anterior hemos llamado nivel de significación o nivel de riesgo. 
La zona de aceptación es el área de la distribución muestra! que corresponde a 
© Ediciones Pirámide 
138 / Análisis de datos en psicología 11 
los valores del estadístico de contraste próximos a la afirmación establecida en H 0 . 
Es, por tanto, el área correspondiente a los valores del estadístico de contraste que 
es probable que ocurran si H 0 , como se supone, es verdadera. Su probabilidad es 
1 - tx, valor al que ya en el capítulo anterior hemos llamado nivel de confianza. 
Definidas las zonas de rechazo y aceptación: 
La 1'eyla de decisión consiste en reclw::ar H 0 si el estadístico de contraste toma 
un valor perteneciente a la zona de rechazo o crítica; mantener H 0 si el 
estadístico de contraste toma un valor perteneciente a la zona de aceptación. 
Así pues, se rechaza una hipótesis sometida a contraste cuando el valor del 
estadístico de contraste cae en la zona crítica; y se rechaza porque eso significa que 
el valor tomado por el estadístico de contraste se aleja demasiado de la predicción 
establecida en esa hipótesis, es decir, porque, si la hipótesis planteada fuera 
verdadera, el estadístico de contraste no debería haber tomado ese valor (sería muy 
poco probable que lo tomara); como de hecho el estadístico ha tomado ese valor, la 
conclusión más razonable será que la hipótesis planteada no es verdadera. 
El tamaño de las zonas de rechazo y aceptación se determina fijando el valor de 
tx, es decir, fijando el nivel de significación con el que se desea trabajar. Por 
supuesto, si tenemos en cuenta que tx es la probabilidad que vamos a considerar 
como lo bastante pequeña para que valores con esa probabilidad o menor no 
ocurran bajo H 0 verdadera, comprenderemos que tx será, necesariamente, un valor 
pequeño. Cómo de pequeño es algo que debe establecerse de forma arbitraria 9 , si 
bien los niveles de significación habitualmente propuestos para :x en la literatura 
estadística y utilizados en la investigación empírica son 0,01 y 0,05 (también 
referidos como 1 por 100 y 5 por 100, respectivamente). 
Recordemos ahora que, dependiendo de cómo formulemos H 1 • los contrastes de 
hipótesis pueden ser bilaterales o unilaterales: 
l. Contraste bilateral: H 0 : µ .. = µm 
H1: µ,. # µm 
2. Contraste unilateral: H 0 : 1tacierto ~ 0,5 
H 1: 1tacierto > 0,5. 
La forma de dividir la distribución muestra! en zona de rechazo o crítica y zona 
de aceptación depende de si el contraste es bilateral o unilateral. La zona crítica 
debe estar situada allí donde puedan aparecer los valores muestrales incompatibles 
con H 0 , es decir, allí donde puedan aparecer los valores muestrales que apunten en 
la dirección propuesta en H 1• Así, en el contraste 1, dada la afirmación establecida 
en H 1, la zona crítica debe recoger tanto los valores muestrales que vayan en la 
" En ocasiones, no tan arbitrariamente. Más adelante veremos que, en todo contaste, pueden 
cometerse dos tipos de errores. Pues bien, hay ocasiones en que el nivel de significación :x conviene fijarlo 
buscando minimizar la probabilidad de comerter uno de esos dos errores. 
© Ediciones Pirámide 
Contraste de hipótesis / 139 
dirección X,. - Xm >O, como los que vayan en la dirección X,. - Xm <O. Dicho de 
otra forma: si H 0 : µ,, = µm es falsa, lo será tanto si µ,. es mayor que µm como si µ,. es 
menor que µm, por lo que la zona crítica deberá recoger ambas posibilidades. Por 
esta razón, en los contrastes bilaterales, la zona crítica se encuentra, generalmente 10 , 
repartida a partes iguales entre las dos colas de la distribución muestra/ (figura 3.1.A). 
A B 
Figura 3.1.--Ejemplo de zonas críticas en un contraste bilateral (figura A) y un contraste unilateral 
derecho (figura B) con una distribución muestra! de forma normal. 
En el contraste 2, por el contrario, los únicos valores muestrales incompatibles 
con H0 serán los que vayan en la dirección P > 0,5, que es la dirección apuntada en 
H 1. Los valores muestrales que estén por debajo de P = 0,5 no serán incompati-
bles con H 0 y la zona crítica deberá reflejar esta circustancia quedando ubicada en 
la cola derecha de la distribución muestral. Por tanto, en los contrastes unilaterales, 
la zona crítica se encuentra en una de las dos colas de la distribución muestra[ (figu-
ra 3.1.B). 
Según esto, las reglas de decisión para cada uno de estos dos contrastes (para el 
referido a las diferencias en inteligencia entre varones y mujeres, y el referido al 
psicólogo capaz de diagnosticar a través de la escritura) pueden concretarse de la 
siguiente manera: 
1. Rechazar H 0 : µ,, = µm si el estadístico de contraste cae en la zona crítica, es 
decir, si toma un valor mayor que el percentil 100(1 - a./2) o menor que el 
percentil IOO(a./2) de su distribución muestral. 
O bien: rechazar H 0 : µv = µm si el estadístico de contraste toma un valor 
tan grande o tan pequeño que la probabilidad de obtener un valor tan 
extremo o más que ése es menor que a./2. 
2. Rechazar H 0 : 1tacierto ~ 0,5 si el estadístico de contraste cae en la zona 
crítica, es decir, si toma un valor mayor que el percentil 100(1 - a.) de su 
distribución muestral. 
O bien: rechazar H 0 : 1tacierto ~ 0,5 si el estadístico de contraste toma un 
valor tan grande que la probabilidad de obtener un valor como ése o mayor 
es menor que a.. 
1 0 Decimos generalmente porque. dependiendo del tipo de distribución muestra! que utilicemos, nos 
encontraremos con excepciones a esta regla. 
© Ediciones Pirámide 
140 / Análisis de datos en psicología 11 
3.1 .5. La decisión 
Planteada la hipótesis, formulados los supuestos, definido el estadístico de 
contraste y su distribución muestral, y establecida la regla de decisión, el paso 
siguiente consiste en obtener una muestra aleatoria de tamaño n, calcular el 
estadístico de contraste y tomar una decisión. Tal decisión, ya lo sabemos, se toma, 
siempre, respecto a H 0 , y consiste en rechazarla o mantenerla de acuerdo con el 
valor tomado por el estadístico de contraste y las condiciones establecidas en la 
regla de decisión: si el estadístico de contraste cae en la zona crítica, se rechaza H 0 ; si 
el estadístico de contraste cae en la zona de aceptación, se mantiene H 0 . 
La decisión, así planteada, parece no revestir ningún tipo de problema. Pero eso 
no es del todo cierto. Conviene resaltar un aspecto importante de este proceso de 
decisión que no siempre es adecuadamente tenido en cuenta en la investigación 
empírica. Una decisión, en el contexto del contraste de hipótesis, siempre consis-
te en rechazar o mantener una H 0 particular. Si la rechazamos, estamos afirmando 
que esa hipótesis es falsa; es decir, estamos afirmando que, basándonos en argu-
mentos probabilísticos, hemos conseguido probar que esa hipótesis es falsa. Por el 
contrario, si la mantenemos, no estamos afirmando, ni mucho menos, que hemos 
probado que esa hipótesis es verdadera; simplemente estamos afirmando que no 
disponemos de evidencia empírica suficiente para rechazarla y que, por tanto, po-
demos considerarla compatible con los datos 11 . Así pues: 
Cuando decidimos mantener una hipótesis nula, queremos significar con ello 
que consideramos que esa hipótesis es compatible con los datos. 
Cuando decidimos rehazar una hipótesis nula, queremos significar con ello 
que consideramos probado que esa hipótesis es falsa. 
La razón de que esto sea así es doble. Por un lado, dada la naturaleza 
inespecífica de H 1 , raramente es posible afirmar que H 1 no es verdadera; las 
desviaciones pequeñas de H 0 forman parte de H 1 • por lo que al mantener una H 0 
particular, también se están manteniendo, muy probablemente, algunos valores de 
H 1; debe concluirse, portanto, que se mantiene o no rechaza H 0 , pero nunca que se 
acepta como verdadera. Por otro lado, en el razonamiento estadístico que lleva a la 
toma de una decisión respecto a H 0 , puede reconocerse el argumento deductivo 
modus tollens, aunque de tipo probabilístico: si H 0 es verdadera, entonces, muy 
probablemente. el estadístico de contraste T tomará valores comprendidos entre a y b; 
T no toma un valor comprendido entre a y b; luego, muy probablemente, H 0 no es 
verdadera. Este argumento es impecable, nada hay en él que lo invalide desde el 
11 El propio Fisher mantendría una postura más radical en este punto: si una hipótesis sometida a 
contraste no puede ser rechazada, debemos suspender el juicio, no decidir nada, porque nada podemos 
probar sobre esta hipótesis (Fisher, 1955). 
© Ediciones Pirámide 
Contraste de hipótesis / 141 
punto de vista lógico. Sin embargo, si una vez establecida la primera premisa se 
continúa de esta otra manera: T toma un valor comprendido entre a y b; luego H 0 , 
muy probablemente, es verdadera, se comete un error lógico llamado falacia de la 
afirmación del consecuente: obviamente, T puede haber tomado un valor comprendi-
do entre a y b por razones diferentes de las contenidas en H0 12 . 
Estas ideas proporcionan una valiosa pista a la hora de decidir cómo plantear 
las hipótesis nula y alternativa en un contraste concreto. Si estamos interesados en 
determinar si una afirmación sobre una distribución poblacional es falsa, debemos 
plantear esa afirmación como hipótesis nula; así, si la rechazamos, podremos 
concluir que hemos probado que esa hipótesis es falsa. Si, por el contrario, estamos 
interesados en determinar si esa afirmación es verdadera, debemos plantearla como 
hipótesis alternativa; así, si rechazamos la hipótesis nula, lo haremos en favor de la 
alternativa (pues la hipótesis alternativa es, recordémoslo, la negación de la nula). 
Todo esto sin olvidar que el signo « = » siempre debe ir en la hipótesis nula. 
EJEMPLO 3.1. Al describir cada uno de los pasos de que consta un contraste de 
hipótesis hemos comentado, entre otros, un ejemplo referido a un psicólogo supuesta-
mente capaz de diagnosticar trastornos de tipo neurótico a través de la escritura. 
Vamos a utilizar ahora ese mismo ejemplo para resumir los pasos descritos. 
Supongamos que presentamos al psicólogo los 10 pares de muestras de escritura 
(recordemos que en cada par de muestras de escritura el psicólogo debe decidir cuál de 
las dos escrituras corresponde al paciente con trastornos de tipo neurótico) y que éste 
consigue efectuar un diagnóstico correcto en 7 de ellos. Con este resultado muestra), 
¿qué podemos concluir sobre la supuesta capacidad del psicólogo? 
l. Hipótesis: 
H 0 : 1tacierto :::;; 0,5. (H 0 : el psicólogo no posee capacidad de diagnóstico). 
H 1: 1tacierto > 0,5. (H 1: el psicólogo posee capacidad de diagnóstico). 
2. Supuestos: 
- 1 O ensayos independientes con dos resultados posibles en cada ensayo: acierto 
y error. 
- La probabilidad de cada resultado permanece constante en cada ensayo; en 
concreto, 1tacierto = 1terror = 0,5. 
12 Este punto de vista, por otra parte, es perfectamente coherente con el comúnmente aceptado por 
los filósofos de la ciencia sobre la verificación de una hipótesis científica: nunca podemos afirmar la 
verdad de una hipótesis o teoría científica; podemos, simplemente, sentirnos más seguros de ella a medida 
que se va mostrando repetidamente conforme con la evidencia empírica; en realidad, sólo podemos 
considerarla como provisionalmente verdadera (Popper, 1982; Hempel, 1984; etc.). De ahí que la labor 
investigadora deba ir más orientada hacia la falsación o refutación de teorías que hacia la verificación de 
las mismas (sobre esta temática puede consultarse la discusión de Klayman y Ha, 1987). 
© Ediciones Pirámide 
142 / Análisis de datos en psicologla 11 
3. Estadístico de contraste y distribución muestra): 
T = número de aciertos = 7. 
T se distribuye según el modelo binomial con parámetros n = 10 y n = 0,5. 
4. Regla de decisión: 
Rechazar H0 si T toma un valor tan grande que la probabilidad de obtener un 
valor como ése o mayor es menor que :x. 
Los valores habituales de :x son, según hemos señalado, 0,05 y 0,01. Pero en 
este ejemplo concreto, por sencillez (y por conveniencia, según veremos más tarde 
al estudiar el concepto de potencia), vamos a fijar un :x de 0,011. Fijar un :x de 
0,011 equivale a establecer la siguiente regla de decisión: rechazar H 0 si T toma un 
valor igual o mayor que 9 (ver la distribución muestra) de Ten el apartado 3.1.3). 
5. Decisión: 
Dado que en la muestra de 10 presentaciones hemos obtenido 7 aciertos y que 
7 es menor que 9 (o, de otro modo, dado que la probabilidad de obtener valores 
mayores o iguales que 7 vale 0,172 y que 0,172 es mayor que :x = 0,011), debemos 
tomar la decisión de mantener H 0 • 
Podemos concluir que no disponemos de evidencia empírica suficiente para 
rechazar H 0 ; por lo que no podemos pensar que el psicólogo posea la capacidad 
de diagnosticar correctamente trastornos de tipo neurótico a través de la escritura. 
A pesar de que 7 aciertos son más de los que cabría esperar por puro azar (cabría 
esperar 5), es un número de aciertos cuya probabilidad de ocurrencia, suponiendo 
n = 0,5, es mayor que el riesgo que nosotros estamos dispuestos a asumir en nuestra 
decisión. Es decir, respondiendo al azar, la probabilidad de obtener 7 o más aciertos es 
mayor que 0,05, por lo que podemos pensar que ese resultado es compatible (puede 
ocurrir) si la hipótesis n :o::; 0,5 es verdadera. 
(A lo largo de las páginas que siguen volveremos repetidamente sobre este ejemplo; 
presentaremos además gráficos de diferente tipo que nos ayudarán a entender mejor 
cada uno de los pasos seguidos.) 
EJEMPLO 3.2. Algunos trabajos sobre memoria icónica indican que el promedio 
de letras recordadas en presentación taquistoscópica de 1 segundo, por un sujeto 
normal, es de 4,5, con una desviación típica de 1,4. Sin embargo, los trabajos que se 
vienen realizando en la Universidad Autónoma de Madrid no parecen estar de 
acuerdo con esa hipótesis. Deseamos, por tanto, contrastar la hipótesis 11 = 4,5. Para 
ello. hemos seleccionado una muestra aleatoria de 25 sujetos y. tras presentarles un 
conjunto de letras por taquistoscopio. hemos encontrado un promedio de palabras 
recordadas de 5,1. Utilizando un nivel de significación de :x = 0,05, ¿a qué conclusión 
llegaremos? 
1. Hipótesis: 
H 0 : µ = 4,5. 
H 1: µ '# 4,5 (contraste bilateral). 
© Ediciones Pirámide 
Contraste de hipótesis / 143 
2. Supuestos: 
El estadístico de contraste capaz de proporcionarnos información relevante 
sobre µ es X. Debemos, por tanto, establecer las condiciones necesarias para 
conocer la distribución muestra( de X: 
- La variable número de palabras recordadas se distribuye normalmente en la 
población. 
- La muestra de 25 observaciones es aleatoria. 
3. Estadístico de contraste y distribución muestra(: 
- Z =(X - µ)/(u/Jn) =:> z = (5,1 - 4,5)/(l,4/j25) = 2,14. 
- Z se distribuye según la normal estandarizada N(O, 1 ). 
4. Regla de decisión: 
Rechazar H 0 si el estadístico de contraste Z toma un valor mayor que el per-
centil 100(1 - '1./2) = 100(1 - 0,025) = 97,5 o menor que el percentil 100('1./2) = 
= 100(0,025) = 2,5 de la distribución N(O, 1 ), es decir, un valor mayor que 1,96 o 
menor que -1,96. 
5. Decisión: 
Dado que z = 2,14 es mayor que 1,96, debemos rechazar H 0 y concluir que el 
promedio de letras recordadas es distinto de 4,5. La figura 3.2 nos ilustra la 
situación. 
z = 2,14 
z,12 = -1,96 Z1 -2/2 = 1,96 
Figura 3.2.-Probabilidades asociadas a los puntos críticos correspondientes a un nivel de 
confianza de 0,95 en la distribución normal estandarizada. 
3.2. Errores de tipo 1 y 11 
Según acabamos de ver, todo contraste de hipótesis desemboca en una decisión 
consistente en mantener o rechazar la H 0 planteada. La realidad también es doble: 
H 0puede ser verdadera o puede ser falsa. Si H 0 es verdadera y la mantenemos, 
© Ediciones Pirámide 
144 / Análisis de datos en psicología 11 
estaremos tomando una decisión correcta; si es falsa y la rechazamos, también esta-
remos tomando una decisión correcta. Pero si H 0 es verdadera y la rechazamos, 
estaremos cometiendo un error; e igualmente estaremos cometiendo un error si H 0 
es falsa y la mantenemos. 
Llamamos error de tipo I al que se comete cuando se decide rechazar una H0 
que en realidad es verdadera. La probabilidad de cometer ese error es :x. 
Llamamos error de tipo 11 al que se comete cuando se decide mantener una 
H0 que en realidad es falsa. La probabilidad de cometer ese error es ff. 
Por tanto, 1 - :x será la probabilidad de tomar una decisión correcta cuando H 0 
es verdadera. Y 1 - f3 será la probabilidad de tomar una decisión correcta cuando 
H 0 es falsa. El siguiente cuadro resume estas ideas: 
Naturaleza de Ha 
Verdadera Falsa 
Decisión correcta Error tipo 11 
Mantener Ha p = 1 - IX P=P 
Decisión 
Error tipo 1 Decisión correcta 
Rechazar Ha P= IX P=l-P 
La probabilidad de cometer un error de tipo 1 con nuestra decisión es una 
probabilidad conocida, pues el valor de IX lo fija el propio investigador. Sin 
embargo, la probabilidad de cometer un error de tipo 11, es decir, {3, es un valor 
desconocido que, en un contraste concreto, depende de tres factores: 1) la verdadera 
H 1, 2) el valor de IX y 3) el tamaño del error típico de la distribución muestra! 
utilizada para efectuar el contraste. 
La figura 3.3 puede ayudarnos a comprender estas ideas. En ella están represen-
tadas las áreas correspondientes a cada una de las probabilidades descritas en el 
cuadro anterior. Se trata de una situación hipotética referida a un contraste 
unilateral derecho sobre el parámetroµ (con H0 : µ = µ0 yH 1: µ = µ 1) utilizando la 
información muestra! proporcionada por el estadístico X, cuya distribución mues-
tra! es normal. La situación es fácilmente trasladable a otras distribuciones muestra-
les con una forma diferente. 
La curva de la izquierda representa la distribución muestra! de la media 13 bajo 
1 3 La probabilidad asociada a una media cualquiera en su distribución muestra( es la misma que la 
asociada a su correspondiente puntuación típica en la distribución N(O, 1) o t.- 1• En términos de 
probabilidad. por tanto, es equivalente hablar de la distribución muestra( de la media y de la distribución 
muestra( de la media tipificada. 
© Ediciones Pirámide 
Contraste de hipótesis / 145 
Zona de aceptación Zona de rechazo 
Figura 3.3. -Áreas correspondientes a las probabilidades !X, p, 1 - :x y 1 - p en un contraste unilateral 
derecho sobre el parámetro µ. 
H0 : µ = µ 0 (µ 0 se refiere a un valor concreto cualquiera). En la cola derecha de esa 
curva (recordemos que estamos hablando de un contraste unilateral derecho) 
se encuentra, marcada con rayas inclinadas, la probabilidad de cometer un error de 
tipo 1: :x. Es decir, la zona de rechazo. Todo lo que en esa curva no es zona 
de rechazo es zona de aceptación; su probabilidad: 1 - :x. Ambas zonas, la de rechazo 
y la de aceptación, se encuentran separadas por una línea vertical. Cualquier valor 
muestra) X perteneciente a la zona situada a la derecha de esa línea nos llevará a 
tomar la decisión de rechazar H 0 ; por el contrario, cualquier valor muestra) X 
perteneciente a la zona situada a la izquierda de esa línea nos llevará a tomar la 
decisión de mantener H 0 • 
La curva de la derecha representa la distribución muestral de la media para una 
hipótesis alternativa concreta: H 1: µ = µ 1 (µ 1 se refiere a un valor concreto 
cualquiera mayor que µ 0 ). En la cola izquierda de esa curva se encuentra, marcada 
con líneas horizontales, el área {J, es decir, la probabilidad de cometer un error de 
tipo 11 (la probabilidad de que, siendo H 1 la hipótesis verdadera, obtengamos 
valores muestrales X que nos lleven a mantener H0 ). La zona que se encuentra a la 
derecha de la línea vertical es l - p, es decir, la probabilidad de rechazar una 
hipótesis nula que en realidad es falsa. Lógicamente, siendo el contraste unilateral 
derecho, la hipótesis alternativa afirmará H 1: µ > µ0 , es decir, la hipótesis alternati-
va atribuirá diferentes valores al parámetro µ, todos ellos mayores que µ0 . Cada 
uno de esos valores atribuidos a µ en H 1 permitirá generar una distribución 
muestra) concreta para X. Y aunque todas esas distribuciones muestrales tendrán la 
misma forma, unas estarán más alejadas que otras de la curva de H 0 , es decir, unas 
serán distintas de otras únicamente en el valor asignado a µ. Según esto, fJ tomará 
diferentes valores dependiendo del valor concreto considerado de entre los afirma-
dos por H 1. Por lo que existirá toda una familia de valores fJ dependiendo del valor 
© Ediciones Pirámide 
146 / Análisis de datos en psicología 11 
concreto µ 1 que consideremos. Fijándonos en la figura 3.3 podremos comprobar 
que, cuanto más se aleje el valor µ 1 de µ 0 , más hacia la derecha se desplazará la 
curva H 1 y, en consecuencia, más pequeña se hará el área fJ (permaneciendo todo lo 
demás constante). Y al contrario, cuanto más se aproxime µ 1 a µ 0 , más hacia la 
izquierda se desplazará la curva H 1 y más grande se hará el área fJ (permaneciendo 
todo lo demás igual). El valor de {J, por tanto, depende, en primer lugar, de la 
hipótesis alternativa que consideremos verdadera, es decir, del valor concreto µ 1 
que consideremos verdadero dentro de todos los afirmados por H 1. Comparando 
las figuras 3.3 y 3.4 comprenderemos mejor esta idea. En la figura 3.4 hemos 
tomado un valor µ 1 más próximo a µ0 que en la figura 3.3. Como consecuencia 
directa de ese cambio, el valor de fJ ha aumentado de forma considerable. 
Zona de aceptación Zona de rechazo 
Figura 3.4.~Áreas correspondientes a las probabilidades !X, p, 1 - !X y 1 - P en un contraste unilateral 
derecho sobre el parámetro µ. 
Una vez seleccionado un valor concreto µ 1 en H 1, el tamaño del área fJ depende, 
en segundo lugar, del valor fijado para IX. Los valores de IX y P se relacionan de 
forma inversa: permaneciendo todo lo demás constante, cuanto mayor sea IX, menor 
será p; cuanto menor sea IX, mayor será p. Si desplazamos mentalmente la línea 
vertical de las figuras 3.3 o 3.4 hacia la izquierda, podremos constatar que el área IX 
va aumentando y el área P va disminuyendo. Si la desplazamos hacia la derecha 
podremos constatar que ocurre justamente lo contrario. 
En tercer y último lugar, el tamaño del área P depende del error típico de la 
distribución muestral del estadístico concreto utilizado para efectuar el contraste. Es 
obvio que, para una distancia dada entre µ0 y µ 1, el solapamiento entre las curvas 
correspondientes a uno y otro parámetro será tanto mayor cuanto mayor sea el 
error típico de la distribución muestral representada por esas curvas (pues, cuanto 
© Ediciones Pirámide 
e ontraste de hipótesis / 14 7 
mayor es el error típico de una distribución, más ancha es esa distribución). Y 
cuanto mayor sea el solapamiento, mayor será el valor de {3. 
En la figura 3.5 podemos observar con claridad que, al estrecharse las distribu-
ciones como consecuencia de una disminución del error típico, el solapamiento es 
menor y menor también el tamaño del área {3. A pesar de que, por ejemplo, la 
distancia entre µ0 y µ 1 es similar en las figuras 3.4 y 3.5, el tamaño de f3 es 
proporcionalmente mucho menor en la figura 3.5 que en la 3.4. Si las distribuciones 
muestrales de las dos figuras tuvieran el mismo error típico, cabría esperar, según 
hemos visto anteriormente, el mismo tamaño para {3. 
Zona de aceptación Zona de rechazo 
Figura 3.5.-Áreas correspondientes a las probabilidades <X, p, 1 - <X y 1 - p en un contraste unilateral 
derecho sobre el parámetro µ. 
En el caso que nos ocupa, estamos contrastando la hipótesis H 0 : µ = µ0 . Esto 
significa que las curvas de las figuras 3.3, 3.4 y 3.5 se refierena la distribución 
muestra! de la media (o, lo que es equivalente en términos de probabilidad, a la 
distribución muestra! de las medias tipificadas). Ahora bien, sabemos que la 
distribución muestra! de la media es normal con parámetros µ y u/Jn. Lo cual 
significa que disminuyendo u (la desviación típica de la población) o aumentando n 
(el tamaño de la muestra), conseguiremos disminuir el error típico de la distribución 
muestra! de la media. Y la consecuencia de esto será que con una operación tan 
sencilla como aumentar n (disminuir u resulta algo más complicado), podremos 
obtener una reducción de la probabilidad de cometer un error de tipo 11. 
Como un ejercicio de representación espacial, podemos fijarnos en la figura 3.5 e 
intentar imaginar lo que ocurriría si, manteniendo fija la distancia entre µ0 y µ 1 y el 
© Ediciones Pirámide 
148 / Análisis de datos en psicología 11 
mismo tamaño para a, vamos ensanchando poco a poco las dos distribuciones: el 
resultado será que el tamaño del área f3 irá aumentando. 
En el siguiente apartado, al hablar de la potencia (1 - /3), aprenderemos a 
calcular el valor de {3. Pero antes, debemos hacer un último comentario sobre los 
errores de tipo 1 y 11. En general, un buen contraste o una buena regla de decisión 
debe tender a minimizar los dos tipos de error inherentes a toda decisión. Ya 
sabemos que el valor de a lo establece arbitrariamente el investigador procurando 
que sea un valor pequeño (habitualmente, 0,05 o 0,01). Por tanto, disminuir la 
probabilidad de cometer un error de tipo 1 (a) en un determinado contraste es tan 
sencillo como seleccionar para a un valor tan pequeño como deseemos. Pero 
acabamos de ver que disminuir a tiene como resultado directo un aumento de {3. La 
reducción arbitraria de a, por tanto, no representa una solución razonable. 
Más razonable parece detenerse a considerar cuál de los dos errores que 
podemos cometer podría resultar más grave en una situación concreta y procurar 
disminuirlo a costa del otro. Así, si es importante evitar cometer un error de tipo 1 
(por ejemplo, decidir aplicar un tratamiento que conlleva graves efectos secundarios 
cuando en realidad no es necesaria la aplicación del mismo), será conveniente 
seleccionar un valor muy pequeño para a (0,001, por ejemplo). Si es importante 
evitar cometer un error de tipo 11 (por ejemplo, mandar a alguien a casa cuando de 
hecho necesita tratamiento inmediato), será conveniente seleccionar para a un valor 
más grande (0,10 o 0,20, por ejemplo). Con todo, de entre los diferentes factores de 
los que depende el valor de {3, la manipulación del tamaño muestral n es el que 
proporciona una solución más eficaz, al tiempo que sencilla (en el apéndice 3 tra-
tamos esta cuestión). 
3.3. Potencia de un contraste 
Hasta hace pocos años, la mayor parte de los procedimientos estadísticos 
utilizados para analizar resultados experimentales han estado orientados a minimi-
zar (o, al menos, controlar) la probabilidad de cometer errores de tipo 1 (a), 
descuidando por completo la probabilidad de cometer errores de tipo 11 (/3). La 
mayor parte de los trabajos aparecidos en las revistas científicas se han limitado a 
establecer un nivel arbitrario para a (tal como 0,05) ignorando f3 por completo. Es 
verdad que, en algunos casos, eso es todo lo que es posible hacer; pero en otros, 
según veremos, es posible hacer algo más 14. 
14 Probablemente (como sugiere Howell, 1992, pág. 204) existen varias razones históricas que 
justifican este descuido. Entre ellas, la escasa atención prestada en los manuales de estadística a los 
problemas relacionados con la potencia, o un tratamiento de los mismos poco apropiado para ser 
digerido por el nivel de preparación medio de la comunidad investigadora. Hoy, sin embargo, después de 
los trabajos aparecidos en los últimos años, especialmente impulsados por Cohen (ver Cohen, 1988), las 
cuestiones relacionadas con la potencia parecen lo basta!He clarificadas y divulgadas como para merecer 
nuestra atención. 
© Ediciones Pirámide 
Contraste de hipótesis / 149 
La potencia ( 1 - /l) de un contraste es la probabilidad de rechazar una 
hipótesis nula que en realidad es falsa. 
Cuando hablamos de la potencia de un contraste, por tanto, nos estamos 
refiriendo a la capacidad de ese contraste para detectar que una hipótesis nula 
concreta es falsa. 
Veamos cómo se calcula la potencia (1 - /3) de un contraste y, por consiguiente, 
también la probabilidad de cometer un error de tipo 11 (/3). Para ello, recordemos 
el ejemplo del psicólogo supuestamente capaz de diagnosticar trastornos de tipo 
neurótico a través de la escritura. Las hipótesis estadísticas que planteábamos en 
ese ejemplo eran las siguientes: H 0 : n ~ 0,5 y H 1: n > 0,5. 
Para poder calcular la potencia de un contraste necesitamos referirnos a una 
afirmación concreta de las muchas definidas en H 1. Por ejemplo, H 1: n = O, 7 15 . 
Para contrastar estas hipótesis habíamos definido dos estadísticos: 
T1 = X (número de aciertos) 
Ti = P (proporción de aciertos) 
La distribución muestra} de T1 o Ti es, según vimos en el ejemplo 3.1, la 
binomial con parámetros n y n. Por tanto, para un n dado, tendremos dos 
distribuciones muestrales: la especificada en H0 : n = 0,5 y la especificada en H 1: 
n = 0,7. Esas dos distribuciones muestrales aparecen en la tabla 3.2. (Para simplifi-
car la explicación, vamos a referirnos únicamente al estadístico T1 = X). 
Nuestra regla de decisión debe ser tal que nos permita rechazar H 0 si obtenemos 
un resultado muestra! incompatible con ella en términos de probabilidad. De entre 
las posibles reglas de decisión que podríamos adoptar, ya en el ejemplo 3.1 
habíamos establecido la siguiente: rechazar H 0 si T1 toma un valor igual o mayor 
que 9 (por supuesto, 9 se refiere al número de aciertos). Esta regla de decisión 
equivale a: rechazar H 0 si T1 (o Ti. indistintamente) toma un valor tan grande que 
la probabilidad de obtener un valor como ése o mayor es menor que O!= 0,011 16• 
Con esta regla de decisión, sabemos que la probabilidad de cometer un error de 
tipo 1 valdrá justamente 0,011, es decir, el valor fijado para O!. Pero, ¿cuál será la 
probabilidad de cometer un error de tipo 11? Es decir, ¿cuál será el valor de {3? 
Veamos. Sólo cometeremos un error de tipo 11 cuando, siendo verdadera la 
hipótesis H 1: n = 0,7, tomemos Ja decisión de mantener Ja hipótesis H0 : n = 0,5. 
Y esa decisión únicamente Ja tomaremos cuando nos encontremos con un resultado 
muestral (T¡) perteneciente a Ja zona de aceptación, es decir, cuando nos encontre-
15 Ya hemos visto en el apartado anterior que el valor de {i depende, en primer lugar, de la H 1 
concreta que consideremos como verdadera. Al igual que ocurre con {l. existe toda una familia de valores 
1 - {i dependiendo de los diferentes valores concretos que seleccionemos de entre todos los definidos 
en H 1• 
16 Los valores habitualmente utilizados para :x son, según hemos señalado ya, 0,05 y 0.01; pero en 
este ejemplo concreto, dadas las probabilidades individuales de la distribución muestra! de T1 bajo H 0 , 
un a de 0,011 nos permite simplificar el problema. 
© Ediciones Pirámide 
150 / Análisis de datos en psicología 11 
TABLA 3.2 
Distribuciones muestra/es de T1 bajo H 0 : n = 0,5 
y H 1: n = 0,7 
H 0 : n = 0,5 H 1: n = 0,7 
T, P(T,=t.) T, P(T, = r1 ) 
o 0,001 o 0,000 
1 0,010 1 0,000 
2 0,044 2 0,001 
3 0,117 3 0,009 
4 0,205 1-IX 4 0,037 /f 
5 0,246 5 0,103 
6 0,205 6 0,200 
7 0,117 7 0,267 
8 0,044 8 0,233 
9 0,010 } 10 0,001 iX 9 
0,121 
} 1 - /f 
10 0,028 
mos con un número de aciertos inferior a 9. Ahora bien, si H 1 es verdadera, la 
probabilidad de tomar la decisión de mantener H 0 (es decir, fJ) será la probabilidad 
de encontrar valores muestrales por debajo de 9 aciertos en la distribución definida 
por H 1. La tabla 3.2 nos proporciona esa probabilidad. Sumando las probabili-
dades individuales desde T1 =O hasta T1 = 8, obtenemos: fJ = P(T1 ~ 8) = 0,851.En consecuencia, la potencia del contraste, para H 1: n = 0,7, será 1 = 
= fJ = 1 - 0,851 = 0,149. Lo cual significa que, si suponemos que el verdadero 
valor del parámetro n es 0,7 (es decir, si consideramos que H 1: n = 0,7 es verdadera) 
al contrastar la hipótesis H 0 : n = 0,5 con oc= 0,011, la probabilidad de que nuestro 
contraste detecte que H 0 : n = 0,5 es falsa vale 0,149. De otro modo: si el verdadero 
valor den es 0,7, sólo en 15 de cada 100 veces que contrastemos (con oc= 0,011 y 
una muestra de n = 10 presentaciones independientes) la hipótesis de que el 
parámetro n vale 0,5 decidiremos que n = 0,5 es una afirmación falsa; y tomaremos 
una decisión equivocada, por tanto, en 85 de cada 100 contrastes. 
La figura 3.6 puede ayudarnos a entender mejor lo que acabamos de explicar. 
La probabilidad de cometer un error de tipo 11 (/J = 0,851) está representada por la 
zona rayada, mientras que la potencia (1 - p = 0,149) está representada por la zona 
no rayada de la distribución H 1• Si el verdadero valor de n es 0,7, el número de 
aciertos con el que nos podemos encontrar en una muestra aleatoria de n = 10 
presentaciones será cualquiera de los asumibles por la distribución H 1: n = 0,7. 
Como cada vez que obtengamos un resultado muestra) T1 menor que 9 (9 aciertos: 
zona situada a la izquierda de la línea vertical) decidiremos mantener H 0 : n = 0,5, 
la probabilidad de tomar una decisión errónea (recordemos que estamos suponien-
do que el verdadero valor de n es 0,7) será la probabilidad de obtener valores 
© Ediciones Pirámide 
0.25 
0.20 
0.15 
0.10 
0.05 
o 2 3 4 5 
Zona de aceptación 
6 7 8 
Contraste de hipótesis / 151 
9 10 
Zona de 
rechazo 
Figura 3.6. Error tipo 11 y potencia en un contraste unilateral derecho con H 1: rr = 0,7 y n = 10. 
menores que 9 en una distribución binomial con parámetros n = 10 y n = 0,7. Del 
mismo modo, como cada vez que obtengamos un resultado muestral T1 igual o 
mayor que 9 (zona situada a la derecha de la línea vertical) decidiremos rechazar 
H0 : n = 0,5, la probabilidad de tomar una decisión correcta (decisión correcta que 
sólo ocurrirá si decidimos rechazar H 0 : n = 0,5) será la probabilidad de obtener 
valores iguales o mayores que 9 en una distribución binomial con parámetros 
n = 1 O y n = O, 7 (los parámetros de la distribución de H ¡). 
Por supuesto, si en lugar de considerar que la hipótesis verdadera es H 1: 
n = 0,70, consideramos que la verdadera hipótesis es, por ejemplo, H 1: n = 0,9, la 
distribución muestra) de T1 se encontrará todavía más alejada de la de H 0 y eso 
hará que los valores de /3 y 1 - /3 cambien. En la figura 3.7 se muestra este cambio. 
Al pasar de H 1: n = O, 7 a H 1: n = 0,9, la probabilidad de cometer un error de tipo 
11 (/J) ha disminuido y, en consecuencia, la potencia (1 - /3) ha aumentado. Si el 
verdadero valor de n es 0,9, la probabilidad de que T1 tome un valor menor que 9 
es más pequeña que si el verdadero valor den es 0,7 y, por tanto, la probabilidad de 
tomar una decisión errónea (/3) es menor con n = 0,9 que con n = 0,7. Como 
ejercicio práctico, pueden calcularse las probabilidades exactas a partir de las cuales 
se ha construido la distribución de T1 bajo H 1: n = 0,9 en la figura 3.7. 
Todo lo dicho hasta aquí ha estado referido a una distribución binomial, pero el 
razonamiento es válido para cualquier otro tipo de distribución. Sigamos con el 
ejemplo del psicólogo supuestamente capaz de diagnosticar a través de la escritura. 
Planteemos las mismas hipótesis: H 0 : n = 0,5, H 1: n = O, 7, pero, en lugar de utilizar 
© Ediciones Pirámide 
152 / Análisis de datos en psicología 11 
P(T, =1 1 ) 
0,40 
0,35 
0,30 
0,25 
0,20 
0,15 
0,10· 
0,05 
o 2 3 4 5 
Zona de aceptación 
6 7 8 9 10 
Zona de 
rechazo 
Figura 3.7.-Error tipo 11 y potencia en un contraste unilateral derecho con H 1: '/[ = 0,9 y n = 10. 
el estadístico de contraste T1, utilicemos este otro basado en la aproximación 
normal a la distribución binomial 17 : 
z = (X ± 0,5) - mi: 
Jmr(l - n) (3.1) 
Ya sabemos que Z se distribuye aproximadamente N(O, 1). Si mantenemos la 
misma regla de decisión que antes (rechazar H 0 si T1 toma un valor igual o mayor 
que 9), podemos calcular el valor de 1:1. utilizando la distribución N(O, 1): 
(9 - 0,5) - 10(0,5) 
z = = 2 21 
jl0(0,5)(0,5) ' 
El valor de 1:1. vendrá dado por la probabilidad de obtener valores T1 iguales o 
mayores que 9 (en realidad, mayores que 8,5, utilizando la corrección por continui-
dad); o lo que es equivalente, por la probabilidad de obtener valores iguales o 
1 7 Puede consultarse, en el capítulo 1, el apartado 1.3.4 sobre la distribución muestra) de la 
proporción. 
© Ediciones Pirámide 
Contraste de hipótesis / 153 
mayores que z = 2,21. Esa probabilidad, suponiendo que el verdadero valor del 
parámetro n es 0,5, puede obtenerse en la tabla de la distribución normal estandari-
zada: P(Z ~ 2,21) = 0,0136. Así pues, con la regla de decisión adoptada y utilizando 
el estadístico Z, la probabilidad de cometer un error de tipo 1 (oc) vale 0,0136 (valor 
muy parecido al utilizado anteriormente con el estadístico T1 y la distribución 
binomial). 
Ahora bien, si la hipótesis H 0 : n = 0,5 es falsa, corremos el riesgo de cometer un 
error de tipo 11, el cual, como sabemos, se proáucirá cuando tomemos la decisión de 
mantener esa H 0 . ¿Cuál será la probabilidad de cometer ese error? Es decir, ¿cuál 
será el valor de f3? Si suponemos que la hipótesis verdadera es H 1: n = 0,7, el valor 
de f3 vendrá dado por la probabilidad de encontrar valores menores que 9 (único 
caso en el que decidiríamos mantener H 0 : n = 0,5) en la distribución definida por 
n = 0,7. Utilizando el estadístico Z obtenemos: 
(9 - 0,5) - 10(0, 7) 
z = = 1,04 
jl0(0,7)(0,3) 
La probabilidad de obtener valores menores de 1,04 es justamente {3, es decir, la 
probabilidad de cometer un error de tipo 11: la probabilidad de decidir mantener 
H 0 : n = 0,5 cuando en realidad la hipótesis verdadera es H 1: n = O, 7. Del mismo 
modo, la probabilidad de obtener valores mayores que 1,04 es 1 - {3, es decir, la 
potencia: la probabilidad de decidir rechazar H 0 : n = 0,5 siendo falsa y siendo 
verdadera la hipótesis H 1: n = 0,7. Esas probabilidades podemos encontrarlas en la 
tabla de la distribución normal estandarizada: P(Z::::;; 1,04) = /3 = 0,8508; y, 
P(Z ~ 1,04) = 1 - {3 = 1 - 0,8508 = 0,1492. La figura 3.8 muestra cada una de 
estas probabilidades 18 . Así pues, resumiendo, al contrastar en nuestro ejemplo la 
hipótesis nula H 0 : n = 0,5 frente a la alternativa H 1: n = 0,7 con la regla de decisión 
ya comentada y con el estadístico de contraste Z: 
l. Si H 0 es verdadera, la probabilidad de tomar una decisión incorrecta (la 
probabilidad de cometer un error de tipo 1) vale 0,0136. 
2. Si H 0 es falsa y la hipótesis verdadera es H 1 , la probabilidad de tomar una 
decisión incorrecta (la probabilidad de cometer un error de tipo 11) vale 
0,8508, y la probabilidad de detectar que esa hipótesis es falsa (la potencia 
del contraste) vale 0,1492. 
18 En la figura 3.8 (al igual que en las figuras 3.12 y 3.13 que aparecerán posteriormente), el eje de 
abcisas de ambas distribuciones es doble. En él están representados 1) el estadístico T1 y 2) su tipificación 
Z. Aunque las distribuciones de probabilidad de T1 y de Z no son iguales en su forma (a pesar de que el 
dibujo lo dé a entender), sí son equivalentes en términos de probabilidad (la probabilidad asociada a un 
valor cualquiera de T1 es, aproximadamente, la misma que la asociada a su correspondiente valor 
tipificado Z). Por esta razón hemos optado por presentar una única distribución para T1 y para Z. 
Perdemos con ello rigor (un rigor que nos parece innecesario en este momento), pero creemos que 
ganamos claridad. También por claridad hemos optado por presentar las distribuciones de H 0 y H 1 en 
distinto plano, a diferencia ·de como hicimos en las figuras 3.6 y 3.7. La razón de esto es sencilla: a unmismo valor de T1 le corresponde una puntuación típica Z diferente dependiendo de que esa tipificación 
se efectúe en la curva de H 0 o en la curva de H 1, y esto es algo que no puede verse fácilmente si no se 
presentan las distribuciones en planos diferentes. 
© Ediciones Pirámide 
154 / Análisis de datos en psicología 11 
o 
p = 0,8508 
7 
o 
Figura 3.8.--Áreas correspondientes a las probabilidades ex. {J. 1 - ex y 1 - fJ en un contraste unilateral 
derecho (H 1: ¡¡ = 0,7; n = 10). 
3.4. Nivel crítico y tamaño del efecto 
Hemos definido el nivel de significación IX como la probabilidad de cometer un 
error de tipo 1, es decir, como la probabilidad de rechazar una hipótesis nula 
cuando en realidad es verdadera. Esa probabilidad, IX, se establece antes de efectuar 
el contraste para evitar que influya en la decisión final. En ese sentido, podemos 
entender el nivel de significación como el riesgo máximo que estamos dispuestos a 
asumir al tomar la decisión de rechazar una hipótesis concreta. 
Efectuar un contraste estableciendo previamente un nivel de significación es lo 
que se ha venido haciendo, desde los años 30, en la mayor parte de las áreas de 
conocimiento por la mayor parte de los investigadores. Sin embargo, esto no 
significa que esta forma de proceder esté libre de inconvenientes. Los tiene, y, en 
nuestra opinión, no pequeños. Dos de ellos son éstos: 
1. La decisión sobre H 0 puede depender decisivamente del nivel de significa-
ción establecido. Podemos decidir mantener una hipótesis con IX= 0,01 y, 
sin embargo, rechazarla con IX = 0,05. 
2. Decidir si H 0 es o no falsa no proporciona ningún tipo de información sobre 
el grado en el que la evidencia muestra) se muestra incompatible con esa 
hipótesis. 
© Ediciones Pirámide 
Contraste de hipótesis / 155 
En relación con el primero de estos inconvenientes, aunque es cierto que existe 
un acuerdo evidente acerca de que ai debe ser un valor pequeño, cómo de pequeño es 
algo que nos vemos obligados a establecer de forma arbitraria. Y aunque los niveles 
de significación habitualmente utilizados son 0,05 y 0,01, no existe ningún argumen-
to serio que impida utilizar otro nivel de significación cualquiera, por ejemplo, 0,03 
o 0,005. En principio, si consideramos que cometer un error de tipo 1 es muy ~¡ralle, 
adoptaremos para ai un valor más pequeño que si consideramos que cometer ese 
tipo de error no tiene consecuencias graves. Pero recordemos que, al hacer más 
pequeño el valor de oi, la potencia del contraste disminuye automáticamente (o, lo 
que es lo mismo, la probabilidad de cometer un error de tipo 11 (fJ) se incrementa 
automáticamente). Y eso puede llevarnos a, por ejemplo, cometer un error de tipo 11 
por intentar evitar comenter un error de tipo l. 
Podemos, incluso, servirnos de conocimientos previos (resultados arrojados por 
otras investigaciones o por trabajos piloto; predicciones deducibles de alguna teoría; 
etc.) para establecer un nivel de significación más grande o más pequeño dependien-
do de si esos conocimientos previos apuntan en la dirección de H 0 o en otra 
dirección. Pero incluso así, el valor adoptado para ai seguirá siendo arbitrario 
(arbitrario, al menos, en un rango de posibles valores asumibles con cierta cohe-
rencia). 
Y siendo el valor de ai arbitrariamente establecido, resulta obligado hacer 
referencia al primero de los inconvenientes mencionados. Recordemos el ejemplo 
3.2. En él hemos puesto a prueba la hipótesis nula H 0 : µ = 4,5 frente a la alternativa 
H 1: µ # 4,5, con un nivel de confianza de 0,95 (oi = 0,05). Con ese nivel de confianza, 
la zona crítica está formada por los valores mayores que 1,96 y lós menores que 
- 1,96. Como el estadístico de contraste obtenido (Z = 2, 14) ha caído en la zona 
crítica, hemos tomado la decisión de rechazar H 0 . Lo curioso de este contraste es 
que, si en lugar de haber establecido para ai un valor de 0,05 hubiéramos adoptado 
un valor de 0,01, la zona crítica habría estado formada por los valores mayores que 
2,58 y los menores que - 2,58, y eso nos habría llevado a tomar la decisión de 
mantener H 0 . En consecuencia, si en el ejemplo 3.2 utilizamos ai = 0,05, tomaremos 
la decisión de rechazar H 0 ; si utilizamos ai = 0,01, tomaremos la decisión de 
mantenerla. En la figura 3.9 están recogidas y comparadas ambas situaciones. 
A 
2,14 
Figura 3.9. ·-Zonas críticas en un contraste bilateral con ac = 0,05 (figura A) y ac = 0,01 (figura B). 
© Ediciones Pirámide 
156 / Análisis de datos en psicología 11 
Esto es así porque la probabilidad de encontrar valores como el obtenido o 
mayores vale P(Z ~ 2,14) = 0,0162, valor comprendido entre rx./2 = 0,025 y 
rx./2 = 0,005. Necesitaríamos un nivel de significación mm1mo de 0,0324 
( =0,0162 + 0,0162, pues el contraste es bilateral) para que el estadístico de contras-
te obtenido nos llevara al rechazo de H 0 • Cualquier valor rx. menor que 0,0324 nos 
llevará a tomar la decisión de mantener H 0 . 
Estas consideraciones nos permiten introducir un concepto de fundamental 
importancia en el contexto del análisis de datos: 
Llamamos nitiel crítico, y lo representamos por p, al nivel de significación más 
pequeño al que una hipótesis nula puede ser rechazada con el estadístico de 
contraste obtenido. 
Podemos definir el nivel crítico, más brevemente, como la prohahilidad asociada 
al estadístico de contraste. En términos generales, en un contraste unilateral, el nivel 
crítico es la probabilidad asociada a los valores mayores (contraste unilateral 
derecho) o menores (contraste unilateral izquierdo) que el estadístico de contraste 
obtenido; en un contraste bilateral. el nivel crítico es la probabilidad asociada a los 
valores que se encuentran tan alejados de H 0 como, al menos, el estadístico de 
contraste 19. Según esto, el nivel crítico se obtiene, a diferencia de lo que ocurre con 
el nivel de significación, después de efectuar el contraste, es decir, una vez obtenido 
el estadístico de contraste. 
Muchos investigadores, en lugar de establecer a priori un nivel de significación rx., 
prefieren esperar a obtener el estadístico de contraste y su nivel crítico para tomar 
la decisión apoyándose en el valor de ese nivel crítico: si el nivel crítico es pequeño, 
la decisión será la de rechazar H 0 ; si el nivel crítico es grande, la decisión será la de 
mantener H 0 . Por supuesto, de nuevo nos encontramos con la arbitrariedad de 
tener que determinar cuándo un nivel crítico es grande y cuándo es pequeño. Pero 
este problema tiene mejor salida que el de establecer a priori un valor para rx.. Una 
regla bastante razonable podría ser esta: a) rechazar H 0 si el nivel crítico es 
claramente menor que 0,05; b) mantenerla si es claramente mayor que 0,05; 
c) repetir el contraste con una muestra diferente si el nivel crítico toma un valor en 
torno a 0,05. Por supuesto, las consideraciones ya mencionadas sobre la gravedad 
de cometer cada uno de los dos tipos de errores y los conocimientos previos que se 
tengan sobre la hipótesis sometida a contraste podrían ayudarnos a matizar el 
significado de las expresiones claramente mayor, claramente menor y en torno a 
referidas en la regla propuesta. 
La utilización del nivel crítico p en lugar del nivel de significación rx. tiene una 
19 En los contrastes en los que se utilizan las dos colas de la distribución muestra(, el nivel crítico p 
se obtiene, generalmente, multiplicando por 2 la probabilidad asociada a los valores mayores (si el 
estadístico de contraste cae en la cola derecha) o menores (si el estadístico cae en la cola izquierda) que el 
estadístico de contraste. Pero, como veremos en próximos capítulos, existen contrastes bilaterales en los 
que la zona crítica está situada, toda ella, en la cola derecha de la distribución muestral. En estos casos, 
el nivel crítico es la probabilidad asociada a los valores mayores que el estadístico de contraste. 
© Ediciones Pirámide 
Contraste de hipótesis / 157 
ventaja adicional que nos

Continuar navegando