Logo Studenta

Estadística y Epidemiología 14ta ed

¡Este material tiene más páginas!

Vista previa del material en texto

MANUAL AMIR
ESTADÍSTICA Y EPIDEMIOLOGÍA
(14.ª edición)
ISBN
978-84-18278-10-5
DEPÓSITO LEGAL
M-22139-MMXIX
ACADEMIA DE ESTUDIOS MIR, S.L.
www.academiamir.com
info@academiamir.com
DISEÑO, MAQUETACIÓN E ILUSTRACIONES
Iceberg Visual Diseño, S.L.N.E.
Nuestra mayor gratitud a Alberto Argón, alumno AMIR, 
por haber realizado de manera desinteresada una revisión de 
erratas de nuestros manuales, que ha permitido mejorar esta 
14.ª edición.
La protección de los derechos de autor se extiende tanto al contenido redac-
cional de la publicación como al diseño, ilustraciones y fotografías de la misma, 
por lo que queda prohibida su reproducción total o parcial sin el permiso del 
propietario de los derechos de autor.
Este manual ha sido impreso con papel ecológico, 
sostenible y libre de cloro, y ha sido certificado según los 
estándares del FSC (Forest Stewardship Council) y del PEFC 
(Programme for the Endorsement of Forest Certification).
5
AUTORES
DIRECCIÓN
EDITORIAL
RELACIÓN GENERAL DE AUTORES
FRANCO DÍEZ, EDUARDO (7)
RUIZ MATEOS, BORJA (42)
CAMPOS PAVÓN, JAIME (12)
SUÁREZ BARRIENTOS, AIDA (44)
SÁNCHEZ VADILLO, IRENE (4)
GALLO SANTACRUZ, SARA (24)
SESMA ROMERO, JULIO (43)
AMMARI SÁNCHEZ-VILLANUEVA, FADI (6)
ADEVA ALFONSO, JORGE (1)
ALEDO-SERRANO, ÁNGEL (2)
ALONSO PEREIRO, ELENA (3)
ALONSO SANZ, JAVIER (4)
ÁLVAREZ ANDRÉS, EVA (5)
AMMARI SÁNCHEZ-VILLANUEVA, FADI (6)
AMORES LUQUE, MIGUEL CAYETANO (7)
ANTÓN MARTIN, MARÍA DEL PILAR (8)
ANTÓN SANTOS, JUAN MIGUEL (9)
ARREO DEL VAL, VIVIANA (4)
BALBACID DOMINGO, ENRIQUE J. (4)
BATALLER TORRALBA, ÁLEX (10)
BENAVENT NÚÑEZ, DIEGO (4)
BENÍTEZ, LETICIA
BERNAL BELLO, DAVID (11)
BUZÓN MARTÍN, LUIS (1)
CABRERA MARANTE, ÓSCAR (12)
CAMPOS PAVÓN, JAIME (12)
CANO-VALDERRAMA, ÓSCAR (13)
CARDOSO LÓPEZ, ISABEL (14)
CERVERA YGUAL, GUILLERMO (15)
CÍVICO ORTEGA, JESÚS ANTONIO (16)
COBREROS PÉREZ, ÁLVARO
CORRALES BENÍTEZ, CARLOS (17)
CUENCA RAMÍREZ, 
MARÍA DESAMPARADOS (18)
CUESTA HERNÁNDEZ, MARTÍN (13)
CUÑO ROLDÁN, JOSÉ LUIS (11)
DÁVILA GONZÁLEZ, PABLO (19)
DE MIGUEL-CAMPO, BORJA (12)
DELGADO LAGUNA, ANA (20)
DELGADO MÁRQUEZ, ANA MARÍA (48)
ESTEBAN-SÁNCHEZ, JONATHAN (21)
FERRE-ARACIL, CARLOS (22)
FORTUNY FRAU, ELENA (23)
FRANCO DÍEZ, EDUARDO (7)
GALLO SANTACRUZ, SARA (24)
GANDÍA GONZÁLEZ, MARÍA LUISA (4)
GARCÍA CARRERAS, ALEJANDRO (1)
GARCÍA SEBASTIÁN, CRISTINA (7)
GARCÍA-ESCRIBANO MARTÍN,
FLORENCIO (13)
GARROTE GARROTE, MARÍA (21)
GIMÉNEZ VALLEJO, CARLOS (25)
GÓMEZ ROMERO, MARÍA (26)
GÓMEZ SERRANO, MANUEL (13)
GÓMEZ-MAYORDOMO, VÍCTOR (13)
GÓMEZ-PORRO SÁNCHEZ, PABLO (22)
GONZÁLEZ ROCAFORT, ÁLVARO (4)
GREDILLA-ZUBIRÍA, ÍÑIGO (27)
GUIJARRO VALTUEÑA, AINHOA (22)
HERNÁNDEZ ONTORIA, MARÍA (12)
HONRUBIA LÓPEZ, RAÚL (28)
IBÁÑEZ-SANZ, GEMMA (29)
LALUEZA BLANCO, ANTONIO (12)
LÓPEZ-SERRANO, ALBERTO (30)
LOUREIRO AMIGO, JOSÉ (49)
LOZANO GRANERO, CRISTINA (7) 
LUENGO ALONSO, GONZALO (12)
MAEZTU, MIKEL (31)
MANJÓN RUBIO, HÉCTOR (7)
MARCO ALACID, CRISTIAN (32)
MARTÍN RUBIO, INÉS (22)
MARTÍNEZ DÍEZ, JAVIER (33)
MARTÍNEZ DÍEZ, JOSÉ MANUEL (4)
MARTÍNEZ-FIDALGO VÁZQUEZ,
CONCEPCIÓN (9)
MARTOS GISBERT, NATALIA (5)
MASANA FLORES, ELENA (34)
MOGAS VIÑALS, EDUARD (35)
MONJO HENRY, IRENE (4)
MUERTE MORENO, IVÁN (13)
NAVARRO ÁVILA, RAFAEL JOSÉ (12)
ORTIZ SALVADOR, JOSÉ MARÍA (15)
OTAOLA ARCA, HUGO (36)
PADULLÉS CASTELLÓ, BERNAT (10)
PANADÉS-DE OLIVEIRA, LUISA (13)
PARRA DÍAZ, PAULA CAROLINA
PASCUAL GUARDIA, SERGI (37)
PASCUAL MARTÍNEZ, ADRIANA (38)
PÉREZ SÁNCHEZ, EZEQUIEL JESÚS (39)
PÉREZ TRIGO, SILVIA (12)
PINILLA SANTOS, BERTA (40)
PINTOS PASCUAL, ILDUARA (17)
PIRIS BORREGAS, SALVADOR (12)
PLASENCIA RODRÍGUEZ, CHAMAIDA (4)
RAMIRO MILLÁN, PATRICIA (41)
RAMOS JIMÉNEZ, JAVIER (7)
RODRÍGUEZ DOMÍNGUEZ, VÍCTOR (4)
RODRÍGUEZ-BATLLORI ARÁN, BEATRIZ (9)
RODRÍGUEZ-MONSALVE, MARÍA (22)
RUIZ MATEOS, BORJA (42)
SÁNCHEZ VADILLO, IRENE (4)
SESMA ROMERO, JULIO (43)
SEVILLA-RIBOTA, SERGIO (9)
SOUTO SOTO, AURA DANIELA (22)
SUÁREZ BARRIENTOS, AIDA (44)
TABEAYO ÁLVAREZ, ELOY (4)
TAJIMA POZO, KAZUHIRO (20)
TARAMINO PINTADO, NOELIA (12)
TEIGELL MUÑOZ, FRANCISCO JAVIER (9)
TORRES FERNÁNDEZ, DAVID (12)
TOUZA FERNÁNDEZ, ALBERTO (45)
UDONDO GONZÁLEZ DEL TÁNAGO,
MARÍA (31)
VALTUEÑA SANTAMARÍA, JARA (46)
VÁZQUEZ GÓMEZ, FELISA (47)
VÁZQUEZ GÓMEZ, JULIO ALBERTO (47)
VILLANUEVA MARTÍNEZ, JAVIER (9)
(1) H. G. U. Gregorio Marañón. Madrid.
(2) H. Ruber Internacional. Madrid.
(3) H. U. del Sureste. Arganda del Rey, Madrid.
(4) H. U. La Paz. Madrid.
(5) H. U. Severo Ochoa. Madrid.
(6) H. U. Virgen del Rocío. Sevilla.
(7) H. U. Ramón y Cajal. Madrid.
(8) Phoenix Children´s Hospital. Phoenix, EE.UU.
(9) H. Infanta Cristina. Parla, Madrid.
(10) H. Clinic. Barcelona.
(11) H. U. de Fuenlabrada. Madrid.
(12) H. U. 12 de Octubre. Madrid.
(13) H. C. San Carlos. Madrid.
(14) H. Vithas Ntra. Sra. de América. Madrid.
(15) H. Central U. de Valencia. Valencia.
(16) H. U. Virgen de la Victoria. Málaga.
(17) H. U. Fundación Jiménez Díaz. Madrid.
(18) H. U. Doctor Peset, Valencia.
(19) H. de Manacor. Mallorca.
(20) H. U. Fundación Alcorcón. Madrid.
(21) H. U. de Getafe. Madrid.
(22) H. U. Puerta de Hierro. Madrid.
(23) H. U. Son Espases. Palma de Mallorca.
(24) H. Can Misses. Ibiza.
(25) Centre d’Ophtalmologie Sainte Odile. 
Alsacia, Francia.
(26) H. U. Joan XIII. Tarragona.
(27) H. Quironsalud A Coruña. La Coruña.
(28) H. U. Infanta Sofía. Madrid.
(29) H. U. de Bellvitge. 
L’Hospitalet de Llobregat, Barcelona.
(30) H. U. San Juan de Alicante. Alicante.
(31) H. U. de Basurto. Bilbao.
(32) H. Virgen de los Lirios. Alcoy, Alicante.
(33) H. U. Central de Asturias. Oviedo.
(34) H. U. Virgen de las Nieves. Granada.
(35) H. U. Vall d’Hebron. Barcelona.
(36) Clínica Alemana. Santiago de Chile, Chile.
(37) Parc de Salut Mar. Barcelona.
(38) H. U. Infanta Elena. Madrid.
(39) Instituto de Neuropsiquiatría y 
Adicciones, PSMAR. Barcelona.
(40) Psiquiatra en ámbito privado. Madrid.
(41) H. C. U. Lozano Blesa. Zaragoza.
(42) H. Infanta Cristina. Parla, Madrid y 
H. Central de la Cruz Roja. Madrid.
(43) H. G. U. de Alicante. Alicante.
(44) Clínica U. de Navarra. Madrid.
(45) H. U. de Torrejón. Torrejón, Madrid y 
H. HM Puerta del Sur. Móstoles, Madrid.
(46) H. C. U. de Valladolid. Valladolid.
(47) H. Infantil U. Niño Jesús. Madrid.
(48) H. U. Rey Juan Carlos. Móstoles, Madrid.
(49) H. Moisès Broggi. Sant Joan Despí, Barcelona.
7
ORIENTACIÓN MIR
Rendimiento por asignatura
(preguntas por página)
Número medio de preguntas
(de los últimos 11 años)
Eficiencia MIR
(rendimiento de la asignatura
corregido por su dificultad en el MIR)
Estadística y Epidemiología es actualmente una asignatura de importancia intermedia dentro del examen MIR. Previamente era la 
segunda asignatura por detrás de Digestivo, pero en las últimas convocatorias el número de preguntas se ha reducido aproximada-
mente a la mitad (debido a la inclusión del nuevo bloque de Bioética en el MIR, que ocupa preguntas tradicionalmente de Estadística).
El tema estrella es el de Tipos de Estudios Epidemiológicos, que incluye preguntas teóricas. También son muy importantes temas 
en los que pueden caer problemas: Medidas en Epidemiología y Estudio de una Prueba Diagnóstica. Dentro del bloque de 
Estadística, lo más importante es Contraste de Hipótesis. En los últimos años, por otra parte, son habituales 1-2 preguntas vincula-
das a imágenes (interpretación de resultados y gráficos de estudios epidemiológicos).
La asignatura tiene una alta rentabilidad de estudio al ser la mayoría de conceptos repetidos y similares año tras año. El manual 
debe trabajarse de manera distinta al resto: cualquier tema de este manual se debe estudiar al detalle (salvo el tema 4), y por ello el 
manual está estructurado con dos colores de texto: texto en negro, que se debe estudiar íntegro; y texto en color aguamarina, que 
es simplemente texto aclaratorio o con ejemplos, que no se debe estudiar.
3,3 18 10
9
ÍNDICE
ESTADÍSTICA ........................................................................................................................................................11TEMA 1 ESTADÍSTICA DESCRIPTIVA .............................................................................................................11
1.1. Técnicas de muestreo estadístico ........................................................................................................... 12
1.2. Tipos de variables .................................................................................................................................. 13
1.3. Medidas de análisis de los datos ............................................................................................................ 14
1.4. Principales distribuciones de probabilidad .............................................................................................. 16
Autores: Héctor Manjón Rubio, Julio Sesma Romero, Carlos Corrales Benítez.
TEMA 2 ESTADÍSTICA INFERENCIAL .............................................................................................................18
2.1. Estadística inferencial para variables cuantitativas .................................................................................. 18
2.2. Estadística inferencial para variables cualitativas ..................................................................................... 19
2.3. Cálculo del tamaño muestral para estudios de inferencia ....................................................................... 19
Autores: Julio Sesma Romero, Carlos Corrales Benítez, Héctor Manjón Rubio.
TEMA 3 CONTRASTE DE HIPÓTESIS..............................................................................................................20
3.1. Errores en contraste de hipótesis ........................................................................................................... 20
3.2. Cálculo del tamaño muestral en el contraste de hipótesis ...................................................................... 21
3.3. Tests para contraste de hipótesis ........................................................................................................... 22
Autores: Eduardo Franco Díez, Héctor Manjón Rubio, Julio Sesma Romero.
TEMA 4 PROBABILIDADES ............................................................................................................................25
Autores: Julio Sesma Romero, Carlos Corrales Benítez, Héctor Manjón Rubio.
EPIDEMIOLOGÍA ...................................................................................................................................................27
TEMA 5 ESTUDIOS DE VALIDACIÓN DE UNA PRUEBA DIAGNÓSTICA ..........................................................27
5.1. Parámetros de validez de una prueba diagnóstica .................................................................................. 28
5.2. Curvas ROC (de rendimiento diagnóstico) .............................................................................................. 29
5.3. Test de screening y test de confirmación ............................................................................................... 30
Autores: Carlos Corrales Benítez, Eduardo Franco Díez, Julio Sesma Romero.
TEMA 6 MEDIDAS EN EPIDEMIOLOGÍA ........................................................................................................31
6.1. Medidas de frecuencia de una enfermedad ........................................................................................... 31
6.2. Medidas de fuerza de asociación (medidas de efecto) ............................................................................ 31
6.3. Criterios de causalidad de Bradford Hill ................................................................................................. 32
6.4. Medidas de impacto .............................................................................................................................. 34
Autores: Eduardo Franco Díez, Héctor Manjón Rubio, Elena Masana Flores.
TEMA 7 TIPOS DE ESTUDIOS EPIDEMIOLÓGICOS .........................................................................................35
7.1. Estudios observacionales ........................................................................................................................ 35
7.2. Estudios experimentales ......................................................................................................................... 37
7.3. Niveles de evidencia científica ................................................................................................................ 38
7.4. Estructura metodológica de un trabajo científico ................................................................................... 41
7.5. Fases de realización de los estudios epidemiológicos .............................................................................. 41
7.6. Fases de desarrollo de un tratamiento (fases del ensayo clínico) ............................................................. 42
7.7. Diseños especiales en estudios experimentales ....................................................................................... 44
7.8. Realización de muchas comparaciones en los estudios epidemiológicos ................................................. 46
7.9. Estudios de bioequivalencia ................................................................................................................... 46
7.10. Estudios farmacoeconómicos ................................................................................................................. 47
Autores: Héctor Manjón Rubio, Eduardo Franco Díez, Elena Masana Flores.
TEMA 8 ERRORES EN LOS ESTUDIOS EPIDEMIOLÓGICOS ............................................................................49
8.1. Errores aleatorios ................................................................................................................................... 49
8.2. Errores sistemáticos (sesgos) .................................................................................................................. 49
8.3. Sesgos específicos de los estudios de validación de pruebas diagnósticas............................................... 52
Autores: Carlos Corrales Benítez, Elena Masana Flores, Eduardo Franco Díez.
VALORES NORMALES EN ESTADÍSTICA Y EPIDEMIOLOGÍA ..................................................................................55
REGLAS MNEMOTÉCNICAS ESTADÍSTICA Y EPIDEMIOLOGÍA ..............................................................................56
BIBLIOGRAFÍA .......................................................................................................................................................57
CURIOSIDAD
Charles Spearman (Londres, 1863-1945), a quien hoy recordamos por el 
test de correlación de la “ρ” de Spearman, se dedicó fundamentalmente 
a lo largo de su vida al campo de la Psicología. Desarrolló la teoría 
bifactorial de la inteligencia (otra de sus aportaciones a la Estadística es 
el análisis factorial), por la cual existen dos factores que determinan la 
inteligencia de cada sujeto y que debían residir en partes distintas del 
cerebro: el factor G (genético y heredado), y el factor S (especial, que 
hace referencia a la capacidad concreta de cada sujeto para lidiar con 
cada problema específico).
10
11
El objetivo de la Estadística es el estudio de una o varias 
características (variables) en una o varias poblaciones diana. 
Habitualmente el estudio de todos los individuos de dichas 
poblaciones es imposible por problemas logísticos, así que se 
suele estudiar sólo a un grupo reducido de individuos de cada 
población (muestra). 
La Estadística descriptiva se ocupa de estudiar las variables 
que nos interesan de dicha muestra; como podemos estudiar a 
cada uno de los individuos de la muestra, todos los datos que 
obtengamos serán verídicos y no tendremos que extrapolar 
nuestros resultados, por lo que en Estadística descriptiva no 
existe probabilidad de cometer errores.
La Estadística inferencial intenta extrapolar cómo serían los 
resultadosde la población objetivo si fuéramos capaces de 
estudiar a todos sus individuos. Para ello parte de los resultados 
obtenidos en la muestra. Así, los resultados estarán sujetos a 
una probabilidad de error, ya que si la muestra seleccionada 
no fuera representativa de la población, sus resultados no 
serían extrapolables a la misma.
Por último, el contraste de hipótesis compara los resultados 
de varias variables en una única población, o bien los resulta-
dos obtenidos para la misma variable en varias poblaciones. Al 
igual que en Estadística inferencial, para obtener los datos 
poblacionales se parte de resultados de las muestras estudia-
das, por lo que existe probabilidad de error. Figura 1. Esquema de realización de un estudio estadístico.
Población diana
Muestra
Técnica de muestreo
Estadística descriptiva
Resultados de la muestra
Estadística inferencial
Probabilidad de error
Resultados de la población
Comparación de resultados
Contraste de hipótesis
Probabilidad de error
Autores: Héctor Manjón Rubio, H. U. Ramón y Cajal (Madrid). Julio Sesma Romero, H. U. G. de Alicante (Alicante). Carlos Corrales Benítez, H. U. 
Fundación Jiménez Díaz (Madrid).
Estadística descriptiva
Tema 1
ESTADÍSTICA
Enfoque MIR
Uno de los temas menos importantes de la asignatura, con 0-1 
pregunta por término medio cada año. Lo más preguntado en 
los últimos años es el apartado de técnicas de muestreo. Lo 
siguiente en importancia son las propiedades de la distribución 
normal. Los conceptos de percentil y de mediana son también 
bastante preguntados. En cuanto a las variables, es importante 
saber identificar cada tipo de variable pero son raras preguntas 
directas al respecto. No estudies la representación gráfica de las 
variables, no la preguntan.
Manual AMIR · Estadística y Epidemiología
12
1.1. Técnicas de muestreo estadístico
El muestreo consiste en la selección de una muestra a partir 
de una población. El objetivo del muestreo es que la muestra 
escogida sea representativa de la población (esto es, que 
encierre toda la variabilidad posible que existe en la población), 
para que los resultados obtenidos en la muestra sean extrapo-
lables a la población.
Antes de realizar la técnica de muestreo deseada, la estratifica-
ción nos puede ayudar a controlar una determinada variable que 
no queremos que influya en nuestros resultados (MIR 12, 186) 
para evitar que dicha variable actúe como factor de confusión 
(ver tema 8. Errores en estudios epidemiológicos). La 
estratificación consiste en la división de la población en varias 
categorías según la variable mencionada, de modo que, una 
vez dividida la población, elegiremos sólo a individuos de entre 
las categorías de la variable que nos interese. 
Ejemplo: nos interesa contrastar si el consumo de marihuana 
aumenta el riesgo de padecer esquizofrenia, pero no queremos 
que el consumo de otras drogas (posible factor de confusión) 
interfiera en nuestros resultados. Así, antes de escoger la mues-
tra dividimos a la población en, por ejemplo, tres categorías en 
función de la variable “consumir otras drogas” (consumidores, 
no consumidores, exconsumidores), y posteriormente haremos 
el muestreo sólo en el grupo de no consumidores.
Técnicas de muestreo probabilístico
El muestreo probabilístico utiliza el azar para elegir la muestra 
de entre la población, lo cual permite conocer las probabilida-
des que tiene cada individuo de salir elegido. La utilización del 
azar para escoger la muestra (en lugar de cualquier criterio que 
defina el investigador) hace que existan más probabilidades de 
que la muestra sea representativa de la población, por lo que 
las técnicas probabilísticas son mejores.
Ejemplo: si de una población de 100 personas queremos coger 
15 al azar, cada individuo tendrá 15/100 (15%) de probabili-
dades de salir escogido.
Muestreo aleatorio simple
Se asigna un número a cada individuo de la población, y 
posteriormente se escogen tantos números sean necesarios 
para completar el tamaño muestral requerido.
Ejemplo: para obtener una muestra de cinco individuos en 
una población de 100 personas, se asigna a cada persona un 
número del 1 al 100. Se introducen en una urna 100 pelotas 
numeradas, y se sacan de la urna cinco pelotas.
El muestreo aleatorio simple puede realizarse sin reposición 
de elementos (los individuos escogidos no pueden volver a 
ser elegidos) o con reposición de elementos (los individuos 
escogidos vuelven a ser introducidos en la población de la 
que se obtiene la muestra, de modo que podrían volver a salir 
elegidos). El muestreo con reposición de elementos es mejor 
porque se garantiza que en cada extracción de un individuo 
las probabilidades de salir elegido sean las mismas, pero en 
poblaciones pequeñas existirá el riesgo de que un mismo 
individuo salga elegido varias veces. Por tanto, el muestreo 
con reposición de elementos suele utilizarse en poblaciones 
grandes, donde la probabilidad de salir elegido dos veces es 
tan baja que el riesgo que se corre es pequeño.
Muestreo aleatorio sistemático
Se asigna un número a cada individuo de la población de 
manera aleatoria (en el muestreo aleatorio simple no hacía 
falta que esta asignación fuera aleatoria). Posteriormente, en 
vez de escoger “n” números, se escoge sólo uno, y a partir de 
él se obtiene el resto mediante una regla matemática. 
Siempre y cuando se cumpla la premisa de ordenar a los 
individuos de la población inicialmente al azar, esta técnica es 
equivalente al muestreo aleatorio simple.
Ejemplo: para obtener una muestra de cinco individuos en 
una población de 100 personas, se asigna a cada persona, de 
forma aleatoria, un número del 1 al 100. Se introducen en una 
urna 100 pelotas numeradas, y la regla matemática va a ser 
“i + 10·x” (siendo “i” el número aleatorio obtenido, y “x” el 
número que va a ocupar cada individuo en nuestra muestra). 
Se saca una pelota de la urna y el número obtenido es el 17. 
Los individuos elegidos serán el 27, 37, 47, 57, 67.
Muestreo estratificado (MIR 17, 130)
Se denomina muestreo estratificado a aquel en el que, tras 
realizar estratificación de una determinada variable, se elige 
una muestra al azar de cada una de las categorías estudiadas 
de la variable.
Muestreo por conglomerados
Los conglomerados son grupos de individuos ya presentes de 
manera natural en la población y que encierran, en sí mismos, 
toda la variabilidad que posee la población diana. Son por 
tanto muestras perfectas que ya existen de manera natural. 
En el caso de identificar conglomerados en una población, se 
podría numerar a cada conglomerado y seleccionar, de manera 
aleatoria, el o los conglomerados necesarios.
En ocasiones estudiar un conglomerado entero puede resultar 
muy costoso por tener éste demasiado tamaño muestral. 
En ese caso podemos, dentro del conglomerado, realizar un 
muestreo aleatorio para seleccionar un menor número de 
individuos; como hemos realizado dos técnicas de muestreo 
una detrás de otra, este tipo de muestreo se llama bietápico.
Ejemplo: en una ciudad existen 10 hospitales que atienden 
un espectro de pacientes similar. Si queremos estudiar la 
población hospitalizada de dicha ciudad, en lugar de escoger 
una muestra de pacientes de los 10 hospitales, podríamos 
elegir al azar un único hospital (conglomerado) y estudiar a los 
pacientes ingresados en él.
Técnicas de muestreo no probabilístico
Los participantes en el estudio se seleccionan siguiendo 
criterios no aleatorios que define el investigador, por lo que, 
aunque se procura que la muestra sea representativa, las 
probabilidades de que no lo sea serán altas y la capacidad para 
extrapolar los resultados a la población será menor que con 
los métodos probabilísticos. Por lo tanto, son peores que las 
técnicas probabilísticas.
La técnica no probabilística más utilizada es el muestreo de 
casos consecutivos, que es la técnica de muestreo habitual 
de los ensayos clínicos.
Tema 1 · Estadística descriptiva
13
Muestreo de casosconsecutivos (MIR)
Consiste en reclutar a todos los individuos de la población 
accesible que cumplan los criterios de selección del estudio 
dentro de un intervalo de tiempo específico o hasta alcanzar 
un determinado número. Si se lleva a cabo de manera adecua-
da, la representatividad de la muestra puede ser semejante a 
la de un muestreo probabilístico.
Muestreo de conveniencia o accidental
Método sencillo y económico, que consiste en seleccionar 
sujetos accesibles, que estén a mano del investigador. Si el 
fenómeno estudiado no es suficientemente homogéneo en la 
población, las posibilidades de sesgo son muy elevadas.
Muestreo a criterio o intencional
En este tipo de muestreo el investigador incluye grupos de 
individuos que juzga típicos o representativos de la población, 
suponiendo que los errores en la selección se compensarán 
unos con otros.
1.2. Tipos de variables
Variables cualitativas (categóricas) (MIR 15, 184)
Hacen referencia a características que no se expresan mediante 
valores numéricos (p. ej., el color de pelo, la raza…).
Variables cualitativas ordinales (MIR)
Cuando los distintos valores de una variable cualitativa siguen 
un orden, nos interesará asignar a cada valor un número 
arbitrario (que nos inventamos) en función del orden que 
ocupa cada categoría. Esto es así porque los tests estadísticos 
que se utilizan para las variables que se expresan con números 
son más potentes que los tests empleados para variables 
cualitativas “puras”.
Se distinguen de las variables cuantitativas en que los números 
asignados no cumplen propiedades matemáticas.
Ejemplo: escala del dolor: leve = 1, moderado = 2, intenso = 
3. Tener un dolor “2” no significa tener el doble de dolor que 
un dolor “1”.
Variables cualitativas nominales
Los valores de la variable no siguen un orden, y por tanto los 
nombraremos con palabras y no con números (p. ej., el color 
de pelo).
Cuando una variable cualitativa sólo puede tomar dos valores 
(p. ej., sexo: masculino o femenino) se denomina dicotómica 
o binaria (MIR). Si puede tomar más de dos valores se deno-
mina no dicotómica.
Variables cuantitativas
Hacen referencia a características que se expresan mediante 
valores numéricos (p. ej., la tensión arterial, la tempera-
tura…). Dichos valores numéricos cumplen las propiedades 
matemáticas de los números (p. ej., tener cuatro hijos implica 
tener el doble de hijos que una persona que tenga dos).
Variables cuantitativas discretas
Los valores numéricos no pueden adoptar cualquier valor (en 
general, sólo podrán ser números enteros).
Ejemplo: número de pacientes atendidos en un día en una 
consulta: se pueden atender 23 o 24 pacientes, pero no 23,5 
pacientes. ¡Ojo! Al trabajar con estas variables, por ejemplo al 
calcular la media, sí podríamos obtener decimales.
Variables cuantitativas continuas
Los valores numéricos pueden adoptar cualquier valor, inclu-
yendo decimales.
Ejemplo: presión arterial: si tuviera un aparato lo suficien-
temente preciso podría indicar una PAS de 140,6 mmHg. 
¡Ojo! Aunque habitualmente sólo utilicemos una variable con 
números enteros, debemos pensar si sería posible dar un valor 
con decimales de dicha variable.
Representación gráfica de las variables
Representación de variables cualitativas y cuantitativas 
discretas:
Diagrama de rectángulos
En el eje de abscisas se representan cada una de las posibles 
categorías, y en el eje de ordenadas su frecuencia.
Recuerda...
Las variables expresadas como porcentajes 
suelen ser variables cualitativas.
Ejemplo: si la prevalencia de EPOC es del 10%, 
la variable es tener o no tener EPOC, esto es, cualitativa.
35
30
25
20
15
10
5
0
Complicaciones mayores
Complicaciones menores
Sin complicaciones
Exitus
Pronóstico en intervención quirúrgica
Figura 2. Diagrama de rectángulos y diagrama de sectores.
Manual AMIR · Estadística y Epidemiología
14
Diagrama de barras
Como el diagrama de rectángulos, pero cada “rectángulo” (en 
este caso barra) representa un intervalo de valores; las barras 
están pegadas entre sí (a diferencia de los rectángulos) porque 
los intervalos representados por cada uno se solapan en los 
extremos. ¡Ojo! Cada intervalo podría abarcar sólo un valor, 
como en el ejemplo de la figura 3.
Diagrama de sectores
Círculo dividido en porciones cuya superficie es proporcional a 
la frecuencia de cada valor de la variable.
Representación de variables cuantitativas continuas:
Histograma
Como un diagrama de barras, pero la anchura de cada barra es 
proporcional al tamaño del intervalo que representa.
Polígono de frecuencias
Se obtiene de la unión del punto medio del vértice superior de 
cada barra de un histograma.
1.3. Medidas de análisis de los datos
Las variables cualitativas se suelen expresar mediante por-
centajes (indicando el porcentaje de observaciones que 
presenta cada categoría de la variable), y no tienen medidas 
de dispersión.
Sin embargo, las variables cuantitativas se deben expresar 
mediante una medida de tendencia central y una medida 
de dispersión. Además, existen medidas de posición para 
indicarnos el lugar que ocupa cada observación dentro de la 
distribución.
Medidas de tendencia central
Informan acerca de cómo se agrupan los distintos valores 
registrados de los individuos de la muestra, indicando dónde 
se encuentra el centro de la distribución.
Media aritmética
La más utilizada, principalmente en distribuciones simétricas. 
Es el “centro de gravedad” del conjunto de valores. No debe 
usarse en distribuciones asimétricas ya que, al ser un cálculo 
matemático, los valores de los extremos influirán más que los 
centrales pudiendo artificialmente desplazar el valor de la me-
dia hacia ellos (en cuyo caso la media dejará de indicar dónde 
está el centro).
Mediana (MIR 11, 173; MIR)
Es el valor de la variable que presenta el individuo que ocupa 
la posición central si ordenamos las observaciones de menor 
a mayor, esto es, que divide el conjunto de observaciones 
en dos partes iguales (deja la mitad de las observaciones por 
encima y la mitad por debajo). Si la distribución de valores es 
simétrica, coincide con la media. Es la más indicada si los datos 
a analizar tienen una distribución asimétrica o presentan 
valores extremos.
Moda
Es el valor más repetido de todos los valores de la variable. Puede 
ser un valor único o haber varias. Es útil para distribuciones con 
varios “picos” de frecuencia, esto es, con varias modas.
Medidas de dispersión 
Cuando analizamos los resultados, una variable cuantitativa en 
una muestra de sujetos, no sólo nos interesa en torno a qué 
valor se agrupan los resultados obtenidos (medida de tenden-
cia central), sino también si las observaciones se encuentran 
“cerca” o “lejos” del centro de la distribución. Este dato lo 
indican las medidas de dispersión (MIR 14, 190).
Para las variables de distribución simétrica se utiliza la desvia-
ción típica, y para las variables de distribución asimétrica el 
rango intercuartílico.
Re
cu
en
to
0 1 2 3 4 5 6 7 8 ó más
400
 300
 
200
 
100
 
0 Número de hijos
41
9
25
5
21
5
37
5
12
7
54
24 23 17
Figura 3. Diagrama de barras.
Re
cu
en
to
2010 30 40 50 60 70 80 90
250
200
 150
100
 50
 0
Edad del encuestado
Figura 4. Histograma (verde claro) y polígono de frecuencias (verde oscuro). 
x– =
∑ xi
n
Tema 1 · Estadística descriptiva
15
Ejemplo: la media de presión arterial sistólica de una muestra 
de pacientes puede ser de 130 mmHg porque la mitad tiene 
129 mmHg y la otra mitad 131 mmHg (esta muestra tiene una 
PAS muy bien controlada), pero también puede ser 130 mmHg 
porque la mitad de pacientes tenga 90 mmHg y la otra mitad 
170 mmHg (a pesar de tener la misma media, esta muestra es 
muy diferente de la otra, ya que los valores individuales están 
muy “alejados” del centro).
Las principales medidas de dispersión son (MIR 10, 178):
Desviación típica (desviación estándar, σ)
Es la media de la diferencia que existe entre cadaobservación 
individual realizada y la media aritmética de la distribución. Se 
obtiene a partir de la raíz cuadrada de la varianza (σ2), que es 
la media del cuadrado de dichas diferencias.
Para calcular la desviación típica es necesario realizar una ar-
gucia matemática, ya que si calculamos sin más la media de la 
diferencia o “separación” mencionada, al sumar la separación 
de los valores menores a la media (a la “izquierda”), que dará 
números negativos, más la separación de los valores mayores a 
la media (a la “derecha”), que dará números positivos, los nú-
meros positivos se anularán con los negativos y obtendremos 
un resultado = 0. 
Dicha argucia matemática es la varianza, que es la media del 
cuadrado de la separación mencionada. Al elevar al cuadrado 
las separaciones “negativas”, se vuelven números positivos y ya 
no se anulan con las separaciones positivas.
Rango (recorrido)
Es la diferencia entre el valor máximo que toma la variable y 
su valor mínimo.
Rango intercuartílico
Es la diferencia entre el valor que ocupa el cuartil 3 (C3) de la 
distribución y el valor que ocupa el cuartil 1 (C1). Esto es, es el 
“rango” existente entre los individuos que se sitúan en el 50% 
central de la distribución.
Coeficiente de variación (MIR)
Se utiliza para comparar la dispersión de varias distribuciones, 
ya que no tiene unidades (es adimensional). Indica qué 
porcentaje respecto de la media supone la desviación típica de 
una distribución.
Ejemplo: no es lo mismo separarse (DT) 10 kg respecto a 50 kg 
de media (un 20% de separación) que respecto a 100 kg de 
media (un 10% de separación).
¡Ojo! Cuando queremos expresar cualquier resultado en %, 
tenemos que multiplicar el resultado por 100, y viceversa, si 
queremos expresar un porcentaje en tanto por 1, deberemos 
dividir el resultado por 100.
Medidas de posición (localización)
Se basan en la ordenación de las observaciones de menor a 
mayor, y la posterior división de la distribución obtenida en 
grupos que contienen el mismo número de observaciones. A 
cada grupo se le asigna un número que indica el número de 
grupos situados a su “izquierda”, esto es, que tienen valores 
de la variable menores o iguales a él. En general a estos gru-
pos se les denomina “centiles”, pero en función del número 
de grupos que se utilicen existen distintos nombres:
Cuartiles
Se divide a la distribución en cuatro partes iguales.
Deciles
Se divide a la distribución en 10 partes iguales.
Percentiles (MIR)
Se divide a la distribución en 100 partes iguales.
La mediana ocupa la posición central de una distribución, 
por lo que también es una medida de localización. Al situarse 
en el centro, equivale al cuartil 2 (C2), decil 5 (D5) o percentil 
50 (p50).
Ejemplo: el percentil 75 (p75) será el valor de la variable obte-
nido por aquél individuo tal que el 75% de las observaciones 
hayan sido menores o iguales a dicho valor, y el 25% de las 
observaciones hayan sido mayores a dicho valor. El p75 equi-
vale al C3 y al D7,5.
σ2 =
∑ (xi – x)2 σ = σ2
n
CV = σ / x– 
Recuerda...
En variables cuantitativas de distribución simétrica, 
los resultados se expresan con la media y la desviación típica. 
En variables cuantitativas de distribución asimétrica, los 
resultados se expresan con la mediana y el rango intercuartílico.
-4 -3 -2 -1 1 2 3 40
0,5
0,4
 0,3
0,2
 0,1
 0
Figura 5. Dispersión de distribuciones.
Manual AMIR · Estadística y Epidemiología
16
Medidas de forma de una distribución
Cuando dos distribuciones coinciden en sus medidas de posi-
ción y dispersión, se hace difícil su comparación. Una manera 
de hacerlo es a través de la forma de la distribución. Para ello 
las distribuciones se comparan con la distribución normal en 
sus valores ideales, con media 0 y varianza 1 (distribución nor-
mal “tipificada”). Las dos medidas de la forma que se utilizan 
habitualmente son el grado de asimetría y el apuntamiento o 
curtosis.
Asimetría 
Estudia la deformación horizontal de los valores en torno al 
valor central, la media, observando la concentración de la va-
riable hacia uno de sus extremos. Se mide con los coeficientes 
de asimetría (el más utilizado es el coeficiente de asimetría de 
Fisher ó g1). Una distribución es simétrica cuando a la derecha 
y a la izquierda de la media existe el mismo número de valores, 
equidistantes dos a dos de la media, de tal manera que media, 
mediana y moda son iguales (g1 = 0). 
Cuando tenemos una curva asimétrica a la izquierda o negati-
va, la mayoría de valores están a la derecha de la media (g1 
<0), y la media es menor a la mediana, y ésta a su vez a la 
moda. Cuando tenemos una curva asimétrica a la derecha o 
positiva, la mayoría de valores se encuentra a la izquierda de la 
media (con g1 >0), y la media es mayor que la mediana, y ésta 
a su vez que la moda.
Curtosis o apuntamiento (MIR 13, 177)
La curtosis mide el grado de agudeza o achatamiento de una 
distribución en relación a la distribución normal (determina 
cuán puntiaguda es una distribución). Se mide con el coeficien-
te de curtosis de Fisher (g2). Se dice que una curva es mesocúr-
tica cuando posee un grado de apuntamiento igual a la 
distribución normal (g2 = 0). Se denomina leptocúrtica si es 
más apuntada o puntiaguda (g2 >0). Se denomina platicúrtica 
si es más achatada (g2 <0).
Definición de una curva de distribución normal 
según la forma
Cuando una distribución de datos presenta un coeficiente de 
asimetría g1 = ±0,5 y un coeficiente de curtosis de g2 = ±0,5 
cumple criterios de distribución normal.
1.4. Principales distribuciones de probabilidad
La “distribución” de los resultados de una variable es un modo 
de llamar a la morfología que toma la representación gráfica 
de dichos resultados. Cuando estudiamos los resultados de 
nuestro estudio, nos interesará que se distribuyan de forma 
similar a distribuciones ya conocidas y que tienen propiedades 
matemáticas interesantes, para que podamos aplicar dichas 
propiedades matemáticas a nuestros resultados.
Para las variables cuantitativas continuas nos interesará 
comprobar si se distribuyen de forma similar a la distribución 
normal (de Gauss). 
Para las variables cualitativas y para las cuantitativas 
discretas podemos utilizar varias distribuciones, siendo las más 
utilizadas la binomial y la de Poisson.
Distribución normal (de Gauss) (MIR)
La mayoría de las variables biológicas (presión arterial, tem-
peratura, datos de laboratorio, peso, altura, etc.) se distribuyen 
con este patrón.
Se define por una función de probabilidad continua, cuyo 
rango va desde –∞ hasta +∞, en la cual los valores se agrupan 
en torno a un valor central con forma de campana.
• Es simétrica.
• La media aritmética, mediana y moda coinciden (MIR).
• Es unimodal (tiene una única moda).
• El área bajo la curva de la distribución es igual a 1.
 La distribución normal, aplicada a la estadística descriptiva re-
presenta el porcentaje de observaciones que tiene cada valor 
posible, por lo que la suma de todos los porcentajes (área 
bajo la curva) será = 100% = 1.
La principal utilidad matemática de la distribución normal es 
que permite definir una serie de intervalos que encierran un 
área bajo la curva conocida. En estadística descriptiva, esto 
implica que si nuestros resultados se distribuyen de un modo 
“normal”, podremos establecer unos intervalos que indiquen 
entre qué valores se encuentra un determinado porcentaje 
de las observaciones de nuestra muestra (MIR 13, 175; 
MIR):
• El intervalo x– ± σ comprende el 68% de los valores centrales 
u observaciones. Fuera de dicho intervalo queda el 32% de 
las observaciones (el 16% a cada lado).
• El intervalo x– ± 2 σ comprende el 95% de los valores centrales 
u observaciones. Fuera de dicho intervalo queda el 5% de las 
observaciones (el 2,5% a cada lado).
• El intervalo x– ± 2,5 σ comprende el 99% de los valores cen-
trales u observaciones. Fuera de dicho intervalo queda el 1% 
de las observaciones (el 0,5% a cada lado).
Curvade asimetría
negativa
Curva de asimetría
positivaCurva simétrica
media = medianamedia < mediana mediana < media 
Figura 6. Asimetría.
Leptocúrtica Mesocúrtica Platicúrtica
Figura 7. Curtosis.
Tema 1 · Estadística descriptiva
17
Distribución binomial 
Se aplica a variables cuantitativas discretas o cualitativas, y 
consiste en convertir la variable en dicotómica, habiendo por 
tanto una probabilidad de “éxito” p(A) y una probabilidad de 
fracaso: su probabilidad complementaria p(1-A).
Distribución de Poisson
Es un caso particular de la distribución binomial que se utiliza 
para sucesos muy poco frecuentes: aquéllos en los que p(A) ó 
p(1-A) <10%, y además hay <5 individuos dentro de alguna 
categoría (n · p(A) <5 ó n · p(1-A) <5).
En la distribución de Poisson la media coincide con la varianza. 
 ..-∞ -2,5σ -2σ -1σ +1σ +2σ +2,5σ ..+∞
x
68%
%
95%
16% 16%
2,5%2,5%
Figura 8. Distribución normal.
18
2.1. Estadística inferencial 
para variables cuantitativas
El objetivo va a ser estimar, con un determinado nivel de 
confianza, entre qué niveles se encontrará la verdadera 
media poblacional de la variable que hemos medido en 
nuestra muestra.
Para ello pasamos de la distribución de resultados de nuestra 
muestra, que refleja el porcentaje o número de observacio-
nes que tienen cada uno de los valores posibles de la variable, 
a una distribución de resultados poblacional, que refleja la 
probabilidad de que cada una de las posibles medias sea la 
verdadera media poblacional (MIR 19, 123).
Teóricamente, la estadística inferencial simula qué ocurriría si, 
en vez de una sola muestra poblacional, fuéramos capaces de 
estudiar infinitas muestras poblacionales (que conjuntamente 
representarían a la población entera). De cada una de dichas 
muestras obtendríamos la media de la variable estudiada, y 
representaríamos dichas medias en una distribución de pro-
babilidad (ver figura 1). El valor medio de las teóricas medias 
muestrales obtenidas es el valor más probable que adquirirá la 
verdadera media poblacional. En torno a dicho valor podemos 
construir intervalos (de confianza) que indicarán, con una 
cierta probabilidad (68%, 95% o 99%), entre qué valores se 
encontrará la verdadera media poblacional.
Si la distribución muestral es normal, o si n >30 (teorema 
central del límite), la distribución poblacional también será 
normal y podremos utilizar las propiedades matemáticas de 
dicha distribución.
Expresión de resultados de una inferencia de medias 
(MIR)
Al igual que al expresar los resultados de la muestra se utilizan 
intervalos que indican entre qué valores se encuentra un 
determinado porcentaje de las observaciones, al estimar los 
resultados de la muestra se utilizarán intervalos de confianza 
(IC) que indicarán entre qué valores se encuentra, con una 
determinada probabilidad, la verdadera media poblacional. 
• La medida de tendencia central (media poblacional = µ) se 
equipara a la media muestral (µ = x).
 Si nuestra muestra es representativa de la población, la media 
muestral será el valor más probable que podrá tomar la media 
poblacional.
• La medida de dispersión utilizada se denomina error están-
dar de la media (MIR 19, 122; MIR 12, 172) (eem), y se 
calcula a partir de la desviación típica muestral.
Para el cálculo de los intervalos de confianza (IC) se 
utilizan las propiedades matemáticas de la distribución normal 
(MIR 15, 185):
• IC del 68% = µ ± eem
• IC del 95% = µ ± 2 eem 
• IC del 99% = µ ± 2,5 eem 
Muestra Población% prob.
variable
±μ z · eem± z · σ
μx
x
x
Figura 1. Estadística descriptiva (izquierda) y estadística inferencial (derecha). 
eem =
σ
n
Estadística inferencial
Tema 2
Autores: Julio Sesma Romero, H. U. G. de Alicante (Alicante). Carlos Corrales Benítez, H. U. Fundación Jiménez Díaz (Madrid). Héctor Manjón Rubio, 
H. U. Ramón y Cajal (Madrid).
Enfoque MIR
La inferencia de variables cuantitativas (medias) era pregun-
tada de forma repetida hasta hace unos años, a modo de proble-
mas para calcular e interpretar intervalos de confianza (“existe un 
95% de probabilidades de que el verdadero valor de la media se 
encuentre entre…”). Desde entonces ha habido menos preguntas 
al respecto, y han sido más teóricas. La inferencia de variables 
cualitativas (porcentajes) no la preguntan desde hace unos 15 
años, por lo que no la estudies.
Recuerda...
La Estadística inferencial estima cómo serían los 
resultados de la población objetivo si fuéramos capaces 
de estudiar a todos sus individuos. Para ello, extrae 
conclusiones a partir de los resultados obtenidos en la 
muestra, por lo que existirá una probabilidad de error.
Tema 2 · Estadística inferencial
19
2.2. Estadística inferencial 
para variables cualitativas
El objetivo va a ser estimar, con un determinado nivel de 
confianza, entre qué niveles se encontrará el verdadero 
porcentaje poblacional de la categoría de la variable que 
hemos medido en nuestra muestra. 
Para ello pasamos de una distribución de resultados binomial 
de nuestra muestra, que refleja el porcentaje p(A) de la 
categoría que queremos inferir y su porcentaje complemen-
tario p(1-A), a una distribución de resultados poblacional, que 
refleja la probabilidad de que cada uno de los posibles por-
centajes sea el verdadero porcentaje poblacional. La variable 
de la distribución poblacional (“porcentaje poblacional”) es 
cuantitativa y sigue una distribución normal.
¡Ojo! Al inferir un porcentaje, como empleamos la distribución 
binomial estamos realizando la estimación poblacional de una 
sola categoría de la variable (p. ej., en la variable “color de 
pelo”, tendremos que elegir una sola categoría –pelo rubio, 
pelo castaño, pelo moreno…- cada vez que realicemos inferen-
cia).
Expresión de resultados de una inferencia de 
porcentajes 
• La medida de tendencia central [porcentaje poblacional = 
P(A)] se equipara al porcentaje muestral [P(A) = p(A)]. 
• La medida de dispersión utilizada se denomina error están-
dar del porcentaje (eep). Como las variables cualitativas no 
tienen medidas de dispersión (no tienen desviación típica), se 
calcula a partir del porcentaje muestral. 
Para el cálculo de los intervalos de confianza (IC) se utilizan 
las propiedades matemáticas de la distribución normal: 
• IC del 68% = P(A) ± eep
• IC del 95% = P(A) ± 2 eep 
• IC del 99% = P(A) ± 2,5 eep 
2.3. Cálculo del tamaño muestral 
para estudios de inferencia
Antes de realizar cualquier estudio epidemiológico, se debe 
analizar cuál es el tamaño muestral mínimo necesario para 
conseguir ofrecer unos resultados suficientemente precisos.
En los estudios de inferencia (estimar cómo será un paráme-
tro en la población, p. ej., la prevalencia de una enfermedad) 
es necesario conocer los siguientes datos para calcular el 
tamaño muestral:
• Nivel de precisión (anchura del intervalo de confianza) deseado.
• Nivel de confianza deseado (95%, 99%...) (MIR 18, 215); a 
menor nivel de confianza, menor amplitud del intervalo de 
confianza si mantenemos el mismo tamaño muestral.
Además, necesitamos otro dato que depende del tipo de 
variable utilizada en nuestro estudio:
• Variable cualitativa: porcentaje esperado del parámetro que 
se va a medir (según estudios previos) (MIR).
• Variable cuantitativa: varianza de la variable (MIR 14, 191).
No es necesario conocer (MIR): error beta. 
Aclaración: en ocasiones, los autores de las preguntas MIR de-
nominan erróneamente la probabilidad de error que existe en 
estadística inferencial (complementario del nivel de confianza 
del estudio) como error alfa. Sin embargo, debemos “acep-
tar” ese error como correcto cuando respondamos preguntas 
sobre el cálculo del tamaño muestral.
Muestra
p(A)
p(1-A)
Población% prob.
P(A)
P(A)
p(A)categoría “A” resto de 
categorías ± z · eep
Figura 2. Estadística descriptiva (izquierda) y estadística inferencial (derecha). 
eep =
p(A) · p (1-A)
n
20
Contrastede hipótesis
Tema 3
3.1. Errores en contraste de hipótesis
El contraste de hipótesis se utiliza en estudios que pretenden 
determinar si existen diferencias (comparación) o asociaciones 
(correlación) entre varias variables. El objetivo del contraste de 
hipótesis es determinar si esas diferencias o asociaciones obser-
vadas se deben al azar, o bien se deben a un efecto real (MIR). 
Para ello, se definen dos hipótesis y las respectivas probabilida-
des de que cada una de ellas se deba al azar (errores alfa y beta).
• Hipótesis nula (H0): no existe asociación entre las variables 
analizadas.
• Hipótesis alternativa (H1): existe asociación entre las varia-
bles analizadas.
En la realidad sólo se podrá cumplir una de dichas hipótesis (o 
existe asociación, o no existe), pero al realizar nuestro estudio 
podemos acertar o bien equivocarnos, viendo asociación 
cuando no la hay (error alfa), o no viendo asociación cuando 
las hay en la realidad (error beta). Así, existen cuatro posibili-
dades si contrastamos los resultados de la realidad con los 
obtenidos en nuestro estudio (ver tabla 1).
Hipótesis nula y alternativa 
según el objetivo de nuestro estudio
Diseño de superioridad (MIR 19, 118; MIR)
El objetivo es conocer si una intervención “A” (tratamiento, 
prueba diagnóstica, etc.) es mejor que otra intervención “B”, 
o bien si esa otra es mejor. En este caso H0 es la igualdad “A = 
B”, y H1 es la presencia de diferencias “A ≠ B”. Se utiliza por 
tanto un contraste de hipótesis bilateral o de dos colas, ya 
que nos interesa conocer si hay diferencias en ambos sentidos 
de la igualdad (A > B, B > A).
Diseño de no inferioridad 
(MIR 18, 25; MIR 16, 29; MIR 16, 190; MIR 15, 190)
El objetivo es determinar si la intervención experimental “A” 
no es peor que otra ya existente “B”; nos da igual que sea 
igual o superior, lo que queremos es únicamente que no sea 
inferior. En este caso H0 es la presencia de inferioridad “A < 
B”, y la H1 es la situación de no inferioridad “A ≮ B”. Se 
utiliza por tanto un contraste de hipótesis unilateral o de 
una cola, ya que sólo nos interesa descartar que no haya 
diferencias en el sentido en que “A” es peor que “B” (A < B).
Para realizar un análisis de no inferioridad, debemos establecer 
un límite de no inferioridad (δ = delta) (MIR 10, 188) a 
partir del cual consideraremos que la intervención experimental 
es “inferior” a la ya existente. Dicho límite es arbitrario y suele 
establecerse en un 20% de diferencias: el fármaco experimen-
tal debe conseguir al menos el 80% del beneficio que consigue 
la intervención control.
Diseño de equivalencia terapéutica
El objetivo es determinar si la intervención experimental “A” 
es similar a otra ya existente “B”; la intervención experi-
mental no debe ser mejor ni peor, sino producir un efecto 
terapéutico equivalente. En este caso H0 es la ausencia de 
equivalencia “A ≉ B”, y la H1 es la situación de equivalencia 
terapéutica “A ≈ B”.
Al igual que en un análisis de no inferioridad, debemos 
establecer unos límites arbitrarios para definir la situación de 
equivalencia. Dichos límites se suelen establecer en un ± 20%: 
el efecto de un fármaco debe encontrarse entre el 80% y el 
120% del efecto que produce el otro (no puede ser más de un 
20% peor ni más de un 20% mejor) (MIR).
REALIDAD
ESTUDIO
TEST
Se cumple H1 
(A ≠ B)
Se cumple H0 
(A = B)
Veo diferencias 
(se acepta H1)
Potencia 
1 − ß
Error Tipo I 
α
No veo 
diferencias (no 
se rechaza H0)
Error Tipo II 
ß
1 − α
Tabla 1. Contraste de hipótesis en estudios con diseño de superioridad.
Autores: Eduardo Franco Díez, H. U. Ramón y Cajal (Madrid). Héctor Manjón Rubio, H. U. Ramón y Cajal (Madrid). Julio Sesma Romero, H. U. G. de 
Alicante (Alicante).
Enfoque MIR
Es el tema más importante del bloque de Estadística del manual. 
Todos los años hacen alguna pregunta sobre el concepto de error 
alfa y error beta, y sobre la interpretación de los resultados de 
un estudio en función del nivel de significación “p”. Además, 
también suele haber una pregunta sobre test de contraste de 
hipótesis, preferentemente por los más avanzados (análisis mul-
tivariante y análisis de supervivencia) en lugar de por los tests 
“tradicionales” (t de Student, ANOVA…). En los últimos años se 
ha puesto de moda el análisis de no-inferioridad.
Recuerda...
El contraste de hipótesis compara los resultados de 
varias poblaciones entre sí, para lo cual debe realizar 
inferencia poblacional a partir de muestras obtenidas 
de cada población. Por tanto, al igual que en Estadística 
inferencial, existe probabilidad de error.
Tema 3 · Contraste de hipótesis
21
El ejemplo más típico de diseño de equivalencia terapéutica son 
los estudios de bioequivalencia, que se utilizan para autori-
zar la comercialización de los fármacos genéricos comparando 
sus propiedades farmacocinéticas con los respectivos fármacos 
originales (ver tema 7. Tipos de estudios epidemiológicos).
Error tipo I (error alfa) 
(MIR 13, 174; MIR 12, 173; MIR 11, 172; MIR 10, 176)
Es el error que se comete cuando las diferencias observadas se 
deben al azar (en la realidad, H0 es cierta), pero el investigador 
lo interpreta como debido a una diferencia o asociación (en el 
estudio, se acepta H1 y se rechaza H0): es la probabilidad de 
rechazar la hipótesis nula siendo cierta. Por lo tanto, es un 
resultado “falso positivo”. 
La probabilidad de cometer este error es α, que define el nivel 
de significación estadística de los estudios epidemiológicos. 
Una vez realizado cualquier estudio epidemiológico de com-
paración, se calcula mediante un test estadístico el valor “p”, 
que es la probabilidad de que una diferencia igual o mayor 
a la observada en el estudio no exista en la realidad (esto es, 
de que estemos incurriendo en un error α). Si el valor de “p” 
es inferior al nivel de significación estadística α que hayamos 
predefinido antes de iniciar el estudio (en general se define 
α = 0.05), diremos que los resultados del estudio han sido 
estadísticamente significativos (MIR).
• p <0,05: se acepta H1 y se rechaza H0.
• p >0,05: no se acepta H1 y no se rechaza H0.
El nivel de significación de un contraste de hipótesis es inde-
pendiente de la magnitud de las diferencias encontradas 
entre las intervenciones que se comparan.
Error tipo II (error beta) (MIR) 
Es el error que se comete cuando las diferencias observadas 
son reales (en la realidad, H1 es cierta), pero el investigador 
lo interpreta como debido al azar (en el estudio, no se acepta 
H1 y no se rechaza H0): es la probabilidad de no rechazar 
la hipótesis nula siendo falsa. Por lo tanto, es un resultado 
“falso negativo”. 
Cuando se realizan estudios epidemiológicos y se concluye que 
no existen diferencias, se suele requerir una probabilidad de 
haber cometido un error beta <0,20 (menos del 20%) 
(MIR 19, 115). No obstante, el error beta es menos importante 
que el error alfa y en muchas ocasiones ni siquiera se calcula.
Potencia estadística (poder estadístico) (MIR 10, 179; MIR)
Es la probabilidad de detectar diferencias (en el estudio se 
acepta H1 y se rechaza H0) cuando en realidad existen (en la 
realidad, H1 es cierta): es la probabilidad de rechazar la 
hipótesis nula siendo falsa. Por lo tanto, es un resultado 
“verdadero positivo”.
La potencia estadística y el error beta son complementarios 
(potencia + β = 1). Por lo tanto:
Así, de forma análoga al error beta, cuando se realizan estu-
dios epidemiológicos y se concluye que no existen diferencias, 
se suele requerir que la potencia estadística sea al menos de 
un 80%.
3.2. Cálculo del tamaño muestral 
en el contraste de hipótesis
Como en cualquier estudio epidemiológico, se debe analizar 
antes de comenzar el estudio cuál es el tamaño muestral míni-
mo necesario para conseguir unos resultados suficientemente 
precisos.
Regla mnemotécnica
Para recordar el error alfa: α-fetoproteína (α-FP).
El error tipo α es un resultado falso positivo (FP).
Recuerda...
La hipótesisnula nunca se puede aceptar, 
y la hipótesis alternativa nunca se puede rechazar. Así pues:
• La hipótesis nula se rechaza o “no se rechaza”.
• La hipótesis Alternativa se Acepta o “no se acepta”.
Potencia estadística = 1 – β
β = 1 – potencia estadística
Recuerda...
Los errores alfa y beta son errores aleatorios, esto es, debidos 
al azar (es el azar el que hace que el estudio falle y detecte 
diferencias cuando no las hay, o no las detecte cuando las hay). 
Los errores aleatorios se solucionan aumentando el tamaño 
muestral, por lo que ante un estudio cuyos resultados no sean 
estadísticamente significativos (p >0,05), si diseñamos un nuevo 
estudio incluyendo un mayor tamaño muestral, es posible que 
consigamos alcanzar entonces la significación estadística.
↑ n → ↓ α, ↓ β, ↑ potencia estadística
Recuerda...
Trucos para acertar las preguntas sobre 
contraste de hipótesis en el MIR:
• Las opciones categóricas (“siempre”, “nunca”, “sin lugar a 
dudas”) son falsas. Se debe tener en cuenta que existe un 
margen de error que podemos cometer.
• Las opciones correctas suelen aplicar la definición de error alfa o 
error beta al ejemplo del enunciado, y para ello nos “traducen” 
la tabla 1 de este tema. Son por ello opciones que parecen 
trabalenguas y que tienen el siguiente esquema con dos par-
tes, la primera que nos habla de lo que ocurre en la realidad, y 
la segunda que nos habla sobre los resultados de nuestro estu-
dio: “En el caso de que no existieran diferencias entre los dos 
fármacos (= si en la realidad se cumple H0), existiría una proba-
bilidad de encontrar unos resultados como los obtenidos (= si, 
p. ej., en nuestro estudio hemos visto diferencias significativas 
-H1-) inferiores al 5% (= hemos obtenido una p <0.05)”.
Manual AMIR · Estadística y Epidemiología
22
En los estudios de contraste de hipótesis (p. ej., comparar 
qué fármaco “A” o “B” es mejor) es necesario conocer los 
siguientes datos para calcular el tamaño muestral:
1. Aquellos parámetros que hacía falta conocer para estadís-
tica inferencial:
- Nivel de precisión que queremos que tenga el intervalo de 
confianza.
- Nivel de confianza deseado (68%, 95%, 99%).
- Variabilidad del parámetro estudiado (según estudios pre-
vios), si la variable de interés es cuantitativa.
- Porcentaje esperado del parámetro que se va a medir 
(según estudios previos), si la variable de interés es cuali-
tativa.
2. Parámetros específicos del contraste de hipótesis:
- Tipo de diseño del estudio y si el análisis será de una cola 
o de dos colas.
- Error tipo α y tipo β permitidos: nivel de potencia estadís-
tica deseado. Cuanta mayor potencia, y cuanto menor α 
y β deseados, mayor tamaño muestral (MIR 10, 190).
- Magnitud de la diferencia mínima clínicamente relevante 
que se desea demostrar entre los dos fármacos (δ).
 Aclaración: se llama también delta, pero es un concepto 
distinto al límite de no inferioridad.
- Porcentaje de pérdidas previsto (d) (MIR).
No es necesario conocer: nivel de enmascaramiento del 
estudio (MIR), número de pacientes que somos capaces de 
reunir (MIR), número de centros participantes (MIR). 
Si al finalizar el estudio se obtiene un resultado no significativo, 
no se deben añadir pacientes hasta que lo sea, sino revisar la 
hipótesis de trabajo y la determinación del tamaño muestral y 
realizar un nuevo estudio (MIR).
3.3. Tests para contraste de hipótesis
Tests para estudios de comparación de variables
Los principales tests para comparación de variables se exponen 
en la tabla 2. Para elegir el tipo de test a utilizar nos debere-
mos fijar en dos criterios fundamentales:
• Qué tipo de variable (cualitativa o cuantitativa) es la va-
riable resultado que tenemos que comparar. Los tests para 
variables cuantitativas aportan una mayor potencia estadís-
tica (permiten alcanzar la significación estadística con menor 
tamaño muestral y sus resultados son más precisos) que los 
utilizados para variables cualitativas.
 Cuando la variable es cuantitativa, además, tendremos que 
elegir entre los siguientes grupos de tests estadísticos:
- Tests paramétricos: se utilizan cuando la variable sigue 
una distribución normal (MIR), o bien si n >30 (pese a que 
la distribución no sea normal). Aportan una mayor potencia 
estadística que los no paramétricos.
- Tests no paramétricos: se utilizan cuando la variable no 
sigue una distribución normal y además n <30.
 Las variables ordinales se consideran como si fueran cuan-
titativas, pero con la restricción de que sólo se puede em-
plear con ellas tests no paramétricos (MIR).
• Si estamos comparando entre sí los resultados obtenidos en 
esa variable en varios grupos de individuos (datos inde-
pendientes), o bien en un único grupo de individuos pero 
en varios momentos del tiempo (datos apareados).
Recuerda...
Las variables resultado cualitativas nos las plantearán 
habitualmente como porcentajes (comparar varios porcentajes), 
mientras que las variables resultado cuantitativas nos las 
plantearán habitualmente como medias (comparar varias medias).
VARIABLE 
CUALITATIVA
VARIABLE CUANTITATIVA
2 GRUPOS O 
2 MOMENTOS DEL t
>2 GRUPOS O
>2 MOMENTOS DEL t
DATOS 
INDEPENDIENTES
(VARIOS GRUPOS)
chi2 (χ2)
• Corrección de Yates*
• Test exacto de Fisher**
Paramétrico t Student ANOVA
No paramétrico
V. ordinales
Mann-Whitney Kruskal-Wallis
DATOS 
APAREADOS
(VARIOS MOMENTOS DEL t)
McNemar
Paramétrico
t Student para 
datos apareados
ANOVA para 
datos apareados
No paramétrico
V. ordinales
Wilcoxon Friedmann
*Corrección de Yates: corrección que se aplica al test de chi2 cuando el tamaño muestral es n <200.
**Test exacto de Fisher: cuando en la tabla de contingencia de la chi2 hay menos de cinco individuos en >25% de las casillas [expresado matemáticamente: n · p <5 ó 
n · (1-p) <5] no se puede utilizar el test de chi2 y hay que utilizar el test exacto de Fisher.
Tabla 2. Tests de contraste de hipótesis para comparación de variables (MIR 17, 122; MIR 17, 123; MIR 17, 124; MIR 10, 177).
Tema 3 · Contraste de hipótesis
23
Tests para estudios de asociación entre variables
En este caso, lo que se pretende es demostrar si los cambios 
que se produzcan en una o varias variables (variables 
independientes, xi) van a influir sobre el valor que tome 
otra variable (variable dependiente, y); además, se pretende 
cuantificar dicha influencia. Todas las variables se recogen 
de una misma muestra.
Regresión
La regresión trata de expresar mediante ecuaciones la aso-
ciación existente (mostrar mediante una fórmula matemática 
cómo varía la variable “y” con cada unidad de aumento de 
las variables “xi”). Además, las ecuaciones obtenidas nos 
permitirán predecir el valor que tomará la variable “y” en 
un individuo para el que conocemos las variables “xi”. Las 
variables introducidas pueden ser tanto cuantitativas como 
cualitativas (en cuyo caso habrá que asignar a cada categoría 
un número que nos inventemos). 
Por ejemplo: en una muestra de individuos, analizar cuánto 
aumenta el colesterol (variable y) con cada kg que aumente el 
peso medio (variable x) en dicha muestra.
Si existe sólo una variable independiente (xi) en la ecuación se 
habla de regresión univariante o simple. Si existen dos o 
más variables independientes (xi) en la ecuación se habla de 
regresión multivariante o múltiple (MIR 16, 194). Si se uti-
liza regresión multivariante, todas las variables independientes 
incluidas en la ecuación quedan “ajustadas entre sí” de modo 
que el coeficiente que acompaña a cada variable indicará el 
efecto que tiene exclusivamente dicha variable sobre la variable 
“y”, eliminando el efecto de cualquier otra variable indepen-
diente introducida en la ecuación: sirve por tanto para evitar 
sesgos por factor de confusión.
El tipo de variable de la variable dependiente (y) define el tipo 
de regresión:
• Regresión logística: si la variable “y” es cualitativa (MIR 12, 176; 
MIR).
• Regresión lineal (ver figura 1): cuando la variable “y” es 
cuantitativa,la fórmula matemática más empleada es la ecua-
ción de una recta:
 El valor de la constante “a” indica el valor que toma la varia-
ble “y” (eje de ordenadas) cuando las variables independien-
tes valen = 0. Se denomina ordenada en el origen.
 El valor de cada coeficiente “b” expresa cuantitativamente 
la asociación entre cada variable “xi” y la variable “y”: indica 
cuánto aumenta la variable “y” con cada unidad de aumento 
de cada variable “xi” (MIR). Se denomina pendiente.
• Regresión de Cox: método de regresión que se utiliza en el 
análisis de supervivencia.
Correlación (MIR 15, 186)
La correlación trata de expresar, mediante un coeficiente de 
correlación, el porcentaje de los cambios observados en la va-
riable dependiente que se deben a los cambios observados en 
las variables independientes. Por lo tanto, indicará lo “fuerte” 
que es el grado de asociación.
Evidentemente, los cambios que ocurran en una muestra de 
pacientes en la variable “y” (p. ej., en el colesterol), no se 
deberán en su totalidad a los cambios apreciados en la variable 
“x” (p. ej., el peso). Sólo un cierto porcentaje de esa variación 
se deberá a la variable “x”, y el resto se deberá a otras variables 
que no estamos estudiando (p. ej., la dieta, la realización o no 
de ejercicio físico, etc.).
Los tests de correlación más utilizados son los empleados 
para evaluar la correlación existente entre dos variables 
cuantitativas.
• Coeficiente “r” de Pearson (MIR): es un test paramétrico 
que mide el grado de correlación lineal entre las variables (se 
emplea cuando las dos variables siguen una distribución nor-
mal o bien si n >30). No descarta otros tipos de correlación 
que no sea la lineal.
• Coeficiente “ρ” de Spearman: es un test no paramétrico (se 
emplea cuando alguna de las variables sigue una distribución 
no normal y además n <30).
El signo del coeficiente de correlación (+/-) indica si la 
correlación es positiva (cuando la variable “x” aumenta, la 
variable “y” aumenta) o si es negativa (cuando la variable “x” 
aumenta, la variable “y” disminuye).
El valor absoluto del coeficiente indica, si lo elevamos al 
cuadrado, el porcentaje de los cambios de la variable “y” 
que se explican por los cambios de la variable “x” (p. ej., un 
coeficiente de 0,8 = 80%, indica que el 64% de los cambios en 
la variable “y” se explican por los cambios en la variable “x”):
• Valor absoluto >0,7: correlación fuerte (MIR 14, 192).
• Valor absoluto <0,7: correlación débil.
• Valor absoluto = 0: ausencia de correlación. 
y = a + b1 · x1 + b2 · x2 + b3 · x3 + … + bi · xi
a 
=
 o
rd
en
ad
a 
en
 e
l o
rig
en y
0 1 2 3 4
b = pendiente
x
y = a + b · x
Figura 1. Regresión lineal simple.
y y
x x
Figura 2. Correlación positiva (izquierda) y negativa (derecha). 
Manual AMIR · Estadística y Epidemiología
24
Análisis de supervivencia (MIR 14, 33; MIR) 
Se utiliza cuando en un estudio epidemiológico la variable 
respuesta es el tiempo que transcurre hasta que sucede un 
evento de interés (la muerte, la aparición de enfermedad, la 
curación, el alta hospitalaria…). Así pues, las variables tienen 
una parte cuantitativa (tiempo que transcurre) y una parte 
cualitativa (aparición o no de un evento).
Cuando el tiempo de seguimiento de alguno de los pacientes 
del estudio termina antes de que haya tenido lugar el evento 
de interés se habla de observaciones incompletas o censu-
radas. Si un paciente fallece por una causa distinta a la enfer-
medad estudiada se considerará como censurado, ya que, en 
caso contrario, se estaría cometiendo un sesgo de información.
En la representación gráfica de las curvas de supervivencia, 
se suele anotar al principio de cada unidad de tiempo los pa-
cientes que siguen en el estudio y todavía no han presentado 
el evento de interés (pacientes en riesgo). Para calcular los 
pacientes en riesgo al inicio de cada unidad de tiempo, se 
deben eliminar tanto los pacientes que han tenido el evento 
de interés como los pacientes censurados.
Los métodos estadísticos no paramétricos son los más 
frecuentemente utilizados en análisis de supervivencia. Entre 
ellos los más destacados son:
• Kaplan-Meier: utilizado para “calcular” las curvas de supervi-
vencia (MIR 18, 214; MIR 12, 174).
• Test de log-rank: utilizado como test de comparación, es si-
milar al chi2 (comparar los resultados obtenidos entre varias 
intervenciones).
• Modelo de regresión de Cox: utilizado para realizar regresión.
Para cuantificar el grado de asociación existente entre un 
determinado factor de riesgo o protector y un evento de 
interés estudiado con análisis de supervivencia, la medida 
epidemiológica utilizada es el hazard ratio o razón de riesgos 
(HR). Su interpretación es similar a las del resto de medidas de 
asociación (RR, OR…).
El HR es el cociente entre el riesgo que tiene de presentar el 
evento de interés un sujeto del grupo experimental respecto a 
un sujeto del grupo control, por cada unidad de tiempo que 
dura el estudio (MIR 14, 34). Es similar al riesgo relativo (RR), 
dado que también es un cociente de riesgos. Sin embargo, 
mientras el RR compara el riesgo acumulado a lo largo de 
todo el estudio (cociente de incidencias acumuladas al finali-
zar el estudio), el HR analiza el riesgo instantáneo para cada 
unidad de tiempo (cociente entre la velocidad de progresión 
de la enfermedad o “hazard rate” de los grupos comparados). 
Así, el HR analiza las probabilidades de presentar el evento en 
el siguiente instante de tiempo, para aquellos individuos que 
continúen en el estudio al inicio de dicho periodo de tiempo 
(pacientes en riesgo); el RR analiza las probabilidades de 
presentar el evento a lo largo de todo el estudio.
Ejemplo (ver figura 3): imaginemos un estudio que compara 
2 grupos de 100 pacientes, que dura 2 unidades de tiempo, y 
que tiene un HR de 0.7 (sin pérdidas). Pongamos que observa-
mos, por ejemplo, 30 eventos en el grupo control en cada 
periodo de tiempo. En este caso, en el grupo experimental 
habría 21 eventos en el periodo de tiempo 1 (un 70% de 30) 
y quedarían 79 pacientes para el periodo de tiempo 2. En dicho 
periodo de tiempo habría 24 eventos (en el grupo control hay 
30 eventos de 70 pacientes que quedan, esto es, un riesgo del 
42,8%; el riesgo del grupo experimental debe ser el 70% de 
ese 42,8%: un 30% sobre 79 pacientes, que son 24 eventos). 
El HR del estudio es 0.7, pero el RR sería igual al cociente de 
incidencias acumuladas: 45 eventos en el grupo experimental / 
60 eventos en el grupo control = 0.75. Así, vemos que el HR y 
el RR son similares, pero no son la misma cosa.
79
70
1
Su
pe
rv
iv
en
ci
a
0%
20%
40%
60%
80%
100%
30 eventos
30 eventos
21 eventos
Pacientes en riesgo
Grupo experimental
Grupo control
100
100
0
55
40
2
24 eventos
79%
70%
55%
40%
RR = = 0,7545/100
60/100
HR = = 0,70
2
+21/100
30/100
24/79
30/70
Tiempo
Figura 3. Curvas de Kaplan-Meier que representan el ejemplo expuesto en el texto.
25
Conceptos
• Probabilidad: medida de la verosimilitud de que un determi-
nado suceso ocurra o no. Oscila entre 0 (suceso imposible) y 
1 (suceso seguro).
• Sucesos complementarios: dos sucesos A y B son comple-
mentarios cuando la suma de las probabilidades de ambos es 
igual a 1. Siempre que no ocurre un suceso, ocurre el suceso 
contrario: p(A) + p(B) = 1.
 Ejemplo: ser hombre (A) y ser mujer (B).
• Sucesos incompatibles: se denomina así a los sucesos ex-
cluyentes, es decir, que no pueden suceder a la vez. Dos su-
cesos A y B son incompatibles cuando p(A ∩ B) = 0
 Ejemplo: tener el pelo moreno (A) o pelirrojo (B).
• Sucesos independientes: la probabilidad de que ocurra uno 
de ellos no se influye por el hecho de que ocurra o no el otro: 
p(A/B) = p(A); p(B/A) = p(B).
 Ejemplo: ganar la quiniela (A) y ganar la lotería (B).
Unión de probabilidades (∪) 
Es la probabilidad de que ocurra un suceso u otro. Al calcular 
la unión de probabilidades se suma la probabilidad de que 
ocurra cada suceso, pero sedebe restar una vez la probabilidad 
de que ocurran ambos a la vez (ya que al sumar la probabilidad 
de que ocurra cada suceso se está contando dos veces a los 
individuos que presentan los dos sucesos):
Si tenemos dos sucesos incompatibles: p(A ∩ B) = 0, y por 
tanto p(A ∪ B) = p(A) + p(B) 
Si queremos calcular la probabilidad de que sólo ocurra un 
suceso u otro (eliminando por tanto todos los casos en los que 
aparezcan los dos sucesos a la vez) debemos restar dos veces 
en la fórmula la intersección de probabilidades:
Intersección de probabilidades (∩) (MIR)
Es la probabilidad de que ocurran un suceso y otro simultánea-
mente. Para calcularlo se multiplica la probabilidad de que 
ocurra uno de ellos [p(A)] por la probabilidad de que ocurra el 
otro en aquellos casos en los que ocurre el primer suceso 
[probabilidad condicionada = p(B/A)]:
Si tenemos dos sucesos independientes: p(B/A) = p(B), y por 
tanto p(A ∩ B) = p(A) · p(B).
Probabilidad condicionada
Una probabilidad de un suceso A condicionada al suceso B es 
la probabilidad de que ocurra el suceso A considerando sólo 
los casos en los que ocurre B (es decir, la probabilidad de que 
ocurra A sabiendo que ha ocurrido B). 
La fórmula por la cual se puede calcular la probabilidad condi-
cionada p(A/B) a partir de la probabilidad condicionada p(B/A) 
se denomina teorema de Bayes.
A menos que tengamos sucesos independientes, en cuyo caso 
las fórmulas se simplifican, no nos van a poder pedir en el 
MIR calcular la probabilidad condicionada ni la intersección de 
probabilidades.
p(A ∪ B) = p(A) + p(B) − p(A ∩ B)
p(sólo A ó B) = p(A) + p(B) − 2 · p(A ∩ B)
p(A ∩ B) = p(A) · p(B/A) = p(B) · p(A/B)
p(A/B) =
p(A ∩ B)
=
p(A) · p(B/A)
p(B) p(B)
Probabilidades
Tema 4
p (A U B)
=
=
+
+
-
-p(A) p(B) p(A B) 
U
A B
Figura 1. Unión de probabilidades. 
Autores: Julio Sesma Romero, H. U. G. de Alicante (Alicante). Carlos Corrales Benítez, H. U. Fundación Jiménez Díaz (Madrid). Héctor Manjón Rubio, 
H. U. Ramón y Cajal (Madrid). 
Enfoque MIR
Tema no preguntado en el MIR desde hace más de 10 años. Por lo 
tanto, no lo estudies. Sólo si te sobra tiempo realiza una lectura 
comprensiva.
Manual AMIR · Estadística y Epidemiología
26
27
Cuando se desea comercializar un nuevo test diagnóstico (p. 
ej., un nuevo modelo de esfingomanómetro), se deben llevar a 
cabo estudios de validación mediante los cuales se evaluarán 
distintas cualidades del test:
Validez (exactitud)
Es el grado en el cual una medición representa el verdadero valor 
que se desea medir. En los estudios de validación, representaría 
el grado de correlación de las medidas obtenidas mediante el 
test con las obtenidas mediante el gold standard (MIR).
Reproducibilidad (fiabilidad, precisión)
Es la capacidad del test de obtener el mismo resultado cuando 
la medición se repite bajo las mismas condiciones de medida. 
Concordancia
Es la capacidad del test de obtener el mismo resultado cuando 
la medición se repite mediante distintas condiciones de 
medida (p. ej., cuando la persona encargada de realizar el test 
es distinta). El cambio en condiciones que afectan a la validez 
externa de una prueba (como la prevalencia de enfermedad, 
o la aplicación del test como screening o como diagnóstico de 
confirmación) afecta al grado de concordancia existente.
Los estudios de concordancia utilizan distintos tests estadísticos 
en función de cómo sea la variable resultado que se va a utilizar:
• Variable cualitativa dicotómica: estadístico kappa (de 
Cohen) (MIR 13, 176). Oscila entre −1 (excesiva discordan-
cia) y +1 (concordancia completa). Cuando es igual a 0, la 
concordancia obtenida se debe al azar.
 Ejemplo: evaluar la concordancia entre dos radiólogos a los 
que se les muestran las mismas radiografías de tórax y tienen 
que indicar si hay SÍ/NO un infiltrado neumónico.
• Variable cualitativa no dicotómica: estadístico kappa pon-
derado. Es igual que el estadístico kappa, pero tiene en 
cuenta el grado de discordancia existente, lo cual es impor-
tante cuando existen varias categorías posibles de la variable 
(por eso se usa en variables no dicotómicas).
 Cuantas más categorías posibles tenga una variable cua-
litativa, más difícil va a ser que dos observadores distintos 
indiquen exactamente la misma categoría ante una misma 
muestra. Por lo tanto, si usamos el estadístico kappa, cuantas 
más categorías existan, menos grado de concordancia calcu-
laremos. Es por eso que en variables con varias categorías (no 
dicotómicas) se emplea el test de kappa ponderado.
 Ejemplo: evaluar la concordancia entre dos cardiólogos que 
definen la clase funcional de la NYHA I-II-III-IV de una serie 
de pacientes. Existirá más concordancia si cuando un cardió-
logo indica clase II el otro indica clase III, que si un cardiólogo 
indica clase I y el otro clase IV.
• Variable cuantitativa: coeficiente de correlación intraclase 
(MIR 11, 175).
 Ejemplo: evaluar la concordancia entre dos anatomopatólo-
gos que cuantifican el número de mitosis en una misma serie 
de muestras de biopsias de un tumor neuroendocrino.
Autores: Carlos Corrales Benítez, H. U. Fundación Jiménez Díaz (Madrid). Eduardo Franco Díez, H. U. Ramón y Cajal (Madrid). Julio Sesma Romero, 
H. U. G. de Alicante (Alicante).
Estudios de validación de una prueba diagnóstica
Tema 5
EPIDEMIOLOGÍA
Enfoque MIR
Tras el tema de Tipos de estudios epidemiológicos (el más impor-
tante), el de Estudios de evaluación de una prueba diagnóstica y 
Medidas en Epidemiología son el segundo y tercero en importan-
cia, respectivamente.
De validación de pruebas diagnósticas suelen hacer 1-3 pregun-
tas en los últimos años. Hacen siempre alguna pregunta teórica 
sobre los conceptos de sensibilidad, especificidad, valor predictivo 
positivo y valor predictivo negativo. Además, pueden caer proble-
mas para calcular esos conceptos.
Manual AMIR · Estadística y Epidemiología
28
5.1. Parámetros de validez de 
una prueba diagnóstica
Para evaluar la validez de una prueba diagnóstica, se realiza un 
estudio transversal mediante el cual se comparan los resul-
tados obtenidos por el test (que cataloga a los individuos en 
“+” o “−“) con los resultados obtenidos por el mejor método 
diagnóstico que esté disponible, llamado gold standard o 
patrón oro (que va a catalogar a los individuos del estudio en 
“enfermos” o “sanos”) (MIR).
Dicho estudio debe realizarse en las condiciones más similares 
posibles a la práctica clínica habitual. Además, la comparación 
debe ser ciega e independiente y abarcar todo el espectro de 
la enfermedad (MIR).
Parámetros de validez interna
La validez interna es la capacidad del test de obtener resulta-
dos exactos (que representen el verdadero valor que se desea 
medir) en los sujetos de la muestra que se ha utilizado para 
realizar el estudio.
Los parámetros de validez interna son características intrínsecas 
del test que no dependen de la población a la que se aplique 
(esto es, no dependen de la prevalencia de enfermedad) 
(MIR 16, 206).
Sensibilidad (S) (MIR 15, 235; MIR 12, 194; MIR 11, 189) 
Es la capacidad del test de detectar a los sujetos enfermos. Es 
la probabilidad de que un sujeto enfermo (según el gold stan-
dard) saque “+” en el test. La probabilidad complementaria a 
la sensibilidad (esto es, la probabilidad de que un sujeto enfer-
mo saque “−“ en vez de “+” en el test) es la tasa de falsos 
negativos (TFN) (MIR 13, 198).
Así, un test muy sensible es útil en la práctica cuando su 
resultado es negativo (MIR), ya que el test tendrá una TFN 
muy baja y por lo tanto casi todos los pacientes negativos serán 
verdaderos negativos (sanos), pudiendo por tanto descartar 
enfermedad. 
La sensibilidad es análoga a la potencia estadística de un 
estudio de contraste de hipótesis (MIR).
Especificidad (E) (MIR 19, 131; MIR)
Es la capacidad del test de detectar a los sujetos sanos. Es la 
probabilidad de que un sujeto sano (según el gold standard) 
saque “−” en el test. La probabilidad complementaria

Continuar navegando