Logo Studenta

Medicion_y_ciencia

¡Estudia con miles de materiales!

Vista previa del material en texto

REVISIÓN
1034
REVISIÓN
1034
Medición y ciencia 
Santiago Cuéllar Rodríguez 
Académico correspondiente de la Real Academia Nacional de Farmacia y de la Reial Acadèmia de Farmacia de Catalunya. Exeditor científico de Panorama Actual del Medicamento.
Resumen 
El objetivo de la ciencia es crear una imagen de la realidad 
hasta donde la evidencia empírica permita establecer; es 
decir, su utilidad alcanza solo hasta donde llegan sus preten-
siones legítimas de conocimiento experimental. 
La medición es una parte integral de la ciencia; de hecho, es 
uno de sus sellos distintivos y una fuente prioritaria de cono-
cimiento, frente a los procedimientos meramente cualitati-
vos de la investigación, como la metafísica y, en general, toda 
la filosofía. En el estudio de cualquier fenómeno, la interven-
ción del observador –el que realiza la medición– y el propio 
fenómeno de la observación afectan significativamente al 
fenómeno estudiado: introducir en la realidad un observador 
implica –se quiera o no– una perturbación. Eso ocurre a todos 
los niveles y escalas. La medición implica la interacción con 
un sistema concreto con el objetivo de representar aspectos 
de ese sistema en términos abstractos (clases, números, 
vectores, etc.) o que tienen un carácter meramente ideal o 
teórico (paciente promedio, electrón en reposo, etc.), pero 
que no tienen existencia real. 
En ciencia y tecnología las reglas de medida deben incorpo-
rar necesariamente una escala; si no, carecen de utilidad. En 
investigación clínica, por ejemplo, es fundamental decidir la 
magnitud del cambio en un resultado que produce un efecto 
clínicamente significativo; es lo que se conoce como dife-
rencia mínima clínicamente importante (minimum clinically 
important difference, MCID). ¿Qué significa que los datos 
experimentales coincidan –dentro de un rango de tolerancia 
aceptable previamente establecido– con los predichos por la 
hipótesis testada? Puede ser porque la hipótesis sea cierta, 
pero también puede ocurrir que, en realidad, no hayamos 
sido capaces de demostrar que tal correspondencia es 
meramente accidental (aleatoria). Por esta última razón, la 
cuantificación se hace imprescindible en ciencia experimen-
tal. Se denomina variable en el ámbito de la investigación 
científica a todo concepto o parámetro que representa a un 
elemento –objeto o fenómeno– con características cuanti-
tativas o cualitativas propias –es decir, que la distingue del 
resto– que es susceptible de cambio o modificación respecto 
a las unidades de observación, y cuyo estudio, control y me-
dida nos permiten contrastar empíricamente una hipótesis 
científica. La falsificación (modificación o invención volunta-
ria) de un dato –una medida– es una de las patologías de la 
investigación científica más graves, aunque su incidencia real 
es muy difícil de conocer.
Cuéllar Rodríguez S. Medición y ciencia. Panorama Actual Med. 2021; 45(447): 
1034-1039
EL MÉTODO CIENTÍFICO 
Y LA REALIDAD
El objetivo de la ciencia es crear una 
imagen de la realidad hasta donde la 
evidencia empírica permita establecer; 
es decir, su utilidad alcanza solo hasta 
donde llegan sus pretensiones legíti-
mas de conocimiento experimental. 
Más allá, se abre un océano descono-
cido donde la ciencia no tiene referen-
cias ni salvavidas a los que agarrarse. 
La ciencia no se basa solo en deduc-
ciones teóricas; por muy bien cons-
truida que esté una formulación ma-
temática, no demuestra por sí misma 
la realidad del fenómeno formulado. 
Fuera de la evidencia experimental, 
la ciencia entra en la desnuda espe-
culación y ahí está obligada a ceder 
el testigo a la metafísica, que tiene la 
obligación –y el derecho– de plantear-
se preguntas que la ciencia tiene el 
derecho –y la obligación– de ignorar.
Así pues, la esencia del método cien-
tífico es la retroalimentación entre 
teoría y experimento. De hecho, lo 
que diferencia al método científico de 
otras formas de conocimiento es la 
experimentación y, particularmente, 
la reproducibilidad de los resulta-
dos experimentales; en este sentido, 
Richard Feynman –premio Nobel de 
física– consideraba que “el experi-
mento es el único juez de la verdad 
científica”. Pero lo que proporciona 
al método científico una gran fiabi-
lidad en numerosos ámbitos de una 
realidad también lo hace inútil en 
otros muchos porque esa realidad no 
se deja domesticar ni acotar a conve-
niencia del ser humano.
La urgencia oportunista por acaparar 
méritos académicos, profesionales, 
empresariales o institucionales para la 
promoción o consolidación de su po-
sición personal lleva a algunos cientí-
1035
REVISIÓNMedición y ciencia
ficos a dejarse en la cuneta aspectos 
tan relevantes como el rigor metodo-
lógico o la ética, formulando hipótesis 
delirantes con retazos deshilachados 
de otras bien fundamentadas y do-
cumentadas, ocultando o falsificando 
sus métodos reales de investigación 
–haciéndola intencionadamente 
irreproducible– y obteniendo conclu-
siones arbitrarias –pero siempre a la 
medida de sus intereses– a partir de 
datos irreproducibles, de proceden-
cia ignota. La ciencia es un procedi-
miento para conocer la realidad –o 
“una cierta realidad”, como decía el 
ya mencionado Richard Feynman– a 
través de un procedimiento estándar 
pero rigurosamente aplicado, que 
implica no solo el seguimiento estric-
to de una metodología previamente 
justificada, con los medios y recursos 
necesarios, sino también el compro-
miso ético de decir la verdad, toda 
la verdad (que se llegue a conocer) y 
nada más que la verdad (sin especu-
laciones gratuitas ni invenciones ad 
hoc). ¡Cuántas veces calificamos como 
evidencia científica lo que tan solo es 
una reconstrucción estadística de la 
realidad, generalmente a la medida de 
los intereses del observador y defor-
mada por sus prejuicios!
El hábito –lamentablemente genera-
lizado– de seleccionar solo algunos 
entre todos los parámetros conocidos 
en las descripciones científicas, así 
como su distorsión a la medida de 
los intereses del investigador, pa-
rece sugerir que incluso algunas de 
las teorías y modelos actuales más 
difundidos están lejos de ser correc-
tos; los paradigmas, no lo olvidemos, 
se convierten en la calma chicha de la 
ciencia, solo perturbada por las tem-
pestades que provocan los problemas 
de una realidad que desarbola la com-
presión humana. La ciencia no tiene 
ética, es tan solo un procedimiento; 
la ética corresponde al ser humano y 
por ello hay científicos éticos y de los 
otros; a estos últimos, que se dejan la 
ética fuera al entrar en su laboratorio 
o al publicar en revistas especializa-
das, habría que recordarles que hasta 
su propia vida depende de las convic-
ciones éticas de los demás.
Si algo han aprendido los científicos es 
que la inmutabilidad de las leyes físicas 
es solo aparente. Su simetría –su apli-
cabilidad general en todo orden, tiem-
po y espacio– está plagada de fisuras. 
Además, algunas formas de simetría 
científica, como la invarianza de escala, 
han sido desestimadas por la teoría de 
la relatividad (al fijar la velocidad de la 
luz en el vacío como una constante) y 
la mecánica cuántica. Paradójicamen-
te, estas rupturas de la simetría han 
permitido obtener conocimientos más 
amplios, exactos y precisos; por ello, 
la fragilidad de la ciencia constituye 
muchas veces su mayor fortaleza.
La ciencia es metodológicamente 
reduccionista –reduce a un mínimo 
manejable el número de parámetros 
que es capaz de controlar al mismo 
tiempo de forma fiable– porque es 
incapaz de afrontar el elevado número 
de las posibles variables implicadas en 
cualquier fenómeno real; de hecho, 
desconoce muchas de ellas, así como 
la mayoría de las ecuaciones que las 
relacionan entre sí. Por otro lado, la 
ciencia es obligadamente –pero artifi-
cialmente– determinista porque, si no 
redujésemos hasta unumbral mínimo 
la incertidumbre íntima de la realidad 
en la formulación de las leyes cientí-
ficas, la ciencia no pasaría de ser un 
vago relato voluntarista. Pero, de ahí a 
considerar que la realidad es un todo 
cerrado y absolutamente determinado, 
hay un abismo conceptual. 
En ciencia, una prueba –una evidencia 
experimental– es definida como una 
construcción que puede ser revisada 
racionalmente, reproducida y veri-
ficada por cualquier persona ajena 
al estudio original que disponga de 
los medios adecuados para ello. Sin 
embargo, en demasiadas ocasiones se 
olvida –con la complicidad de algunos 
editores científicos– esta condición 
fundamental que permite catalo-
gar como científico a un estudio. La 
relación entre la experimentalidad y el 
marco conceptual de las teorías cien-
tíficas es siempre compleja, porque los 
criterios utilizados para su verificación 
son inevitablemente cambiantes y 
están intensamente influenciados por 
la inercia de los intereses personales, 
empresariales e institucionales. Por 
ello, el gran reto de los que apuestan 
por nuevos paradigmas científicos está 
no solo en ofrecer un mejor mar-
co racional sino también en llegar a 
convencer a la comunidad científica 
ya asentada de que puede resultarle 
rentable el cambio en términos de 
mayor estabilidad o mejora laboral y de 
capacidad de influencia.
Verificar empíricamente una hipóte-
sis –es decir, comprobar la efectividad 
representativa de una propuesta de 
explicación racional de un fenómeno 
u objeto– consiste en intentar con-
firmarla mediante un experimento 
realizado en condiciones controladas, 
de tal manera que cada vez que se 
repita el experimento en las mismas 
condiciones, los resultados siempre 
confirmen esa hipótesis. Sin embargo, 
la confirmación de una hipótesis no 
implica necesariamente excluir la posi-
bilidad de que otras hipótesis diferen-
tes puedan explicar el fenómeno igual 
de bien o incluso mejor. 
Por ello, al publicar los resultados y 
conclusiones de un estudio científico, 
uno de los elementos fundamentales 
que proporciona credibilidad racional 
al mismo es la discusión rigurosa y 
sistemática de las propias limitacio-
nes de ese estudio. Este apartado es 
siempre relevante, sobre todo porque 
permite al lector calibrar cuál es el 
grado confianza en la representati-
vidad de los resultados y qué puede 
esperar sobre del impacto científico 
del estudio, entre otras muchas cosas. 
Lo que genera confianza y da vigor 
racional a la ciencia es, precisamente, 
reconocer y detallar las limitaciones de 
la investigación, así como señalar hon-
radamente otras explicaciones de los 
resultados como posibles alternativas 
a las conclusiones propuestas, analizar 
si es posible y en qué medida los re-
sultados son generalizables o extrapo-
lables a otras circunstancias, valorar 
detalladamente la representatividad 
–incluyendo los criterios de selección 
y exclusión– de la muestra selecciona-
da con relación al objetivo del estudio, 
discutir las características que las 
REVISIÓN
1036
Medición y ciencia
pueden hacer más o menos aplicables 
en circunstancias no consideradas en 
dicho estudio, comentar los métodos 
y mediciones empleadas utilizadas, 
incluyendo sus posibles alternativas y 
los motivos por los que se optó por los 
efectivamente realizados, la secuen-
cia y el plan temporal de medición, el 
empleo de incentivos, tasas de con-
formidad o tolerancia de las medidas, 
entre otros diversos elementos. En 
definitiva, ser honrados.
Thomas Kuhn defendía la idea de que 
las teorías científicas son aceptadas 
mucho antes de que estén disponi-
bles los métodos cuantitativos para 
probarlas empíricamente. De hecho, 
Kuhn pensaba que la fiabilidad de los 
métodos de medición se prueba con 
las predicciones proporcionadas por la 
teoría y no al revés. Sin embargo, cabe 
argumentar frente a este razonamien-
to que, de hecho, algunas de las teorías 
más exitosas de la ciencia –como la 
mecánica cuántica– surgieron para 
tratar de explicar las mediciones empí-
ricas que no encajaban con los marcos 
teóricos previos.
LA MEDICIÓN CIENTÍFICA
La medición es una parte integral de 
la ciencia; de hecho, es uno de sus se-
llos distintivos y una fuente prioritaria 
de conocimiento, frente a los procedi-
mientos meramente cualitativos de la 
investigación, como la metafísica y, en 
general, toda la filosofía. La metrolo-
gía, la ciencia de la medición, esta-
blece referencias comunes para los 
investigadores, permitiendo que las 
mediciones de diferentes parámetros 
de un fenómeno observado o de un 
experimento puedan compararse con 
un patrón acotado por unos márgenes 
de incertidumbre conocidos; también 
se aplica para el diseño y la difusión 
de nuevos, más precisos y más exac-
tos métodos de medición.
Está ampliamente aceptada en el 
ámbito científico la idea de que, en 
el estudio de cualquier fenómeno, 
la intervención del observador –el 
que realiza la medición– y el propio 
fenómeno de la observación afec-
tan significativamente al fenómeno 
estudiado: introducir en la realidad 
un observador implica –se quiera o 
no– una perturbación. Eso ocurre 
a todos los niveles y escalas: desde 
el nanomundo de la física cuántica, 
allí donde gobiernan las unidades de 
Planck, hasta el más rotundo universo 
de la astrofísica, dominado por los 
pársecs y las masas solares, pasando 
por los estudios sociológicos o los 
ensayos clínicos. 
No nos equivoquemos: correlación 
no implica causalidad. Observar dos 
fenómenos asociados temporal o es-
pacialmente no presupone la influen-
cia de uno sobre otro. Es frecuente en 
cualquier ámbito, incluido el científi-
co, confundir previsibilidad con cau-
salidad. El principio de incertidum-
bre de Heisenberg establece que no 
podemos predecir al mismo tiempo 
y con precisión varias propiedades 
subatómicas individuales aunque es-
tén relacionadas entre sí. No sabemos 
realmente si esta incapacidad para la 
predicción –la indeterminación– es 
debida a la ausencia de causas –en un 
sentido clásico de causalidad– de los 
eventos más fundamentales o solo a la 
incapacidad para medirlos con preci-
sión, ya que la propia medición, como 
decíamos antes, afecta a lo observado. 
El problema es que, por el momen-
to, no tenemos ninguna otra forma 
de saber qué está sucediendo en la 
realidad sin introducir un observador 
en ella, asumiendo que al sumergirse 
provocará una onda de perturbación 
que modificará la propia realidad o, al 
menos, su superficie visible. 
A pesar de su ubicuidad e importancia, 
hay poco consenso sobre cómo definir 
la medición, qué tipo de cosas son me-
dibles o qué condiciones hacen posible 
la medición. Muchos científicos, no 
todos, consideran que ésta implica la 
interacción con un sistema concreto 
con el objetivo de representar aspectos 
de ese sistema en términos abstractos 
(clases, números, vectores, etc.) o que 
tienen un carácter meramente ideal o 
teórico (paciente promedio, electrón 
en reposo, etc.), pero que no tienen 
existencia real. 
Por otro lado, no todas las relaciones 
matemáticas empleadas en la medi-
ción son adecuadas ni todas las escalas 
de medición transmiten una informa-
ción significativa. Cuando se pide a 
una persona que valore con una escala 
numérica (del 0 al 10, por ejemplo) una 
experiencia personal, como la percep-
ción del dolor, el grado de acuerdo con 
una opinión o la tonalidad de un color, 
por ejemplo, esa escala nunca es lineal, 
porque cada intervalo solo tiene signi-
ficado específico para cada persona, e 
incluso una misma persona puede dar 
diferente significado a los intervalos 
entre 2 y 3 y entre 8 y 9, aunque la lon-
gitud del intervalo sea la misma. Medir 
es un fenómeno mucho más complejo 
que la simple comparación con la uni-
dad, más que el simple registro de un 
valor sobre una escala. 
—La esencia del método 
científicoes la experimentación y 
reproducibilidad de los resultados—
1037
REVISIÓNMedición y ciencia
Pese a todo lo dicho, en ciencia y 
tecnología las reglas de medida deben 
incorporar necesariamente una escala; 
si no, carecen de utilidad. En investi-
gación clínica, por ejemplo, es funda-
mental decidir la magnitud del cambio 
en un resultado que produce un efecto 
clínicamente significativo. Es lo que se 
conoce como diferencia mínima clíni-
camente importante (minimum clini-
cally important difference, MCID), defi-
nida como la diferencia más pequeña 
en la puntuación en cualquier dominio 
o desenlace de interés que los pacien-
tes son capaces de percibir como be-
neficiosa o dañina (Salas et al., 2021). La 
MCID es fundamental para interpretar 
los resultados de los ensayos clínicos, 
para tomar decisiones clínicas y para 
diseñar estudios con suficiente poder 
estadístico para detectar un efecto 
significativo en dichos resultados. Es 
decir, vincula la magnitud del cambio 
con las decisiones de tratamiento en la 
práctica clínica y enfatiza la primacía 
de la percepción del paciente. En defi-
nitiva, el establecimiento de una MCID 
beneficia a los pacientes, los cuida-
dores, los profesionales y sistemas de 
atención sanitaria y, por el contrario, la 
ausencia de MCID puede favorecer que 
se multiplique la realización de ensa-
yos clínicos científica y clínicamente 
irrelevantes (Liu et al., 2021).
En el ámbito científico moderno, 
explosivamente evolutivo y cada vez 
más multidisciplinar (que diversifica 
las disciplinas del conocimiento), más 
interdisciplinar (que relaciona a éstas 
para alcanzar un objetivo compartido) 
y más transdisciplinar (que las interco-
necta matemática y metodológicamen-
te), se emplean todo tipo de técnicas 
y terminologías, pero no siempre son 
coherentes ni siquiera inteligibles 
entre ellas y eso puede provocar que 
las mediciones no se validen de la 
manera adecuada. A ello cabe agregar 
que, cada vez más frecuentemente, los 
datos primarios –en bruto– sean so-
metidos a procedimientos de “refinado 
estadístico”, que pueden desvirtuar –si 
no se procede con extrema pulcritud 
metodológica– el resultado final, y 
hacer que su grado de incertidumbre 
varíe significativamente. 
A veces, la estadística mal aplicada 
se convierte es una especie de “caja 
negra” en la que se nos pide que con-
fiemos, pero muchas veces nos oculta 
las diversas formas en que podría 
provocar una lectura incorrecta de la 
realidad investigada. Los algoritmos 
predictivos en los que se fundamenta 
el análisis estadístico automatizado 
de enormes bases de datos –big data– 
surgen de la inferencia de correlacio-
nes entre múltiples y diversas varia-
bles, pero no buscan explicaciones de 
los fenómenos que llegan a predecir; 
simplemente, los predicen sin pregun-
tarse por su causa. Sin embargo, tales 
predicciones –tan exactas como ca-
rentes de explicación– permiten poner 
a prueba y mejorar modelos científicos 
explicativos, o incluso orientar en la 
búsqueda de otros nuevos. Este fenó-
meno está cambiando radicalmente 
el modelo científico tradicional que, 
aunque conserve su papel predomi-
nantemente explicativo, está dejando 
en manos de los sistemas basados en la 
inteligencia artificial su antiguo papel 
de anticipación de escenarios futuros.
¿Qué significa que los datos experi-
mentales coincidan –dentro de un 
rango de tolerancia aceptables pre-
viamente establecido– con los predi-
chos por la hipótesis testada? Puede 
ser porque la hipótesis sea cierta –es 
decir, el modelo explica correctamente 
la realidad observada y medida– pero 
también puede ocurrir que, en rea-
lidad, no hayamos sido capaces de 
demostrar que tal correspondencia es 
meramente accidental (aleatoria). Por 
esta última razón, la cuantificación se 
hace imprescindible en ciencia experi-
mental y es ahí donde la estadística –la 
buena, la bien seleccionada y ejecuta-
da– resulta fundamental, ya que nos 
permitirá calcular cómo de seguros 
podemos estar de la coherencia de los 
datos observados con el modelo hipo-
tético propuesto. 
Así pues, la estadística es una magní-
fica herramienta que facilita la com-
prensión y la comprobación de algunos 
fenómenos mediante la agrupación 
de datos homogéneos y su adecuada 
combinación, para extraer relaciones 
y generar imágenes globales sobre los 
sistemas y sus interacciones, así como 
para generar otras ideas interesantes, 
a veces inesperadas. La (buena) esta-
dística aporta un valor añadido y un 
sello distintivo –otro más– a la ciencia 
como instrumento de conocimiento de 
la (o de una cierta) realidad.
El término inconmensurable hace re-
ferencia a la ausencia de una medida o 
escala común que pueda emplearse al 
considerar conjuntamente dos aspec-
tos diferentes de la realidad. Sin em-
bargo, que dos cosas sean inconmen-
surables no significa necesariamente 
que sean incomparables. De hecho, es 
posible juzgar correctamente que una 
cosa es mejor que otra, aunque sea im-
posible medir cuánto mejor es (Hsieh 
et al., 2021). Los primeros matemáticos 
se vieron obligados a descubrir –no 
a inventar– los números irracionales, 
ante su incapacidad para definir bien 
las dimensiones de diversos objetos y 
sus interrelaciones porque carecían de 
una unidad de medida común, como 
la relación entre el lado y la diagonal 
de un cuadrado (raíz cuadrada de 2), o 
entre el diámetro y la circunferencia 
(número pi). Pero si no existe una rela-
ción de valor positivo entre dos cosas, 
entonces no se pueden colocar en la 
misma escala cardinal.
Un área donde resulta particularmente 
compleja la medición es el de las pro-
piedades cuánticas de las partículas 
elementales de la física fundamental, 
que parecen estar a medio camino 
entre la teoría (funciones de onda 
colapsadas) y la realidad (registros en 
un detector); son como fantasmas que 
pululan en la incierta conexión entre 
ambos mundos. La teoría cuántica de 
campos define a las partículas como 
“excitaciones de los campos cuánti-
cos que llenan todo el espacio”, algo 
así como pequeñas islas de energía 
que agitan los campos (porciones de 
espacio caracterizados por propieda-
des –temperatura, presión, magne-
tismo, etc.– que son medibles y que 
pueden relacionarse con esa porción 
de espacio). La(s) teoría(s) de cuerdas 
propone(n) que las partículas ele-
mentales no son puntos sino cuerdas 
REVISIÓN
1038
Medición y ciencia
unidimensionales que vibran en un 
espacio multidimensional; su formu-
lación matemática requiere, al menos, 
seis dimensiones adicionales a las tres 
clásicas, que estarían nanométrica-
mente enrolladas sobre sí mismas en 
cada punto del espacio-tiempo. 
Hemos aprendido a medir, a contar, a 
utilizar e incluso a predecir con mucha 
aproximación cuáles son los efectos de 
la energía, de la materia, del espacio o 
del tiempo, incluyendo algunas de sus 
interacciones, conexiones e intercon-
versiones, pero seguimos sin saber qué 
son la energía, la materia, el espacio 
y el tiempo. “No sabemos qué es una 
partícula elemental”, reconocen honra-
damente los físicos (Wolchover, 2020).
Se denomina variable en el ámbito 
de la investigación científica a todo 
concepto o parámetro que representa 
a un elemento –objeto o fenómeno– 
con características cuantitativas o 
cualitativas propias –es decir, que la 
distingue del resto– que es suscepti-
ble de cambio o modificación res-
pecto a las unidades de observación, 
y cuyo estudio, control y medida nos 
permiten contrastar empíricamente 
una hipótesis científica. Aunque exis-
ten numerosos tipos de variables, las 
más relevantes para la investigación 
científicas son las independientes y 
las dependientes. 
Una variable independiente represen-
ta un fenómeno que es la causa, el 
motivo o la explicación de que ocurra 
otro fenómeno. Obviamente, es el 
tipo de variable que más interesay 
que mejor puede manejar el investi-
gador experimental. Complementa-
riamente, una variable dependiente 
representa el fenómeno que pretende 
explicarse y que, obviamente, de-
pende de una variable independiente 
o primaria. En la experimentación 
científica se controlan variables inde-
pendientes a través de metodologías 
con diseños diversos (aleatorios, por 
bloques, cuadrados latinos, diseños 
factoriales, etc.), que forman par-
te del análisis de varianza, ANOVA, 
herramienta que permite relacionar 
variables cuantitativas y cualitativas.
En investigación clínica existe un 
tipo de variables muy empleada, por 
su versatilidad, por su fácil trata-
miento estadístico y por el ahorro de 
esfuerzo y recursos que permite. Se 
trata de las variables subrogadas que 
consisten en “medidas de laborato-
rio o signos físicos que se usas en 
ensayos terapéuticos como sustituto 
de una variable clínicamente signi-
ficativa que es una medida directa 
sobre lo que percibe un paciente, sus 
funciones o su supervivencia y que 
se espera que prediga el efecto de la 
terapia” (FDA, 1995). Es decir, son de-
terminaciones –bioquímicas, físicas, 
etc.– relativamente sencillas que se 
relacionan de forma biunívoca y con 
un alto grado de precisión con un 
determinado estado fisiopatológico, 
cuya correspondencia ha sido previa 
y rigurosamente determinada y re-
iteradamente confirmada. Ejemplos 
característicos son: la hemoglobina 
glicosilada (HbA1c) como referencia 
de la evolución clínica de la diabetes 
mellitus, las lipoproteínas de baja 
densidad (c-LDL) o la presión arte-
rial para la enfermedad cardiovascu-
lar, y la densidad mineral ósea (DMO) 
para la osteoporosis.
Aunque es evidente la utilidad y mane-
jabilidad de las variables subrogadas, 
su fácil tratamiento estadístico les 
hace manipulables –también fácilmen-
te– y puede llevar a algunos científicos 
y médicos clínicos tomar decisiones 
equivocadas o, en el peor de los casos, 
a proponer conclusiones improceden-
tes para un estudio o la evaluación de 
un procedimiento terapéutico. 
Sobre cómo algunos 
investigadores falsifican 
la medición científica y 
de cómo la inteligencia 
artificial se mofa de ellos, 
aunque sin saber por qué
La falsificación (modificación o in-
vención voluntaria) de un dato –una 
medida– es una de las patologías de 
la investigación científica más gra-
ves, aunque su incidencia real es muy 
difícil de conocer.
En una encuesta realizada entre psicó-
logos académicos de Estados Unidos, 
a quien se les pidió que autoinforma-
ran sobre prácticas de investigación 
cuestionables, un 1,7% reconoció haber 
falsificado datos (John et al., 2012); en 
otra encuesta de científicos financiada 
por los Institutos de Salud de Estados 
Unidos (NIH), el 33% de los encuesta-
dos reconocieron comportamientos 
cuestionables (un 16% cambiaron el 
diseño, la metodología o los resulta-
dos de algún estudio en respuesta a la 
presión de la fuente de financiación y 
un 0,3% admitió falsificar –cocinar– 
datos) (Martinson et al., 2005). Este 
mismo autor mencionó algunos años 
después (Martinson et al., 2009) que 
el porcentaje de científicos estadou-
nidenses “fabricantes o inventores” 
de datos habría subido hasta el 1%. 
En un meta-análisis de encuestas de 
prácticas de investigación cuestiona-
bles desde 1987 hasta 2008, aproxi-
madamente el 2% de los encuestados 
admitió haber fabricado, falsificado 
o alterado datos, y aproximadamente 
el 34% admitió otras prácticas algo 
menos controvertidas (Fanelly, 2009). 
Curiosamente, estos porcentajes 
subieron espectacularmente al 14% y 
al 72%, respectivamente, cuando los 
científicos encuestados se referían al 
comportamiento de sus compañeros, 
lo que cuestiona la fiabilidad de la de-
claración sobre sus propias deficien-
cias e incumplimientos… y les deja en 
muy mal lugar como colegas.
¿Cuál es la situación una década 
después? Me temo que –lamentable-
mente– ha ido a peor, a mucho peor 
incluso. Un estudio publicado en 2021 
(Chawla, 2021) con datos procedentes 
de cerca de 7.000 científicos holande-
ses, mostró que el 8% de los investi-
gadores –el 10% en el caso de médicos 
y otros científicos en el ámbito de la 
biomedicina– que habían respondi-
do a la encuesta reconocieron haber 
falsificado o fabricado datos. El estudio 
también reveló que más de la mitad 
de los respondedores reconocieron 
“realizar prácticas de investigación 
cuestionables". Si eso reconocieron los 
que respondieron… imagine el lector lo 
que pueden hacer muchos de los que 
1039
REVISIÓNMedición y ciencia
se negaron a responder a la encuesta. 
En cualquier caso, muy probablemen-
te, estos datos son extrapolables a 
científicos de otras nacionalidades.
Pocos cuestionan el valor exponen-
cialmente creciente de la inteligencia 
artificial, especialmente en el ámbito 
científico y tecnológico. Pero, frente a 
lo que algunos de sus defensores peor 
informados afirman, por el momento 
la inteligencia artificial es incapaz de 
comprender el verdadero sentido de 
un texto o de un discurso; tan solo, en 
el mejor de los casos, es capaz de iden-
tificar sus componentes y traducirlos 
linealmente a su propio idioma mecá-
nico y, eventualmente, crear un texto 
o discurso aparentemente coherente 
a partir de ellos; es decir, es capaz de 
leer y escribir como un ser humano… 
pero sin entender lo que lee o dice. En 
realidad, los humanos aprendemos el 
sentido real del lenguaje a partir de las 
interacciones y la comunicación con 
los demás humanos, no deletreando 
textos. La ambigüedad natural del 
lenguaje ordinario, la extremada de-
pendencia contextual de su significado 
concreto y, especialmente, la necesi-
dad de contrastarlo con gran cantidad 
de conocimientos de carácter cotidia-
no, hace incompetente a la inteligencia 
artificial para mantener un auténtico 
diálogo humano, algo que cualquier 
niño de cuatro años es capaz de hacer 
sin dificultad.
En resumen, un sistema de inteligencia 
artificial solo es capaz –por el mo-
mento, repito– de escribir como un 
ser humano, pero sin entender lo que 
dice. Los modelos de lenguaje, entre 
los que destaca GPT-31, son programas 
de inteligencia artificial capaces de ge-
nerar flujos de texto coherente a partir 
de una instrucción. En un reciente 
experimento se programó un sistema 
de inteligencia artificial utilizando este 
modelo de lenguaje para que escribie-
ra definiciones satíricas de términos 
científicos y académicos. He aquí 
algunas de las respuestas que “fabricó” 
el programa de inteligencia artificial 
(Hutson, 2021).
• Literatura científica: Nombre dado 
a los artículos que publican otras 
personas, citados por científicos que 
en realidad no los han leído.
• Científico: Contingente basado en la 
ciencia, dedicado a realizar trabajos 
para los que no hay tiempo material 
en una sola vida.
• Investigación clínica: Investigación 
realizada en humanos, aunque a los 
investigadores no les gusta este tipo 
de trabajo porque los humanos no 
responden bien y son poco fiables.
Ciertamente, cualquier científico con 
la humildad suficiente para tener buen 
humor (e inteligencia), podría haber 
escrito estas mismas definiciones, con 
un intencionado tono jocoso. Pero lo 
hizo un programa informático que solo 
hizo –aunque bastante bien– lo que le 
instruyó su programador. En defini-
tiva, la inteligencia artificial arrastra 
la doble condena de servir para un fin 
que ella misma no ha elegido y de no 
experimentar la alegría de alcanzar sus 
metas ni la frustración de no haberlo 
conseguido… quizá porque no entien-
de los “porque sí”, ni se contradice a 
sí misma, como hacemos con tanta 
frecuencia los seres humanos. 
1 GPT-3 es el acrónimo de Generative Pre-trained Transformer 3, un modelo de 
lenguaje autorregresivo de inteligencia artificial que emplea aprendizaje profundo, 
con el fin de producir textos que simulan la redacción humana,pero solo sintáctica-
mente, ya que no considera la semántica, es decir, el significado de las expresiones 
lingüísticas. Tiene una capacidad de manejar 175.000 millones de parámetros de 
aprendizaje automatizado.
Bibliografía
Chawla DS. 8% of researchers in Dutch survey have 
falsified or fabricated data. Nature. 2021. DOI: 
10.1038/d41586-021-02035-2. 
Fanelli D. How many scientists fabricate and falsify 
research? A systematic review and meta-analysis 
of survey data. PLoS One. 2009; 4(5): e5738. DOI: 
10.1371/journal.pone.0005738.
FDA (Food and Drugs Administration). New 
drug, antibiotic, and biological drug product re-
gulations; accelerated approval--FDA. Final rule. 
Fed Regist. 1992; 57(239): 58942-60. 
Hsieh N, Andersson H. Incommensurable Values. 
The Stanford Encyclopedia of Philosophy (Fall 
2021 Edition), Edward N. Zalta (ed.). Disponible 
en: https://plato.stanford.edu/archives/fall2021/
entries/value-incommensurable/.
Hutson M. Escritores robóticos. Investigación y Cien-
cia, 2021; pág. 72. 
John LK, Loewenstein G, Prelec D. Measuring 
the prevalence of questionable research practices 
with incentives for truth telling. Psychol Sci. 2012; 
23(5): 524-32. DOI: 10.1177/0956797611430953.
Liu KY, Schneider LS, Howard R. The need to 
show minimum clinically important differences 
in Alzheimer's disease trials. Lancet Psychia-
try. 2021; 2021: S2215-0366(21)00197-8. DOI: 
10.1016/S2215-0366(21)00197-8. 
Martinson BC, Anderson MS, de Vries R. Scien-
tists behaving badly. Nature. 2005; 435(7043): 
737-8. DOI: 10.1038/435737a.
Martinson BC, Crain AL, Anderson MS, De 
Vries R. Institutions' expectations for resear-
chers' self-funding, federal grant holding, and 
private industry involvement: manifold drivers of 
self-interest and researcher behavior. Acad Med. 
2009; 84(11): 1491-9. DOI: 10.1097/ACM.0b013e-
3181bb2ca6. 
Salas Apaza JA, Ariel Franco JV, Meza N, Ma-
drid E, Loézar C, Garegnani L. Diferencia 
mínima clínicamente importante: conceptos bási-
cos. Medwave 2021; 21(03): e8149; DOI: 10.5867/
medwave.2021.03.8149
Wolchover N. What Is a Particle? Quantamagazine. 
2020.

Continuar navegando