Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
REVISIÓN 1034 REVISIÓN 1034 Medición y ciencia Santiago Cuéllar Rodríguez Académico correspondiente de la Real Academia Nacional de Farmacia y de la Reial Acadèmia de Farmacia de Catalunya. Exeditor científico de Panorama Actual del Medicamento. Resumen El objetivo de la ciencia es crear una imagen de la realidad hasta donde la evidencia empírica permita establecer; es decir, su utilidad alcanza solo hasta donde llegan sus preten- siones legítimas de conocimiento experimental. La medición es una parte integral de la ciencia; de hecho, es uno de sus sellos distintivos y una fuente prioritaria de cono- cimiento, frente a los procedimientos meramente cualitati- vos de la investigación, como la metafísica y, en general, toda la filosofía. En el estudio de cualquier fenómeno, la interven- ción del observador –el que realiza la medición– y el propio fenómeno de la observación afectan significativamente al fenómeno estudiado: introducir en la realidad un observador implica –se quiera o no– una perturbación. Eso ocurre a todos los niveles y escalas. La medición implica la interacción con un sistema concreto con el objetivo de representar aspectos de ese sistema en términos abstractos (clases, números, vectores, etc.) o que tienen un carácter meramente ideal o teórico (paciente promedio, electrón en reposo, etc.), pero que no tienen existencia real. En ciencia y tecnología las reglas de medida deben incorpo- rar necesariamente una escala; si no, carecen de utilidad. En investigación clínica, por ejemplo, es fundamental decidir la magnitud del cambio en un resultado que produce un efecto clínicamente significativo; es lo que se conoce como dife- rencia mínima clínicamente importante (minimum clinically important difference, MCID). ¿Qué significa que los datos experimentales coincidan –dentro de un rango de tolerancia aceptable previamente establecido– con los predichos por la hipótesis testada? Puede ser porque la hipótesis sea cierta, pero también puede ocurrir que, en realidad, no hayamos sido capaces de demostrar que tal correspondencia es meramente accidental (aleatoria). Por esta última razón, la cuantificación se hace imprescindible en ciencia experimen- tal. Se denomina variable en el ámbito de la investigación científica a todo concepto o parámetro que representa a un elemento –objeto o fenómeno– con características cuanti- tativas o cualitativas propias –es decir, que la distingue del resto– que es susceptible de cambio o modificación respecto a las unidades de observación, y cuyo estudio, control y me- dida nos permiten contrastar empíricamente una hipótesis científica. La falsificación (modificación o invención volunta- ria) de un dato –una medida– es una de las patologías de la investigación científica más graves, aunque su incidencia real es muy difícil de conocer. Cuéllar Rodríguez S. Medición y ciencia. Panorama Actual Med. 2021; 45(447): 1034-1039 EL MÉTODO CIENTÍFICO Y LA REALIDAD El objetivo de la ciencia es crear una imagen de la realidad hasta donde la evidencia empírica permita establecer; es decir, su utilidad alcanza solo hasta donde llegan sus pretensiones legíti- mas de conocimiento experimental. Más allá, se abre un océano descono- cido donde la ciencia no tiene referen- cias ni salvavidas a los que agarrarse. La ciencia no se basa solo en deduc- ciones teóricas; por muy bien cons- truida que esté una formulación ma- temática, no demuestra por sí misma la realidad del fenómeno formulado. Fuera de la evidencia experimental, la ciencia entra en la desnuda espe- culación y ahí está obligada a ceder el testigo a la metafísica, que tiene la obligación –y el derecho– de plantear- se preguntas que la ciencia tiene el derecho –y la obligación– de ignorar. Así pues, la esencia del método cien- tífico es la retroalimentación entre teoría y experimento. De hecho, lo que diferencia al método científico de otras formas de conocimiento es la experimentación y, particularmente, la reproducibilidad de los resulta- dos experimentales; en este sentido, Richard Feynman –premio Nobel de física– consideraba que “el experi- mento es el único juez de la verdad científica”. Pero lo que proporciona al método científico una gran fiabi- lidad en numerosos ámbitos de una realidad también lo hace inútil en otros muchos porque esa realidad no se deja domesticar ni acotar a conve- niencia del ser humano. La urgencia oportunista por acaparar méritos académicos, profesionales, empresariales o institucionales para la promoción o consolidación de su po- sición personal lleva a algunos cientí- 1035 REVISIÓNMedición y ciencia ficos a dejarse en la cuneta aspectos tan relevantes como el rigor metodo- lógico o la ética, formulando hipótesis delirantes con retazos deshilachados de otras bien fundamentadas y do- cumentadas, ocultando o falsificando sus métodos reales de investigación –haciéndola intencionadamente irreproducible– y obteniendo conclu- siones arbitrarias –pero siempre a la medida de sus intereses– a partir de datos irreproducibles, de proceden- cia ignota. La ciencia es un procedi- miento para conocer la realidad –o “una cierta realidad”, como decía el ya mencionado Richard Feynman– a través de un procedimiento estándar pero rigurosamente aplicado, que implica no solo el seguimiento estric- to de una metodología previamente justificada, con los medios y recursos necesarios, sino también el compro- miso ético de decir la verdad, toda la verdad (que se llegue a conocer) y nada más que la verdad (sin especu- laciones gratuitas ni invenciones ad hoc). ¡Cuántas veces calificamos como evidencia científica lo que tan solo es una reconstrucción estadística de la realidad, generalmente a la medida de los intereses del observador y defor- mada por sus prejuicios! El hábito –lamentablemente genera- lizado– de seleccionar solo algunos entre todos los parámetros conocidos en las descripciones científicas, así como su distorsión a la medida de los intereses del investigador, pa- rece sugerir que incluso algunas de las teorías y modelos actuales más difundidos están lejos de ser correc- tos; los paradigmas, no lo olvidemos, se convierten en la calma chicha de la ciencia, solo perturbada por las tem- pestades que provocan los problemas de una realidad que desarbola la com- presión humana. La ciencia no tiene ética, es tan solo un procedimiento; la ética corresponde al ser humano y por ello hay científicos éticos y de los otros; a estos últimos, que se dejan la ética fuera al entrar en su laboratorio o al publicar en revistas especializa- das, habría que recordarles que hasta su propia vida depende de las convic- ciones éticas de los demás. Si algo han aprendido los científicos es que la inmutabilidad de las leyes físicas es solo aparente. Su simetría –su apli- cabilidad general en todo orden, tiem- po y espacio– está plagada de fisuras. Además, algunas formas de simetría científica, como la invarianza de escala, han sido desestimadas por la teoría de la relatividad (al fijar la velocidad de la luz en el vacío como una constante) y la mecánica cuántica. Paradójicamen- te, estas rupturas de la simetría han permitido obtener conocimientos más amplios, exactos y precisos; por ello, la fragilidad de la ciencia constituye muchas veces su mayor fortaleza. La ciencia es metodológicamente reduccionista –reduce a un mínimo manejable el número de parámetros que es capaz de controlar al mismo tiempo de forma fiable– porque es incapaz de afrontar el elevado número de las posibles variables implicadas en cualquier fenómeno real; de hecho, desconoce muchas de ellas, así como la mayoría de las ecuaciones que las relacionan entre sí. Por otro lado, la ciencia es obligadamente –pero artifi- cialmente– determinista porque, si no redujésemos hasta unumbral mínimo la incertidumbre íntima de la realidad en la formulación de las leyes cientí- ficas, la ciencia no pasaría de ser un vago relato voluntarista. Pero, de ahí a considerar que la realidad es un todo cerrado y absolutamente determinado, hay un abismo conceptual. En ciencia, una prueba –una evidencia experimental– es definida como una construcción que puede ser revisada racionalmente, reproducida y veri- ficada por cualquier persona ajena al estudio original que disponga de los medios adecuados para ello. Sin embargo, en demasiadas ocasiones se olvida –con la complicidad de algunos editores científicos– esta condición fundamental que permite catalo- gar como científico a un estudio. La relación entre la experimentalidad y el marco conceptual de las teorías cien- tíficas es siempre compleja, porque los criterios utilizados para su verificación son inevitablemente cambiantes y están intensamente influenciados por la inercia de los intereses personales, empresariales e institucionales. Por ello, el gran reto de los que apuestan por nuevos paradigmas científicos está no solo en ofrecer un mejor mar- co racional sino también en llegar a convencer a la comunidad científica ya asentada de que puede resultarle rentable el cambio en términos de mayor estabilidad o mejora laboral y de capacidad de influencia. Verificar empíricamente una hipóte- sis –es decir, comprobar la efectividad representativa de una propuesta de explicación racional de un fenómeno u objeto– consiste en intentar con- firmarla mediante un experimento realizado en condiciones controladas, de tal manera que cada vez que se repita el experimento en las mismas condiciones, los resultados siempre confirmen esa hipótesis. Sin embargo, la confirmación de una hipótesis no implica necesariamente excluir la posi- bilidad de que otras hipótesis diferen- tes puedan explicar el fenómeno igual de bien o incluso mejor. Por ello, al publicar los resultados y conclusiones de un estudio científico, uno de los elementos fundamentales que proporciona credibilidad racional al mismo es la discusión rigurosa y sistemática de las propias limitacio- nes de ese estudio. Este apartado es siempre relevante, sobre todo porque permite al lector calibrar cuál es el grado confianza en la representati- vidad de los resultados y qué puede esperar sobre del impacto científico del estudio, entre otras muchas cosas. Lo que genera confianza y da vigor racional a la ciencia es, precisamente, reconocer y detallar las limitaciones de la investigación, así como señalar hon- radamente otras explicaciones de los resultados como posibles alternativas a las conclusiones propuestas, analizar si es posible y en qué medida los re- sultados son generalizables o extrapo- lables a otras circunstancias, valorar detalladamente la representatividad –incluyendo los criterios de selección y exclusión– de la muestra selecciona- da con relación al objetivo del estudio, discutir las características que las REVISIÓN 1036 Medición y ciencia pueden hacer más o menos aplicables en circunstancias no consideradas en dicho estudio, comentar los métodos y mediciones empleadas utilizadas, incluyendo sus posibles alternativas y los motivos por los que se optó por los efectivamente realizados, la secuen- cia y el plan temporal de medición, el empleo de incentivos, tasas de con- formidad o tolerancia de las medidas, entre otros diversos elementos. En definitiva, ser honrados. Thomas Kuhn defendía la idea de que las teorías científicas son aceptadas mucho antes de que estén disponi- bles los métodos cuantitativos para probarlas empíricamente. De hecho, Kuhn pensaba que la fiabilidad de los métodos de medición se prueba con las predicciones proporcionadas por la teoría y no al revés. Sin embargo, cabe argumentar frente a este razonamien- to que, de hecho, algunas de las teorías más exitosas de la ciencia –como la mecánica cuántica– surgieron para tratar de explicar las mediciones empí- ricas que no encajaban con los marcos teóricos previos. LA MEDICIÓN CIENTÍFICA La medición es una parte integral de la ciencia; de hecho, es uno de sus se- llos distintivos y una fuente prioritaria de conocimiento, frente a los procedi- mientos meramente cualitativos de la investigación, como la metafísica y, en general, toda la filosofía. La metrolo- gía, la ciencia de la medición, esta- blece referencias comunes para los investigadores, permitiendo que las mediciones de diferentes parámetros de un fenómeno observado o de un experimento puedan compararse con un patrón acotado por unos márgenes de incertidumbre conocidos; también se aplica para el diseño y la difusión de nuevos, más precisos y más exac- tos métodos de medición. Está ampliamente aceptada en el ámbito científico la idea de que, en el estudio de cualquier fenómeno, la intervención del observador –el que realiza la medición– y el propio fenómeno de la observación afec- tan significativamente al fenómeno estudiado: introducir en la realidad un observador implica –se quiera o no– una perturbación. Eso ocurre a todos los niveles y escalas: desde el nanomundo de la física cuántica, allí donde gobiernan las unidades de Planck, hasta el más rotundo universo de la astrofísica, dominado por los pársecs y las masas solares, pasando por los estudios sociológicos o los ensayos clínicos. No nos equivoquemos: correlación no implica causalidad. Observar dos fenómenos asociados temporal o es- pacialmente no presupone la influen- cia de uno sobre otro. Es frecuente en cualquier ámbito, incluido el científi- co, confundir previsibilidad con cau- salidad. El principio de incertidum- bre de Heisenberg establece que no podemos predecir al mismo tiempo y con precisión varias propiedades subatómicas individuales aunque es- tén relacionadas entre sí. No sabemos realmente si esta incapacidad para la predicción –la indeterminación– es debida a la ausencia de causas –en un sentido clásico de causalidad– de los eventos más fundamentales o solo a la incapacidad para medirlos con preci- sión, ya que la propia medición, como decíamos antes, afecta a lo observado. El problema es que, por el momen- to, no tenemos ninguna otra forma de saber qué está sucediendo en la realidad sin introducir un observador en ella, asumiendo que al sumergirse provocará una onda de perturbación que modificará la propia realidad o, al menos, su superficie visible. A pesar de su ubicuidad e importancia, hay poco consenso sobre cómo definir la medición, qué tipo de cosas son me- dibles o qué condiciones hacen posible la medición. Muchos científicos, no todos, consideran que ésta implica la interacción con un sistema concreto con el objetivo de representar aspectos de ese sistema en términos abstractos (clases, números, vectores, etc.) o que tienen un carácter meramente ideal o teórico (paciente promedio, electrón en reposo, etc.), pero que no tienen existencia real. Por otro lado, no todas las relaciones matemáticas empleadas en la medi- ción son adecuadas ni todas las escalas de medición transmiten una informa- ción significativa. Cuando se pide a una persona que valore con una escala numérica (del 0 al 10, por ejemplo) una experiencia personal, como la percep- ción del dolor, el grado de acuerdo con una opinión o la tonalidad de un color, por ejemplo, esa escala nunca es lineal, porque cada intervalo solo tiene signi- ficado específico para cada persona, e incluso una misma persona puede dar diferente significado a los intervalos entre 2 y 3 y entre 8 y 9, aunque la lon- gitud del intervalo sea la misma. Medir es un fenómeno mucho más complejo que la simple comparación con la uni- dad, más que el simple registro de un valor sobre una escala. —La esencia del método científicoes la experimentación y reproducibilidad de los resultados— 1037 REVISIÓNMedición y ciencia Pese a todo lo dicho, en ciencia y tecnología las reglas de medida deben incorporar necesariamente una escala; si no, carecen de utilidad. En investi- gación clínica, por ejemplo, es funda- mental decidir la magnitud del cambio en un resultado que produce un efecto clínicamente significativo. Es lo que se conoce como diferencia mínima clíni- camente importante (minimum clini- cally important difference, MCID), defi- nida como la diferencia más pequeña en la puntuación en cualquier dominio o desenlace de interés que los pacien- tes son capaces de percibir como be- neficiosa o dañina (Salas et al., 2021). La MCID es fundamental para interpretar los resultados de los ensayos clínicos, para tomar decisiones clínicas y para diseñar estudios con suficiente poder estadístico para detectar un efecto significativo en dichos resultados. Es decir, vincula la magnitud del cambio con las decisiones de tratamiento en la práctica clínica y enfatiza la primacía de la percepción del paciente. En defi- nitiva, el establecimiento de una MCID beneficia a los pacientes, los cuida- dores, los profesionales y sistemas de atención sanitaria y, por el contrario, la ausencia de MCID puede favorecer que se multiplique la realización de ensa- yos clínicos científica y clínicamente irrelevantes (Liu et al., 2021). En el ámbito científico moderno, explosivamente evolutivo y cada vez más multidisciplinar (que diversifica las disciplinas del conocimiento), más interdisciplinar (que relaciona a éstas para alcanzar un objetivo compartido) y más transdisciplinar (que las interco- necta matemática y metodológicamen- te), se emplean todo tipo de técnicas y terminologías, pero no siempre son coherentes ni siquiera inteligibles entre ellas y eso puede provocar que las mediciones no se validen de la manera adecuada. A ello cabe agregar que, cada vez más frecuentemente, los datos primarios –en bruto– sean so- metidos a procedimientos de “refinado estadístico”, que pueden desvirtuar –si no se procede con extrema pulcritud metodológica– el resultado final, y hacer que su grado de incertidumbre varíe significativamente. A veces, la estadística mal aplicada se convierte es una especie de “caja negra” en la que se nos pide que con- fiemos, pero muchas veces nos oculta las diversas formas en que podría provocar una lectura incorrecta de la realidad investigada. Los algoritmos predictivos en los que se fundamenta el análisis estadístico automatizado de enormes bases de datos –big data– surgen de la inferencia de correlacio- nes entre múltiples y diversas varia- bles, pero no buscan explicaciones de los fenómenos que llegan a predecir; simplemente, los predicen sin pregun- tarse por su causa. Sin embargo, tales predicciones –tan exactas como ca- rentes de explicación– permiten poner a prueba y mejorar modelos científicos explicativos, o incluso orientar en la búsqueda de otros nuevos. Este fenó- meno está cambiando radicalmente el modelo científico tradicional que, aunque conserve su papel predomi- nantemente explicativo, está dejando en manos de los sistemas basados en la inteligencia artificial su antiguo papel de anticipación de escenarios futuros. ¿Qué significa que los datos experi- mentales coincidan –dentro de un rango de tolerancia aceptables pre- viamente establecido– con los predi- chos por la hipótesis testada? Puede ser porque la hipótesis sea cierta –es decir, el modelo explica correctamente la realidad observada y medida– pero también puede ocurrir que, en rea- lidad, no hayamos sido capaces de demostrar que tal correspondencia es meramente accidental (aleatoria). Por esta última razón, la cuantificación se hace imprescindible en ciencia experi- mental y es ahí donde la estadística –la buena, la bien seleccionada y ejecuta- da– resulta fundamental, ya que nos permitirá calcular cómo de seguros podemos estar de la coherencia de los datos observados con el modelo hipo- tético propuesto. Así pues, la estadística es una magní- fica herramienta que facilita la com- prensión y la comprobación de algunos fenómenos mediante la agrupación de datos homogéneos y su adecuada combinación, para extraer relaciones y generar imágenes globales sobre los sistemas y sus interacciones, así como para generar otras ideas interesantes, a veces inesperadas. La (buena) esta- dística aporta un valor añadido y un sello distintivo –otro más– a la ciencia como instrumento de conocimiento de la (o de una cierta) realidad. El término inconmensurable hace re- ferencia a la ausencia de una medida o escala común que pueda emplearse al considerar conjuntamente dos aspec- tos diferentes de la realidad. Sin em- bargo, que dos cosas sean inconmen- surables no significa necesariamente que sean incomparables. De hecho, es posible juzgar correctamente que una cosa es mejor que otra, aunque sea im- posible medir cuánto mejor es (Hsieh et al., 2021). Los primeros matemáticos se vieron obligados a descubrir –no a inventar– los números irracionales, ante su incapacidad para definir bien las dimensiones de diversos objetos y sus interrelaciones porque carecían de una unidad de medida común, como la relación entre el lado y la diagonal de un cuadrado (raíz cuadrada de 2), o entre el diámetro y la circunferencia (número pi). Pero si no existe una rela- ción de valor positivo entre dos cosas, entonces no se pueden colocar en la misma escala cardinal. Un área donde resulta particularmente compleja la medición es el de las pro- piedades cuánticas de las partículas elementales de la física fundamental, que parecen estar a medio camino entre la teoría (funciones de onda colapsadas) y la realidad (registros en un detector); son como fantasmas que pululan en la incierta conexión entre ambos mundos. La teoría cuántica de campos define a las partículas como “excitaciones de los campos cuánti- cos que llenan todo el espacio”, algo así como pequeñas islas de energía que agitan los campos (porciones de espacio caracterizados por propieda- des –temperatura, presión, magne- tismo, etc.– que son medibles y que pueden relacionarse con esa porción de espacio). La(s) teoría(s) de cuerdas propone(n) que las partículas ele- mentales no son puntos sino cuerdas REVISIÓN 1038 Medición y ciencia unidimensionales que vibran en un espacio multidimensional; su formu- lación matemática requiere, al menos, seis dimensiones adicionales a las tres clásicas, que estarían nanométrica- mente enrolladas sobre sí mismas en cada punto del espacio-tiempo. Hemos aprendido a medir, a contar, a utilizar e incluso a predecir con mucha aproximación cuáles son los efectos de la energía, de la materia, del espacio o del tiempo, incluyendo algunas de sus interacciones, conexiones e intercon- versiones, pero seguimos sin saber qué son la energía, la materia, el espacio y el tiempo. “No sabemos qué es una partícula elemental”, reconocen honra- damente los físicos (Wolchover, 2020). Se denomina variable en el ámbito de la investigación científica a todo concepto o parámetro que representa a un elemento –objeto o fenómeno– con características cuantitativas o cualitativas propias –es decir, que la distingue del resto– que es suscepti- ble de cambio o modificación res- pecto a las unidades de observación, y cuyo estudio, control y medida nos permiten contrastar empíricamente una hipótesis científica. Aunque exis- ten numerosos tipos de variables, las más relevantes para la investigación científicas son las independientes y las dependientes. Una variable independiente represen- ta un fenómeno que es la causa, el motivo o la explicación de que ocurra otro fenómeno. Obviamente, es el tipo de variable que más interesay que mejor puede manejar el investi- gador experimental. Complementa- riamente, una variable dependiente representa el fenómeno que pretende explicarse y que, obviamente, de- pende de una variable independiente o primaria. En la experimentación científica se controlan variables inde- pendientes a través de metodologías con diseños diversos (aleatorios, por bloques, cuadrados latinos, diseños factoriales, etc.), que forman par- te del análisis de varianza, ANOVA, herramienta que permite relacionar variables cuantitativas y cualitativas. En investigación clínica existe un tipo de variables muy empleada, por su versatilidad, por su fácil trata- miento estadístico y por el ahorro de esfuerzo y recursos que permite. Se trata de las variables subrogadas que consisten en “medidas de laborato- rio o signos físicos que se usas en ensayos terapéuticos como sustituto de una variable clínicamente signi- ficativa que es una medida directa sobre lo que percibe un paciente, sus funciones o su supervivencia y que se espera que prediga el efecto de la terapia” (FDA, 1995). Es decir, son de- terminaciones –bioquímicas, físicas, etc.– relativamente sencillas que se relacionan de forma biunívoca y con un alto grado de precisión con un determinado estado fisiopatológico, cuya correspondencia ha sido previa y rigurosamente determinada y re- iteradamente confirmada. Ejemplos característicos son: la hemoglobina glicosilada (HbA1c) como referencia de la evolución clínica de la diabetes mellitus, las lipoproteínas de baja densidad (c-LDL) o la presión arte- rial para la enfermedad cardiovascu- lar, y la densidad mineral ósea (DMO) para la osteoporosis. Aunque es evidente la utilidad y mane- jabilidad de las variables subrogadas, su fácil tratamiento estadístico les hace manipulables –también fácilmen- te– y puede llevar a algunos científicos y médicos clínicos tomar decisiones equivocadas o, en el peor de los casos, a proponer conclusiones improceden- tes para un estudio o la evaluación de un procedimiento terapéutico. Sobre cómo algunos investigadores falsifican la medición científica y de cómo la inteligencia artificial se mofa de ellos, aunque sin saber por qué La falsificación (modificación o in- vención voluntaria) de un dato –una medida– es una de las patologías de la investigación científica más gra- ves, aunque su incidencia real es muy difícil de conocer. En una encuesta realizada entre psicó- logos académicos de Estados Unidos, a quien se les pidió que autoinforma- ran sobre prácticas de investigación cuestionables, un 1,7% reconoció haber falsificado datos (John et al., 2012); en otra encuesta de científicos financiada por los Institutos de Salud de Estados Unidos (NIH), el 33% de los encuesta- dos reconocieron comportamientos cuestionables (un 16% cambiaron el diseño, la metodología o los resulta- dos de algún estudio en respuesta a la presión de la fuente de financiación y un 0,3% admitió falsificar –cocinar– datos) (Martinson et al., 2005). Este mismo autor mencionó algunos años después (Martinson et al., 2009) que el porcentaje de científicos estadou- nidenses “fabricantes o inventores” de datos habría subido hasta el 1%. En un meta-análisis de encuestas de prácticas de investigación cuestiona- bles desde 1987 hasta 2008, aproxi- madamente el 2% de los encuestados admitió haber fabricado, falsificado o alterado datos, y aproximadamente el 34% admitió otras prácticas algo menos controvertidas (Fanelly, 2009). Curiosamente, estos porcentajes subieron espectacularmente al 14% y al 72%, respectivamente, cuando los científicos encuestados se referían al comportamiento de sus compañeros, lo que cuestiona la fiabilidad de la de- claración sobre sus propias deficien- cias e incumplimientos… y les deja en muy mal lugar como colegas. ¿Cuál es la situación una década después? Me temo que –lamentable- mente– ha ido a peor, a mucho peor incluso. Un estudio publicado en 2021 (Chawla, 2021) con datos procedentes de cerca de 7.000 científicos holande- ses, mostró que el 8% de los investi- gadores –el 10% en el caso de médicos y otros científicos en el ámbito de la biomedicina– que habían respondi- do a la encuesta reconocieron haber falsificado o fabricado datos. El estudio también reveló que más de la mitad de los respondedores reconocieron “realizar prácticas de investigación cuestionables". Si eso reconocieron los que respondieron… imagine el lector lo que pueden hacer muchos de los que 1039 REVISIÓNMedición y ciencia se negaron a responder a la encuesta. En cualquier caso, muy probablemen- te, estos datos son extrapolables a científicos de otras nacionalidades. Pocos cuestionan el valor exponen- cialmente creciente de la inteligencia artificial, especialmente en el ámbito científico y tecnológico. Pero, frente a lo que algunos de sus defensores peor informados afirman, por el momento la inteligencia artificial es incapaz de comprender el verdadero sentido de un texto o de un discurso; tan solo, en el mejor de los casos, es capaz de iden- tificar sus componentes y traducirlos linealmente a su propio idioma mecá- nico y, eventualmente, crear un texto o discurso aparentemente coherente a partir de ellos; es decir, es capaz de leer y escribir como un ser humano… pero sin entender lo que lee o dice. En realidad, los humanos aprendemos el sentido real del lenguaje a partir de las interacciones y la comunicación con los demás humanos, no deletreando textos. La ambigüedad natural del lenguaje ordinario, la extremada de- pendencia contextual de su significado concreto y, especialmente, la necesi- dad de contrastarlo con gran cantidad de conocimientos de carácter cotidia- no, hace incompetente a la inteligencia artificial para mantener un auténtico diálogo humano, algo que cualquier niño de cuatro años es capaz de hacer sin dificultad. En resumen, un sistema de inteligencia artificial solo es capaz –por el mo- mento, repito– de escribir como un ser humano, pero sin entender lo que dice. Los modelos de lenguaje, entre los que destaca GPT-31, son programas de inteligencia artificial capaces de ge- nerar flujos de texto coherente a partir de una instrucción. En un reciente experimento se programó un sistema de inteligencia artificial utilizando este modelo de lenguaje para que escribie- ra definiciones satíricas de términos científicos y académicos. He aquí algunas de las respuestas que “fabricó” el programa de inteligencia artificial (Hutson, 2021). • Literatura científica: Nombre dado a los artículos que publican otras personas, citados por científicos que en realidad no los han leído. • Científico: Contingente basado en la ciencia, dedicado a realizar trabajos para los que no hay tiempo material en una sola vida. • Investigación clínica: Investigación realizada en humanos, aunque a los investigadores no les gusta este tipo de trabajo porque los humanos no responden bien y son poco fiables. Ciertamente, cualquier científico con la humildad suficiente para tener buen humor (e inteligencia), podría haber escrito estas mismas definiciones, con un intencionado tono jocoso. Pero lo hizo un programa informático que solo hizo –aunque bastante bien– lo que le instruyó su programador. En defini- tiva, la inteligencia artificial arrastra la doble condena de servir para un fin que ella misma no ha elegido y de no experimentar la alegría de alcanzar sus metas ni la frustración de no haberlo conseguido… quizá porque no entien- de los “porque sí”, ni se contradice a sí misma, como hacemos con tanta frecuencia los seres humanos. 1 GPT-3 es el acrónimo de Generative Pre-trained Transformer 3, un modelo de lenguaje autorregresivo de inteligencia artificial que emplea aprendizaje profundo, con el fin de producir textos que simulan la redacción humana,pero solo sintáctica- mente, ya que no considera la semántica, es decir, el significado de las expresiones lingüísticas. Tiene una capacidad de manejar 175.000 millones de parámetros de aprendizaje automatizado. Bibliografía Chawla DS. 8% of researchers in Dutch survey have falsified or fabricated data. Nature. 2021. DOI: 10.1038/d41586-021-02035-2. Fanelli D. How many scientists fabricate and falsify research? A systematic review and meta-analysis of survey data. PLoS One. 2009; 4(5): e5738. DOI: 10.1371/journal.pone.0005738. FDA (Food and Drugs Administration). New drug, antibiotic, and biological drug product re- gulations; accelerated approval--FDA. Final rule. Fed Regist. 1992; 57(239): 58942-60. Hsieh N, Andersson H. Incommensurable Values. The Stanford Encyclopedia of Philosophy (Fall 2021 Edition), Edward N. Zalta (ed.). Disponible en: https://plato.stanford.edu/archives/fall2021/ entries/value-incommensurable/. Hutson M. Escritores robóticos. Investigación y Cien- cia, 2021; pág. 72. John LK, Loewenstein G, Prelec D. Measuring the prevalence of questionable research practices with incentives for truth telling. Psychol Sci. 2012; 23(5): 524-32. DOI: 10.1177/0956797611430953. Liu KY, Schneider LS, Howard R. The need to show minimum clinically important differences in Alzheimer's disease trials. Lancet Psychia- try. 2021; 2021: S2215-0366(21)00197-8. DOI: 10.1016/S2215-0366(21)00197-8. Martinson BC, Anderson MS, de Vries R. Scien- tists behaving badly. Nature. 2005; 435(7043): 737-8. DOI: 10.1038/435737a. Martinson BC, Crain AL, Anderson MS, De Vries R. Institutions' expectations for resear- chers' self-funding, federal grant holding, and private industry involvement: manifold drivers of self-interest and researcher behavior. Acad Med. 2009; 84(11): 1491-9. DOI: 10.1097/ACM.0b013e- 3181bb2ca6. Salas Apaza JA, Ariel Franco JV, Meza N, Ma- drid E, Loézar C, Garegnani L. Diferencia mínima clínicamente importante: conceptos bási- cos. Medwave 2021; 21(03): e8149; DOI: 10.5867/ medwave.2021.03.8149 Wolchover N. What Is a Particle? Quantamagazine. 2020.
Compartir