Logo Studenta

salud-digital

¡Este material tiene más páginas!

Vista previa del material en texto

33New Medical Economics
SALUD DIGITAL
Lorena Pérez Campillo 
Ética, privacidad y salud 
digital: ¿Tendremos 
que renunciar a nuestra 
privacidad para tener una 
mejor salud? (y IV)
Implicaciones éticas y de la privacidad con el 
uso de la IA
E
n la actualidad hay cada vez más proyec-
tos de investigación con inteligencia arti-
ficial, por ejemplo, la amiloidosis cardíaca 
es una enfermedad rara de difícil diagnós-
tico, debido a que sus síntomas suelen 
confundirse con otros padecimientos propios de la 
edad. La Fundación San Juan de Dios y el Hospital 
San Juan de Dios de León desarrollaron un proyecto 
de investigación para mejorar la predicción de esta 
enfermedad usando inteligencia artificial. Sobre la 
base de diez años de historias clínicas anonimiza-
das de casi 16.000 pacientes, se realizó un estudio 
sobre una muestra de personas con fallo cardíaco 
logrando detectar cincuenta casos no diagnostica-
dos1.
Y es que la única forma de pasar de un enfoque de 
salud «paliativo» a uno «preventivo» es incremen-
tando el volumen de datos generado y alimentando 
con ellos algoritmos capaces de interpretarlos de 
manera automatizada (Dans, 2018)2. Para Smuha3, 
coordinadora del grupo de expertos de la inteligen-
cia artificial de la Comisión Europea, «no hay duda 
de que la publicación de nuestros datos puede te-
ner consecuencias muy positivas, por ejemplo, en el 
desarrollo de la inteligencia artificial con fines mé-
dicos, sin embargo, sigue siendo extremadamente 
difícil proteger estos datos adecuadamente». Es 
justo en este pudo donde la ética se aplica, con-
cretamente, con un buen uso de software -en sus 
A continuación, reproducimos el artículo académico Implicaciones Éticas de la Aplicación de la Tecnología en el 
sector de la Salud Digital. Especial Mención a la Protección de Datos Personales en Big Data, Inteligencia Artifi-
cial, Iot y Blockchain, publicado en la revista Derecho General de Derecho Administrativo https://www.iustel.com/
v2/revistas/detalle_revista.asp?id=1 (Edición Mayo 2022, revista indexada en Scopus, Q4). 
Ya hemos publicado tres apartados y en este número de New Medical Economics le ofrecemos el cuarto y último: 
Implicaciones éticas y de la privacidad con el uso de IA.
https://www.iustel.com/v2/revistas/detalle_revista.asp?id=1
https://www.iustel.com/v2/revistas/detalle_revista.asp?id=1
34 New Medical Economics
dispositivos médicos mientras se usa inteligencia 
artificial.
La consideración general 19 de la Resolución del 
Parlamento Europeo sobre las implicaciones de los 
macrodatos en los derechos fundamentales: priva-
cidad, protección de datos, no discriminación, se-
guridad y aplicación de la ley (2016/2225(INI)4, ya 
indicaba que; «como consecuencia de los conjuntos 
de datos y sistemas de algoritmos que se utilizan al 
hacer evaluaciones y predicciones en las distintas 
fases del tratamiento de datos, los macrodatos no 
solo pueden resultar en violaciones de los derechos 
fundamentales de los individuos sino, también, en un 
tratamiento diferenciado y en una discriminación in-
directa de grupos de personas con características si-
milares, en particular en lo que se refiere a la justicia 
e igualdad de oportunidades en relación con el acce-
so a la educación y al empleo, al contratar o evaluar 
a las personas o al determinar los nuevos hábitos de 
consumo de los usuarios de los medios sociales (o 
incluso en base a la raza5 o el sexo6)».
La FDA estadounidense, por ejemplo, ya tomó la ini-
ciativa creando guidelines que abordaban cuestiones 
legales-éticas de importancia. 
Pero ¿por qué es necesario estudiar el impacto de 
la inteligencia artificial, y en particular de los algorit-
mos desde el punto de vista de la ética? ¿cómo se 
comportan? ¿de qué manera y dónde afectan en los 
derechos de las personas? 
Para poder entender cómo funciona la inteligencia 
artificial conviene mencionar las tres principales pro-
piedades de los algoritmos (Monasterio, 2017)8-9:
1. Universalidad. Significa que los algoritmos están 
presentes en muchas áreas de nuestra vida: con-
sumo, política, salud, educación, etc.
2. Opacidad o invisibilidad. Las características ge-
nerales que tienen los algoritmos hacen que el 
daño que causan sea difícil de corregir, de iden-
tificar y/o asignar responsabilidades.
3. Impacto en la vida de las personas. Piénsese en 
la discriminación social, económica, de acceso 
libre a la información y privación de libertad y 
discriminación y abuso de control, así, por ejem-
plo, las minorías (raza10, sexo11, pobreza12) son 
discriminadas por el mero hecho de serlo frente 
a la mayoría.
Según este autor «los algoritmos no son neutrales, 
objetivos o preanalíticos» puesto que “se enmarcan 
en un contexto tecnológico, económico, ético, tem-
poral y espacial. Por su parte, Aswani13, señala que 
«los avances en inteligencia artificial hacen que sea 
más fácil para las organizaciones obtener acceso a 
los datos de salud, lo que aumenta la tentación de 
que las empresas los utilicen de manera ilegal o no 
ética» y señaló que «los empresarios o los prestamis-
tas hipotecarios podrían potencialmente usar esta in-
teligencia para discriminar, por ejemplo, por estado 
de embarazo o discapacidad».
Así, por ejemplo, los hallazgos de un estudio14 su-
gieren que las prácticas actuales para «desidentificar 
datos» de actividad física son insuficientes para la 
privacidad y que la «desidentificación» debe agre-
gar los datos de actividad física de muchas perso-
nas para garantizar la privacidad de las personas. 
Los investigadores15 demuestran el potencial de los 
datos de actividad recopilados por los relojes inte-
ligentes, teléfonos inteligentes y rastreadores de 
acondicionamiento físico disponibles en el mercado 
para contribuir a la reidentificación probabilística de 
los participantes de la investigación debido a que los 
datos del rastreador de actividad se unen a una larga 
lista de tipos de datos informados anteriormente que 
pueden ser identificados nuevamente. Pensemos, por 
ejemplo, en sanidad pública donde en algunos Esta-
dos están usando algoritmos patentados aplicados al 
monitoreo de medicamentos recetados en bases de 
datos para identificar posibles compras de médicos o 
prescripciones inadecuadas (AInow, 2018)16.
También hay que preocuparse por las cuestiones éti-
cas de inteligencia artificial y privacidad en el ámbi-
to de la salud, la neurotecnología y el neurohacking 
donde según el Word Economic Forum17, los científi-
cos están alertando de que inteligencia artificial po-
dría «hackear la mente humana y controlar los pen-
samientos, decisiones y emociones». De hecho, los 
científicos trabajan con un ensayo clínico de inter-
faz mente-ordenador «brain-computer interface» en 
donde la inteligencia artificial conecta con la mente 
del paciente para “leer” sus pensamientos incluso 
35New Medical Economics
aunque el paciente no haya dado la orden. Por todo 
ello, los científicos dicen que, ahora, es crucial con-
siderar las posibles consecuencias incluido «el dere-
cho de las personas a tener una vida mental privada». 
Para unos investigadores18 la solución a los algorit-
mos con sesgos discriminatorios se encuentra en de-
jar de entrenar los algoritmos con el objetivo de igua-
lar el desempeño de los expertos humanos. Según 
los datos recopilados en el sistema sanitario nacional 
estadounidense una investigación de radiología de la 
rodilla donde se califica el dolor mediante la esca-
la KLG han encontrado que los médicos que utilizan 
este método puntúan sistemáticamente el dolor de 
los pacientes negros en una medida mucho menos 
grave de lo que ellos mismos aseguran estar expe-
rimentando. La propia metodología KLG podría estar 
sesgada, ya que se desarrolló hace varias décadas 
con poblaciones británicas blancas.
Entonces, nos cuestionaremos ¿cómo podemos ha-
cer responsables a los que no son responsables? A 
priori, para procurar superar estos desafíos podemos 
plantearnos las siguientes medidas:
1. Realizaruna posible evaluación constitucional 
del sistema de desde la perspectiva de los de-
rechos humanos donde no debería aceptarse un 
sistema de inteligencia artificial que eliminara 
los derechos básicos de las personas. 
2. Fomentar la educación en privacidad de todos 
los intervinientes en el desarrollo de las herra-
mientas. 
3. Comunicar con lenguajes sencillo.
4. Crear una plataforma independiente nacional 
para auditar algoritmos.
5. Crear incentivos para la investigación en inteli-
gencia artificial ética.
6. Reforzar la ética a través de la creación de co-
mités de ética difundiendo buenas prácticas en 
cada sector y revisando los códigos de ética 
(CNIL)19.
7. Mejorar del diseño del sistema del para evitar el 
efecto de «caja negra».
Respecto a ésta última, cabe señalar que los cientí-
ficos de datos de las empresas deberán acercar lo 
máximo posible a la transparencia para que los indi-
viduos estén informados. Por ejemplo, Pretzel20 es un 
sistema de servicio de predicción que presenta una 
arquitectura de caja blanca novedosa que permite 
optimizaciones de extremo a extremo y de múltiples 
modelos, introduciendo tuberías con mejoras de ren-
dimiento en diferentes dimensiones21.
Cabe especial mención la herramienta de las audi-
torías algorítmicas. Según DigitalES, no existe una 
metodología de auditoría algorítmica. Es un espacio 
aún incipiente, donde existe una experiencia limita-
da y señalan que el usuario (médico, por ejemplo) 
debe haber recibido la formación necesaria e instruc-
ciones claras sobre el nivel de supervisión humana 
requerido, pero, además, sino existe un sistema de 
gobernanza de los datos suficientemente robusto y 
si el usuario no confía en la inteligencia artificial no 
será de utilidad. 
Esta asociación señala que «los algoritmos emplea-
dos en el diagnóstico, prevención, seguimiento, pre-
dicción, pronóstico, tratamiento o alivio de una enfer-
medad, lesión o discapacidad están sujetos al nuevo 
Reglamento Europeo de Productos Sanitarios22, que 
plantea amplios requerimientos en cuanto a la eva-
luación clínica del producto, la gestión del riesgo, el 
sistema de gestión de la calidad, el seguimiento pos-
terior a la implantación, la documentación técnica y 
la responsabilidad por productos defectuosos. 
El proveedor del modelo debe poder evaluar si se 
están produciendo variaciones significativas en los 
modelos sin necesidad de validación clínica. Esta su-
pervisión automática debe permitir: 
1. Detectar sesgos sobre las variables sensibles 
que se determinen para el caso de uso del mo-
delo (por ejemplo: edad, sexo, enfermedades 
previas, etc.) fijando ventanas de revisión y um-
brales de alarmado.
2. Detectar cambios significativos de población 
frente a la de entrenamiento que afecten a la 
precisión».
36 New Medical Economics
Por su parte, para el grupo de expertos que crea-
ron las Directrices de ética para inteligencia artificial 
confiable23, «la inteligencia artificial confiable debe 
respetar los derechos fundamentales, las regulacio-
nes aplicables y principios fundamentales, aseguran-
do el propósito ético y debe ser técnicamente robusta 
y confiable». 
Llegados a este punto, parece conveniente centrar-
nos en los requisitos y métodos de la inteligencia ar-
tificial confiable que se señalaban en los documentos 
desde el inicio en su borrador:
1. Respecto privacidad. La protección de datos y 
privacidad deben estar garantizadas en todas las 
etapas del ciclo de vida del sistema inteligencia 
artificial, esto incluye todos los datos proporcio-
nados por el usuario, pero también toda la infor-
mación generada sobre el usuario a lo largo de 
su curso interacciones con el sistema inteligen-
cia artificial. Los registros digitales del comporta-
miento humano pueden revelar altamente datos 
sensibles como son los datos de salud. Ahora 
bien, cabe preguntarse ¿el sistema es compa-
tible con el RGPD? ¿está el flujo de información 
de datos personales en el sistema bajo control y 
cumple con las leyes de protección de la privaci-
dad existentes? ¿cómo pueden los usuarios bus-
car información sobre un consentimiento válido 
y cómo se puede revocar dicho consentimiento? 
¿se comunica claramente a quién o a qué gru-
po de cuestiones relacionadas con la violación 
de la privacidad pueden ser aumentadas, espe-
cialmente cuando estas pueden aumentarse por 
usuarios del sistema de inteligencia artificial u 
otros afectados por el mismo?
2. Respecto a la rendición de cuentas. Dependerá 
de la naturaleza y el peso de la actividad. Puede 
incluirse mecanismos de compensación mone-
taria (sin culpa o con culpa) o conciliación sin 
compensaciones. Por ejemplo, un sistema de 
inteligencia artificial que malinterpreta un medi-
camento y decide no reembolsar puede ser com-
pensado monetariamente, sin embargo, si se 
tratara de una discriminación, serían necesarias 
explicaciones y disculpas. 
3. Respecto a la gobernanza de datos. La calidad 
e integridad de los conjuntos de datos utilizados 
es primordial para el rendimiento del aprendizaje 
automático capacitado.
4. Respecto al diseño para todos. Los sistemas 
deben diseñarse de una manera que permita a 
todos los ciudadanos utilizar los productos o ser-
vicios, independientemente de su edad, estado 
de discapacidad o estado social. permitiendo así 
el acceso equitativo y la anticipación activa de 
potencialmente todas las personas en activida-
des humanas existentes y emergentes. Este re-
quisito enlaza a la Convención de las Naciones 
Unidas sobre los derechos de las personas con 
discapacidad. 
5. Respecto a la gobernanza de autonomía de in-
teligencia artificial. Cuanto mayor es el grado de 
autonomía que se otorga a un sistema de inteli-
gencia artificial, más exhaustivas serán las prue-
bas y el gobierno más estricto. La intervención 
37New Medical Economics
humana será más o menos temprana en función 
de ello. 
6. Respecto a la no discriminación. La discrimina-
ción se refiere a la variabilidad de los resulta-
dos de la inteligencia artificial entre individuos 
o grupos de personas según la explotación de 
las diferencias en sus características que pue-
den considerarse intencional o involuntariamen-
te -como el origen étnico, el género, la orienta-
ción sexual o la edad-, lo que puede tener un 
impacto negativo en tales individuos o grupos. El 
daño intencional puede excluir a ciertos grupos a 
través de algoritmos. Por ejemplo, pensemos en 
las aseguradoras de salud que excluyen a gru-
pos de personas con tendencias a enfermedades. 
Pero hay que tener en cuenta algo importante: la 
propia inteligencia artificial puede ayudarnos a 
identificar el propio sesgo inherente y ayudarnos 
a tomar las decisiones menos sesgadas. 
7. Respeto a la mejora de la autonomía humana. 
Cada vez más los productos y servicios de inte-
ligencia artificial se enfocan a personalizaciones 
extremas y guían a las personas a elecciones po-
tencialmente manipuladoras. Además, los indivi-
duos cada vez están más dispuestos a delegar 
decisiones y acciones a máquinas, pensemos, 
por ejemplo, en los asistentes personales como 
Alexa. 
8. Respecto a la robustez. La inteligencia artificial 
confiable requiere que los algoritmos sean se-
guros, confiables y lo suficientemente robustos 
para lidiar con errores o inconsistencias duran-
te la fase de diseño, desarrollo, ejecución, des-
pliegue y uso del sistema inteligencia artificial, y 
para hacer frente adecuadamente a los resulta-
dos erróneos. 
9. Respecto a la seguridad. Consiste en garantizar 
que el sistema haga lo que se supone que debe 
hacer, sin dañar a los usuarios, recursos o medio 
ambiente. 
10. Respecto a la transparencia. Conlleva a la ca-
pacidad de describir, inspeccionar y reproducir 
los mecanismos a través de los cuales los sis-
temas de inteligencia artificial hacen decisiones 
y aprenden a adaptarse a sus entornos, así como 
a la procedencia y dinámica de los datos que se 
utilizan. Se deben requerir fuentes, procesos de 
desarrollo y partesinteresadas de todos los mo-
delos que utilizan datos o afectan a los seres hu-
manos o puede tener otro impacto moralmente 
significativo.
El Grupo de expertos señalan los siguientes métodos 
posibles para conseguir una inteligencia artificial con-
fiable:
1. Métodos técnicos:
 · Ética y estado de derecho por diseño (X-by-design).
 · Arquitecturas para IA confiable, por ejemplo, por 
medio del monitoreo continuo.
 · Pruebas y validación.
 · Trazabilidad y auditabilidad. Para abordar los desa-
fíos de la transparencia, los sistemas de IA deben 
documentar las decisiones que hacen y todo el 
proceso que dio lugar a las decisiones para tomar 
decisiones trazables.
 · Explicación XAI. Existe un problema conocido en 
los sistemas de aprendizaje basados en redes 
neuronales (“deep learning”) y es la dificultad de 
proporcionar razones claras para la interpretacio-
nes y decisiones del sistema. A veces pequeños 
cambios en los valores de los datos pueden derivar 
a cambios dramáticos y delicados en la interpreta-
ción (por ejemplo, personas de raza negra con ani-
males). Existe un amplio campo de investigación 
abordando esta cuestión.
2. Métodos no técnicos
 · Regulación24. Hoy existen muchas regulaciones 
que aumentan la confianza de IA como son la le-
gislación de seguridad o la de responsabilidad civil. 
Saber que la reparación es posible cuando las co-
sas van mal aumenta la confianza. Los mecanis-
mos pueden ir desde la compensación monetaria, 
negligencia o mecanismos de responsabilidad ba-
sados en la culpabilidad, la reconciliación, la recti-
ficación y la disculpa sin la necesidad de compen-
sación monetaria.
38 New Medical Economics
 · Estandarización. El uso de estándares acordados 
para el diseño, la fabricación y las prácticas co-
merciales puede funcionar como un sistema de 
gestión de calidad para IA a los consumidores, 
actores y gobiernos. Más allá de los estándares 
convencionales existen sistemas de acreditación, 
códigos de ética profesional o estándares de de-
rechos fundamentales. Algunos ejemplos son los 
estándares ISO.
 · Gobernanza rendición de cuentas. Las organiza-
ciones deben establecer un marco de gobierno in-
terno o externo para garantizar la responsabilidad. 
Esta puede, por ejemplo, incluir el nombramiento 
de una persona a cargo de cuestiones de ética en 
relación con AI, una junta de ética interna, y / o 
una junta de ética externa. Esto puede ser adicio-
nal a, y no puede reemplazar, la supervisión legal; 
por ejemplo, en forma de DPO o equivalente.
 · Códigos de conducta. Las organizaciones y las 
partes interesadas pueden suscribirse a las pau-
tas y adaptar sus estatutos corporativos.
 · Diálogo stakeholders. Esto requiere un debate 
abierto y la participación de los interlocutores 
sociales, partes interesadas y público en general. 
Los paneles incluyen diferentes expertos y partes 
interesadas como expertos legales, técnicos ex-
pertos, especialistas en ética, representantes de 
los clientes y empleados, etc. Se buscará activa-
mente la participación y el diálogo sobre el uso y 
el impacto de la IA apoyando la evaluación y revi-
sión de los resultados y sus enfoques, incluyendo 
los casos complejos. Prueba de ello es el grupo de 
Alianza Europea de IA25. 
 · Educación. Aquí se refiere a las personas que fa-
brican los productos (los diseñadores y desarro-
lladores), los usuarios (empresas o individuos) y 
otros grupos afectados.
 · Equipos con diversidad e inclusivos. Esto contri-
buye a la objetividad y consideración de diferen-
tes perspectivas, necesidades y objetivos. No solo 
es necesario que los equipos sean diversos en 
términos de género, cultura, edad, sino también 
en términos de experiencia profesional y habili-
dades”. 
Por su parte la «Guía de Evaluación de impacto algo-
rítmicas (AIAs)26 será la herramienta idónea a utilizar 
ya que dada su magnitud y el impacto ético que con-
lleva esta tecnología, parece necesario abrir el cam-
po de visión y ampliar la intervención por parte de las 
Administraciones Públicas en su papel de supervisor, 
evaluador y controlador respecto a los sistemas de 
inteligencia artificial y de los actores intervinientes 
que pueden repercutir en los ciudadanos, garanti-
zando el principio de accountability y la due diligen-
ce públicos, algo que no sólo debe importar u ocupar 
a EEUU27 o en Canadá28 sino a todos los países del 
mundo. Partimos de la base de que, como venimos 
defendiendo, las organizaciones tecnológicas, desa-
rrolladores e ingenieros «deben abrir sus diseños al 
control democrático» (Joiito, 2018)29.
De forma específica en la Sanidad, ya estamos en-
contrando soft law en forma de guías como la que 
ha creado el gobierno ingles desde la NHS Propone 
un proceso para las evaluaciones de impacto algo-
rítmicas (AIA)30, cuyo objetivo es garantizar que los 
usos algorítmicos de los datos del sector público se 
evalúen y gobiernen para producir beneficios para la 
sociedad, los gobiernos, los organismos públicos y 
los desarrolladores de tecnología, así como para las 
personas representadas en los datos y afectadas por 
las tecnologías y sus resultados e incluye medidas 
prácticas para el proceso de AIA, junto con conside-
raciones más generales para el uso de AIA en otros 
contextos del sector público y privado. Antes de obte-
ner un nuevo sistema de decisión automatizada, las 
agencias tendrían que «divulgar públicamente infor-
mación sobre el propósito, alcance y posible impacto 
del sistema en las clases de personas legalmente 
protegidas» (Reisman; Whittaker; Crawford, 2018)31. 
Por último, a mi humilde modo de ver, también se de-
berá trabajar con los sistemas de inteligencia artificial 
teniendo en cuenta ciertos valores. En este sentido, 
Yudkowsky (2008)32 propone diseñar una inteligencia 
artificial amigable donde «los valores de tolerancia y 
respeto por el bienestar de los seres humanos sean 
incorporados como elementos nucleares en la pro-
gramación de agentes de inteligencia artificial». 
La UNESCO33 diseñó sus propias directrices que fue-
ron aprobadas y sirvieron como primera iniciativa a 
nivel internacional como herramienta de regulación 
y ética de la inteligencia artificial sirviendo de marco 
39New Medical Economics
más allá de Europa. No llegaron a definir las prácti-
cas prohibidas y los sistemas de inteligencia artificial 
de alto riesgo, pero la «propuesta del Reglamento Eu-
ropeo en Inteligencia Artificial»34(2021) sí lo consigue, 
aunque su ámbito de aplicación se limita a Europa, 
se pueden percibir como una visión extraeuropea es-
tableciendo que los valores europeos de protección 
de los derechos humanos y fundamentales son cen-
trales para los estados de derecho. 
No obstante, existen autores35 que afirman que las 
directrices éticas del grupo de alto nivel se limita-
ron a debatir, sin más, sobre la inteligencia artificial 
“ética” y “robusta”. Según ellos, el concepto de inte-
ligencia artificial legalmente confiable debe basarse 
en el respeto de tres pilares en los que se basan las 
sociedades democráticas liberales contemporáneas 
tales como; los derechos fundamentales, el Estado 
de Derecho y la Democracia. En concreto, la pro-
puesta del Reglamento europeo de inteligencia artifi-
cial debería de garantizar: 
1. una asignación y distribución adecuadas de la 
responsabilidad por los errores y daños de la in-
teligencia artificial; 
2. una arquitectura de ejecución legítima y eficaz, 
que incluya mecanismos adecuados de transpa-
rencia para garantizar la protección efectiva de 
los derechos fundamentales y el Estado de Dere-
cho, y proporcionar una orientación clara y esta-
ble a los sujetos jurídicos de manera coherente 
con otras leyes aplicables; 
3. derechos adecuados de participación pública y 
derechos de información necesarios para garan-
tizar una rendición de cuentas significativa por el 
desarrollo, despliegue y supervisión de los siste-
mas de inteligencia artificial que es necesario en 
una sociedad democrática (LeadsLab, 2021)36. 
Si cabe algún reproche a la propuesta del Reglamen-
to es la falta aplicaciones de la inteligencia artificial 
en la categoría de «alto riesgo» como aquellas para 
determinar una prima de un seguro de salud, pién-
sese en las aseguradoras interactivas), evaluar trata-
mientos médicos o con fines de investigación37.
En definitiva, la propuesta del Reglamento Europeo de 
Inteligencia Artificial es un reglamento que fomenta 
la ética empresarial y que además prevé un sistema 
de certificación de los dispositivos por parte de los 
organismos de evaluación donde las empresas debe-
rán establecer un sistema de gestión de calidad que 
se encuentra a través de los estándares de la ISI que 
dicta las normas técnicas da las empresas. Por todo 
40 New Medical Economics
ello, se podría decir, que la propuesta del reglamento 
es un reglamento estándar (Dambly; Beelen, 2022)38. 
Otra cuestión llamativa es la escasa referencia que 
da la Comisión Europea al término “ética” a diferen-
cia de otros documentos comunitarios, pareciendo 
considerar “ético” lo que no es conforme o no in-
fringe con los valores de la UE y los derechos funda-
mentales consagrados en la Carta de los Derechos 
Fundamentales de la UE. 
Era obvio que la ausencia de regulación en materia 
de inteligencia artificial podría haber generado ses-
gos discriminatorios, el uso de las «cajas negras», 
pero gracias a esta regulación, Europa podrá poner 
un marco competitivo a Estados Unidos y a China.
Implicaciones éticas con Internet de las cosas 
(IoT) y m-Health
Inicialmente convendría utilizar la clasificación de las 
tres áreas de reflexión ética que ocupa a la IoT que 
bien señala la autora Colmenarejo (2017) que son:
1. La ciberética; que se ocupa de analizar los modos 
en los que internet está condicionando la comu-
nicación social entre individuos y organizaciones, 
donde se podría incluir la ética de IoT e incluso 
la ética de la robótica donde se han identificado 
valores negativos como la vigilancia masiva; 
2. la ética de la computación; que comparte es-
pacios con la ciberética, en tanto que se ocupa 
de la tecnología que se emplea para la recopi-
lación, gestión y tratamiento de los datos, pero 
sin ceñirse a internet, es decir, se ocupa de los 
problemas éticos que surgen en el desarrollo y 
utilización de herramientas computacionales en 
todos los ámbitos de la sociedad (Johnson, Miller, 
2009; Stahl et al, 2016); y
3. la ética de la información en investigación bio-
médica como parte de la bioética que se ocu-
pa de analizar la interacción entre seres vivos y 
tecnologías digitales y/o computacionales, pero 
sin ceñirse únicamente a la obtención y gestión 
de datos obtenidos mediante un acto médico, 
sino también de los biométricos obtenidos con 
fines de vigilancia y seguridad (Bietz et al., 2016; 
Kokumi, 2016; Sharon, 2016; Stylianou, Talias, 
2017). Tenemos que asimilar que este tipo de 
dispositivos IoT van a jugar un papel importante 
como generadores de datos en el cuidado de la 
salud en el futuro, tanto a nivel clínico o de inves-
tigación como de aseguradoras (Dans, 2018)39. 
Así, por ejemplo, Apple Watch40 ya cuenta en la ac-
tualidad con un sensor que permite hacer electrocar-
diogramas y es que, de acuerdo con un informe de 
la Universidad de California, el Apple Watch es capaz 
de detectar arritmias cardíacas con una exactitud 
del 97 %, por lo que se trata de un buen dispositivo 
para personas que puedan sufrir problemas cardia-
cos y de hecho, este dispositivo ya ha podido sal-
var la vida a más de una persona41-42. No podemos 
desconocer los grandes avances que esta tecnología 
pueden traer a los usuarios en el futuro, ahora bien, 
sin pretender poner una barrera a la innovación y a 
los avances tecnológicos -ni mucho menos, tenemos 
que estar atentos de forma especial a la privacidad y 
a la protección de datos.
La mayoría de los rastreadores de fitness, por ejem-
plo, pierden datos personales y no son seguros para 
la privacidad43. Una investigación de la Universidad 
de Toronto ha analizado a Apple Watch, Basis Peak, 
Fitbit Charge HR, Garmin Vivosmart, Jawbone Up 2, 
Whitings Pulse O2, Mio F use y Xiaomi Mi Band y ha 
concluido que 7 de cada 8 (salvo Apple) emiten iden-
tificadores únicos persistentes que pueden exponer 
a los usuarios aun seguimiento a largo plazo sobre 
su ubicación cuando el dispositivo está conectado a 
un móvil. A su vez, las aplicaciones Garmin Connect 
(iPhone y Android) y la aplicación Withings Health 
Mate (Android) tienen vulnerabilidades de seguridad 
que permiten a un tercero no autorizado leer, escri-
bir y eliminar datos de usuarios. Las consecuencias 
éticas no sólo estarán al torno de la “fatiga de hi-
perconectividad” -que puede suponer estar conec-
tado a estos dispositivos-, sino también al impacto 
de esta tecnología sobre la privacidad e intimidad de 
los usuarios. En el 2015, en alguna encuesta44, se 
mostraba como las aseguradoras (51%) querían aso-
ciarse con grandes empresas de tecnología digital y 
plataformas cloud, quedando evidente la tendencia, 
la intención de la industria y el mercado de los datos.
Los usuarios que participan aportando datos a las 
aseguradoras obtienen descuentos premium por 
41New Medical Economics
alcanzar objetivos de ejercicio. Este escenario pro-
vocaba varios interrogantes tales como; ¿las asegu-
radoras de “seguros de vida interactivos”45 podrán 
usar los datos para seleccionar a los clientes más 
rentables mientras que las tasas de interés aumentan 
para aquellos que no participan?, ¿las aseguradoras 
pueden crear perfiles de clientes menos rentables?, 
¿qué podrían hacer las personas que se le niegan 
o cancelan un seguro de vida porque los hábitos no 
están considerados de saludables?, ¿es justo pagar 
más en la póliza de esas aseguradoras por no querer 
enviar datos de salud o dejarse monitorizar por dis-
positivos de IoT de salud?, ¿cómo poner control ético 
de los datos a la sociedad hiperconectada en la que 
vivimos?, ¿qué información debe liberarse a la red 
pública sobre los pacientes? 
También se despiertan dilemas éticos en los «hospi-
tales conectados» con IoT debido a las vulnerabilida-
des de seguridad de los mismos dispositivos sobre 
todo en los hospitales norteamericanos46, los cuales 
han aumentado un 125% y cuestan 6.000 millones 
de dólares al sistema de salud. Por ejemplo, en el 
2014 se produjo en EEUU un robo masivo de 4,5 mi-
llones de pacientes con datos personales de número 
de seguridad social, nombres, direcciones, teléfonos 
y fechas de nacimiento de los pacientes. La intención 
de los hackers en este caso no era la información 
personal sino la propiedad intelectual almacenada 
en los dispositivos. Las consecuencias son la pérdida 
los HCE (pueden hacer que los médicos realicen tra-
tamientos equivocados poniendo en riesgo la vida de 
los pacientes), o el acceso de los propios dispositivos 
(bomba de insulina o respirador), y en otros casos, el 
objetivo de estos incidentes es el robo de dinero o 
chantaje. Otra cuestión inquietante la ocupa las vul-
nerabilidades de los marcapasos ya que según una 
encuesta de la AERC47, la monitorización remota es-
tará disponible para el 22% de los pacientes usuarios 
de los mismos. Esta situación empezó a preocupar 
tanto que, por ejemplo, el que era vicepresidente de 
EEUU, desactivó la función inalámbrica de su propio 
marcapasos48. Lo que es claro es que la ética apli-
cada a la IoT de la salud y a m-Health49 deberá estar 
orientada a desarrollar una determinada cultura ética 
de los datos que permite tomar decisiones orienta-
das hacia el interés general de la sociedad o bien 
común, en general, y a la privacidad y protección de 
datos de las personas, en particular. 
Implicaciones éticas con Blockchain/DLT
Blockchain es una tecnología emergente que ofrece 
un valor diferencial a las empresas, aporta trazabili-
dad, seguridad, eficiencia en tiempo y costes, pero 
también destila valores éticos cuando describimos 
sus capacidadesa modo de soft skills humanos (Be-
lloto, 2020)50. Desde el punto de vista de la ética de 
los datos de las personas en un contexto de la proli-
feración masiva de silos de bases de datos centrali-
zados con información sensible de las personas, las 
virtudes de blockchain posibilitarán que los titulares 
de los datos personales tuvieran control sobre sus 
datos en diferentes formas. Además, proporciona va-
lor en la atención médica al permitir un intercambio 
seguro y específico de datos para mejorar la calidad 
y reducir el coste de la atención médica y habilitar 
nuevos sistemas de comercio e incentivos, por ejem-
plo, los participantes (entidades de atención médi-
ca, pacientes, etc.) que participan en una cadena de 
bloques pueden ser recompensados por el compor-
tamiento deseado. Desde el punto de las organizacio-
nes privadas (o instituciones públicas), se concibe a 
este protocolo como una solución de responsabilidad 
social empresarial (RSE). Blockchain o los sistemas 
DLT, como protocolo, permiten cumplir ciertas exi-
gencias normativas como la anonimización (medida 
técnica y organizativa que obliga la normativa) de la 
42 New Medical Economics
información almacenada sensible como es la de la 
salud. No obstante, no podemos desatender la idea 
de que blockchain tiene ciertas limitaciones (ej. de-
recho al olvido, minimización, etc.) y es aquí donde 
la RSE tendrá un papel muy importante que se tra-
ducirá en una contribución activa en la “búsqueda 
creativa y proactiva” de técnicas y herramientas que 
posibiliten y den solución -de alguna manera- a las 
incompatibilidades de este protocolo con la norma-
tiva. Estas técnicas pueden suponer todo un desafío 
para los desarrolladores quienes saben que en esa 
búsqueda pueden “desvirtuar” la propia tecnología. 
Bibliografía
1. DigitalES. Asociación Española para la Digi-
talización (2022) Inteligencia Artificial ética 
en Sanidad. Recomendaciones para la adop-
ción de IA respetuosa, transparente, segura 
y justa. https://webcache.googleusercontent.
com/search?q=cache:Wv-aQNtEQEkJ:https://
digitalidades.org/guia-inteligencia-artificial-eti-
ca-en-sanidad-de-digitales/+&cd=1&hl=gl&c-
t=clnk&gl=es [fecha de última consulta:15 de 
febrero de 2022]
2. Vid.https://www.forbes.com/sites/
enriquedans/2018/09/21/insuran-
ce-wearables-and-the-future-of-health-
care/#27449a671782 [fecha de última consul-
ta:15 de febrero de 2022]
3. Vid.https://datanews.knack.be/ict/nieu-
ws/een-nieuw-jaar-een-nieuwe-ai/
article-opinion-1412987.html?cookie_
check=1546692144 [fecha de última consul-
ta:15 de febrero de 2022]
4. Supra. Cit.
5. Vid. Rabess, Cecilia Esther (2014) Can big data 
be racist? The Bold Italic, http://www.theboldi-
talic.com/articles/4502-can-big-data-be-racist 
[fecha de última consulta:15 de febrero de 
2022]
6. Vid. Sweeney, Latanya (2013). Discrimination 
in online ad delivery. Data Privacy Lab http://
dataprivacylab.org/projects/onlineads/1071-1.
pdf [fecha de última consulta:15 de febrero de 
2022]
7. Vid.https://www.healthcareittoday.
com/2019/06/20/fear-and-confu-
sion-over-the-software-and-artificial-intelligen-
ce-revolution-reaches-the-fda/ y https://www.
regulations.gov/docket?D=FDA-2019-N-1185 
[fecha de última consulta:15 de febrero de 2022]
8. Vid. https://retina.elpais.com/retina/2019/01/04/
tendencias/1546604928_551805.amp.html 
M.Luengo [fecha de última consulta:15 de febrero 
de 2022]
9. Monasterio, A. Ética algorítmica: Implicaciones 
éticas de una sociedad cada vez más gobernada 
por algoritmos, 2017.
10. Vid.https://www.bbc.com/mundo/noti-
cias/2015/07/150702_tecnologia_google_per-
don_confundir_afroamericanos_gorilas_lv[fecha 
de última consulta:15 de febrero de 2022]
11. Ver https://elpais.com/elpais/2017/09/19/cien-
cia/1505818015_847097.html [fecha de última 
consulta:15 de febrero de 2022]
12. Vid. https://www.xataka.com/privacidad/du-
rante-2018-17-5-millones-ciudadanos-chi-
nos-no-pudieron-comprar-billete-avion-te-
ner-credito-social [fecha de última consulta:15 de 
febrero de 2022]
13. Vid. https://amp.infosalus.com/asistencia/noti-
cia-inteligencia-artificial-amenaza-creciente-pri-
vacidad-datos-salud-20190104121513.html 
[fecha de última consulta:15 de febrero de 2022]
14. Vidr https://jamanetwork.com/journals/jamane-
tworkopen/fullarticle/2719130 [fecha de última 
consulta:15 de febrero de 2022]
15. Ver https://jamanetwork.com/journals/jamane-
tworkopen/fullarticle/2719121 [fecha de última 
consulta:15 de febrero de 2022]
16. AI Now .Report 2018. Recuperado de https://ai-
nowinstitute.org/AI_Now_2018_Report.pdf pp 7 
[fecha de última consulta:15 de febrero de 2022]
43New Medical Economics
17. Vid. https://www.instagram.com/p/BqfJIQDhL-
mr/?utm_source=ig_share_sheet&igshid=rbin-
43g4igsn [fecha de última consulta:15 de febrero 
de 2022]
18. Pierson, E., Cutler, D.M., Leskovec, J. et al. An al-
gorithmic approach to reducing unexplained pain 
disparities in underserved populations. Nat Med 
27, 136–140 (2021). https://doi.org/10.1038/
s41591-020-01192-7 
19. CNIL (2017). How can humans keep the upper 
hand? Report on the ethical matters raised by 
algorithms and artificial intelligence. Recupe-
rado de https://www.cnil.fr/en/how-can-hu-
mans-keep-upper-hand-report-ethical-mat-
ters-raised-algorithms-and-artificial-intelligence 
20. Lee, Y. et. Al. (2018). PRETZEL: Opening the Black 
Box of Machine Learning Prediction Serving Sys-
tems. aeXiv of Cornell University. Recuperado de 
https://arxiv.org/abs/1810.06115 
21. Burlacu, A. (12 de agosto de 2018). Understan-
ding a Black-Box. Towards Data Science. Re-
cuperado de https://towardsdatascience.com/
understanding-a-black-box-896df6b82c6e [fecha 
de última consulta:15 de febrero de 2022]
22. Reglamento (UE) 2017/745 del Parlamento Euro-
peo y del Consejo, de 5 de abril de 2017, sobre 
los productos sanitarios, por el que se modifican 
la Directiva 2001/83/CE, el Reglamento (CE) n.° 
178/2002 y el Reglamento (CE) n.° 1223/2009 y 
por el que se derogan las Directivas 90/385/CEE y 
93/42/CEE del Consejo (Texto pertinente a efectos 
del EEE. ) Vid. https://eur-lex.europa.eu/legal-con-
tent/ES/ALL/?uri=celex:32017R0745 
23. Comisión Europea. Ethics Guidelines for Trus-
tworthy AI. Recuperado de https://us18.
campaign-archive.com/?u=a23897532db-
b6100934258190&id=803e0320a1 
24. El grupo de expertos considera que la regulación 
puede necesitar ser revisada, adaptada o introdu-
cida, hechos que serán discutido en el segundo 
entregable del borrador (marzo 2019) y que con-
tarán con la colaboración de los 900 miembros 
de Alianza Europea de la IA.
25. Comisión Europea. The European AI Alliance. 
Recuperado de https://ec.europa.eu/digital-sin-
gle-market/en/european-ai-alliance
26. Reisman, D., Schultz, J., Crawford, K., Whittaker 
M. (abril 2018). Algorithmic Impact Assesments: A 
practica framework for public Agency Accountabi-
lity. AINow. Recuperado de https://ainowinstitute.
org/aiareport2018.pdf)
27. Vid. https://www.aclu.org/issues/privacy-te-
chnology/surveillance-technologies/algori-
thms-are-making-government-decisions [fecha 
de última consulta:15 de febrero de 2022]
28. Vid. https://citizenlab.ca/wp-content/
uploads/2018/09/IHRP-Automated-Systems-Re-
port-Web-V2.pdf [fecha de última consulta:15 de 
febrero de 2022]
29. Vid. https://www.aclu.org/issues/priva-
cy-technology/surveillance-technologies/
ai-engineers-must-open-their-desig-
ns-democratic?redirect=issues/pri-
vacy-technology/consumer-privacy/
ai-engineers-must-open-their-designs-demo-
cratic-control [fecha de última consulta:15 de 
febrero de 2022]
30. Ada Lovelace Insitute (2022). Algorithmic impact 
assessment: user guide https://www.adalovela-
ceinstitute.org/report/aia-user-guide/ [fecha de 
última consulta:15 de febrero de 2022]
31. Vid. https://www.aclu.org/issues/privacy-te-
chnology/surveillance-technologies/algori-
thms-are-making-government-decisions [fecha 
de última consulta:15 de febrero de 2022]
32. Supra Cit. 
33. UNESCO (2021) Informe finalsobre el proyecto 
de recomendación sobre la ética de la inteli-
gencia artificial https://events.unesco.org/even-
t?id=515530304 
44 New Medical Economics
Letrada ICAM/Consultora
Doctora en Derecho Sanitario Tecnológico y 
Privacidad
lorena.perez.campillo@gmail.com
34. Propuesta de Reglamento Europeo de Inteligencia 
Artifiical (2021). Recuperado de https://eur-lex.
europa.eu/legal-content/ES/TXT/HTML/?uri=CE-
LEX:52021PC0206&from=ES 
35. Smuha; Ahmed-Rengers; Harkens; Li; MacLaren; 
Piselli; Yeung (5 agosto de 2021).How the EU 
can achieve Trusthworthy AI: A response to the 
European Commission’s Proposal for an Artificial 
Intelligence Act. LEADS Lab, University of Bir-
mingham. Recuperado de https://ec.europa.eu/
info/law/better-regulation/have-your-say/initiati-
ves/12527-Artificial-intelligence-ethical-and-le-
gal-requirements/F2665480_en
36. Smuha; Ahmed-Rengers; Harkens; Li; MacLaren; 
Piselli; Yeung (5 agosto de 2021).How the EU 
can achieve Trusthworthy AI: A response to the 
European Commission’s Proposal for an Artificial 
Intelligence Act. LEADS Lab, University of Bir-
mingham. Recuperado de https://ec.europa.eu/
info/law/better-regulation/have-your-say/initiati-
ves/12527-Artificial-intelligence-ethical-and-le-
gal-requirements/F2665480_en 
37. EIOPIA (2021) Artificial intelligence governance 
principles: towards ethical and trustworthy artifi-
cial intelligence in the European insurance sector, 
38. Vid. https://montrealethics.ai/europe-analy-
sis-of-the-proposal-for-an-ai-regulation/ [fecha 
de última consulta:15 de febrero de 2022]
39. Vid https://9to5mac.com/2018/06/04/apple-
opens-health-records-api-for-developers/ [fecha 
de última consulta:15 de febrero de 2022]
40. Vid.https://www.revistagq.com/noticias/tecno-
logia/articulos/apple-watch-series-4-critica-ca-
racteristicas-opiniones/30946 . [fecha de última 
consulta:15 de febrero de 2022]
41. Vid. https://www.tribuna.com.mx/cienciaytecnolo-
gia/Nueva-herramienta-en-el-Apple-Watch-salva-
la-vida-de-una-persona-20181209-0083.html 
[fecha de última consulta:15 de febrero de 2022]
42. Vid. https://elchapuzasinformatico.com/2018/05/
un-apple-watch-salva-la-vida-a-un-hombre-tras-
detectar-una-ulcera-perforada/ [fecha de última 
consulta:15 de febrero de 2022]
43. Vid. https://dataethics.eu/en/fitnesstrackersleak/ 
[fecha de última consulta:15 de febrero de 2022]
44. Vid. https://www.ituser.es/movilidad/2015/05/
el-31-de-las-aseguradoras-utiliza-wearables-pa-
ra-comunicarse-con-clientes-empleados-y-socios 
[fecha de última consulta:15 de febrero de 2022]
45. Vid. https://www.reuters.com/article/us-manuli-
fe-financi-john-hancock-lifeins/strap-on-the-fit-
bit-john-hancock-to-sell-only-interactive-li-
fe-insurance-idUSKCN1LZ1WL [fecha de última 
consulta:15 de febrero de 2022]
46. Vid. http://www.techtimes.com/arti-
cles/69953/20150718/ucla-health-data-breach-
affects-4-5-million-patients-what-you-should-
know.html [fecha de última consulta:15 de febrero 
de 2022]
47. Vid. https://www.ncbi.nlm.nih.gov/pub-
med/25713012 [fecha de última consulta:15 de 
febrero de 2022]
48. Vid.https://www.researchgate.net/publica-
tion/275413868_Security_and_Privacy_Issues_in_
Implantable_Medical_Devices_A_Comprehensi-
ve_Survey [fecha de última consulta:15 de febrero 
de 2022]
49. Vid. http://www.intotheminds.com/blog/
en/30-days-to-read-privacy-policies-consent-fa-
tigue-will-make-gdpr-ineffective/ [fecha de última 
consulta:15 de febrero de 2022]
50. Vid. https://observatorioblockchain.com/block-
chain/integracion-de-blockchain-e-inteligencia-ar-
tificial-desde-la-perspectiva-de-la-etica/ [fecha 
de última consulta:15 de febrero de 2022]

Continuar navegando