Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
33New Medical Economics SALUD DIGITAL Lorena Pérez Campillo Ética, privacidad y salud digital: ¿Tendremos que renunciar a nuestra privacidad para tener una mejor salud? (y IV) Implicaciones éticas y de la privacidad con el uso de la IA E n la actualidad hay cada vez más proyec- tos de investigación con inteligencia arti- ficial, por ejemplo, la amiloidosis cardíaca es una enfermedad rara de difícil diagnós- tico, debido a que sus síntomas suelen confundirse con otros padecimientos propios de la edad. La Fundación San Juan de Dios y el Hospital San Juan de Dios de León desarrollaron un proyecto de investigación para mejorar la predicción de esta enfermedad usando inteligencia artificial. Sobre la base de diez años de historias clínicas anonimiza- das de casi 16.000 pacientes, se realizó un estudio sobre una muestra de personas con fallo cardíaco logrando detectar cincuenta casos no diagnostica- dos1. Y es que la única forma de pasar de un enfoque de salud «paliativo» a uno «preventivo» es incremen- tando el volumen de datos generado y alimentando con ellos algoritmos capaces de interpretarlos de manera automatizada (Dans, 2018)2. Para Smuha3, coordinadora del grupo de expertos de la inteligen- cia artificial de la Comisión Europea, «no hay duda de que la publicación de nuestros datos puede te- ner consecuencias muy positivas, por ejemplo, en el desarrollo de la inteligencia artificial con fines mé- dicos, sin embargo, sigue siendo extremadamente difícil proteger estos datos adecuadamente». Es justo en este pudo donde la ética se aplica, con- cretamente, con un buen uso de software -en sus A continuación, reproducimos el artículo académico Implicaciones Éticas de la Aplicación de la Tecnología en el sector de la Salud Digital. Especial Mención a la Protección de Datos Personales en Big Data, Inteligencia Artifi- cial, Iot y Blockchain, publicado en la revista Derecho General de Derecho Administrativo https://www.iustel.com/ v2/revistas/detalle_revista.asp?id=1 (Edición Mayo 2022, revista indexada en Scopus, Q4). Ya hemos publicado tres apartados y en este número de New Medical Economics le ofrecemos el cuarto y último: Implicaciones éticas y de la privacidad con el uso de IA. https://www.iustel.com/v2/revistas/detalle_revista.asp?id=1 https://www.iustel.com/v2/revistas/detalle_revista.asp?id=1 34 New Medical Economics dispositivos médicos mientras se usa inteligencia artificial. La consideración general 19 de la Resolución del Parlamento Europeo sobre las implicaciones de los macrodatos en los derechos fundamentales: priva- cidad, protección de datos, no discriminación, se- guridad y aplicación de la ley (2016/2225(INI)4, ya indicaba que; «como consecuencia de los conjuntos de datos y sistemas de algoritmos que se utilizan al hacer evaluaciones y predicciones en las distintas fases del tratamiento de datos, los macrodatos no solo pueden resultar en violaciones de los derechos fundamentales de los individuos sino, también, en un tratamiento diferenciado y en una discriminación in- directa de grupos de personas con características si- milares, en particular en lo que se refiere a la justicia e igualdad de oportunidades en relación con el acce- so a la educación y al empleo, al contratar o evaluar a las personas o al determinar los nuevos hábitos de consumo de los usuarios de los medios sociales (o incluso en base a la raza5 o el sexo6)». La FDA estadounidense, por ejemplo, ya tomó la ini- ciativa creando guidelines que abordaban cuestiones legales-éticas de importancia. Pero ¿por qué es necesario estudiar el impacto de la inteligencia artificial, y en particular de los algorit- mos desde el punto de vista de la ética? ¿cómo se comportan? ¿de qué manera y dónde afectan en los derechos de las personas? Para poder entender cómo funciona la inteligencia artificial conviene mencionar las tres principales pro- piedades de los algoritmos (Monasterio, 2017)8-9: 1. Universalidad. Significa que los algoritmos están presentes en muchas áreas de nuestra vida: con- sumo, política, salud, educación, etc. 2. Opacidad o invisibilidad. Las características ge- nerales que tienen los algoritmos hacen que el daño que causan sea difícil de corregir, de iden- tificar y/o asignar responsabilidades. 3. Impacto en la vida de las personas. Piénsese en la discriminación social, económica, de acceso libre a la información y privación de libertad y discriminación y abuso de control, así, por ejem- plo, las minorías (raza10, sexo11, pobreza12) son discriminadas por el mero hecho de serlo frente a la mayoría. Según este autor «los algoritmos no son neutrales, objetivos o preanalíticos» puesto que “se enmarcan en un contexto tecnológico, económico, ético, tem- poral y espacial. Por su parte, Aswani13, señala que «los avances en inteligencia artificial hacen que sea más fácil para las organizaciones obtener acceso a los datos de salud, lo que aumenta la tentación de que las empresas los utilicen de manera ilegal o no ética» y señaló que «los empresarios o los prestamis- tas hipotecarios podrían potencialmente usar esta in- teligencia para discriminar, por ejemplo, por estado de embarazo o discapacidad». Así, por ejemplo, los hallazgos de un estudio14 su- gieren que las prácticas actuales para «desidentificar datos» de actividad física son insuficientes para la privacidad y que la «desidentificación» debe agre- gar los datos de actividad física de muchas perso- nas para garantizar la privacidad de las personas. Los investigadores15 demuestran el potencial de los datos de actividad recopilados por los relojes inte- ligentes, teléfonos inteligentes y rastreadores de acondicionamiento físico disponibles en el mercado para contribuir a la reidentificación probabilística de los participantes de la investigación debido a que los datos del rastreador de actividad se unen a una larga lista de tipos de datos informados anteriormente que pueden ser identificados nuevamente. Pensemos, por ejemplo, en sanidad pública donde en algunos Esta- dos están usando algoritmos patentados aplicados al monitoreo de medicamentos recetados en bases de datos para identificar posibles compras de médicos o prescripciones inadecuadas (AInow, 2018)16. También hay que preocuparse por las cuestiones éti- cas de inteligencia artificial y privacidad en el ámbi- to de la salud, la neurotecnología y el neurohacking donde según el Word Economic Forum17, los científi- cos están alertando de que inteligencia artificial po- dría «hackear la mente humana y controlar los pen- samientos, decisiones y emociones». De hecho, los científicos trabajan con un ensayo clínico de inter- faz mente-ordenador «brain-computer interface» en donde la inteligencia artificial conecta con la mente del paciente para “leer” sus pensamientos incluso 35New Medical Economics aunque el paciente no haya dado la orden. Por todo ello, los científicos dicen que, ahora, es crucial con- siderar las posibles consecuencias incluido «el dere- cho de las personas a tener una vida mental privada». Para unos investigadores18 la solución a los algorit- mos con sesgos discriminatorios se encuentra en de- jar de entrenar los algoritmos con el objetivo de igua- lar el desempeño de los expertos humanos. Según los datos recopilados en el sistema sanitario nacional estadounidense una investigación de radiología de la rodilla donde se califica el dolor mediante la esca- la KLG han encontrado que los médicos que utilizan este método puntúan sistemáticamente el dolor de los pacientes negros en una medida mucho menos grave de lo que ellos mismos aseguran estar expe- rimentando. La propia metodología KLG podría estar sesgada, ya que se desarrolló hace varias décadas con poblaciones británicas blancas. Entonces, nos cuestionaremos ¿cómo podemos ha- cer responsables a los que no son responsables? A priori, para procurar superar estos desafíos podemos plantearnos las siguientes medidas: 1. Realizaruna posible evaluación constitucional del sistema de desde la perspectiva de los de- rechos humanos donde no debería aceptarse un sistema de inteligencia artificial que eliminara los derechos básicos de las personas. 2. Fomentar la educación en privacidad de todos los intervinientes en el desarrollo de las herra- mientas. 3. Comunicar con lenguajes sencillo. 4. Crear una plataforma independiente nacional para auditar algoritmos. 5. Crear incentivos para la investigación en inteli- gencia artificial ética. 6. Reforzar la ética a través de la creación de co- mités de ética difundiendo buenas prácticas en cada sector y revisando los códigos de ética (CNIL)19. 7. Mejorar del diseño del sistema del para evitar el efecto de «caja negra». Respecto a ésta última, cabe señalar que los cientí- ficos de datos de las empresas deberán acercar lo máximo posible a la transparencia para que los indi- viduos estén informados. Por ejemplo, Pretzel20 es un sistema de servicio de predicción que presenta una arquitectura de caja blanca novedosa que permite optimizaciones de extremo a extremo y de múltiples modelos, introduciendo tuberías con mejoras de ren- dimiento en diferentes dimensiones21. Cabe especial mención la herramienta de las audi- torías algorítmicas. Según DigitalES, no existe una metodología de auditoría algorítmica. Es un espacio aún incipiente, donde existe una experiencia limita- da y señalan que el usuario (médico, por ejemplo) debe haber recibido la formación necesaria e instruc- ciones claras sobre el nivel de supervisión humana requerido, pero, además, sino existe un sistema de gobernanza de los datos suficientemente robusto y si el usuario no confía en la inteligencia artificial no será de utilidad. Esta asociación señala que «los algoritmos emplea- dos en el diagnóstico, prevención, seguimiento, pre- dicción, pronóstico, tratamiento o alivio de una enfer- medad, lesión o discapacidad están sujetos al nuevo Reglamento Europeo de Productos Sanitarios22, que plantea amplios requerimientos en cuanto a la eva- luación clínica del producto, la gestión del riesgo, el sistema de gestión de la calidad, el seguimiento pos- terior a la implantación, la documentación técnica y la responsabilidad por productos defectuosos. El proveedor del modelo debe poder evaluar si se están produciendo variaciones significativas en los modelos sin necesidad de validación clínica. Esta su- pervisión automática debe permitir: 1. Detectar sesgos sobre las variables sensibles que se determinen para el caso de uso del mo- delo (por ejemplo: edad, sexo, enfermedades previas, etc.) fijando ventanas de revisión y um- brales de alarmado. 2. Detectar cambios significativos de población frente a la de entrenamiento que afecten a la precisión». 36 New Medical Economics Por su parte, para el grupo de expertos que crea- ron las Directrices de ética para inteligencia artificial confiable23, «la inteligencia artificial confiable debe respetar los derechos fundamentales, las regulacio- nes aplicables y principios fundamentales, aseguran- do el propósito ético y debe ser técnicamente robusta y confiable». Llegados a este punto, parece conveniente centrar- nos en los requisitos y métodos de la inteligencia ar- tificial confiable que se señalaban en los documentos desde el inicio en su borrador: 1. Respecto privacidad. La protección de datos y privacidad deben estar garantizadas en todas las etapas del ciclo de vida del sistema inteligencia artificial, esto incluye todos los datos proporcio- nados por el usuario, pero también toda la infor- mación generada sobre el usuario a lo largo de su curso interacciones con el sistema inteligen- cia artificial. Los registros digitales del comporta- miento humano pueden revelar altamente datos sensibles como son los datos de salud. Ahora bien, cabe preguntarse ¿el sistema es compa- tible con el RGPD? ¿está el flujo de información de datos personales en el sistema bajo control y cumple con las leyes de protección de la privaci- dad existentes? ¿cómo pueden los usuarios bus- car información sobre un consentimiento válido y cómo se puede revocar dicho consentimiento? ¿se comunica claramente a quién o a qué gru- po de cuestiones relacionadas con la violación de la privacidad pueden ser aumentadas, espe- cialmente cuando estas pueden aumentarse por usuarios del sistema de inteligencia artificial u otros afectados por el mismo? 2. Respecto a la rendición de cuentas. Dependerá de la naturaleza y el peso de la actividad. Puede incluirse mecanismos de compensación mone- taria (sin culpa o con culpa) o conciliación sin compensaciones. Por ejemplo, un sistema de inteligencia artificial que malinterpreta un medi- camento y decide no reembolsar puede ser com- pensado monetariamente, sin embargo, si se tratara de una discriminación, serían necesarias explicaciones y disculpas. 3. Respecto a la gobernanza de datos. La calidad e integridad de los conjuntos de datos utilizados es primordial para el rendimiento del aprendizaje automático capacitado. 4. Respecto al diseño para todos. Los sistemas deben diseñarse de una manera que permita a todos los ciudadanos utilizar los productos o ser- vicios, independientemente de su edad, estado de discapacidad o estado social. permitiendo así el acceso equitativo y la anticipación activa de potencialmente todas las personas en activida- des humanas existentes y emergentes. Este re- quisito enlaza a la Convención de las Naciones Unidas sobre los derechos de las personas con discapacidad. 5. Respecto a la gobernanza de autonomía de in- teligencia artificial. Cuanto mayor es el grado de autonomía que se otorga a un sistema de inteli- gencia artificial, más exhaustivas serán las prue- bas y el gobierno más estricto. La intervención 37New Medical Economics humana será más o menos temprana en función de ello. 6. Respecto a la no discriminación. La discrimina- ción se refiere a la variabilidad de los resulta- dos de la inteligencia artificial entre individuos o grupos de personas según la explotación de las diferencias en sus características que pue- den considerarse intencional o involuntariamen- te -como el origen étnico, el género, la orienta- ción sexual o la edad-, lo que puede tener un impacto negativo en tales individuos o grupos. El daño intencional puede excluir a ciertos grupos a través de algoritmos. Por ejemplo, pensemos en las aseguradoras de salud que excluyen a gru- pos de personas con tendencias a enfermedades. Pero hay que tener en cuenta algo importante: la propia inteligencia artificial puede ayudarnos a identificar el propio sesgo inherente y ayudarnos a tomar las decisiones menos sesgadas. 7. Respeto a la mejora de la autonomía humana. Cada vez más los productos y servicios de inte- ligencia artificial se enfocan a personalizaciones extremas y guían a las personas a elecciones po- tencialmente manipuladoras. Además, los indivi- duos cada vez están más dispuestos a delegar decisiones y acciones a máquinas, pensemos, por ejemplo, en los asistentes personales como Alexa. 8. Respecto a la robustez. La inteligencia artificial confiable requiere que los algoritmos sean se- guros, confiables y lo suficientemente robustos para lidiar con errores o inconsistencias duran- te la fase de diseño, desarrollo, ejecución, des- pliegue y uso del sistema inteligencia artificial, y para hacer frente adecuadamente a los resulta- dos erróneos. 9. Respecto a la seguridad. Consiste en garantizar que el sistema haga lo que se supone que debe hacer, sin dañar a los usuarios, recursos o medio ambiente. 10. Respecto a la transparencia. Conlleva a la ca- pacidad de describir, inspeccionar y reproducir los mecanismos a través de los cuales los sis- temas de inteligencia artificial hacen decisiones y aprenden a adaptarse a sus entornos, así como a la procedencia y dinámica de los datos que se utilizan. Se deben requerir fuentes, procesos de desarrollo y partesinteresadas de todos los mo- delos que utilizan datos o afectan a los seres hu- manos o puede tener otro impacto moralmente significativo. El Grupo de expertos señalan los siguientes métodos posibles para conseguir una inteligencia artificial con- fiable: 1. Métodos técnicos: · Ética y estado de derecho por diseño (X-by-design). · Arquitecturas para IA confiable, por ejemplo, por medio del monitoreo continuo. · Pruebas y validación. · Trazabilidad y auditabilidad. Para abordar los desa- fíos de la transparencia, los sistemas de IA deben documentar las decisiones que hacen y todo el proceso que dio lugar a las decisiones para tomar decisiones trazables. · Explicación XAI. Existe un problema conocido en los sistemas de aprendizaje basados en redes neuronales (“deep learning”) y es la dificultad de proporcionar razones claras para la interpretacio- nes y decisiones del sistema. A veces pequeños cambios en los valores de los datos pueden derivar a cambios dramáticos y delicados en la interpreta- ción (por ejemplo, personas de raza negra con ani- males). Existe un amplio campo de investigación abordando esta cuestión. 2. Métodos no técnicos · Regulación24. Hoy existen muchas regulaciones que aumentan la confianza de IA como son la le- gislación de seguridad o la de responsabilidad civil. Saber que la reparación es posible cuando las co- sas van mal aumenta la confianza. Los mecanis- mos pueden ir desde la compensación monetaria, negligencia o mecanismos de responsabilidad ba- sados en la culpabilidad, la reconciliación, la recti- ficación y la disculpa sin la necesidad de compen- sación monetaria. 38 New Medical Economics · Estandarización. El uso de estándares acordados para el diseño, la fabricación y las prácticas co- merciales puede funcionar como un sistema de gestión de calidad para IA a los consumidores, actores y gobiernos. Más allá de los estándares convencionales existen sistemas de acreditación, códigos de ética profesional o estándares de de- rechos fundamentales. Algunos ejemplos son los estándares ISO. · Gobernanza rendición de cuentas. Las organiza- ciones deben establecer un marco de gobierno in- terno o externo para garantizar la responsabilidad. Esta puede, por ejemplo, incluir el nombramiento de una persona a cargo de cuestiones de ética en relación con AI, una junta de ética interna, y / o una junta de ética externa. Esto puede ser adicio- nal a, y no puede reemplazar, la supervisión legal; por ejemplo, en forma de DPO o equivalente. · Códigos de conducta. Las organizaciones y las partes interesadas pueden suscribirse a las pau- tas y adaptar sus estatutos corporativos. · Diálogo stakeholders. Esto requiere un debate abierto y la participación de los interlocutores sociales, partes interesadas y público en general. Los paneles incluyen diferentes expertos y partes interesadas como expertos legales, técnicos ex- pertos, especialistas en ética, representantes de los clientes y empleados, etc. Se buscará activa- mente la participación y el diálogo sobre el uso y el impacto de la IA apoyando la evaluación y revi- sión de los resultados y sus enfoques, incluyendo los casos complejos. Prueba de ello es el grupo de Alianza Europea de IA25. · Educación. Aquí se refiere a las personas que fa- brican los productos (los diseñadores y desarro- lladores), los usuarios (empresas o individuos) y otros grupos afectados. · Equipos con diversidad e inclusivos. Esto contri- buye a la objetividad y consideración de diferen- tes perspectivas, necesidades y objetivos. No solo es necesario que los equipos sean diversos en términos de género, cultura, edad, sino también en términos de experiencia profesional y habili- dades”. Por su parte la «Guía de Evaluación de impacto algo- rítmicas (AIAs)26 será la herramienta idónea a utilizar ya que dada su magnitud y el impacto ético que con- lleva esta tecnología, parece necesario abrir el cam- po de visión y ampliar la intervención por parte de las Administraciones Públicas en su papel de supervisor, evaluador y controlador respecto a los sistemas de inteligencia artificial y de los actores intervinientes que pueden repercutir en los ciudadanos, garanti- zando el principio de accountability y la due diligen- ce públicos, algo que no sólo debe importar u ocupar a EEUU27 o en Canadá28 sino a todos los países del mundo. Partimos de la base de que, como venimos defendiendo, las organizaciones tecnológicas, desa- rrolladores e ingenieros «deben abrir sus diseños al control democrático» (Joiito, 2018)29. De forma específica en la Sanidad, ya estamos en- contrando soft law en forma de guías como la que ha creado el gobierno ingles desde la NHS Propone un proceso para las evaluaciones de impacto algo- rítmicas (AIA)30, cuyo objetivo es garantizar que los usos algorítmicos de los datos del sector público se evalúen y gobiernen para producir beneficios para la sociedad, los gobiernos, los organismos públicos y los desarrolladores de tecnología, así como para las personas representadas en los datos y afectadas por las tecnologías y sus resultados e incluye medidas prácticas para el proceso de AIA, junto con conside- raciones más generales para el uso de AIA en otros contextos del sector público y privado. Antes de obte- ner un nuevo sistema de decisión automatizada, las agencias tendrían que «divulgar públicamente infor- mación sobre el propósito, alcance y posible impacto del sistema en las clases de personas legalmente protegidas» (Reisman; Whittaker; Crawford, 2018)31. Por último, a mi humilde modo de ver, también se de- berá trabajar con los sistemas de inteligencia artificial teniendo en cuenta ciertos valores. En este sentido, Yudkowsky (2008)32 propone diseñar una inteligencia artificial amigable donde «los valores de tolerancia y respeto por el bienestar de los seres humanos sean incorporados como elementos nucleares en la pro- gramación de agentes de inteligencia artificial». La UNESCO33 diseñó sus propias directrices que fue- ron aprobadas y sirvieron como primera iniciativa a nivel internacional como herramienta de regulación y ética de la inteligencia artificial sirviendo de marco 39New Medical Economics más allá de Europa. No llegaron a definir las prácti- cas prohibidas y los sistemas de inteligencia artificial de alto riesgo, pero la «propuesta del Reglamento Eu- ropeo en Inteligencia Artificial»34(2021) sí lo consigue, aunque su ámbito de aplicación se limita a Europa, se pueden percibir como una visión extraeuropea es- tableciendo que los valores europeos de protección de los derechos humanos y fundamentales son cen- trales para los estados de derecho. No obstante, existen autores35 que afirman que las directrices éticas del grupo de alto nivel se limita- ron a debatir, sin más, sobre la inteligencia artificial “ética” y “robusta”. Según ellos, el concepto de inte- ligencia artificial legalmente confiable debe basarse en el respeto de tres pilares en los que se basan las sociedades democráticas liberales contemporáneas tales como; los derechos fundamentales, el Estado de Derecho y la Democracia. En concreto, la pro- puesta del Reglamento europeo de inteligencia artifi- cial debería de garantizar: 1. una asignación y distribución adecuadas de la responsabilidad por los errores y daños de la in- teligencia artificial; 2. una arquitectura de ejecución legítima y eficaz, que incluya mecanismos adecuados de transpa- rencia para garantizar la protección efectiva de los derechos fundamentales y el Estado de Dere- cho, y proporcionar una orientación clara y esta- ble a los sujetos jurídicos de manera coherente con otras leyes aplicables; 3. derechos adecuados de participación pública y derechos de información necesarios para garan- tizar una rendición de cuentas significativa por el desarrollo, despliegue y supervisión de los siste- mas de inteligencia artificial que es necesario en una sociedad democrática (LeadsLab, 2021)36. Si cabe algún reproche a la propuesta del Reglamen- to es la falta aplicaciones de la inteligencia artificial en la categoría de «alto riesgo» como aquellas para determinar una prima de un seguro de salud, pién- sese en las aseguradoras interactivas), evaluar trata- mientos médicos o con fines de investigación37. En definitiva, la propuesta del Reglamento Europeo de Inteligencia Artificial es un reglamento que fomenta la ética empresarial y que además prevé un sistema de certificación de los dispositivos por parte de los organismos de evaluación donde las empresas debe- rán establecer un sistema de gestión de calidad que se encuentra a través de los estándares de la ISI que dicta las normas técnicas da las empresas. Por todo 40 New Medical Economics ello, se podría decir, que la propuesta del reglamento es un reglamento estándar (Dambly; Beelen, 2022)38. Otra cuestión llamativa es la escasa referencia que da la Comisión Europea al término “ética” a diferen- cia de otros documentos comunitarios, pareciendo considerar “ético” lo que no es conforme o no in- fringe con los valores de la UE y los derechos funda- mentales consagrados en la Carta de los Derechos Fundamentales de la UE. Era obvio que la ausencia de regulación en materia de inteligencia artificial podría haber generado ses- gos discriminatorios, el uso de las «cajas negras», pero gracias a esta regulación, Europa podrá poner un marco competitivo a Estados Unidos y a China. Implicaciones éticas con Internet de las cosas (IoT) y m-Health Inicialmente convendría utilizar la clasificación de las tres áreas de reflexión ética que ocupa a la IoT que bien señala la autora Colmenarejo (2017) que son: 1. La ciberética; que se ocupa de analizar los modos en los que internet está condicionando la comu- nicación social entre individuos y organizaciones, donde se podría incluir la ética de IoT e incluso la ética de la robótica donde se han identificado valores negativos como la vigilancia masiva; 2. la ética de la computación; que comparte es- pacios con la ciberética, en tanto que se ocupa de la tecnología que se emplea para la recopi- lación, gestión y tratamiento de los datos, pero sin ceñirse a internet, es decir, se ocupa de los problemas éticos que surgen en el desarrollo y utilización de herramientas computacionales en todos los ámbitos de la sociedad (Johnson, Miller, 2009; Stahl et al, 2016); y 3. la ética de la información en investigación bio- médica como parte de la bioética que se ocu- pa de analizar la interacción entre seres vivos y tecnologías digitales y/o computacionales, pero sin ceñirse únicamente a la obtención y gestión de datos obtenidos mediante un acto médico, sino también de los biométricos obtenidos con fines de vigilancia y seguridad (Bietz et al., 2016; Kokumi, 2016; Sharon, 2016; Stylianou, Talias, 2017). Tenemos que asimilar que este tipo de dispositivos IoT van a jugar un papel importante como generadores de datos en el cuidado de la salud en el futuro, tanto a nivel clínico o de inves- tigación como de aseguradoras (Dans, 2018)39. Así, por ejemplo, Apple Watch40 ya cuenta en la ac- tualidad con un sensor que permite hacer electrocar- diogramas y es que, de acuerdo con un informe de la Universidad de California, el Apple Watch es capaz de detectar arritmias cardíacas con una exactitud del 97 %, por lo que se trata de un buen dispositivo para personas que puedan sufrir problemas cardia- cos y de hecho, este dispositivo ya ha podido sal- var la vida a más de una persona41-42. No podemos desconocer los grandes avances que esta tecnología pueden traer a los usuarios en el futuro, ahora bien, sin pretender poner una barrera a la innovación y a los avances tecnológicos -ni mucho menos, tenemos que estar atentos de forma especial a la privacidad y a la protección de datos. La mayoría de los rastreadores de fitness, por ejem- plo, pierden datos personales y no son seguros para la privacidad43. Una investigación de la Universidad de Toronto ha analizado a Apple Watch, Basis Peak, Fitbit Charge HR, Garmin Vivosmart, Jawbone Up 2, Whitings Pulse O2, Mio F use y Xiaomi Mi Band y ha concluido que 7 de cada 8 (salvo Apple) emiten iden- tificadores únicos persistentes que pueden exponer a los usuarios aun seguimiento a largo plazo sobre su ubicación cuando el dispositivo está conectado a un móvil. A su vez, las aplicaciones Garmin Connect (iPhone y Android) y la aplicación Withings Health Mate (Android) tienen vulnerabilidades de seguridad que permiten a un tercero no autorizado leer, escri- bir y eliminar datos de usuarios. Las consecuencias éticas no sólo estarán al torno de la “fatiga de hi- perconectividad” -que puede suponer estar conec- tado a estos dispositivos-, sino también al impacto de esta tecnología sobre la privacidad e intimidad de los usuarios. En el 2015, en alguna encuesta44, se mostraba como las aseguradoras (51%) querían aso- ciarse con grandes empresas de tecnología digital y plataformas cloud, quedando evidente la tendencia, la intención de la industria y el mercado de los datos. Los usuarios que participan aportando datos a las aseguradoras obtienen descuentos premium por 41New Medical Economics alcanzar objetivos de ejercicio. Este escenario pro- vocaba varios interrogantes tales como; ¿las asegu- radoras de “seguros de vida interactivos”45 podrán usar los datos para seleccionar a los clientes más rentables mientras que las tasas de interés aumentan para aquellos que no participan?, ¿las aseguradoras pueden crear perfiles de clientes menos rentables?, ¿qué podrían hacer las personas que se le niegan o cancelan un seguro de vida porque los hábitos no están considerados de saludables?, ¿es justo pagar más en la póliza de esas aseguradoras por no querer enviar datos de salud o dejarse monitorizar por dis- positivos de IoT de salud?, ¿cómo poner control ético de los datos a la sociedad hiperconectada en la que vivimos?, ¿qué información debe liberarse a la red pública sobre los pacientes? También se despiertan dilemas éticos en los «hospi- tales conectados» con IoT debido a las vulnerabilida- des de seguridad de los mismos dispositivos sobre todo en los hospitales norteamericanos46, los cuales han aumentado un 125% y cuestan 6.000 millones de dólares al sistema de salud. Por ejemplo, en el 2014 se produjo en EEUU un robo masivo de 4,5 mi- llones de pacientes con datos personales de número de seguridad social, nombres, direcciones, teléfonos y fechas de nacimiento de los pacientes. La intención de los hackers en este caso no era la información personal sino la propiedad intelectual almacenada en los dispositivos. Las consecuencias son la pérdida los HCE (pueden hacer que los médicos realicen tra- tamientos equivocados poniendo en riesgo la vida de los pacientes), o el acceso de los propios dispositivos (bomba de insulina o respirador), y en otros casos, el objetivo de estos incidentes es el robo de dinero o chantaje. Otra cuestión inquietante la ocupa las vul- nerabilidades de los marcapasos ya que según una encuesta de la AERC47, la monitorización remota es- tará disponible para el 22% de los pacientes usuarios de los mismos. Esta situación empezó a preocupar tanto que, por ejemplo, el que era vicepresidente de EEUU, desactivó la función inalámbrica de su propio marcapasos48. Lo que es claro es que la ética apli- cada a la IoT de la salud y a m-Health49 deberá estar orientada a desarrollar una determinada cultura ética de los datos que permite tomar decisiones orienta- das hacia el interés general de la sociedad o bien común, en general, y a la privacidad y protección de datos de las personas, en particular. Implicaciones éticas con Blockchain/DLT Blockchain es una tecnología emergente que ofrece un valor diferencial a las empresas, aporta trazabili- dad, seguridad, eficiencia en tiempo y costes, pero también destila valores éticos cuando describimos sus capacidadesa modo de soft skills humanos (Be- lloto, 2020)50. Desde el punto de vista de la ética de los datos de las personas en un contexto de la proli- feración masiva de silos de bases de datos centrali- zados con información sensible de las personas, las virtudes de blockchain posibilitarán que los titulares de los datos personales tuvieran control sobre sus datos en diferentes formas. Además, proporciona va- lor en la atención médica al permitir un intercambio seguro y específico de datos para mejorar la calidad y reducir el coste de la atención médica y habilitar nuevos sistemas de comercio e incentivos, por ejem- plo, los participantes (entidades de atención médi- ca, pacientes, etc.) que participan en una cadena de bloques pueden ser recompensados por el compor- tamiento deseado. Desde el punto de las organizacio- nes privadas (o instituciones públicas), se concibe a este protocolo como una solución de responsabilidad social empresarial (RSE). Blockchain o los sistemas DLT, como protocolo, permiten cumplir ciertas exi- gencias normativas como la anonimización (medida técnica y organizativa que obliga la normativa) de la 42 New Medical Economics información almacenada sensible como es la de la salud. No obstante, no podemos desatender la idea de que blockchain tiene ciertas limitaciones (ej. de- recho al olvido, minimización, etc.) y es aquí donde la RSE tendrá un papel muy importante que se tra- ducirá en una contribución activa en la “búsqueda creativa y proactiva” de técnicas y herramientas que posibiliten y den solución -de alguna manera- a las incompatibilidades de este protocolo con la norma- tiva. Estas técnicas pueden suponer todo un desafío para los desarrolladores quienes saben que en esa búsqueda pueden “desvirtuar” la propia tecnología. Bibliografía 1. DigitalES. Asociación Española para la Digi- talización (2022) Inteligencia Artificial ética en Sanidad. Recomendaciones para la adop- ción de IA respetuosa, transparente, segura y justa. https://webcache.googleusercontent. com/search?q=cache:Wv-aQNtEQEkJ:https:// digitalidades.org/guia-inteligencia-artificial-eti- ca-en-sanidad-de-digitales/+&cd=1&hl=gl&c- t=clnk&gl=es [fecha de última consulta:15 de febrero de 2022] 2. Vid.https://www.forbes.com/sites/ enriquedans/2018/09/21/insuran- ce-wearables-and-the-future-of-health- care/#27449a671782 [fecha de última consul- ta:15 de febrero de 2022] 3. Vid.https://datanews.knack.be/ict/nieu- ws/een-nieuw-jaar-een-nieuwe-ai/ article-opinion-1412987.html?cookie_ check=1546692144 [fecha de última consul- ta:15 de febrero de 2022] 4. Supra. Cit. 5. Vid. Rabess, Cecilia Esther (2014) Can big data be racist? The Bold Italic, http://www.theboldi- talic.com/articles/4502-can-big-data-be-racist [fecha de última consulta:15 de febrero de 2022] 6. Vid. Sweeney, Latanya (2013). Discrimination in online ad delivery. Data Privacy Lab http:// dataprivacylab.org/projects/onlineads/1071-1. pdf [fecha de última consulta:15 de febrero de 2022] 7. Vid.https://www.healthcareittoday. com/2019/06/20/fear-and-confu- sion-over-the-software-and-artificial-intelligen- ce-revolution-reaches-the-fda/ y https://www. regulations.gov/docket?D=FDA-2019-N-1185 [fecha de última consulta:15 de febrero de 2022] 8. Vid. https://retina.elpais.com/retina/2019/01/04/ tendencias/1546604928_551805.amp.html M.Luengo [fecha de última consulta:15 de febrero de 2022] 9. Monasterio, A. Ética algorítmica: Implicaciones éticas de una sociedad cada vez más gobernada por algoritmos, 2017. 10. Vid.https://www.bbc.com/mundo/noti- cias/2015/07/150702_tecnologia_google_per- don_confundir_afroamericanos_gorilas_lv[fecha de última consulta:15 de febrero de 2022] 11. Ver https://elpais.com/elpais/2017/09/19/cien- cia/1505818015_847097.html [fecha de última consulta:15 de febrero de 2022] 12. Vid. https://www.xataka.com/privacidad/du- rante-2018-17-5-millones-ciudadanos-chi- nos-no-pudieron-comprar-billete-avion-te- ner-credito-social [fecha de última consulta:15 de febrero de 2022] 13. Vid. https://amp.infosalus.com/asistencia/noti- cia-inteligencia-artificial-amenaza-creciente-pri- vacidad-datos-salud-20190104121513.html [fecha de última consulta:15 de febrero de 2022] 14. Vidr https://jamanetwork.com/journals/jamane- tworkopen/fullarticle/2719130 [fecha de última consulta:15 de febrero de 2022] 15. Ver https://jamanetwork.com/journals/jamane- tworkopen/fullarticle/2719121 [fecha de última consulta:15 de febrero de 2022] 16. AI Now .Report 2018. Recuperado de https://ai- nowinstitute.org/AI_Now_2018_Report.pdf pp 7 [fecha de última consulta:15 de febrero de 2022] 43New Medical Economics 17. Vid. https://www.instagram.com/p/BqfJIQDhL- mr/?utm_source=ig_share_sheet&igshid=rbin- 43g4igsn [fecha de última consulta:15 de febrero de 2022] 18. Pierson, E., Cutler, D.M., Leskovec, J. et al. An al- gorithmic approach to reducing unexplained pain disparities in underserved populations. Nat Med 27, 136–140 (2021). https://doi.org/10.1038/ s41591-020-01192-7 19. CNIL (2017). How can humans keep the upper hand? Report on the ethical matters raised by algorithms and artificial intelligence. Recupe- rado de https://www.cnil.fr/en/how-can-hu- mans-keep-upper-hand-report-ethical-mat- ters-raised-algorithms-and-artificial-intelligence 20. Lee, Y. et. Al. (2018). PRETZEL: Opening the Black Box of Machine Learning Prediction Serving Sys- tems. aeXiv of Cornell University. Recuperado de https://arxiv.org/abs/1810.06115 21. Burlacu, A. (12 de agosto de 2018). Understan- ding a Black-Box. Towards Data Science. Re- cuperado de https://towardsdatascience.com/ understanding-a-black-box-896df6b82c6e [fecha de última consulta:15 de febrero de 2022] 22. Reglamento (UE) 2017/745 del Parlamento Euro- peo y del Consejo, de 5 de abril de 2017, sobre los productos sanitarios, por el que se modifican la Directiva 2001/83/CE, el Reglamento (CE) n.° 178/2002 y el Reglamento (CE) n.° 1223/2009 y por el que se derogan las Directivas 90/385/CEE y 93/42/CEE del Consejo (Texto pertinente a efectos del EEE. ) Vid. https://eur-lex.europa.eu/legal-con- tent/ES/ALL/?uri=celex:32017R0745 23. Comisión Europea. Ethics Guidelines for Trus- tworthy AI. Recuperado de https://us18. campaign-archive.com/?u=a23897532db- b6100934258190&id=803e0320a1 24. El grupo de expertos considera que la regulación puede necesitar ser revisada, adaptada o introdu- cida, hechos que serán discutido en el segundo entregable del borrador (marzo 2019) y que con- tarán con la colaboración de los 900 miembros de Alianza Europea de la IA. 25. Comisión Europea. The European AI Alliance. Recuperado de https://ec.europa.eu/digital-sin- gle-market/en/european-ai-alliance 26. Reisman, D., Schultz, J., Crawford, K., Whittaker M. (abril 2018). Algorithmic Impact Assesments: A practica framework for public Agency Accountabi- lity. AINow. Recuperado de https://ainowinstitute. org/aiareport2018.pdf) 27. Vid. https://www.aclu.org/issues/privacy-te- chnology/surveillance-technologies/algori- thms-are-making-government-decisions [fecha de última consulta:15 de febrero de 2022] 28. Vid. https://citizenlab.ca/wp-content/ uploads/2018/09/IHRP-Automated-Systems-Re- port-Web-V2.pdf [fecha de última consulta:15 de febrero de 2022] 29. Vid. https://www.aclu.org/issues/priva- cy-technology/surveillance-technologies/ ai-engineers-must-open-their-desig- ns-democratic?redirect=issues/pri- vacy-technology/consumer-privacy/ ai-engineers-must-open-their-designs-demo- cratic-control [fecha de última consulta:15 de febrero de 2022] 30. Ada Lovelace Insitute (2022). Algorithmic impact assessment: user guide https://www.adalovela- ceinstitute.org/report/aia-user-guide/ [fecha de última consulta:15 de febrero de 2022] 31. Vid. https://www.aclu.org/issues/privacy-te- chnology/surveillance-technologies/algori- thms-are-making-government-decisions [fecha de última consulta:15 de febrero de 2022] 32. Supra Cit. 33. UNESCO (2021) Informe finalsobre el proyecto de recomendación sobre la ética de la inteli- gencia artificial https://events.unesco.org/even- t?id=515530304 44 New Medical Economics Letrada ICAM/Consultora Doctora en Derecho Sanitario Tecnológico y Privacidad lorena.perez.campillo@gmail.com 34. Propuesta de Reglamento Europeo de Inteligencia Artifiical (2021). Recuperado de https://eur-lex. europa.eu/legal-content/ES/TXT/HTML/?uri=CE- LEX:52021PC0206&from=ES 35. Smuha; Ahmed-Rengers; Harkens; Li; MacLaren; Piselli; Yeung (5 agosto de 2021).How the EU can achieve Trusthworthy AI: A response to the European Commission’s Proposal for an Artificial Intelligence Act. LEADS Lab, University of Bir- mingham. Recuperado de https://ec.europa.eu/ info/law/better-regulation/have-your-say/initiati- ves/12527-Artificial-intelligence-ethical-and-le- gal-requirements/F2665480_en 36. Smuha; Ahmed-Rengers; Harkens; Li; MacLaren; Piselli; Yeung (5 agosto de 2021).How the EU can achieve Trusthworthy AI: A response to the European Commission’s Proposal for an Artificial Intelligence Act. LEADS Lab, University of Bir- mingham. Recuperado de https://ec.europa.eu/ info/law/better-regulation/have-your-say/initiati- ves/12527-Artificial-intelligence-ethical-and-le- gal-requirements/F2665480_en 37. EIOPIA (2021) Artificial intelligence governance principles: towards ethical and trustworthy artifi- cial intelligence in the European insurance sector, 38. Vid. https://montrealethics.ai/europe-analy- sis-of-the-proposal-for-an-ai-regulation/ [fecha de última consulta:15 de febrero de 2022] 39. Vid https://9to5mac.com/2018/06/04/apple- opens-health-records-api-for-developers/ [fecha de última consulta:15 de febrero de 2022] 40. Vid.https://www.revistagq.com/noticias/tecno- logia/articulos/apple-watch-series-4-critica-ca- racteristicas-opiniones/30946 . [fecha de última consulta:15 de febrero de 2022] 41. Vid. https://www.tribuna.com.mx/cienciaytecnolo- gia/Nueva-herramienta-en-el-Apple-Watch-salva- la-vida-de-una-persona-20181209-0083.html [fecha de última consulta:15 de febrero de 2022] 42. Vid. https://elchapuzasinformatico.com/2018/05/ un-apple-watch-salva-la-vida-a-un-hombre-tras- detectar-una-ulcera-perforada/ [fecha de última consulta:15 de febrero de 2022] 43. Vid. https://dataethics.eu/en/fitnesstrackersleak/ [fecha de última consulta:15 de febrero de 2022] 44. Vid. https://www.ituser.es/movilidad/2015/05/ el-31-de-las-aseguradoras-utiliza-wearables-pa- ra-comunicarse-con-clientes-empleados-y-socios [fecha de última consulta:15 de febrero de 2022] 45. Vid. https://www.reuters.com/article/us-manuli- fe-financi-john-hancock-lifeins/strap-on-the-fit- bit-john-hancock-to-sell-only-interactive-li- fe-insurance-idUSKCN1LZ1WL [fecha de última consulta:15 de febrero de 2022] 46. Vid. http://www.techtimes.com/arti- cles/69953/20150718/ucla-health-data-breach- affects-4-5-million-patients-what-you-should- know.html [fecha de última consulta:15 de febrero de 2022] 47. Vid. https://www.ncbi.nlm.nih.gov/pub- med/25713012 [fecha de última consulta:15 de febrero de 2022] 48. Vid.https://www.researchgate.net/publica- tion/275413868_Security_and_Privacy_Issues_in_ Implantable_Medical_Devices_A_Comprehensi- ve_Survey [fecha de última consulta:15 de febrero de 2022] 49. Vid. http://www.intotheminds.com/blog/ en/30-days-to-read-privacy-policies-consent-fa- tigue-will-make-gdpr-ineffective/ [fecha de última consulta:15 de febrero de 2022] 50. Vid. https://observatorioblockchain.com/block- chain/integracion-de-blockchain-e-inteligencia-ar- tificial-desde-la-perspectiva-de-la-etica/ [fecha de última consulta:15 de febrero de 2022]
Compartir