Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
1 Máster Universitario en Estudios Avanzados en Derechos Humanos Instituto de Derechos Humanos “Gregorio Peces-Barba” Curso académico 2022/2023 Trabajo de Fin de Máster “Los avances de la Inteligencia Artificial y su impacto en el principio de igualdad y no discriminación de las personas en situación de discapacidad.” ITALO GIANCARLO ALVAREZ LOZANO Tutor: Rafael Fernando de Asís Roig Getafe, Junio 2023 DETECCIÓN DEL PLAGIO La Universidad utiliza el programa Turnitin Feedback Studio para comparar la originalidad del acatrabajo entregado por cada estudiante con millones de recursos electrónicos y detecta aquellas partes del texto copiadas y pegadas. Copiar o plagiar en un TFM es considerado una Falta Grave, y puede conllevar la expulsión definitiva de la Universidad. [Incluir en el caso del interés de su publicación en el archivo abierto] Esta obra se encuentra sujeta a la licencia Creative Commons Reconocimiento – No Comercial – Sin Obra Derivada 2 Palabras claves: Derecho Internacional de los Derechos Humanos, Nuevas Tecnologías, Inteligencia Artificial, Discapacidad, Discriminación. Resumen: Las nuevas tecnologías han proliferado sus usos en estos tiempos y han reformulado la composición, gestión y regulación de la sociedad, impactando de forma importante. Por eso resulta relevante analizar este fenómeno desde el discurso de los derechos humanos para evitar nuevas discriminaciones a colectivos en situación de vulnerabilidad. Dentro de este gran campo de ramilletes de nuevas tecnologías, para esta investigación el centro de importancia es la Inteligencia Artificial. En este tema, los algoritmos y los datos son el punto fundamental porque sus usos pueden hacer que un sistema de Inteligencia Artificial emita resultados o predicciones negativas a colectivos en situación de vulnerabilidad, como las personas en situación de discapacidad. Desde este hilo conductor resulta vertebral considerar el contenido jurídico de la Convención sobre los Derechos de las Personas con Discapacidad, así como los diversos discursos filosóficos y jurídicos en torno a la regulación de la Inteligencia Artificial con la finalidad de evitar situaciones que generen discriminación y ofrecer una respuesta a estos nuevos fenómenos. 3 ÍNDICE: Tabla de Abreviaturas………………………………………………………………………...…..5 INTRODUCCIÓN………………………………………………………………………………..6 Capítulo 1: La Inteligencia Artificial y el Derecho Internacional de los Derechos Humanos…………………………………………………………………………………...……..9 1.1 Cuestiones previas……………………………………………………………….…..9 1.1.1 Inteligencia Artificial, aprendizaje automático y adopción automatizada de decisiones…………………………………................................…....9 1.1.2 La discriminación algorítmica……………………………………...…13 1.1.3 La discapacidad: Los modelos y concepto………………………….....17 1.1.4 Derecho Internacional de los Derechos Humanos: Breve aproximación……………………………………………………..…...21 1.2 La Inteligencia Artificial y los Derechos Humanos………………………..……...25 1.2.1 El marco jurídico de la Inteligencia Artificial en el Derecho Internacional de los Derechos Humanos…………………………...…25 1.2.1.1 Sistema Universal de Derechos Humanos…………………....25 1.2.1.2 Sistemas Regionales de Derechos Humanos……………..…..34 1.2.2 La Unión Europea y su contribución en la regulación de la Inteligencia Artificial dentro del marco de los Derechos Humanos……………………………………………………………...39 1.3 La Inteligencia Artificial y la discapacidad………………………………………..54 1.3.1 El marco jurídico de la Inteligencia Artificial en el contexto de la discapacidad en el Derecho Internacional de los Derechos Humanos…………………………………………………………........54 1.4 Conclusiones……………………………………………………………………….75 Capítulo 2: La discriminación algorítmica hacia las personas en situación discapacidad ¿Cómo podemos regularla?.......................................................................................................................80 2.1 Los avances tecnológicos referente a la Inteligencia Artificial en los últimos años………………………………………………………………………………..80 2.2 La vulneración del principio de igualdad y no discriminación y de otros derechos protegidos de las personas en situación discapacidad……………………………..87 2.3. ¿Cómo regular la protección contra la discriminación algorítmica?........................94 2.3.1 Unos problemas iniciales…………………………………………………....94 2.3.2 Los debates éticos-jurídicos respecto a la inteligencia artificial y su regulación en el contexto de la discapacidad……………………..………...98 2.3.2.1 Los acuerdos de expertos y organizaciones internacionales………………………………………….…….99 2.3.2.2 Las interpretaciones de estos principios con las posturas sobre las nuevas tecnologías………………………..……………...105 2.3.2.2.1 Los debates filosóficos en torno a las nuevas tecnologías…………………………………………………..106 2.3.2.2.2 El enfoque de los derechos humanos………...........107 4 2.3.2.3 Los abordajes de las nuevas tecnologías en el contexto de la discapacidad……………………………………..…………..109 2.3.2.3.1 Como remedio para reducir los efectos de las deficiencias……………………………………………….…109 2.3.2.3.2 Como discriminación en términos de la accesibilidad………………………………...………...……..110 2.3.2.3.3 El enfoque de derechos desde la “discapacidad”………………………………………….…...111 2.3.3 La regulación de la CDPD como punto de partida…………………………..….113 2.3.3.1 La igualdad y no discriminación en la inteligencia artificial: Implicancias con la accesibilidad, diseño universal y el ajuste razonable…………………………………………………..114 2.3.3.2 El derecho a la consulta activa……………………………….122 2.4 Reflexiones y propuestas finales para el abordaje de la protección contra la discriminación algorítmica hacia las personas en situación discapacidad…………………………………………………………………………..124 2.5 Conclusiones…………………………………………………..………………….135 CONCLUSIONES DEL TRABAJO FIN DE MÁSTER……………………………………..138 REFERENCIAS BIBLIOGRÁFICAS……………………………………………...………...143 ANEXOS…………………………………………………………………………………..…164 5 ABREVIATURAS ACNUDH: Alto Comisionado de e las Naciones Unidas para los Derechos Humanos. ACNUR: Alto Comisionado de las Naciones Unidas para los Refugiados. AEPD: Agencia Española de Protección de Datos de España. API: Application Programming Interface. CDPD: Convención sobre los Derechos de las Personas con Discapacidad. CES: Consejo Económico y Social CESE: Comité Económico y Social Europeo. CIDH: Comisión Interamericana de Derechos Humanos. Comité DPD: Comité sobre los Derechos de las Personas con Discapacidad. Comité DESC: Comité de Derechos Económicos, Sociales y Culturales Comisión ADHP: Comisión Africana de Derechos Humanos y de los Pueblos. Comisión DH: Comisión de Derechos Humanos. Consejo DH: Consejo de Derechos Humanos. Corte IDH: Corte Interamericana de Derechos Humanos. DIDH: Derecho Internacional de los Derechos Humanos. DUDH: Declaración Universal de Derechos Humanos. EPU: Examen Periódico Universal. GPT-3: Generative Pre-Trained Transformer 3. IA: Inteligencia Artificial. MTU: Mandatos Temáticos Universales. M. Territ. E.: Mandatos Territoriales Especiales. SADH: Sistema Africano de Derechos Humanos. SEDH: Sistema Europeo de Derechos Humanos. SIDH: Sistema Interamericano de Derechos Humanos. SUDH: Sistema Universal de Derechos Humanos. OEA: Organización de Estados Americanos. OIM: Organización Internacional para las Migraciones. OIT: Organización Internacional del Trabajo. OMS: Organización Mundial de la Salud. ONG: Organizaciones No Gubernamentales. ONU: Organización de Naciones Unidas. RELE: Relatoría Especial para la Libertad de Expresión. RGPD: Reglamento General de Protección de Datos. RLHF: Reinforcement Learning From Human Feedback. TIC: Tecnología para la información y la comunicación. UPIAS:Union of the Physically Impaired Against Segregation. 6 INTRODUCCIÓN En los últimos años nos hemos adentrado en una nueva revolución desde el plano de la ciencia y la tecnología, que nos ha llevado a cuestionar diferentes disciplinas en el plano de la academia; entre ellas, el Derecho. En ese sentido, las nuevas tecnologías han venido a quedarse y reformular la composición, gestión y regulación de la sociedad. Estas implicancias, que impactarán de forma esencial en nuestras vidas deben analizarse desde el discurso de los derechos humanos para evitar nuevas discriminaciones para colectivos en situación de vulnerabilidad o, incluso, añadir nuevos colectivos que no entraban en esta situación. Dentro de estas opciones de nuevas tecnologías, para esta investigación el centro de importancia está en la Inteligencia Artificial (en adelante IA). Este sistema tiene la función de emular las actividades cerebrales del ser humano y ha obtenido, durante estos años, resultados muy favorables que han contribuido a la proliferación de sus usos en el mundo, desde los aspectos sociales, legales, financieros, de monitoreos, en conducciones de aparatos, entre otras cosas que los seres humanos realizaban y, ahora, son reemplazados por la IA.1 Esta tecnología tiene como columna vertebral para su funcionamiento a los algoritmos, que son secuencias de instrucciones que podrían traer un impacto negativo y discriminatorio a colectivos en situación de vulnerabilidad, como las personas en situación de discapacidad. Estas secuencias de instrucciones tienden a buscar una serie de resultados basados en el procesamiento de los datos esparcidos en diversas fuentes y en Internet. En ese sentido, los riesgos y los dilemas surgen cuando la IA no puede recoger datos suficientes sobre personas en situación de discapacidad debido a la protección de datos y/o porque los datos que se tienen sobre las personas en situación de discapacidad no reflejan la realidad o son erróneos en su conceptualización y pueden ser tratados como variables negativas que pueden producir situaciones de discriminación.2 Esto conllevará a que el uso de los sistemas de IA que se incorporen con el fin de brindar servicios y acceder derechos, puedan provocar desigualdades hacia las personas en situación de discapacidad. La IA puede vulnerar el principio de igualdad y no discriminación en muchos derechos reconocidos para las personas en situación de discapacidad. La finalidad de la investigación es analizar y brindar los elementos teóricos, problemáticas y soluciones relacionadas con los debates teóricos-jurídicos sobre la IA y su susceptibilidad a vulnerar el principio de igualdad y no discriminación hacia las personas en situación de discapacidad. En ese sentido, la pregunta central de la investigación es determinar lo siguiente: ¿Es suficiente la Convención sobre los Derechos de las Personas con Discapacidad (en 1 Vid., DE ASÍS ROIG, R. “Robótica, Inteligencia Artificial y Derecho”, Revista de Privacidad y Derecho Digital, n. 10, Madrid, 2018, pp. 27-77. 2 PAHISA, J., Amenazas para las personas con discapacidad de una IA que no considere esta diversidad ¿Inteligencia Artificial en abierto o cerrado?, Columna de Opinión, cermi.es semanal Nº 378, 14/02/2020, Disponible en http://semanal.cermi.es/noticia/articulo-opinion-inteligencia-artificial- potencial-romper-peligro-barrera-joan-pahisa-doctor-informatica-fundacion-once-2.aspx (Última consulta 13 de mayo de 2022) http://semanal.cermi.es/noticia/articulo-opinion-inteligencia-artificial-potencial-romper-peligro-barrera-joan-pahisa-doctor-informatica-fundacion-once-2.aspx http://semanal.cermi.es/noticia/articulo-opinion-inteligencia-artificial-potencial-romper-peligro-barrera-joan-pahisa-doctor-informatica-fundacion-once-2.aspx 7 adelante, CDPD)3 para regular y controlar los usos del sistema de IA con el fin de evitar la discriminación algorítmica hacia las personas en situación de discapacidad? Por lo que la hipótesis planteada sería: Las personas en situación de discapacidad son más propensas a ser vulneradas en sus derechos humanos si no existe una debida regulación y datos acorde a la realidad que permitan a los sistemas de IA ser utilizados bajo un enfoque que tenga, específicamente, en cuenta la garantía de la igualdad y no discriminación de las personas en situación de discapacidad discapacidad. En ese sentido, la CDPD es importante como punto de partida para su regulación en tanto contempla la protección a no ser discriminado por motivos de discapacidad y establece parámetros sobre el uso de las tecnologías desde un ámbito general. Asimismo, el objetivo principal de la investigación es analizar los debates éticos- jurídicos relacionados al uso de sistemas de IA en el contexto de la discapacidad y centrarse en revisar cómo sus derechos pueden ser altamente vulnerados en la práctica de estos sistemas, para así presentar una propuesta o ideas para controlar los usos discriminatorios. Del mismo modo, se pretende tener los siguientes objetivos específicos: • Desarrollar y clasificar los instrumentos internacionales que regulan los usos de sistemas de IA desde una perspectiva general e identificar la existencia de disposiciones que mencionen su regulación en el contexto específico de la discapacidad. • Analizar los riesgos de discriminación que existen en los sistemas de IA desde la identificación de la discapacidad, en los datos estereotipados, en la promoción de la capacidad jurídica y otros derechos conexos. • Identificar y analizar los debates éticos-jurídicos existentes en la regulación de la IA y establecer una ruta de propuesta normativa para garantizar la protección a la no discriminación algorítmica hacia las personas en situación de discapacidad. Con estos alcances y objetivos, se podrá responder otras sub-preguntas relevantes como: ¿Existen otros instrumentos internacionales de derechos humanos que pueden proteger a las personas en situación de discapacidad frente a la discriminación algorítmica? ¿La IA puede realmente discriminar y ser responsable? ¿Cómo regular a la IA desde el discurso de la discapacidad y que sea garantista frente a la prohibición de la discriminación algorítmica hacia las personas en situación de discapacidad? Para lograr estos objetivos, la presente investigación tiene el siguiente esquema. El primer capítulo está centrado a introducir al lector en los conocimientos esenciales para entender a la IA y su riesgo respecto a la discriminación algorítmica hacia las personas en situación de discapacidad. Asimismo, se desarrollará de manera cronológica los instrumentos sobre la regulación de los sistemas de IA desde un ámbito general y desde el contexto específico de la discapacidad. Todo este capítulo de desarrollo más descriptivo será sistematizado y dividido entre instrumentos del Sistema Universal y Regionales de Derechos Humanos. 3 Aprobada y abierta a la firma por la Asamblea General de las Naciones Unidas mediante su Resolución Nº 61/106, del 13 de diciembre de 2006, a partir del 30 de marzo de 2007 y entró en vigor el 3 de mayo de 2008. 8 El segundo capítulo se centrará en un análisis exhaustivo de los riesgos de vulneración del principio de igualdad y no discriminación provocados por la discriminación algorítmica frente a los derechos contemplados en la CDPD. Después, se centrará en analizar los debates teóricos y filosóficos de la regulación de la IA. En primer lugar, se desarrollará los principios éticos que surgen en la regulación de la IA. En segundo lugar, se expondrá los debates de estos principios frente a la interpretación de concepciones filosóficas relacionados a los transhumanistas y bioconservadores. En tercer lugar, se analizará esta regulación de la IA desde el discurso de la discapacidad y cómola CDPD hace frente a ello. Con toda esta información, se brindará una propuesta normativa o una hoja de ruta para regular a los sistemas de IA frente a las personas en situación de discapacidad desde el marco de los derechos humanos. Respecto a la metodología está centrada en un estudio teórico, por lo que no utilizará métodos empíricos y/o investigaciones de trabajo de campo. No obstante, sí se utilizarán tres métodos en esta investigación. En primer lugar, se hará un análisis de los instrumentos internacionales de derechos humanos relacionado al uso de la Inteligencia Artificial. En ese sentido, se sistematizará los instrumentos mediante el Sistema Universal y Regionales (Europeo, Africano y Americano) de Derechos Humanos. Además, se identificarán las disposiciones expresas o implícitas que mencionen a las personas en situación de discapacidad. Por otro lado, para tener un orden de los instrumentos, se realizarán fichas con datos relevantes de cada instrumento para su estudio más ordenado y estructurado. En segundo lugar, se analizarán informes, recomendaciones, noticias e investigaciones que identifiquen los posibles riesgos hacia las personas en situación de discapacidad donde la discriminación algorítmica pueda afectar sus derechos. En esta parte de la metodología se realizará tanto desde fuentes primarias como secundarias. Por último, se propondrá una hoja de ruta o propuestas para regular a nivel internacional los usos de la IA, con el objetivo de que existan garantías y obligaciones idóneas para evitar la discriminación algorítmica hacia el colectivo de discapacidad específicamente. Para ello, se sistematizará y analizará la doctrina e investigaciones previas, tanto de fuentes primarias como secundarias, que desarrollen sobre los debates éticos-jurídicos que existen en la regulación de los sistemas de IA. Asimismo, estos debates regulativos se enfocarán en el contexto de la discapacidad y, finalmente, se brindará la propuesta u hoja de ruta de regulación. En ese sentido, en el inicio y cuerpo de la investigación tiene una metodología descriptiva y en la última parte está enfocado a una metodología más prescriptiva al brindar propuestas de solución ante los problemas descritos. 9 CAPÍTULO 1: LA INTELIGENCIA ARTIFICIAL Y EL DERECHO INTERNACIONAL DE LOS DERECHOS HUMANOS. En este primer capítulo, se enfocará en el estudio propio de la IA y la discriminación algorítmica para comprender mejor sus implicancias. Asimismo, el estudio estará centralizado en el contenido jurídico de los diferentes instrumentos internacionales relacionado en los derechos humanos. Dentro del marco de los instrumentos internacionales sobre IA, se dividirá en dos grandes sectores. Por un lado, se analizará la regulación existente sobre la IA en un sentido más general, pero con un enfoque importante a su regulación frente al principio de igualdad y no discriminación. Por otro lado, se analizará, de la misma manera, la regulación sobre la protección de las personas en situación de discapacidad y su relación con los sistemas de IA. Esto con la finalidad de establecer un panorama completo de la regulación sobre la IA y la discapacidad para, desde este punto de partida, establecer propuestas a los vacíos existentes. 1.1. Cuestiones previas. En ese sentido, los sistemas de IA han demostrado ser una pieza fundamental para la nueva era. Sin embargo, como todo avance esto ha traído riesgos que se pueden suscitar frente a una posible vulneración del principio de igualdad y no discriminación en el contexto de la discapacidad y que son complejos de abordar. Antes de adentrarnos en el desarrollo de la IA y la regulación que se han dado en los últimos tiempos, es necesario traer a colación que nos encontramos en una nueva Revolución o Renacimiento donde la tecnología y lo digital es lo imperante. En este siglo XXI, se ha dado con mayor énfasis el surgimiento y/o desarrollo más detallado de las neurociencias, la nanotecnología, la robótica, la inteligencia artificial y la ingeniería genética. Estas tecnologías convergentes, trae consigo una serie de riesgos y beneficios para la sociedad; en consecuencia, es importante reflexionar –como se ha mencionado– sobre el uso de estas tecnologías puesto que estas no son neutras como aparentan ser4. En este contexto se hace necesario regular las tecnologías convergentes con el fin de evitar estos riesgos a la sociedad, sobre todo, a colectivos en situación de vulnerabilidad. Esto se debe a que la relación o, mejor dicho, la conexión humano- máquina tiene la finalidad de luchar contra la imperfección del ser humano5. Por ello, es que estos problemas, evidentemente, alarmantes se deben analizar desde el discurso de los derechos y la ética, pero también desde los contextos de las poblaciones en situación de vulnerabilidad, sobre todo, de las personas en situación de discapacidad. No obstante, para adentrarnos de forma más detallada, es vertebral conocer los conceptos relacionados a la IA y sus riesgos, así como los modelos de discapacidad y el Sistema Internacional de Derechos Humanos. 1.1.1 Inteligencia Artificial, aprendizaje automático y adopción automatizada de decisiones. 4 DE ASÍS ROIG, R., Derechos y tecnologías, Dykinson, Madrid, 2022, p 11. 5 Ibidem, p. 18. 10 El inicio cronológico para descubrir las primeras pinceladas de la IA es el desarrollo tecnológico y construcción de los ordenadores digitales que se dio en el siglo XX. Dentro de ese periodo de tiempo, en 1936, Alan Turing logró un diseño abstracto de ordenador que trajo consigo el nacimiento de la informática. Estos aportes brindaron enormes aportes en los fundamentos lógicos como también en el desarrollo de las ciencias de la computación6. Sin embargo, el nombre como “Inteligencia Artificial” se creó en 1956 dentro de la conferencia de John McCarthy en el Dartmouth College donde se debatió si era posible simular la inteligencia humana a través de las máquinas. Sin embargo, el padre de la IA sería Alan Turing y, como precedente, a George Boole7. Esto debido a que Boole dio grandes contribuciones en la fundamentación dentro del campo de las ciencias de la computación y Turing por sus diseños donde se plasma la posibilidad de que las máquinas puedan realizar operaciones lógicas en menor tiempo que los humanos si se les da ciertas instrucciones8. Ambas contribuciones, además de otros científicos posteriores, nutrieron al desarrollo de la IA con el pasar de los años. No obstante, actualmente, la IA es tan compleja y reciente que no existe una única definición, sino que convergen diferentes maneras y visiones para explicarlas. Algunas propuestas son definirlas mediante cuatro enfoques: Sistemas que actúen como humanos, sistemas que piensen como humanos, sistemas que piensan racionalmente y sistemas que actúen racionalmente.9 Respecto al primer enfoque se remonta a los inicios de la Prueba de Turing en 1950. Esta prueba, en teoría, consiste en una serie de preguntas que la computadora debe resolver y sólo el ordenador superará el examen cuando el evaluador humano no sea capaz de diferenciar si las respuestas le pertenecen a un humano o una máquina. Si resulta que es incapaz de encontrar la diferencia, significa que la computadora es inteligente y tiene un comportamiento humano10. Aunque esto es discutible, actualmente, se conoce que, si un computador tiene que superar la Prueba de Turing debe que poseer cuatro capacidades como el procesamiento del lenguaje natural, la representación del conocimiento, el razonamiento automático y el aprendizaje automático. Sin embargo, esta prueba evitó la interacción física directa entre evaluador y la computadora. Por esta razón, más adelante, se desarrolló otra versión llamada la Prueba Global de Turing donde se valora la capacidad de percepción del evaluado y se brinda la oportunidad alevaluador de dar objetos físicos a la máquina. En ese sentido, para una simulación física de esta inteligencia, además de las cuatro capacidades, se añadieron dos como la visión computacional y la capacidad de manipular y mover objetos a través de la robótica11. No obstante, estas pruebas sólo 6 GARRIGA DOMÍNGUEZ, A. Nuevos retos para la protección de datos personales: En la era del Big Data y de la computación ubicua, Dykinson, Madrid, 2016, pp. 17-18. 7 DE ASÍS ROIG, R., Derechos y tecnologías, op. cit, p 30. 8 GOBIERNO DEL ENCUENTRO, Alan Turing, precursor de la informática y la inteligencia artificial, Nota de prensa Nº 031, 24/06/2016, Disponible en https://www.derechosintelectuales.gob.ec/alan-turing- precursor-de-la-informatica-y-la-inteligencia-artificial/ (Última consulta 13 de octubre de 2022). 9 RUSSELL, S. Y NORVIG, P., Inteligencia Artificial: un enfoque moderno, Pearson Educación, Madrid, 2004, pp. 2. Disponible en: https://luismejias21.files.wordpress.com/2017/09/inteligencia-artificial-un- enfoque-moderno-stuart-j-russell.pdf (Última consulta 18 de mayo de 2022). 10 Ibidem, p. 3. 11 Vid., Ídem. https://www.derechosintelectuales.gob.ec/alan-turing-precursor-de-la-informatica-y-la-inteligencia-artificial/ https://www.derechosintelectuales.gob.ec/alan-turing-precursor-de-la-informatica-y-la-inteligencia-artificial/ https://luismejias21.files.wordpress.com/2017/09/inteligencia-artificial-un-enfoque-moderno-stuart-j-russell.pdf https://luismejias21.files.wordpress.com/2017/09/inteligencia-artificial-un-enfoque-moderno-stuart-j-russell.pdf 11 se centraban en buscar la forma de evaluar si la computadora pudiera o no actuar como ser humano. El segundo punto es el pensar como humano que se basa en el modelo cognitivo. Es decir, la máquina debe contar con un mecanismo que identifique cómo piensan los humanos. En esa línea, resultó necesario adentrarse en el funcionamiento de la mente del ser humano para que la IA lo imite. Para ello, se debe obtener la teoría o información suficiente de cómo trabaja la mente para ser programado en una computadora. Esto evaluará si los datos de entrada y salida del programa y el tiempo de reacción de la máquina es comparable con la del ser humano. Estos tipos de comparaciones se han realizado en diferentes estudios, por ejemplo, con el Sistema de Resolución General de Problemas de 196112. Sin embargo, resulta aún muy difícil obtener de forma precisa una ruta de cómo son las etapas del razonamiento humano y cómo funciona la mente. Algunos avances se han realizado mediante la ciencia cognitiva y la IA a través de las áreas de la visión y el lenguaje natural y, recientemente, en los estudios integrados que toma en cuenta la evidencia neurofisiológica y los modelos computacionales13 para obtener un buen esquema y teoría precisa y verificable del funcionamiento de la mente humana. El tercer punto es que la IA piense racionalmente. Este enfoque se basa en las leyes del pensamiento que consiste en codificar sobre cómo se piensa correctamente. Esta corriente tuvo sus inicios con Aristóteles y, posteriormente, hizo nacer al campo de la lógica14. Es así como, desde el ámbito de la IA, en 1965 comenzaron a establecer programas que resolvían problemas basándose en la lógica. Es decir, esto significa que la IA tiene como punto focal realizar inferencias correctas en base a los datos que se le presenta. No obstante, este enfoque tiene dos problemas. El primer por la dificultad de transformar conocimiento o data informal en términos formales para que entren en la notación lógica. El segundo por el agotamiento de los recursos computacionales del ordenador que se manifiesta apenas con una docena de datos si no se cuenta con directivas o instrucciones de las etapas del razonamiento15. Por último, está el enfoque del agente racional o actuar racionalmente. Esto significa que la IA perciba el entorno, se adapte y alcance objetivos diferentes. En otras palabras, debe alcanzar el mejor resultado y, si existe dudas, decida o alcance el mejor resultado a esperar. Por lo que es insuficiente un IA que infiera correctamente como se basa las leyes del pensamiento, sino que también pueda alcanzar el mejor resultado en situaciones donde no exista lo correcto o donde no se deban realizar inferencias. Algunas decisiones pueden requerir una deliberación racional y cuidadosa, pero también habrá decisiones más eficientes donde el reflejo sin procesos de deliberación sea la respuesta idónea16 como en las situaciones de peligro. Es decir, 12 Vid., NEWELL, A. y SIMON, H. A., “GPS, a program that simulates human thought”, In BILLING, H. (Ed.), Lernende Automaten, R. Oldenbourg, Munich, 1961, pp. 109-124. 13 Vid., RUSSELL, S. Y NORVIG, P., Inteligencia Artificial: un enfoque moderno, op. cit, p. 4. Disponible en: https://luismejias21.files.wordpress.com/2017/09/inteligencia-artificial-un-enfoque- moderno-stuart-j-russell.pdf (Última consulta 18 de mayo de 2022). 14 Ídem. 15 Ibidem, p. 5. 16 Ídem. https://luismejias21.files.wordpress.com/2017/09/inteligencia-artificial-un-enfoque-moderno-stuart-j-russell.pdf https://luismejias21.files.wordpress.com/2017/09/inteligencia-artificial-un-enfoque-moderno-stuart-j-russell.pdf 12 este enfoque no solo permite garantizar la racionalidad, sino también es más afín a los avances científicos respecto a la conducta o pensamiento humano17. En ese sentido, las máquinas tienen como pronóstico ser agentes racionales y comportarse como humanos. No obstante, estos enfoques también tienen sus limitantes y, debido a esto, existen otras propuestas de definición. Por ejemplo, en la conceptualización de la IA se puede distinguir entre débiles que son máquinas que simulan que razonan y el fuerte que son máquinas que pueden razonar de forma autónoma18. Por otro lado, dentro del campo de IA, convergen otros conceptos que es importante evidenciar y conocer como el aprendizaje automático. Este concepto forma parte de un subcampo de la misma IA cuyo fin es crear un método de análisis de datos que parte de la idea que los sistemas puedan aprender, identificar patrones y tomar decisiones con poca intervención del ser humano19; con el pasar de los años el aprendizaje automático se ha vuelto más complejo. Es decir, es utilizado como método de capacitación de algoritmos para que usen los datos con la finalidad de aprender y resolver problemas autónomamente para ser más eficientes y rápidos20. Este último se está logrando más en el subcampo del aprendizaje. No obstante, el aprendizaje automático es más centrado a la búsqueda de patrones y relaciona los datos para crear o generar modelos predictivos. Dentro de ese subcampo de aprendizaje, como se ha explicado, surge el subcampo del aprendizaje profundo que ordena a las computadoras a ser entrenados para realizar tareas humanas por sí solas. No solo se trata de analizar datos y tomar decisiones en base a lo que se aprendió, sino también de reconocer las voces, identificar imágenes y tener capacidad predictiva en base a los datos, a tal punto de crear una red neuronal artificial. Estos sistemas ya están funcionando como Siri y Cortana21. Estos son redes neuronales con múltiples capas que permite realizar más tareas complejas como reconocimiento y creación de imágenes y el procesamiento de los lenguajes naturales. Sin embargo, el ámbito del aprendizaje profundo trae ventajas como desventajas. Sobre la primera, se reproduce en términos de velocidad y de reproducción. En otras palabras, con este aprendizaje profundo puede la IA completar tareas más veloces que los humanos con resultados confiables y, además, aprenden más rápido a comparación de un ser humano que le llevaría décadas y muchos costos de estudios. Sobre la segunda, se basa en que la información de los datos y como se resuelven estas tareasse tornan más complejos y oscuros (referidos a los miles de 17 Ibidem, p. 6. 18 DE ASÍS ROIG, R., Derechos y tecnologías, op. cit, p. 58-59. 19 SAS Institute, Machine Learning, What it is and why it matters, 2019, Available in https://www.sas.com/en_us/insights/analytics/machine-learning.html (Última consulta 29 de octubre de 2022). 20 Relator Especial sobre la promoción y protección del derecho a la libertad de opinión y de expresión, Informe anual, 2018, A/73/348, p. 4, Disponible en: https://documents-dds- ny.un.org/doc/UNDOC/GEN/N18/270/45/PDF/N1827045.pdf?OpenElement (Última consulta 6 de septiembre de 2022). 21 SAS Institute, Deep Learning, What it is and why it matters, 2019, Available in https://www.sas.com/en_us/insights/analytics/deep-learning.html (Última consulta 29 de octubre de 2022). https://www.sas.com/en_us/insights/analytics/machine-learning.html https://documents-dds-ny.un.org/doc/UNDOC/GEN/N18/270/45/PDF/N1827045.pdf?OpenElement https://documents-dds-ny.un.org/doc/UNDOC/GEN/N18/270/45/PDF/N1827045.pdf?OpenElement https://www.sas.com/en_us/insights/analytics/deep-learning.html 13 capas que no son analizables y se tornan en cajas negras) que resulta imposible o muy difícil de comprender e interpretar22. De este aprendizaje automático, se deriva la adopción automatizada de decisiones. Esto significa que la máquina tiende a tener a la capacidad de tomar decisiones de forma automática sin la participación de un ser humano mediante datos ofrecidos directamente por las personas, datos observados acerca de las personas y datos derivados de un perfil existente de la persona, entre otros23. También porque ha aprendido en base a estos datos brindados. Sin embargo, debe diferenciarse de la elaboración de perfiles que sólo recaban información sobre personas para evaluar patrones y características con el fin de asignarlas a categorías para analizar y hacer predicciones24. Estas diferencias se visualizan mejor en casos específicos. Por ejemplo, la concesión de una hipoteca podría basarse en una decisión automática, pero para concederlo debe evaluarse el perfil crediticio de la persona que es el resultado de la elaboración de un perfil25. Estos tipos de usos de la IA y su complejo funcionamiento en la práctica, evidentemente, traerán consecuencias a las personas. Por ello que se desprende un esfuerzo internacional –como se verá después– para garantizar a no ser objeto de decisiones individuales automatizadas. Es decir, que las personas no deben ser objeto de decisiones automáticas sin supervisión humana y que únicamente estén basado en el tratamiento de tus datos para elaborar perfiles, producir efectos jurídicos sobre la persona o te afecten de alguna forma26. 1.1.2 La discriminación algorítmica. Dentro del marco de los usos de sistemas de IA, existen riesgos que pueden afectar al principio de igualdad y no discriminación que se fundamentan en la discriminación algorítmica. Para definirla será necesario comenzar a entender, como punto inicial, qué es un algoritmo. Esto es una serie de secuencias de alta precisión que provocan un resultado. Es decir, pueden ser indicaciones para llegar a un determinado lugar, hacer cálculos matemáticos, para hacer búsquedas, entre otros. Usualmente, estos algoritmos son expresados mediante códigos binarios. Sus usos han proliferado y evolucionado con el paso del tiempo que, en la actualidad, son alimentados con bases de datos masivos a través del Internet y gracias al desarrollo del Big Data27. 22 MOLNAR, C., Interpretable Machine Learning: A Guide For Making Black Box Models Explainable, 2022, Disponible en https://christophm.github.io/interpretable-ml-book/what-is-machine-learning.html (Última consulta 29 de octubre de 2022). 23 Grupo de Trabajo sobre Protección de Datos del Artículo 29, Directrices sobre decisiones individuales automatizadas y elaboración de perfiles a los efectos del Reglamento 2016/679, adoptado la versión final el 6 de febrero de 2018, WP251rev.01, Disponible en https://www.aepd.es/sites/default/files/2019- 12/wp251rev01-es.pdf (Última consulta 29 de octubre de 2022). 24 Ibidem, p. 7. 25 Vid., Ibidem, p. 9. 26 AGENCIA ESPAÑOLA DE PROTECCIÓN DE DATOS, Derecho a no ser objeto de decisiones individuales automatizadas, 2022, p. 8, Disponible en https://www.aepd.es/es/derechos-y- deberes/conoce-tus-derechos/derecho-no-ser-objeto-de-decisiones-individuales (Última consulta 29 de octubre de 2022). 27 BARIFFI, F., “Artificial Intelligence, Human Rights and Disability”, en Pensar, Revista de Ciencias Jurídicas, Vol. 26, No. 2, 2021, pp. 1-14, p.3. https://christophm.github.io/interpretable-ml-book/what-is-machine-learning.html https://www.aepd.es/sites/default/files/2019-12/wp251rev01-es.pdf https://www.aepd.es/sites/default/files/2019-12/wp251rev01-es.pdf https://www.aepd.es/es/derechos-y-deberes/conoce-tus-derechos/derecho-no-ser-objeto-de-decisiones-individuales https://www.aepd.es/es/derechos-y-deberes/conoce-tus-derechos/derecho-no-ser-objeto-de-decisiones-individuales 14 Por otro lado, es importante evidenciar que los datos no son neutros como suelen plasmarse, pues toda la información masiva cargado en Internet fue gestionado por las personas con sus propios valores y estas pueden o no reflejar la realidad. En otros términos, la IA no puede ser neutra si sus datos están llenos de sesgos y estereotipos de diferentes colectivos que puede conllevar a que la IA dé una respuesta o decisión discriminatoria. De ahí que la meta debe apuntar a que los sistemas de IA, como manifiesta Stuart Russel, cumplan únicamente con los objetivos humanos y que sean controlables y beneficiosos para la humanidad. Esto es, que la IA no haga peligrar a los derechos de las personas ni la autonomía humana28. Por esta razón, sería necesaria una regulación al respecto. Por otro lado, respecto al concepto de no discriminación ha sido desarrollado ampliamente en los órganos y entidades de derechos humanos. Más allá de toda referencia legal en los tratados internacionales de derechos humanos, es importante mencionar que el Comité de Derechos Humanos29 se debe entender como: “Toda distinción, exclusión, restricción o preferencia que se basen en determinados motivos, como la raza, el color, el sexo, el idioma, la religión, la opinión política o de otra índole, el origen nacional o social, la posición económica, el nacimiento o cualquier otra condición social, y que tengan por objeto o por resultado anular o menoscabar el reconocimiento, goce o ejercicio, en condiciones de igualdad, de los derechos humanos y libertades fundamentales de todas las personas”30 En ese sentido, se puede recoger o desagregar tres ítems: 1) Un trato diferente o una distinción; 2) Basado por un motivo prohibido y; 3) Un resultado negativo que perjudique un derecho humano o libertad fundamental. En otras palabras, se debe conocer si el trato diferente que menoscabó un derecho se basó por un motivo prohibido para que entre dentro del espectro de la discriminación. En consecuencia, haciendo un símil con los usos inadecuados de los algoritmos en la IA, podemos definir a la discriminación algorítmica se produce cuando un individuo o colectivo, perteneciente a un motivo prohibido, recibe un tratamiento arbitrario o indebido como consecuencia de la toma de decisiones automatizadas y, por consiguiente, se le perjudica un derecho humano o libertad fundamental. Sin embargo, esto parece ser insuficiente para abordar los problemas nos puede llevar la IA. Como menciona Mercader Uguina, la discriminación algorítmica es “[u]na discriminación que obtiene, por el momento, respuestas desde nuestras actuales técnicas conceptuales pero que requeriría probablemente también de nuevas herramientas jurídicas de análisis. La discriminación afronta, pues, nuevos retos”31. Estose debe a que la discriminación algorítmica nos lleva a nuevos dilemas y riesgos que el derecho no se ha planteado del todo. Si bien es cierto que existen normas que 28 Vid., RUSSELL, S., Human Compatible: Artificial Intelligence and the Problem of Control, New York, Penguin, 2020. 29 Constituido sobre la base de la Parte IV y, en específico, del artículo 28 del Pacto Internacional de Derechos Civiles y Políticos. 30 Comité de Derechos Humanos, Observación General 18: No discriminación, 2014, CCPR/C/GC/18, pár. 7. 31 MERCADER UGUINA, J. “Discriminación algorítmica y derecho granular: nuevos retos para la igualdad en la era del big data”, Labos, Vol. 2, No. 2, pp. 4-10, p. 6. 15 lo pueden controlar, no resulta, en la práctica, suficiente en diversas situaciones. Esto se sustenta de manera más clara con el debate de la intencionalidad de la discriminación en la IA. Este tópico lo abordaremos más adelante. En ese sentido, la discriminación algorítmica suele darse en varios planos de análisis donde existe una intervención humana y un proceso automatizado. Para poder entender mejor esta parte hay que centrar a la discriminación algorítmica como un proceso (Ver Figura 1 - ANEXOS) donde tiene su origen la contribución humana que crea y brinda la base de datos. Es esta base de datos que, si está sesgada o estereotipada, la maquina aprenderá automáticamente mediante las directrices que se le ha dado el programado y encontrará patrones en su aprendizaje que conllevará al final a tomar decisiones automáticas basado en racismo, sexismo, edadismo, capacitismo, entre otros. Debido a esto, resulta importante establecer panoramas claros e inclusivos para que la IA pueda decidir y/o predecir adecuadamente. En la realidad, esto es muy complejo, porque existen dilemas en la recolección de datos. Por un lado, la IA puede no tener suficientes datos y estos no ser representativos. En otras palabras, si la IA obtiene, por ejemplo, poca información de rostros de piel oscura y recibe más de rostros de piel clara, le será más difícil que reconozca los rostros de piel oscura. Por otro lado, que los datos reflejen prejuicios, por ejemplo, el caso del algoritmo de reclutamiento interno de Amazon que descartaba candidatas mujeres debido a las capacitaciones recibidas sobre decisiones históricas de contratación donde se favorecía más a los hombres, en consecuencia, la IA aprendió esos patrones e instrucciones. Esto es relevante debido a que los datos pueden ser preparados mediante atributos y categorías para que el algoritmo decida sobre un determinado tema, como, por ejemplo, si un banco desea medir la solvencia para otorgar un préstamo, se podrá solicitar que valore la edad y los ingresos32. En el contexto de la discapacidad esto significaría una exhaustiva revisión de los datos almacenados en Internet para identificar la cantidad de data y que estas no estén sesgadas ni estereotipas por ideas erróneas sobre las personas en situación de discapacidad, ya que traería un efecto negativo para el colectivo de discapacidad. Es decir, si las secuencias de instrucciones que siguen los algoritmos se basan en datos poco representativos sobre la discapacidad debido a la protección de datos, la IA no podrá aprender y puede inferir erróneamente. O, por otro lado, si los datos que dispone son estereotipados pueden ser tomados como variables negativas para excluir de los servicios que la IA pueda ofrecer33, provocando situaciones de discriminación algorítmica. Un ejemplo claro sobre esto es el “Reverse Turing-Test” que consiste en que las personas deben mostrarle a la máquina que son humanas. Este tipo de prueba trae muchos problemas debido a que la IA como, por ejemplo, Alexa no puede reconocer el acento o el tono de voz de personas en situación de discapacidad 32 Vid., HAO, K., This is how AI bias really happens – and why it’s so hard to fix, Columna de Opinión, MIT Technology Review, Tech Policy, 4/02/2019, Disponible en: https://www.technologyreview.com/2019/02/04/137602/this-is-how-ai-bias-really-happensand-why-its- so-hard-to-fix/ (Última consulta 15 de mayo de 2022) 33 PAHISA, J., Amenazas para las personas con discapacidad de una IA que no considere esta diversidad ¿Inteligencia Artificial en abierto o cerrado?, Op. cit., Disponible en: http://semanal.cermi.es/noticia/articulo-opinion-inteligencia-artificial-potencial-romper-peligro-barrera- joan-pahisa-doctor-informatica-fundacion-once-2.aspx https://www.technologyreview.com/2019/02/04/137602/this-is-how-ai-bias-really-happensand-why-its-so-hard-to-fix/ https://www.technologyreview.com/2019/02/04/137602/this-is-how-ai-bias-really-happensand-why-its-so-hard-to-fix/ http://semanal.cermi.es/noticia/articulo-opinion-inteligencia-artificial-potencial-romper-peligro-barrera-joan-pahisa-doctor-informatica-fundacion-once-2.aspx http://semanal.cermi.es/noticia/articulo-opinion-inteligencia-artificial-potencial-romper-peligro-barrera-joan-pahisa-doctor-informatica-fundacion-once-2.aspx 16 auditiva o con parálisis cerebral que tienen una afectación a sus cuerdas vocales, debido a que el sistema de IA no lo reconoce como “natural” o “normal” y, por consiguiente, no los entiende34. Sin embargo, existen, en la actualidad, softwares que buscan contrarrestar estas problemáticas como SensitiveNets que es una aplicación que programa a la IA para que elimine o reduzca la información sensible en la toma de decisiones y haga una representación más inclusiva. Eso es no tomar en cuenta variables que conlleven a ser fuentes de discriminación y, en consecuencia, dar decisiones automáticas más justas y equitativas (Ver Figura 2 - ANEXOS). No obstante, esta eliminación de las categorías o atributos identitarios de las personas puede ser problemático en otras situaciones. Es decir, si se trata sobre cuestiones donde no es relevante las características del grupo social, esta eliminación de los datos sensibles puede ser efectivo y beneficioso para que la IA decida objetivamente. No obstante, existen casos donde la IA debe identificar estas variables para cuestiones positivas como brindar servicios adaptados, ajustes razonables en diferentes ámbitos u bonificaciones. Un ejemplo claro sería cuando un concurso público está automatizado por una IA para el conteo del puntaje, será necesario que este programa identifique a las personas en situación de discapacidad para otorgarle la bonificación adicional reconocido por varias leyes nacionales. Debido a ello, parece más importante no solo centrarse en eliminar los datos sensibles o, al menos, ocultarlos, sino también promover que los datos sean correctos y bajo un modelo social cuando estos datos relacionados a discapacidad sean necesarios adaptarlos. Otro tema importante dentro de la discriminación –que es importante retomar la idea– es la intencionalidad. En un proceso para determinar la responsabilidad será necesario saber si el hubo intención de discriminar y/o si la diferencia fue razonable, proporcional y objetiva35. En esos sentidos, la razón o validez de la diferencia resulta importante en estos análisis, así como también si hubo una intención premeditada de restringir un derecho de forma arbitraria a un grupo en situación de vulnerabilidad. Sin embargo, en el plano práctico y real con la IA, esto es muy problemático por dos motivos. El primero surge porque la máquina con IA no tiene intencionalidades. Al menos hasta el momento de su desarrollo en la actualidad suele ser un programa predictivo basado en algoritmos. Por otro lado, el segundo es que resulta muy borroso y difícil determinar una intencionalidad o encontrar las razones del resultado discriminatorio. Esto se debe porque la IA, hoy en día, utiliza sistemas de redes neuronales y en sistemas más complejos es difícil conocer todos los detalles del sistema para obtenermás información si fue un error del mismo algoritmo o si el algoritmo fue programado de 34 NAKAMURA, K., “My Algorithms Have Determined You’re Not Human: AI-ML, Reverse Turing- Tests, and the Disability Experience”, in BIGHAM, J., ASSETS ‘19: The 21st International ACM SIGACCESS Conference on Computers and Accessibility, Association for Computing Machinery, New York, 2019, pp. 1-2, p. 1, Available in: https://doi.org/10.1145/3308561.3353812 (Última consulta 19 de enero de 2022) 35 La Corte Interamericana de Derechos Humanos (En adelante, Corte IDH) ha sostenido que no toda distinción de trato puede considerarse ofensiva de la dignidad humana. Esto se debe que existen diferencias en distinciones y discriminaciones. Pues la primera se basa en una diferencia objetiva, razonable y proporcional mientras que la discriminación son diferencias arbitrarias que busca perjudicar un derecho humano. Vid., Corte IDH, Caso Castañeda Gutman Vs. México, Excepciones Preliminares, Fondo, Reparaciones y Costas, sentencia del 6 de agosto de 2008, Serie C, No. 184, pár. 211. https://doi.org/10.1145/3308561.3353812 17 esa manera intencionalmente. Básicamente, esto se debe a que, en el campo de las redes neuronales, existen las cajas negras. En ese sentido, resulta muy complicado hacer estudios de intencionalidad o revisar la validez de la diferencia mediante análisis convencionales. Por esta razón, la intencionalidad no parece ser un factor vertebral para armar una protección ante la discriminación algorítmica. En ese aspecto, lo principal es el resultado y, sobre esta forma de determinar el análisis de la discriminación, tenemos el concepto de discriminación indirecta. Sobre la definición de discriminación indirecta, en el contexto de la discapacidad, esto se produce cuando “[…]las leyes, las políticas o las prácticas son neutras en apariencia, pero perjudican de manera desproporcionada a las personas con discapacidad.”36 Esto resulta relevante porque la IA y las máquinas en general son expuestas como entidades no humanas totalmente neutras. Sin embargo, sus predicciones no lo son porque conllevan a respuestas negativas y discriminatorias. Las personas en situación de discapacidad tienen acceso a la IA e interactuarán con el sistema. Es decir, no es que se le niega acceder a la IA, pero sí tendrán problemas con la accesibilidad o, en ciertos casos, podrán verse perjudicados si estos sistemas no fueron entrenados adecuadamente. En ese sentido, resulta importante trasladar la discriminación algorítmica desde la discriminación indirecta por como funciona las predicciones de la IA. No obstante, esta discriminación indirecta funciona a todos los grupos en situación de vulnerabilidad, pero en el contexto específico de las personas en situación de discapacidad se tiene el concepto de discriminación por motivos de discapacidad. Este concepto se desarrollará en el segundo capítulo con mayor énfasis. Sin embargo, en sentidos generales, la discriminación algorítmica se debe entender desde la discriminación indirecta. Volviendo al problema de los datos, para armar una mayor protección a futuro, se debe hacer sinergias para lograr que los datos de entrenamiento para la IA estén acorde al modelo social. Para entender estas visiones, será necesario conocer sus nociones y cómo debe entenderse a la discapacidad. 1.1.3. La discapacidad: Los modelos y concepto. Para comprender sobre la noción de la discapacidad, es necesario revisar los modelos de la discapacidad que, de acuerdo con la literatura especializada, son tres: Prescindencia, médico y social37. El primer modelo es de la prescindencia y, en términos generales, como noción hacia el colectivo de discapacidad consiste en dos características primordiales: estas son “[…]la justificación religiosa de la discapacidad, y la consideración de que la 36 Comité sobre los Derechos de las Personas con Discapacidad, Observación General 6: sobre la igualdad y la no discriminación, 2018, CRPD/C/GC/6, pár. 18.b). 37 Para más información sobre los modelos de la discapacidad, Vid., PALACIOS, A., El modelo social de discapacidad: orígenes, caracterización y plasmación en la Convención Internacional sobre los derechos de las personas con discapacidad, Colección CERMI, Ediciones Cinca, Madrid, 2008. 18 persona con discapacidad no tiene nada que aportar a la comunidad”38. Esto se debe a que, en la época antigua y medieval la discapacidad tiene un origen, esencialmente, cultural y religioso. En la mayoría de los casos se relacionaba a la discapacidad con advertencias de maleficios próximos o castigos divinos hacia los padres por pecadores. Además, el valor como persona del colectivo de discapacidad es nula y, en consecuencia, no son actores activos dentro de la sociedad. En ese sentido, siguiendo las investigaciones de Agustina Palacios, se concluye que, dentro de este modelo, existen dos sub-modelos: el eugenésico y de la marginación39. Respecto al sub-modelo eugenésico proveniente de la edad antigua clásica establece la noción que las personas en situación de discapacidad no son dignas de vivir y, en consecuencia, las respuestas sociales estaban enfocadas a la muerte de estas personas40. Un ejemplo ilustrativo sobre esto fueron los Espartanos que al bebé débil o “deforme” los lanzaban del Monte Taigeto por no cumplir con los cánones de la sociedad espartana que se sustentaba en la meta de ser grandes guerreros41. Sin embargo, los que lograban sobrevivir o si las sociedades no practicaban el infanticidio, estas personas eran “[…]objeto de un tratamiento cruel, y de persecuciones con resultados que llegaron hasta la muerte”42. Por otro lado, sobre el sub-modelo de la marginación, “[…]puede encontrarse en el tratamiento brindado a las personas con discapacidad durante la Edad Media, en donde se encontraban insertas dentro del grupo de los pobres y los marginados, y signadas por un destino marcado esencialmente por la exclusión.”43 Es decir, persiste la visión de la prescindencia, pero las respuestas sociales, ahora, se basan en políticas de resignación y exclusión. En consecuencia, las personas en situación de discapacidad se reducían a ser tratados con compasión y mendicidad44. En otras palabras, la caridad era la ruta económica para las personas en situación de discapacidad pudieran subsistir y otros establecieron economías siendo objetos de burla por su condición física45. Por ende, las respuestas sociales se basaban en políticas de exclusión y de caridad. En cambio, el modelo rehabilitador o médico tiene como origen de la discapacidad el sustento científico y médico. Es decir, que es considerado como una enfermedad. 38 Ibidem, p. 37. 39 Vid., Ídem. 40 Ibidem, p. 39. 41 Ibidem, p. 42, citando a: SCHEERENBERGER, R.C., Historia del retraso mental, Traducción de Isabel Villena Pérez, Real Patronato de Educación y Atención a Deficientes, Servicio Internacional de Información sobre Subnormales, San Sebastián, 1984, p.18. 42 Ibidem, p. 52, citando a: GARLAND, R., The eye of the beholder. Deformity & Disability in the Graeco—Roman world, Duckworth, London, 1995, p. 39. 43 BARIFFI, F. El régimen jurídico internacional de la capacidad jurídica de las personas con discapacidad y sus relaciones con la regulación actual de los Ordenamientos jurídicos internos, Tesis doctoral, Universidad Carlos III de Madrid, Madrid, 2014, p. 26, Disponible en https://e- archivo.uc3m.es/bitstream/handle/10016/18991/Francisco_%20Bariffi_tesis.pdf?sequence=1&isAllowed =y (Última consulta 04 de enero de 2022) 44 Ibidem, p. 27. 45 Vid., PALACIOS, A., El modelo social de discapacidad: orígenes, caracterización y plasmación en la Convención Internacional sobre los derechos de las personas con discapacidad, op. cit.,p. 60 – 61. https://e-archivo.uc3m.es/bitstream/handle/10016/18991/Francisco_%20Bariffi_tesis.pdf?sequence=1&isAllowed=y https://e-archivo.uc3m.es/bitstream/handle/10016/18991/Francisco_%20Bariffi_tesis.pdf?sequence=1&isAllowed=y https://e-archivo.uc3m.es/bitstream/handle/10016/18991/Francisco_%20Bariffi_tesis.pdf?sequence=1&isAllowed=y 19 Adicionalmente, la persona en situación de discapacidad puede contar un valor y contribuir a la sociedad siempre que esta haya pasado por proceso de normalización46. Esto significa que las personas en situación de discapacidad deben ser curadas por estar enfermas y, de esta manera, puedan encajar en el estándar de lo “normal” para una sociedad. En ese sentido, las respuestas sociales fueron las políticas de segregación e integración, algunas de ellas con mecanismos muy centradas en recluir a ciertos grupos a centros manicomiales donde se “[…]produce el hacinamiento y las tareas terapéuticas son reemplazadas por las de custodia y de administración y se consolidan nuevas formas de control.”47 En este caso específico tiene como objetivo a controlar y curar, mediante prácticas que violan los derechos humanos, a las personas en situación de discapacidad. Este modelo de la discapacidad también parte de una visión de “reparo” mediante prótesis y programas de rehabilitación para compensar las “insuficiencias” adquiridas de miles de heridos por la Primera Guerra Mundial48. En resumen, se puede decir que este modelo de la discapacidad reduce a este colectivo como personas enfermas o carentes de algo y, de esta idea, se estructuran los órganos e instituciones médicas que atenderán a la discapacidad49. Por ende, al estar enfermas, los doctores no toman en cuenta la voluntad de las personas en situación de discapacidad porque el fin superior es ser curado. Por último, está el modelo social donde el sustento de la discapacidad tiene un origen, esencialmente, social. Es decir, que es externo a la condición individual de la persona y su valor es igual que los demás al considerar que son partes activos en la sociedad y tienen mucho que aportar50. En otros términos, es la sociedad quien discapacita a la persona, por lo que no es un problema biológico e individual sino de las barreras que existen en la sociedad al construirse una ciudad o pueblo sin pensar en las personas en situación de discapacidad. Esta filosofía tiene muchos antecedentes, sobre todo en los movimientos iniciales de Estados Unidos y Reino Unido. Sin embargo, prescindiendo de la historia de las luchas sociales –que no es materia de esta investigación– sí es relevante mencionar que el modelo social nació como filosofía de manera formal con los “Principios Fundamentales de la Discapacidad” de la Union of the Physically Impaired Against Segregation (En adelante, UPIAS)51. Este documento es una transcripción de la 46 Vid., Ibidem, p. 66. 47 AGUADO, A. Historia de las deficiencias, Escuela Libre Editorial, Colección Tesis y Praxis, Madrid, 1995, p. 74. 48 Vid., STIKER, H. J., History of Disability, Translated by William Sayers, Ann Arbor, The University of Michigan Press, 1999, p. 124. 49 Vid., WOLFENSBERGER, W., “The origin and nature of our institutional models”, en KUGEL, R. y WOLFENSBERGER, W. (edit.), Changing Patterns in Residential Services for the Mentally Retarded, President’s Committee on Mental Retardation, Washington, D.C., 1969, pp. 59-172, p. 68, Disponible en https://play.google.com/books/reader?id=_rVEAAAAIAAJ&pg=GBS.PA68&hl=es_US (Última consulta 02 de enero de 2022). 50 Vid., PALACIOS, A., El modelo social de discapacidad: orígenes, caracterización y plasmación en la Convención Internacional sobre los derechos de las personas con discapacidad, op. cit., p. 103-104. 51 DEL AGUILA, L., El concepto de discapacidad y su importancia filosófica: Investigación sobre un aspecto fundamental de la condición humana, Tesis de Pregrado, Pontificia Universidad Católica del https://play.google.com/books/reader?id=_rVEAAAAIAAJ&pg=GBS.PA68&hl=es_US 20 discusión sostenida entre la UPIAS y la Disability Alliance donde concluyen varias ideas, entre ellas: a) Que la sociedad es quien discapacidad; b) Diferencian entre deficiencia y discapacidad, donde el primero es el contenido individual de la persona y el otro son las desventajas que la persona en situación de discapacidad debe sobrellevar al interactuar con las barreras de la sociedad; entre otros52. De esta manera, la finalidad del modelo social será la eliminación de las barreras. Por consiguiente, las respuestas sociales se centran en que la carga de la adaptación sea para la sociedad y no para la persona en situación de discapacidad debido a la deuda social existente por la discriminación estructural al colectivo. Esto se logra mediante políticas de inclusión y promoción de la autonomía. A manera de resumen, teniendo en cuenta la literatura revisada, podemos sintetizar con la siguiente información: SÍNTESIS DE LOS MODELOS DE LA DISCAPACIDAD MODELOS RESPUESTAS SOCIALES Prescindencia Eugenésico Políticas eugenésicas como el infanticidio y los que sobreviven son tratados con políticas exclusión extrema con el fin de lograr su muerte. De la marginación Exclusión pronunciada de la sociedad y la subsistencia se basaba en la compasión, mendicidad y la burla. Médico o rehabilitador Políticas de integración y creación de centros manicomiales con el fin de hacinar y segregar a las personas en situación de discapacidad psicosocial con el afán de curarlos. También establecen políticas de normalización o curación para integrar a las personas en situación de discapacidad en la sociedad. Social Políticas de inclusión donde los servicios deben adaptarse a las diferencias y necesidades de las personas en situación de discapacidad. Se centra en la eliminación de las barreras de la sociedad que impiden ejercer sus derechos. Fuente: Elaboración propia sobre la base de, esencialmente, PALACIOS, A., El modelo social de discapacidad: orígenes, caracterización y plasmación en la Convención Internacional sobre los derechos de las personas con discapacidad, Colección CERMI, Ediciones Cinca, Madrid, 2008, y otros autores mencionados de la sección, y otros autores. Más adelante, con el modelo social más desarrollado, empieza a cambiar los paradigmas en los derechos humanos hasta lograr instaurar –gracias al activismo Perú, Lima, 2007, p. 42, Disponible en http://hdl.handle.net/20.500.12404/443 (Última consulta 12 de diciembre de 2021). 52 UNION OF THE PHYSICALLY IMPAIRED AGAINST SEGREGATION, Fundamental Principles of Disabilities, UPIAS, London, 1976. http://hdl.handle.net/20.500.12404/443 21 internacional– la CDPD donde el artículo 1 establece los parámetros para realizar una noción de discapacidad que menciona lo siguiente: “Las personas con discapacidad incluyen a aquellas que tengan deficiencias físicas, mentales, intelectuales o sensoriales a largo plazo que, al interactuar con diversas barreras, puedan impedir su participación plena y efectiva en la sociedad, en igualdad de condiciones con las demás.”53 Como se puede visualizar, tanto la noción y los derechos establecidos en la CDPD se nutre de la filosofía del modelo social mediante una norma de nivel convencional que, en la actualidad, es la más importante del mundo. 1.1.4. Derecho Internacional de los Derechos Humanos: Breve aproximación. Para entender los diferentes instrumentos de derechos humanos relativos a la IA, será vital conocer a grandes rasgos el funcionamiento del Derecho Internacional de los Derechos Humanos (En adelante, DIDH). Para efectos de mayor orden, nos enfocaremos en el DIDH desde la humanización delderecho internacional y no desde sus concepciones clásicas, donde las regulaciones y relaciones eran recíprocas entre Estados soberanos al ser estas los únicos sujetos del Derecho Internacional y los individuos se supeditaban, solamente, a la competencia exclusiva del Estado. Dejando de lado ese derecho internacional clásico, empezaremos con la Creación de la Organización de las Naciones Unidas, que se da post II Guerra Mundial y desde esta se instaura el Sistema Universal y, desde otros contextos, Regionales de Derechos Humanos. En principio el Sistema Internacional de Internacional de Derechos Humanos se divide en dos grandes sistemas o mecanismos: La extra-convencional y la convencional. El primer mecanismo tiene su fundamento jurídico en las Cartas Constitutivas y las Declaraciones correspondientes de cada sistema. En el caso de Naciones Unidas se basan en la Carta ONU54 y la Declaración Universal de Derechos Humanos (En adelante, DUDH)55 que establece un sistema mínimo obligatorio que los Estados miembros deben seguir para mantener la paz. Además, dentro de este marco están los instrumentos no convencionales. Este sistema resulta de vital importancia porque los estudios demuestran que entre 1972 y 1988 se han recibido en la secretaría 350,000 denuncias de particulares a diferencia de las pocas quejas tramitadas por la vía convencional, desde 1976 hasta 2016, donde sólo existen 3420, además, de las actividades de los comités con competencia de recibir quejas individuales56. Por esta razón resulta importante conocer y analizar los órganos que se han creado en este sistema, porque concentra gran parte de la actividad de las denuncias. 53 Artículo 1 de la Convención sobre los Derechos de las Personas con Discapacidad, Op. Cit. 54 La Carta de las Naciones Unidas se firmó el 26 de junio de 1945 en San Francisco, Estados Unidos, y entró en vigor el 24 de octubre de 1945. 55 La Declaración Universal de Derechos Humanos fue firmada y promulgada el 10 de diciembre de 1948 en París, Francia, por la Asamblea General de las Naciones Unidas mediante Resolución Nº 217 A (III). 56 VILLÁN DURÁN, C. y FALEH C., Manual de Derecho Internacional de los Derechos Humanos. XIII Master en Protección Internacional de los Derechos Humanos, Alcalá de Henares, 2016, p. 111, Disponible en http://aedidh.org/wp-content/uploads/2016/10/Manual-oct-2016-pdf.pdf (Última consulta 12 de septiembre de 2022). http://aedidh.org/wp-content/uploads/2016/10/Manual-oct-2016-pdf.pdf 22 Centrándonos en los órganos de las Naciones Unidas, en un primer momento existía la Comisión de Derechos Humanos (En adelante, Comisión DH) creado por el Consejo Económico y Social (En adelante, CES) en el año 1947 dentro de la facultad otorgada por el artículo 68 de la Carta ONU. Por consiguiente, la Comisión DH se encontraba dentro del CES y, debido a que no fue creado directamente por la Carta ONU, se discutió si era competente de revisar temas de Derechos Humanos. Este debate persistió por varios años hasta disiparse57. Sin embargo, la Comisión DH fue disuelto por el Consejo de Derechos Humanos (En adelante, Consejo de DH)58. Dentro del marco del Consejo de DH, encontramos diferentes competencias. El primero sería la creación o disolución de Mandatos Temáticos Universales (En adelante, MTU)59. Estos son dirigidos por Grupos de Trabajos, Relatores Especiales, Expertos, entre otros, y están facultados para elaborar informes públicos anuales, elaborar estudios públicos sobre la situación de derechos humanos sobre uno o varios países, realizar visitas in loco, hacer acciones urgentes, tramitar denuncias y recibir información. Sin embargo, sus dictámenes y/o recomendaciones no son sentencias, pero sí deben cumplirse en virtud de la Buena Fe y de las obligaciones de los Estados en materia de derechos humanos. En consecuencia, sus decisiones no son vinculantes a modo de sentencia. La segunda competencia del Consejo de DH son las creaciones de los Mandatos Territoriales Especiales (En adelante, M. Territ. E.) cuyo alcance no es universal y se limita a un país. El tercero se refiere a la dirección del Examen Periódico Universal (En adelante, EPU) de cada Estado en ciclos de 4 años. Finalmente, el Consejo de DH examina la situación de derechos humanos en el mundo. Estas cuatro competencias son reguladas por la Resolución 5/1 y 5/2 (2007) del Consejo de DH. Otro órgano del sistema extraconvencional es el Comité asesor del Consejo de DH que es un órgano técnico que reemplazó a la Sub-comisión de DH. Este Comité está conformado por 18 Expertos independientes. Por otro lado, también está el Alto Comisionado de las Naciones Unidas para los Derechos Humanos (En adelante, ACNUDH)60. Este órgano técnico-administrativo e independiente es conducido por un personal profesional permanente en Ginebra. Se reporta ante la Asamblea General de la ONU y asesora a la ONU en materia de derechos humanos. 57 La postura respecto a la competencia de la Comisión DH sobre temas de derechos humanos fue muy variada. En primer lugar, el CES y la Comisión DH no se consideraban facultados para proteger los derechos humanos porque consideraban que eran asuntos internos. Sin embargo, luego de la Res. 2144 (XXI) del 26 de octubre de 1966 en su acápite 12, la Asamblea General solicita que el CES y la Comisión DH protejan a los Derechos Humanos. Esta posición de la Asamblea General de la ONU se basaba en la interpretación del artículo 2.7 de la Carta ONU. Finalmente, mediante la Res. 1235 del CES adoptada en 1967 se aprueba la competencia de la Comisión DH sobre materia de Derechos Humanos. 58 La Comisión DH fue disuelto para ser reemplazado por el Consejo DH mediante la resolución 60/1 del 16 de setiembre del 2005 y resolución 60/251 del 15 de marzo del 2006. Este Consejo de DH pasa a ser un órgano subsidiario de la Asamblea General de la ONU. 59 Las competencias y métodos de los MTU han sido aprobado por el Consejo de DH y se puede visualizar mediante la Resolución 5/1 y 5/2 (2007). 60 Creado por la Asamblea General de la ONU mediante Resolución 48/141 el día 20 de diciembre de 1993. 23 El segundo mecanismo es el sistema convencional que se sustenta en los tratados de derechos humanos. Este sistema se basa por el principio del consentimiento. Es decir, cada Estado miembro decide voluntariamente en que tratado se obliga y se vuelve un Estado Parte de ese instrumento convencional. Dicho de otro modo, forma un vínculo de obligatoriedad sólo a los Estados que hayan ratificado o adherido un tratado en concreto61. En este sistema existen diferentes tratados de derechos humanos que son: a) Pacto Internacional de Derechos Civiles y Políticos62; b) Pacto Internacional de Derechos Económicos, Sociales y Culturales63; c) Convención Internacional sobre la eliminación de todas las formas de discriminación racial64; d) Convención para la eliminación de todas las formas de discriminación de la mujer65; e) Convención contra la Tortura y otros tratos o penas crueles, inhumanos o degradantes66; f) Convención sobre los Derechos del Niño67; g) Convención Internacional sobre la Protección de los Protección de los Derechos de Todos los Trabajadores Migratorios y de sus Familiares68; h) Convención Internacional para la Protección de Todas las Personas contra las Desapariciones Forzadas69; i) Convención Internacional sobre los Derechos de las Personas con Discapacidad70 y; j) Convención sobre la Imprescriptibilidad de los Crímenes de Guerra y de los Crímenes de Lesa Humanidad71. Cada una de ellas tendrán, generalmente, sus respectivos protocolos facultativos y comités. 61 Esto proviene en virtud del artículo 26 de la Convención de Viena: “Todo tratado en vigor obliga a las partes y debe ser cumplido porellas de buena fe”; y el artículo 27 de la Convención de Viena: “Una parte no podrá invocar las disposiciones de su derecho interno como justificación del incumplimiento de un tratado (…).” 62 Adoptado y abierto a la firma, ratificación y adhesión por la Asamblea General de las Naciones Unidas mediante su Resolución Nº 2200 A (XXI), del 16 de diciembre de 1966. El pacto entró en vigor el 23 de marzo de 1976, de acuerdo con su Artículo 9. 63 Adoptado y abierto a la firma, ratificación y adhesión por la Asamblea General de las Naciones Unidas mediante su Resolución Nº 2200 A (XXI), del 16 de diciembre de 1966. El mismo pacto entró en vigor el 3 de enero de 1976, de conformidad con su Artículo 27. 64 Adoptada y abierta a la firma y ratificación por la Asamblea General de las Naciones Unidas mediante su Resolución Nº 2106 A (XX), del 21 de diciembre de 1965. El convenio entró en vigor el 4 de enero de 1969, de conformidad con su Artículo 19. 65 Adoptada y abierta a la firma, ratificación o adhesión por la Asamblea General de las Naciones Unidas mediante su Resolución Nº 34/180, del 18 de diciembre de 1979. El convenio entró en vigor el 3 de setiembre de 1981, de conformidad con su Artículo 27.1 66 Adoptada y abierta a la firma, ratificación y adhesión por la Asamblea General de las Naciones Unidas mediante su Resolución Nº 39/46, del 10 de diciembre de 1984. El convenio entró en vigor el 26 de junio de 1987, de conformidad con su Artículo 27.1. 67 Adoptada y abierta a la firma y ratificación por la Asamblea General de las Naciones Unidas mediante su Resolución Nº 44/25, de 20 de noviembre de 1989. El convenio entró en vigor el 2 de septiembre de 1990, de conformidad con su Artículo 49. 68 Aprobada y abierta a la firma, ratificación y adhesión por la Asamblea General de las Naciones Unidas mediante su Resolución Nº 45/158, del 18 de diciembre de 1990, en la ciudad de Nueva York, Estados Unidos. 69 Aprobada y abierta a la firma, ratificación y adhesión por la Asamblea General de las Naciones Unidas mediante su Resolución Nº 61/177, del 20 de diciembre de 2006. 70 Aprobada y abierta a la firma por la Asamblea General de las Naciones Unidas mediante su Resolución Nº 61/106, del 13 de diciembre de 2006, a partir del 30 de marzo de 2007. En vigor desde el 3 de mayo de 2008. 71 Adoptada y abierta a la firma, ratificación y adhesión por la Asamblea General de las Naciones Unidas mediante su Resolución Nº 2391 (XXIII), del 26 de noviembre de 1968. El convenio entró en vigor el 11 de noviembre de 1970, de conformidad con su Artículo VIII. 24 Estos comités, creados –en su mayoría– por los mismos tratados, monitorean el cumplimiento de su convención mediante sus funciones. Estas suelen ser las siguientes: a) Recibir y examinar los informes de los Estados Partes sobre los avances en el cumplimiento del tratado y, teniendo en cuenta esta información, emitir una observación final; b) Elaborar las observaciones/comentarios generales que son guías para la interpretación de un determinado artículo del tratado y; c) Examinar las denuncias individuales por personas contra un Estado Parte y denuncias de un Estado Parte a otro. Por otro lado, también existen los organismos especializados que velan sobre temas determinados y específicos de derechos humanos. Estos fueron creados en virtud del artículo 57 de la Carta de las Naciones Unidas y también cuentan con un sistema extraconvencional y convencional. Esta división de dos grandes mecanismos también se repite en los Sistemas Regionales de Derechos Humanos. A manera de resumen, se detallará información esencial de estos sistemas regionales. Nombre de la organización internacional Tratado constitutivo Fecha de adopción Sistema Europeo de Derechos Humanos Consejo de Europa Tratado de Londres 5 de mayo de 1949 Sistema Interamericano de Derechos Humanos Organización de los Estados Americanos Carta OEA 30 de abril de 1948 Sistema Africano de Derechos Humanos Unión Africana (ex Unión de Estados Africanos) Carta Organización de la Unión Africana 25 de mayo de 1963 Organización que promueve derechos humanos que no forman parte de los Sistemas Regionales de Derechos Humanos. Nombre Tratado constitutivo Fecha de adopción Organización supranacional Unión Europea72 Tratado de Maastricht73 7 de febrero de 1992 Fuente: Elaboración propia. De esta manera, los Sistemas Regionales empezaron a establecer sus mecanismos, de igual forma que las Naciones Unidas, en extraconvencionales y un sistema de tratados de derechos humanos (convencional). 72 Como bien se plasma en el cuadro, la Unión Europea no pertenece a los Sistemas Regionales de Derechos Humanos en sentido estricto. En otras palabras, es un organismo geopolítico internacional. Sin embargo, contribuye bastante en la proliferación de los derechos humanos que es importante tenerlo en cuenta, pero como una organización aparte. 73 Existen otros tratados constitutivos anteriores, pero son de la Comunidad Económica Europea. 25 1.2. La Inteligencia Artificial y los Derechos Humanos. Luego de haber desarrollado las cuestiones previas para entender mejor los conceptos que versarán en la investigación, se realizará una recopilación y desarrollo cronológico por cada órgano que haya emitido instrumentos relativos a la IA dentro de un marco general en el Sistema Internacional de los Derechos Humanos. Después de ese desarrollo, se analizará los instrumentos internacionales de derechos humanos relacionados a la IA y discapacidad. 1.2.1. El marco jurídico de la Inteligencia Artificial en el Derecho Internacional de los Derechos Humanos. Como se ha mencionado anteriormente, esta sección detallará cronológicamente y dividido por órganos sobre la regulación brindada, hasta en la actualidad, respecto a los usos de los sistemas de IA. Para ello se sistematizará los instrumentos del Sistema Universal de Derechos Humanos (en adelante, SUDH) y, después, los Sistemas Regionales de Derechos Humanos (Europeo, Interamericano y Africano). 1.2.1.1. Sistema Universal de Derechos Humanos. Dentro del marco del SUDH que pertenece al Sistema de Naciones Unidas, encontramos instrumentos relativos a la IA que fueron emitidos por el ACNUDH. Uno de los más relevantes es el informe anual sobre el derecho a la privacidad en la era digital74. En este documento, del 13 de septiembre de 2021, nos menciona la importancia de regular la injerencia de los sistemas de IA en la vida privada y, en consecuencia, proteger el derecho a la privacidad. Esto resulta importante debido a la proliferación de la problemática que se suscita por la expansión de la recopilación de datos personales por los sistemas de IA. En consecuencia, el ACNUDH recomienda a los Estados que prohíban expresamente a todos los sistemas de IA que no estén acorde a los derechos humanos. Por otro lado, sobre las tecnologías de reconocimiento biométrico a distancia en los espacios públicos que no cumplan con las normas de privacidad y protección de datos, así como que también pueden provocar efectos discriminatorios, insta que se le apliquen una moratoria para el uso hasta que lo cumplan. En pocas palabras, la privacidad es el requisito central que recomienda que se instaure en la legislación referente a la IA. Por último, se menciona unos apartados referentes a la discriminación algorítmica respecto a la prevención de los efectos adversos de la IA y la creación de recursos efectivos para las víctimas de derechos humanos frente a los errores de la IA. Asimismo, promueve que se luche contra la discriminación provocado por la IA usado por el sector público y privado con el fin de evitar sesgos y garantizar el respeto de la diversidad75. 74 Alto Comisionado de las Naciones Unidas para los Derechos Humanos, Informe
Compartir