Logo Studenta

content(7)

¡Este material tiene más páginas!

Vista previa del material en texto

1 
 
 
 
 
Máster Universitario en Estudios Avanzados en Derechos Humanos 
Instituto de Derechos Humanos “Gregorio Peces-Barba” 
Curso académico 2022/2023 
Trabajo de Fin de Máster 
“Los avances de la Inteligencia Artificial y su impacto 
en el principio de igualdad y no discriminación de las 
personas en situación de discapacidad.” 
 
ITALO GIANCARLO ALVAREZ LOZANO 
 
Tutor: 
Rafael Fernando de Asís Roig 
Getafe, Junio 2023 
 
 
DETECCIÓN DEL PLAGIO 
La Universidad utiliza el programa Turnitin Feedback Studio para comparar la originalidad del 
acatrabajo entregado por cada estudiante con millones de recursos electrónicos y detecta aquellas 
partes del texto copiadas y pegadas. Copiar o plagiar en un TFM es considerado una Falta Grave, y 
puede conllevar la expulsión definitiva de la Universidad. 
 
 
 
 
 
[Incluir en el caso del interés de su publicación en el archivo abierto] 
Esta obra se encuentra sujeta a la licencia Creative Commons Reconocimiento – No 
Comercial – Sin Obra Derivada 
 
2 
 
 
Palabras claves: Derecho Internacional de los Derechos Humanos, Nuevas 
Tecnologías, Inteligencia Artificial, Discapacidad, Discriminación. 
 
Resumen: Las nuevas tecnologías han proliferado sus usos en estos tiempos y han 
reformulado la composición, gestión y regulación de la sociedad, impactando de forma 
importante. Por eso resulta relevante analizar este fenómeno desde el discurso de los 
derechos humanos para evitar nuevas discriminaciones a colectivos en situación de 
vulnerabilidad. Dentro de este gran campo de ramilletes de nuevas tecnologías, para 
esta investigación el centro de importancia es la Inteligencia Artificial. En este tema, 
los algoritmos y los datos son el punto fundamental porque sus usos pueden hacer 
que un sistema de Inteligencia Artificial emita resultados o predicciones negativas a 
colectivos en situación de vulnerabilidad, como las personas en situación de 
discapacidad. 
Desde este hilo conductor resulta vertebral considerar el contenido jurídico de la 
Convención sobre los Derechos de las Personas con Discapacidad, así como los 
diversos discursos filosóficos y jurídicos en torno a la regulación de la Inteligencia 
Artificial con la finalidad de evitar situaciones que generen discriminación y ofrecer una 
respuesta a estos nuevos fenómenos. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
3 
 
ÍNDICE: 
Tabla de Abreviaturas………………………………………………………………………...…..5 
INTRODUCCIÓN………………………………………………………………………………..6 
Capítulo 1: La Inteligencia Artificial y el Derecho Internacional de los Derechos 
Humanos…………………………………………………………………………………...……..9 
1.1 Cuestiones previas……………………………………………………………….…..9 
1.1.1 Inteligencia Artificial, aprendizaje automático y adopción automatizada 
de decisiones…………………………………................................…....9 
1.1.2 La discriminación algorítmica……………………………………...…13 
1.1.3 La discapacidad: Los modelos y concepto………………………….....17 
1.1.4 Derecho Internacional de los Derechos Humanos: Breve 
aproximación……………………………………………………..…...21 
1.2 La Inteligencia Artificial y los Derechos Humanos………………………..……...25 
1.2.1 El marco jurídico de la Inteligencia Artificial en el Derecho 
Internacional de los Derechos Humanos…………………………...…25 
1.2.1.1 Sistema Universal de Derechos Humanos…………………....25 
1.2.1.2 Sistemas Regionales de Derechos Humanos……………..…..34 
1.2.2 La Unión Europea y su contribución en la regulación de la Inteligencia 
Artificial dentro del marco de los Derechos 
Humanos……………………………………………………………...39 
1.3 La Inteligencia Artificial y la discapacidad………………………………………..54 
1.3.1 El marco jurídico de la Inteligencia Artificial en el contexto de la 
discapacidad en el Derecho Internacional de los Derechos 
Humanos…………………………………………………………........54 
1.4 Conclusiones……………………………………………………………………….75 
 
Capítulo 2: La discriminación algorítmica hacia las personas en situación discapacidad ¿Cómo 
podemos regularla?.......................................................................................................................80 
 
2.1 Los avances tecnológicos referente a la Inteligencia Artificial en los últimos 
años………………………………………………………………………………..80 
2.2 La vulneración del principio de igualdad y no discriminación y de otros derechos 
protegidos de las personas en situación discapacidad……………………………..87 
2.3. ¿Cómo regular la protección contra la discriminación algorítmica?........................94 
 2.3.1 Unos problemas iniciales…………………………………………………....94 
2.3.2 Los debates éticos-jurídicos respecto a la inteligencia artificial y su 
regulación en el contexto de la discapacidad……………………..………...98 
2.3.2.1 Los acuerdos de expertos y organizaciones 
internacionales………………………………………….…….99 
2.3.2.2 Las interpretaciones de estos principios con las posturas sobre 
las nuevas tecnologías………………………..……………...105 
 2.3.2.2.1 Los debates filosóficos en torno a las nuevas 
tecnologías…………………………………………………..106 
 2.3.2.2.2 El enfoque de los derechos humanos………...........107 
4 
 
2.3.2.3 Los abordajes de las nuevas tecnologías en el contexto de la 
discapacidad……………………………………..…………..109 
 2.3.2.3.1 Como remedio para reducir los efectos de las 
deficiencias……………………………………………….…109 
 2.3.2.3.2 Como discriminación en términos de la 
accesibilidad………………………………...………...……..110 
 2.3.2.3.3 El enfoque de derechos desde la 
“discapacidad”………………………………………….…...111 
2.3.3 La regulación de la CDPD como punto de partida…………………………..….113 
2.3.3.1 La igualdad y no discriminación en la inteligencia artificial: 
Implicancias con la accesibilidad, diseño universal y el ajuste 
razonable…………………………………………………..114 
2.3.3.2 El derecho a la consulta activa……………………………….122 
2.4 Reflexiones y propuestas finales para el abordaje de la protección contra la 
discriminación algorítmica hacia las personas en situación 
discapacidad…………………………………………………………………………..124 
2.5 Conclusiones…………………………………………………..………………….135 
CONCLUSIONES DEL TRABAJO FIN DE MÁSTER……………………………………..138 
 
REFERENCIAS BIBLIOGRÁFICAS……………………………………………...………...143 
 
ANEXOS…………………………………………………………………………………..…164 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
5 
 
ABREVIATURAS 
 
ACNUDH: Alto Comisionado de e las Naciones Unidas para los Derechos 
Humanos. 
ACNUR: Alto Comisionado de las Naciones Unidas para los Refugiados. 
AEPD: Agencia Española de Protección de Datos de España. 
API: Application Programming Interface. 
CDPD: Convención sobre los Derechos de las Personas con 
Discapacidad. 
CES: Consejo Económico y Social 
CESE: Comité Económico y Social Europeo. 
CIDH: Comisión Interamericana de Derechos Humanos. 
Comité DPD: Comité sobre los Derechos de las Personas con Discapacidad. 
Comité DESC: Comité de Derechos Económicos, Sociales y Culturales 
Comisión ADHP: Comisión Africana de Derechos Humanos y de los Pueblos. 
Comisión DH: Comisión de Derechos Humanos. 
Consejo DH: Consejo de Derechos Humanos. 
Corte IDH: Corte Interamericana de Derechos Humanos. 
DIDH: Derecho Internacional de los Derechos Humanos. 
DUDH: Declaración Universal de Derechos Humanos. 
EPU: Examen Periódico Universal. 
GPT-3: Generative Pre-Trained Transformer 3. 
IA: Inteligencia Artificial. 
MTU: Mandatos Temáticos Universales. 
M. Territ. E.: Mandatos Territoriales Especiales. 
SADH: Sistema Africano de Derechos Humanos. 
SEDH: Sistema Europeo de Derechos Humanos. 
SIDH: Sistema Interamericano de Derechos Humanos. 
SUDH: Sistema Universal de Derechos Humanos. 
OEA: Organización de Estados Americanos. 
OIM: Organización Internacional para las Migraciones. 
OIT: Organización Internacional del Trabajo. 
OMS: Organización Mundial de la Salud. 
ONG: Organizaciones No Gubernamentales. 
ONU: Organización de Naciones Unidas. 
RELE: Relatoría Especial para la Libertad de Expresión. 
RGPD: Reglamento General de Protección de Datos. 
RLHF: Reinforcement Learning From Human Feedback. 
TIC: Tecnología para la información y la comunicación. 
UPIAS:Union of the Physically Impaired Against Segregation. 
 
 
 
 
 
6 
 
INTRODUCCIÓN 
En los últimos años nos hemos adentrado en una nueva revolución desde el plano de 
la ciencia y la tecnología, que nos ha llevado a cuestionar diferentes disciplinas en el 
plano de la academia; entre ellas, el Derecho. En ese sentido, las nuevas tecnologías 
han venido a quedarse y reformular la composición, gestión y regulación de la 
sociedad. Estas implicancias, que impactarán de forma esencial en nuestras vidas 
deben analizarse desde el discurso de los derechos humanos para evitar nuevas 
discriminaciones para colectivos en situación de vulnerabilidad o, incluso, añadir 
nuevos colectivos que no entraban en esta situación. 
Dentro de estas opciones de nuevas tecnologías, para esta investigación el centro de 
importancia está en la Inteligencia Artificial (en adelante IA). Este sistema tiene la 
función de emular las actividades cerebrales del ser humano y ha obtenido, durante 
estos años, resultados muy favorables que han contribuido a la proliferación de sus 
usos en el mundo, desde los aspectos sociales, legales, financieros, de monitoreos, en 
conducciones de aparatos, entre otras cosas que los seres humanos realizaban y, 
ahora, son reemplazados por la IA.1 Esta tecnología tiene como columna vertebral 
para su funcionamiento a los algoritmos, que son secuencias de instrucciones que 
podrían traer un impacto negativo y discriminatorio a colectivos en situación de 
vulnerabilidad, como las personas en situación de discapacidad. 
Estas secuencias de instrucciones tienden a buscar una serie de resultados basados 
en el procesamiento de los datos esparcidos en diversas fuentes y en Internet. En ese 
sentido, los riesgos y los dilemas surgen cuando la IA no puede recoger datos 
suficientes sobre personas en situación de discapacidad debido a la protección de 
datos y/o porque los datos que se tienen sobre las personas en situación de 
discapacidad no reflejan la realidad o son erróneos en su conceptualización y pueden 
ser tratados como variables negativas que pueden producir situaciones de 
discriminación.2 Esto conllevará a que el uso de los sistemas de IA que se incorporen 
con el fin de brindar servicios y acceder derechos, puedan provocar desigualdades 
hacia las personas en situación de discapacidad. 
La IA puede vulnerar el principio de igualdad y no discriminación en muchos derechos 
reconocidos para las personas en situación de discapacidad. La finalidad de la 
investigación es analizar y brindar los elementos teóricos, problemáticas y soluciones 
relacionadas con los debates teóricos-jurídicos sobre la IA y su susceptibilidad a 
vulnerar el principio de igualdad y no discriminación hacia las personas en situación de 
discapacidad. 
En ese sentido, la pregunta central de la investigación es determinar lo siguiente: ¿Es 
suficiente la Convención sobre los Derechos de las Personas con Discapacidad (en 
 
1 Vid., DE ASÍS ROIG, R. “Robótica, Inteligencia Artificial y Derecho”, Revista de Privacidad y 
Derecho Digital, n. 10, Madrid, 2018, pp. 27-77. 
2 PAHISA, J., Amenazas para las personas con discapacidad de una IA que no considere esta diversidad 
¿Inteligencia Artificial en abierto o cerrado?, Columna de Opinión, cermi.es semanal Nº 378, 
14/02/2020, Disponible en http://semanal.cermi.es/noticia/articulo-opinion-inteligencia-artificial-
potencial-romper-peligro-barrera-joan-pahisa-doctor-informatica-fundacion-once-2.aspx (Última consulta 
13 de mayo de 2022) 
http://semanal.cermi.es/noticia/articulo-opinion-inteligencia-artificial-potencial-romper-peligro-barrera-joan-pahisa-doctor-informatica-fundacion-once-2.aspx
http://semanal.cermi.es/noticia/articulo-opinion-inteligencia-artificial-potencial-romper-peligro-barrera-joan-pahisa-doctor-informatica-fundacion-once-2.aspx
7 
 
adelante, CDPD)3 para regular y controlar los usos del sistema de IA con el fin de 
evitar la discriminación algorítmica hacia las personas en situación de discapacidad? 
Por lo que la hipótesis planteada sería: Las personas en situación de discapacidad son 
más propensas a ser vulneradas en sus derechos humanos si no existe una debida 
regulación y datos acorde a la realidad que permitan a los sistemas de IA ser utilizados 
bajo un enfoque que tenga, específicamente, en cuenta la garantía de la igualdad y no 
discriminación de las personas en situación de discapacidad discapacidad. En ese 
sentido, la CDPD es importante como punto de partida para su regulación en tanto 
contempla la protección a no ser discriminado por motivos de discapacidad y establece 
parámetros sobre el uso de las tecnologías desde un ámbito general. 
Asimismo, el objetivo principal de la investigación es analizar los debates éticos-
jurídicos relacionados al uso de sistemas de IA en el contexto de la discapacidad y 
centrarse en revisar cómo sus derechos pueden ser altamente vulnerados en la 
práctica de estos sistemas, para así presentar una propuesta o ideas para controlar los 
usos discriminatorios. Del mismo modo, se pretende tener los siguientes objetivos 
específicos: 
• Desarrollar y clasificar los instrumentos internacionales que regulan los usos de 
sistemas de IA desde una perspectiva general e identificar la existencia de 
disposiciones que mencionen su regulación en el contexto específico de la 
discapacidad. 
• Analizar los riesgos de discriminación que existen en los sistemas de IA desde 
la identificación de la discapacidad, en los datos estereotipados, en la 
promoción de la capacidad jurídica y otros derechos conexos. 
• Identificar y analizar los debates éticos-jurídicos existentes en la regulación de 
la IA y establecer una ruta de propuesta normativa para garantizar la protección 
a la no discriminación algorítmica hacia las personas en situación de 
discapacidad. 
Con estos alcances y objetivos, se podrá responder otras sub-preguntas relevantes 
como: ¿Existen otros instrumentos internacionales de derechos humanos que pueden 
proteger a las personas en situación de discapacidad frente a la discriminación 
algorítmica? ¿La IA puede realmente discriminar y ser responsable? ¿Cómo regular a 
la IA desde el discurso de la discapacidad y que sea garantista frente a la prohibición 
de la discriminación algorítmica hacia las personas en situación de discapacidad? 
Para lograr estos objetivos, la presente investigación tiene el siguiente esquema. El 
primer capítulo está centrado a introducir al lector en los conocimientos esenciales 
para entender a la IA y su riesgo respecto a la discriminación algorítmica hacia las 
personas en situación de discapacidad. Asimismo, se desarrollará de manera 
cronológica los instrumentos sobre la regulación de los sistemas de IA desde un 
ámbito general y desde el contexto específico de la discapacidad. Todo este capítulo 
de desarrollo más descriptivo será sistematizado y dividido entre instrumentos del 
Sistema Universal y Regionales de Derechos Humanos. 
 
3 Aprobada y abierta a la firma por la Asamblea General de las Naciones Unidas mediante su Resolución 
Nº 61/106, del 13 de diciembre de 2006, a partir del 30 de marzo de 2007 y entró en vigor el 3 de mayo 
de 2008. 
8 
 
El segundo capítulo se centrará en un análisis exhaustivo de los riesgos de 
vulneración del principio de igualdad y no discriminación provocados por la 
discriminación algorítmica frente a los derechos contemplados en la CDPD. Después, 
se centrará en analizar los debates teóricos y filosóficos de la regulación de la IA. En 
primer lugar, se desarrollará los principios éticos que surgen en la regulación de la IA. 
En segundo lugar, se expondrá los debates de estos principios frente a la 
interpretación de concepciones filosóficas relacionados a los transhumanistas y 
bioconservadores. En tercer lugar, se analizará esta regulación de la IA desde el 
discurso de la discapacidad y cómola CDPD hace frente a ello. Con toda esta 
información, se brindará una propuesta normativa o una hoja de ruta para regular a los 
sistemas de IA frente a las personas en situación de discapacidad desde el marco de 
los derechos humanos. 
Respecto a la metodología está centrada en un estudio teórico, por lo que no utilizará 
métodos empíricos y/o investigaciones de trabajo de campo. No obstante, sí se 
utilizarán tres métodos en esta investigación. 
En primer lugar, se hará un análisis de los instrumentos internacionales de derechos 
humanos relacionado al uso de la Inteligencia Artificial. En ese sentido, se 
sistematizará los instrumentos mediante el Sistema Universal y Regionales (Europeo, 
Africano y Americano) de Derechos Humanos. Además, se identificarán las 
disposiciones expresas o implícitas que mencionen a las personas en situación de 
discapacidad. Por otro lado, para tener un orden de los instrumentos, se realizarán 
fichas con datos relevantes de cada instrumento para su estudio más ordenado y 
estructurado. 
En segundo lugar, se analizarán informes, recomendaciones, noticias e 
investigaciones que identifiquen los posibles riesgos hacia las personas en situación 
de discapacidad donde la discriminación algorítmica pueda afectar sus derechos. En 
esta parte de la metodología se realizará tanto desde fuentes primarias como 
secundarias. 
Por último, se propondrá una hoja de ruta o propuestas para regular a nivel 
internacional los usos de la IA, con el objetivo de que existan garantías y obligaciones 
idóneas para evitar la discriminación algorítmica hacia el colectivo de discapacidad 
específicamente. Para ello, se sistematizará y analizará la doctrina e investigaciones 
previas, tanto de fuentes primarias como secundarias, que desarrollen sobre los 
debates éticos-jurídicos que existen en la regulación de los sistemas de IA. Asimismo, 
estos debates regulativos se enfocarán en el contexto de la discapacidad y, 
finalmente, se brindará la propuesta u hoja de ruta de regulación. En ese sentido, en el 
inicio y cuerpo de la investigación tiene una metodología descriptiva y en la última 
parte está enfocado a una metodología más prescriptiva al brindar propuestas de 
solución ante los problemas descritos. 
 
 
 
9 
 
CAPÍTULO 1: LA INTELIGENCIA ARTIFICIAL Y EL DERECHO 
INTERNACIONAL DE LOS DERECHOS HUMANOS. 
En este primer capítulo, se enfocará en el estudio propio de la IA y la discriminación 
algorítmica para comprender mejor sus implicancias. Asimismo, el estudio estará 
centralizado en el contenido jurídico de los diferentes instrumentos internacionales 
relacionado en los derechos humanos. 
Dentro del marco de los instrumentos internacionales sobre IA, se dividirá en dos 
grandes sectores. Por un lado, se analizará la regulación existente sobre la IA en un 
sentido más general, pero con un enfoque importante a su regulación frente al 
principio de igualdad y no discriminación. Por otro lado, se analizará, de la misma 
manera, la regulación sobre la protección de las personas en situación de 
discapacidad y su relación con los sistemas de IA. Esto con la finalidad de establecer 
un panorama completo de la regulación sobre la IA y la discapacidad para, desde este 
punto de partida, establecer propuestas a los vacíos existentes. 
1.1. Cuestiones previas. 
En ese sentido, los sistemas de IA han demostrado ser una pieza fundamental para la 
nueva era. Sin embargo, como todo avance esto ha traído riesgos que se pueden 
suscitar frente a una posible vulneración del principio de igualdad y no discriminación 
en el contexto de la discapacidad y que son complejos de abordar. 
Antes de adentrarnos en el desarrollo de la IA y la regulación que se han dado en los 
últimos tiempos, es necesario traer a colación que nos encontramos en una nueva 
Revolución o Renacimiento donde la tecnología y lo digital es lo imperante. En este 
siglo XXI, se ha dado con mayor énfasis el surgimiento y/o desarrollo más detallado de 
las neurociencias, la nanotecnología, la robótica, la inteligencia artificial y la ingeniería 
genética. Estas tecnologías convergentes, trae consigo una serie de riesgos y 
beneficios para la sociedad; en consecuencia, es importante reflexionar –como se ha 
mencionado– sobre el uso de estas tecnologías puesto que estas no son neutras 
como aparentan ser4. 
En este contexto se hace necesario regular las tecnologías convergentes con el fin de 
evitar estos riesgos a la sociedad, sobre todo, a colectivos en situación de 
vulnerabilidad. Esto se debe a que la relación o, mejor dicho, la conexión humano-
máquina tiene la finalidad de luchar contra la imperfección del ser humano5. Por ello, 
es que estos problemas, evidentemente, alarmantes se deben analizar desde el 
discurso de los derechos y la ética, pero también desde los contextos de las 
poblaciones en situación de vulnerabilidad, sobre todo, de las personas en situación 
de discapacidad. No obstante, para adentrarnos de forma más detallada, es vertebral 
conocer los conceptos relacionados a la IA y sus riesgos, así como los modelos de 
discapacidad y el Sistema Internacional de Derechos Humanos. 
1.1.1 Inteligencia Artificial, aprendizaje automático y adopción automatizada de 
decisiones. 
 
4 DE ASÍS ROIG, R., Derechos y tecnologías, Dykinson, Madrid, 2022, p 11. 
5 Ibidem, p. 18. 
10 
 
El inicio cronológico para descubrir las primeras pinceladas de la IA es el desarrollo 
tecnológico y construcción de los ordenadores digitales que se dio en el siglo XX. 
Dentro de ese periodo de tiempo, en 1936, Alan Turing logró un diseño abstracto de 
ordenador que trajo consigo el nacimiento de la informática. Estos aportes brindaron 
enormes aportes en los fundamentos lógicos como también en el desarrollo de las 
ciencias de la computación6. Sin embargo, el nombre como “Inteligencia Artificial” se 
creó en 1956 dentro de la conferencia de John McCarthy en el Dartmouth College 
donde se debatió si era posible simular la inteligencia humana a través de las 
máquinas. Sin embargo, el padre de la IA sería Alan Turing y, como precedente, a 
George Boole7. Esto debido a que Boole dio grandes contribuciones en la 
fundamentación dentro del campo de las ciencias de la computación y Turing por sus 
diseños donde se plasma la posibilidad de que las máquinas puedan realizar 
operaciones lógicas en menor tiempo que los humanos si se les da ciertas 
instrucciones8. Ambas contribuciones, además de otros científicos posteriores, 
nutrieron al desarrollo de la IA con el pasar de los años. 
No obstante, actualmente, la IA es tan compleja y reciente que no existe una única 
definición, sino que convergen diferentes maneras y visiones para explicarlas. Algunas 
propuestas son definirlas mediante cuatro enfoques: Sistemas que actúen como 
humanos, sistemas que piensen como humanos, sistemas que piensan racionalmente 
y sistemas que actúen racionalmente.9 
Respecto al primer enfoque se remonta a los inicios de la Prueba de Turing en 1950. 
Esta prueba, en teoría, consiste en una serie de preguntas que la computadora debe 
resolver y sólo el ordenador superará el examen cuando el evaluador humano no sea 
capaz de diferenciar si las respuestas le pertenecen a un humano o una máquina. Si 
resulta que es incapaz de encontrar la diferencia, significa que la computadora es 
inteligente y tiene un comportamiento humano10. Aunque esto es discutible, 
actualmente, se conoce que, si un computador tiene que superar la Prueba de Turing 
debe que poseer cuatro capacidades como el procesamiento del lenguaje natural, la 
representación del conocimiento, el razonamiento automático y el aprendizaje 
automático. Sin embargo, esta prueba evitó la interacción física directa entre evaluador 
y la computadora. Por esta razón, más adelante, se desarrolló otra versión llamada la 
Prueba Global de Turing donde se valora la capacidad de percepción del evaluado y 
se brinda la oportunidad alevaluador de dar objetos físicos a la máquina. En ese 
sentido, para una simulación física de esta inteligencia, además de las cuatro 
capacidades, se añadieron dos como la visión computacional y la capacidad de 
manipular y mover objetos a través de la robótica11. No obstante, estas pruebas sólo 
 
6 GARRIGA DOMÍNGUEZ, A. Nuevos retos para la protección de datos personales: En la era del Big 
Data y de la computación ubicua, Dykinson, Madrid, 2016, pp. 17-18. 
7 DE ASÍS ROIG, R., Derechos y tecnologías, op. cit, p 30. 
8 GOBIERNO DEL ENCUENTRO, Alan Turing, precursor de la informática y la inteligencia artificial, 
Nota de prensa Nº 031, 24/06/2016, Disponible en https://www.derechosintelectuales.gob.ec/alan-turing-
precursor-de-la-informatica-y-la-inteligencia-artificial/ (Última consulta 13 de octubre de 2022). 
9 RUSSELL, S. Y NORVIG, P., Inteligencia Artificial: un enfoque moderno, Pearson Educación, Madrid, 
2004, pp. 2. Disponible en: https://luismejias21.files.wordpress.com/2017/09/inteligencia-artificial-un-
enfoque-moderno-stuart-j-russell.pdf (Última consulta 18 de mayo de 2022). 
10 Ibidem, p. 3. 
11 Vid., Ídem. 
https://www.derechosintelectuales.gob.ec/alan-turing-precursor-de-la-informatica-y-la-inteligencia-artificial/
https://www.derechosintelectuales.gob.ec/alan-turing-precursor-de-la-informatica-y-la-inteligencia-artificial/
https://luismejias21.files.wordpress.com/2017/09/inteligencia-artificial-un-enfoque-moderno-stuart-j-russell.pdf
https://luismejias21.files.wordpress.com/2017/09/inteligencia-artificial-un-enfoque-moderno-stuart-j-russell.pdf
11 
 
se centraban en buscar la forma de evaluar si la computadora pudiera o no actuar 
como ser humano. 
El segundo punto es el pensar como humano que se basa en el modelo cognitivo. Es 
decir, la máquina debe contar con un mecanismo que identifique cómo piensan los 
humanos. En esa línea, resultó necesario adentrarse en el funcionamiento de la mente 
del ser humano para que la IA lo imite. Para ello, se debe obtener la teoría o 
información suficiente de cómo trabaja la mente para ser programado en una 
computadora. Esto evaluará si los datos de entrada y salida del programa y el tiempo 
de reacción de la máquina es comparable con la del ser humano. Estos tipos de 
comparaciones se han realizado en diferentes estudios, por ejemplo, con el Sistema 
de Resolución General de Problemas de 196112. Sin embargo, resulta aún muy difícil 
obtener de forma precisa una ruta de cómo son las etapas del razonamiento humano y 
cómo funciona la mente. Algunos avances se han realizado mediante la ciencia 
cognitiva y la IA a través de las áreas de la visión y el lenguaje natural y, 
recientemente, en los estudios integrados que toma en cuenta la evidencia 
neurofisiológica y los modelos computacionales13 para obtener un buen esquema y 
teoría precisa y verificable del funcionamiento de la mente humana. 
El tercer punto es que la IA piense racionalmente. Este enfoque se basa en las leyes 
del pensamiento que consiste en codificar sobre cómo se piensa correctamente. Esta 
corriente tuvo sus inicios con Aristóteles y, posteriormente, hizo nacer al campo de la 
lógica14. Es así como, desde el ámbito de la IA, en 1965 comenzaron a establecer 
programas que resolvían problemas basándose en la lógica. Es decir, esto significa 
que la IA tiene como punto focal realizar inferencias correctas en base a los datos que 
se le presenta. No obstante, este enfoque tiene dos problemas. El primer por la 
dificultad de transformar conocimiento o data informal en términos formales para que 
entren en la notación lógica. El segundo por el agotamiento de los recursos 
computacionales del ordenador que se manifiesta apenas con una docena de datos si 
no se cuenta con directivas o instrucciones de las etapas del razonamiento15. 
Por último, está el enfoque del agente racional o actuar racionalmente. Esto significa 
que la IA perciba el entorno, se adapte y alcance objetivos diferentes. En otras 
palabras, debe alcanzar el mejor resultado y, si existe dudas, decida o alcance el 
mejor resultado a esperar. Por lo que es insuficiente un IA que infiera correctamente 
como se basa las leyes del pensamiento, sino que también pueda alcanzar el mejor 
resultado en situaciones donde no exista lo correcto o donde no se deban realizar 
inferencias. Algunas decisiones pueden requerir una deliberación racional y cuidadosa, 
pero también habrá decisiones más eficientes donde el reflejo sin procesos de 
deliberación sea la respuesta idónea16 como en las situaciones de peligro. Es decir, 
 
12 Vid., NEWELL, A. y SIMON, H. A., “GPS, a program that simulates human thought”, In BILLING, 
H. (Ed.), Lernende Automaten, R. Oldenbourg, Munich, 1961, pp. 109-124. 
13 Vid., RUSSELL, S. Y NORVIG, P., Inteligencia Artificial: un enfoque moderno, op. cit, p. 4. 
Disponible en: https://luismejias21.files.wordpress.com/2017/09/inteligencia-artificial-un-enfoque-
moderno-stuart-j-russell.pdf (Última consulta 18 de mayo de 2022). 
14 Ídem. 
15 Ibidem, p. 5. 
16 Ídem. 
https://luismejias21.files.wordpress.com/2017/09/inteligencia-artificial-un-enfoque-moderno-stuart-j-russell.pdf
https://luismejias21.files.wordpress.com/2017/09/inteligencia-artificial-un-enfoque-moderno-stuart-j-russell.pdf
12 
 
este enfoque no solo permite garantizar la racionalidad, sino también es más afín a los 
avances científicos respecto a la conducta o pensamiento humano17. 
En ese sentido, las máquinas tienen como pronóstico ser agentes racionales y 
comportarse como humanos. No obstante, estos enfoques también tienen sus 
limitantes y, debido a esto, existen otras propuestas de definición. Por ejemplo, en la 
conceptualización de la IA se puede distinguir entre débiles que son máquinas que 
simulan que razonan y el fuerte que son máquinas que pueden razonar de forma 
autónoma18. 
Por otro lado, dentro del campo de IA, convergen otros conceptos que es importante 
evidenciar y conocer como el aprendizaje automático. Este concepto forma parte de un 
subcampo de la misma IA cuyo fin es crear un método de análisis de datos que parte 
de la idea que los sistemas puedan aprender, identificar patrones y tomar decisiones 
con poca intervención del ser humano19; con el pasar de los años el aprendizaje 
automático se ha vuelto más complejo. Es decir, es utilizado como método de 
capacitación de algoritmos para que usen los datos con la finalidad de aprender y 
resolver problemas autónomamente para ser más eficientes y rápidos20. Este último se 
está logrando más en el subcampo del aprendizaje. No obstante, el aprendizaje 
automático es más centrado a la búsqueda de patrones y relaciona los datos para 
crear o generar modelos predictivos. 
Dentro de ese subcampo de aprendizaje, como se ha explicado, surge el subcampo 
del aprendizaje profundo que ordena a las computadoras a ser entrenados para 
realizar tareas humanas por sí solas. No solo se trata de analizar datos y tomar 
decisiones en base a lo que se aprendió, sino también de reconocer las voces, 
identificar imágenes y tener capacidad predictiva en base a los datos, a tal punto de 
crear una red neuronal artificial. Estos sistemas ya están funcionando como Siri y 
Cortana21. Estos son redes neuronales con múltiples capas que permite realizar más 
tareas complejas como reconocimiento y creación de imágenes y el procesamiento de 
los lenguajes naturales. Sin embargo, el ámbito del aprendizaje profundo trae ventajas 
como desventajas. Sobre la primera, se reproduce en términos de velocidad y de 
reproducción. En otras palabras, con este aprendizaje profundo puede la IA completar 
tareas más veloces que los humanos con resultados confiables y, además, aprenden 
más rápido a comparación de un ser humano que le llevaría décadas y muchos costos 
de estudios. Sobre la segunda, se basa en que la información de los datos y como se 
resuelven estas tareasse tornan más complejos y oscuros (referidos a los miles de 
 
17 Ibidem, p. 6. 
18 DE ASÍS ROIG, R., Derechos y tecnologías, op. cit, p. 58-59. 
19 SAS Institute, Machine Learning, What it is and why it matters, 2019, Available in 
https://www.sas.com/en_us/insights/analytics/machine-learning.html (Última consulta 29 de octubre de 
2022). 
20 Relator Especial sobre la promoción y protección del derecho a la libertad de opinión y de expresión, 
Informe anual, 2018, A/73/348, p. 4, Disponible en: https://documents-dds-
ny.un.org/doc/UNDOC/GEN/N18/270/45/PDF/N1827045.pdf?OpenElement (Última consulta 6 de 
septiembre de 2022). 
21 SAS Institute, Deep Learning, What it is and why it matters, 2019, Available in 
https://www.sas.com/en_us/insights/analytics/deep-learning.html (Última consulta 29 de octubre de 
2022). 
https://www.sas.com/en_us/insights/analytics/machine-learning.html
https://documents-dds-ny.un.org/doc/UNDOC/GEN/N18/270/45/PDF/N1827045.pdf?OpenElement
https://documents-dds-ny.un.org/doc/UNDOC/GEN/N18/270/45/PDF/N1827045.pdf?OpenElement
https://www.sas.com/en_us/insights/analytics/deep-learning.html
13 
 
capas que no son analizables y se tornan en cajas negras) que resulta imposible o 
muy difícil de comprender e interpretar22. 
De este aprendizaje automático, se deriva la adopción automatizada de decisiones. 
Esto significa que la máquina tiende a tener a la capacidad de tomar decisiones de 
forma automática sin la participación de un ser humano mediante datos ofrecidos 
directamente por las personas, datos observados acerca de las personas y datos 
derivados de un perfil existente de la persona, entre otros23. También porque ha 
aprendido en base a estos datos brindados. Sin embargo, debe diferenciarse de la 
elaboración de perfiles que sólo recaban información sobre personas para evaluar 
patrones y características con el fin de asignarlas a categorías para analizar y hacer 
predicciones24. Estas diferencias se visualizan mejor en casos específicos. Por 
ejemplo, la concesión de una hipoteca podría basarse en una decisión automática, 
pero para concederlo debe evaluarse el perfil crediticio de la persona que es el 
resultado de la elaboración de un perfil25. 
Estos tipos de usos de la IA y su complejo funcionamiento en la práctica, 
evidentemente, traerán consecuencias a las personas. Por ello que se desprende un 
esfuerzo internacional –como se verá después– para garantizar a no ser objeto de 
decisiones individuales automatizadas. Es decir, que las personas no deben ser objeto 
de decisiones automáticas sin supervisión humana y que únicamente estén basado en 
el tratamiento de tus datos para elaborar perfiles, producir efectos jurídicos sobre la 
persona o te afecten de alguna forma26. 
1.1.2 La discriminación algorítmica. 
Dentro del marco de los usos de sistemas de IA, existen riesgos que pueden afectar al 
principio de igualdad y no discriminación que se fundamentan en la discriminación 
algorítmica. Para definirla será necesario comenzar a entender, como punto inicial, 
qué es un algoritmo. Esto es una serie de secuencias de alta precisión que provocan 
un resultado. Es decir, pueden ser indicaciones para llegar a un determinado lugar, 
hacer cálculos matemáticos, para hacer búsquedas, entre otros. Usualmente, estos 
algoritmos son expresados mediante códigos binarios. Sus usos han proliferado y 
evolucionado con el paso del tiempo que, en la actualidad, son alimentados con bases 
de datos masivos a través del Internet y gracias al desarrollo del Big Data27. 
 
22 MOLNAR, C., Interpretable Machine Learning: A Guide For Making Black Box Models Explainable, 
2022, Disponible en https://christophm.github.io/interpretable-ml-book/what-is-machine-learning.html 
(Última consulta 29 de octubre de 2022). 
23 Grupo de Trabajo sobre Protección de Datos del Artículo 29, Directrices sobre decisiones individuales 
automatizadas y elaboración de perfiles a los efectos del Reglamento 2016/679, adoptado la versión final 
el 6 de febrero de 2018, WP251rev.01, Disponible en https://www.aepd.es/sites/default/files/2019-
12/wp251rev01-es.pdf (Última consulta 29 de octubre de 2022). 
24 Ibidem, p. 7. 
25 Vid., Ibidem, p. 9. 
26 AGENCIA ESPAÑOLA DE PROTECCIÓN DE DATOS, Derecho a no ser objeto de decisiones 
individuales automatizadas, 2022, p. 8, Disponible en https://www.aepd.es/es/derechos-y-
deberes/conoce-tus-derechos/derecho-no-ser-objeto-de-decisiones-individuales (Última consulta 29 de 
octubre de 2022). 
27 BARIFFI, F., “Artificial Intelligence, Human Rights and Disability”, en Pensar, Revista de Ciencias 
Jurídicas, Vol. 26, No. 2, 2021, pp. 1-14, p.3. 
https://christophm.github.io/interpretable-ml-book/what-is-machine-learning.html
https://www.aepd.es/sites/default/files/2019-12/wp251rev01-es.pdf
https://www.aepd.es/sites/default/files/2019-12/wp251rev01-es.pdf
https://www.aepd.es/es/derechos-y-deberes/conoce-tus-derechos/derecho-no-ser-objeto-de-decisiones-individuales
https://www.aepd.es/es/derechos-y-deberes/conoce-tus-derechos/derecho-no-ser-objeto-de-decisiones-individuales
14 
 
Por otro lado, es importante evidenciar que los datos no son neutros como suelen 
plasmarse, pues toda la información masiva cargado en Internet fue gestionado por las 
personas con sus propios valores y estas pueden o no reflejar la realidad. En otros 
términos, la IA no puede ser neutra si sus datos están llenos de sesgos y estereotipos 
de diferentes colectivos que puede conllevar a que la IA dé una respuesta o decisión 
discriminatoria. De ahí que la meta debe apuntar a que los sistemas de IA, como 
manifiesta Stuart Russel, cumplan únicamente con los objetivos humanos y que sean 
controlables y beneficiosos para la humanidad. Esto es, que la IA no haga peligrar a 
los derechos de las personas ni la autonomía humana28. Por esta razón, sería 
necesaria una regulación al respecto. 
Por otro lado, respecto al concepto de no discriminación ha sido desarrollado 
ampliamente en los órganos y entidades de derechos humanos. Más allá de toda 
referencia legal en los tratados internacionales de derechos humanos, es importante 
mencionar que el Comité de Derechos Humanos29 se debe entender como: 
“Toda distinción, exclusión, restricción o preferencia que se basen en 
determinados motivos, como la raza, el color, el sexo, el idioma, la religión, la 
opinión política o de otra índole, el origen nacional o social, la posición 
económica, el nacimiento o cualquier otra condición social, y que tengan por 
objeto o por resultado anular o menoscabar el reconocimiento, goce o ejercicio, 
en condiciones de igualdad, de los derechos humanos y libertades 
fundamentales de todas las personas”30 
En ese sentido, se puede recoger o desagregar tres ítems: 1) Un trato diferente o una 
distinción; 2) Basado por un motivo prohibido y; 3) Un resultado negativo que 
perjudique un derecho humano o libertad fundamental. En otras palabras, se debe 
conocer si el trato diferente que menoscabó un derecho se basó por un motivo 
prohibido para que entre dentro del espectro de la discriminación. En consecuencia, 
haciendo un símil con los usos inadecuados de los algoritmos en la IA, podemos 
definir a la discriminación algorítmica se produce cuando un individuo o colectivo, 
perteneciente a un motivo prohibido, recibe un tratamiento arbitrario o indebido como 
consecuencia de la toma de decisiones automatizadas y, por consiguiente, se le 
perjudica un derecho humano o libertad fundamental. Sin embargo, esto parece ser 
insuficiente para abordar los problemas nos puede llevar la IA. 
Como menciona Mercader Uguina, la discriminación algorítmica es “[u]na 
discriminación que obtiene, por el momento, respuestas desde nuestras actuales 
técnicas conceptuales pero que requeriría probablemente también de nuevas 
herramientas jurídicas de análisis. La discriminación afronta, pues, nuevos retos”31. 
Estose debe a que la discriminación algorítmica nos lleva a nuevos dilemas y riesgos 
que el derecho no se ha planteado del todo. Si bien es cierto que existen normas que 
 
28 Vid., RUSSELL, S., Human Compatible: Artificial Intelligence and the Problem of Control, New 
York, Penguin, 2020. 
29 Constituido sobre la base de la Parte IV y, en específico, del artículo 28 del Pacto Internacional de 
Derechos Civiles y Políticos. 
30 Comité de Derechos Humanos, Observación General 18: No discriminación, 2014, CCPR/C/GC/18, 
pár. 7. 
31 MERCADER UGUINA, J. “Discriminación algorítmica y derecho granular: nuevos retos para la 
igualdad en la era del big data”, Labos, Vol. 2, No. 2, pp. 4-10, p. 6. 
15 
 
lo pueden controlar, no resulta, en la práctica, suficiente en diversas situaciones. Esto 
se sustenta de manera más clara con el debate de la intencionalidad de la 
discriminación en la IA. Este tópico lo abordaremos más adelante. 
En ese sentido, la discriminación algorítmica suele darse en varios planos de análisis 
donde existe una intervención humana y un proceso automatizado. Para poder 
entender mejor esta parte hay que centrar a la discriminación algorítmica como un 
proceso (Ver Figura 1 - ANEXOS) donde tiene su origen la contribución humana que 
crea y brinda la base de datos. Es esta base de datos que, si está sesgada o 
estereotipada, la maquina aprenderá automáticamente mediante las directrices que se 
le ha dado el programado y encontrará patrones en su aprendizaje que conllevará al 
final a tomar decisiones automáticas basado en racismo, sexismo, edadismo, 
capacitismo, entre otros. Debido a esto, resulta importante establecer panoramas 
claros e inclusivos para que la IA pueda decidir y/o predecir adecuadamente. 
En la realidad, esto es muy complejo, porque existen dilemas en la recolección de 
datos. Por un lado, la IA puede no tener suficientes datos y estos no ser 
representativos. En otras palabras, si la IA obtiene, por ejemplo, poca información de 
rostros de piel oscura y recibe más de rostros de piel clara, le será más difícil que 
reconozca los rostros de piel oscura. Por otro lado, que los datos reflejen prejuicios, 
por ejemplo, el caso del algoritmo de reclutamiento interno de Amazon que descartaba 
candidatas mujeres debido a las capacitaciones recibidas sobre decisiones históricas 
de contratación donde se favorecía más a los hombres, en consecuencia, la IA 
aprendió esos patrones e instrucciones. Esto es relevante debido a que los datos 
pueden ser preparados mediante atributos y categorías para que el algoritmo decida 
sobre un determinado tema, como, por ejemplo, si un banco desea medir la solvencia 
para otorgar un préstamo, se podrá solicitar que valore la edad y los ingresos32. 
En el contexto de la discapacidad esto significaría una exhaustiva revisión de los datos 
almacenados en Internet para identificar la cantidad de data y que estas no estén 
sesgadas ni estereotipas por ideas erróneas sobre las personas en situación de 
discapacidad, ya que traería un efecto negativo para el colectivo de discapacidad. Es 
decir, si las secuencias de instrucciones que siguen los algoritmos se basan en datos 
poco representativos sobre la discapacidad debido a la protección de datos, la IA no 
podrá aprender y puede inferir erróneamente. O, por otro lado, si los datos que 
dispone son estereotipados pueden ser tomados como variables negativas para excluir 
de los servicios que la IA pueda ofrecer33, provocando situaciones de discriminación 
algorítmica. Un ejemplo claro sobre esto es el “Reverse Turing-Test” que consiste en 
que las personas deben mostrarle a la máquina que son humanas. Este tipo de prueba 
trae muchos problemas debido a que la IA como, por ejemplo, Alexa no puede 
reconocer el acento o el tono de voz de personas en situación de discapacidad 
 
32 Vid., HAO, K., This is how AI bias really happens – and why it’s so hard to fix, Columna de Opinión, 
MIT Technology Review, Tech Policy, 4/02/2019, Disponible en: 
https://www.technologyreview.com/2019/02/04/137602/this-is-how-ai-bias-really-happensand-why-its-
so-hard-to-fix/ (Última consulta 15 de mayo de 2022) 
33 PAHISA, J., Amenazas para las personas con discapacidad de una IA que no considere esta diversidad 
¿Inteligencia Artificial en abierto o cerrado?, Op. cit., Disponible en: 
http://semanal.cermi.es/noticia/articulo-opinion-inteligencia-artificial-potencial-romper-peligro-barrera-
joan-pahisa-doctor-informatica-fundacion-once-2.aspx 
https://www.technologyreview.com/2019/02/04/137602/this-is-how-ai-bias-really-happensand-why-its-so-hard-to-fix/
https://www.technologyreview.com/2019/02/04/137602/this-is-how-ai-bias-really-happensand-why-its-so-hard-to-fix/
http://semanal.cermi.es/noticia/articulo-opinion-inteligencia-artificial-potencial-romper-peligro-barrera-joan-pahisa-doctor-informatica-fundacion-once-2.aspx
http://semanal.cermi.es/noticia/articulo-opinion-inteligencia-artificial-potencial-romper-peligro-barrera-joan-pahisa-doctor-informatica-fundacion-once-2.aspx
16 
 
auditiva o con parálisis cerebral que tienen una afectación a sus cuerdas vocales, 
debido a que el sistema de IA no lo reconoce como “natural” o “normal” y, por 
consiguiente, no los entiende34. 
Sin embargo, existen, en la actualidad, softwares que buscan contrarrestar estas 
problemáticas como SensitiveNets que es una aplicación que programa a la IA para 
que elimine o reduzca la información sensible en la toma de decisiones y haga una 
representación más inclusiva. Eso es no tomar en cuenta variables que conlleven a ser 
fuentes de discriminación y, en consecuencia, dar decisiones automáticas más justas y 
equitativas (Ver Figura 2 - ANEXOS). 
No obstante, esta eliminación de las categorías o atributos identitarios de las personas 
puede ser problemático en otras situaciones. Es decir, si se trata sobre cuestiones 
donde no es relevante las características del grupo social, esta eliminación de los 
datos sensibles puede ser efectivo y beneficioso para que la IA decida objetivamente. 
No obstante, existen casos donde la IA debe identificar estas variables para 
cuestiones positivas como brindar servicios adaptados, ajustes razonables en 
diferentes ámbitos u bonificaciones. Un ejemplo claro sería cuando un concurso 
público está automatizado por una IA para el conteo del puntaje, será necesario que 
este programa identifique a las personas en situación de discapacidad para otorgarle 
la bonificación adicional reconocido por varias leyes nacionales. Debido a ello, parece 
más importante no solo centrarse en eliminar los datos sensibles o, al menos, 
ocultarlos, sino también promover que los datos sean correctos y bajo un modelo 
social cuando estos datos relacionados a discapacidad sean necesarios adaptarlos. 
Otro tema importante dentro de la discriminación –que es importante retomar la idea– 
es la intencionalidad. En un proceso para determinar la responsabilidad será necesario 
saber si el hubo intención de discriminar y/o si la diferencia fue razonable, proporcional 
y objetiva35. En esos sentidos, la razón o validez de la diferencia resulta importante en 
estos análisis, así como también si hubo una intención premeditada de restringir un 
derecho de forma arbitraria a un grupo en situación de vulnerabilidad. Sin embargo, en 
el plano práctico y real con la IA, esto es muy problemático por dos motivos. El primero 
surge porque la máquina con IA no tiene intencionalidades. Al menos hasta el 
momento de su desarrollo en la actualidad suele ser un programa predictivo basado en 
algoritmos. Por otro lado, el segundo es que resulta muy borroso y difícil determinar 
una intencionalidad o encontrar las razones del resultado discriminatorio. Esto se debe 
porque la IA, hoy en día, utiliza sistemas de redes neuronales y en sistemas más 
complejos es difícil conocer todos los detalles del sistema para obtenermás 
información si fue un error del mismo algoritmo o si el algoritmo fue programado de 
 
34 NAKAMURA, K., “My Algorithms Have Determined You’re Not Human: AI-ML, Reverse Turing-
Tests, and the Disability Experience”, in BIGHAM, J., ASSETS ‘19: The 21st International ACM 
SIGACCESS Conference on Computers and Accessibility, Association for Computing Machinery, New 
York, 2019, pp. 1-2, p. 1, Available in: https://doi.org/10.1145/3308561.3353812 (Última consulta 19 de 
enero de 2022) 
35 La Corte Interamericana de Derechos Humanos (En adelante, Corte IDH) ha sostenido que no toda 
distinción de trato puede considerarse ofensiva de la dignidad humana. Esto se debe que existen 
diferencias en distinciones y discriminaciones. Pues la primera se basa en una diferencia objetiva, 
razonable y proporcional mientras que la discriminación son diferencias arbitrarias que busca perjudicar 
un derecho humano. Vid., Corte IDH, Caso Castañeda Gutman Vs. México, Excepciones Preliminares, 
Fondo, Reparaciones y Costas, sentencia del 6 de agosto de 2008, Serie C, No. 184, pár. 211. 
https://doi.org/10.1145/3308561.3353812
17 
 
esa manera intencionalmente. Básicamente, esto se debe a que, en el campo de las 
redes neuronales, existen las cajas negras. En ese sentido, resulta muy complicado 
hacer estudios de intencionalidad o revisar la validez de la diferencia mediante análisis 
convencionales. 
Por esta razón, la intencionalidad no parece ser un factor vertebral para armar una 
protección ante la discriminación algorítmica. En ese aspecto, lo principal es el 
resultado y, sobre esta forma de determinar el análisis de la discriminación, tenemos el 
concepto de discriminación indirecta. 
Sobre la definición de discriminación indirecta, en el contexto de la discapacidad, esto 
se produce cuando “[…]las leyes, las políticas o las prácticas son neutras en 
apariencia, pero perjudican de manera desproporcionada a las personas con 
discapacidad.”36 Esto resulta relevante porque la IA y las máquinas en general son 
expuestas como entidades no humanas totalmente neutras. Sin embargo, sus 
predicciones no lo son porque conllevan a respuestas negativas y discriminatorias. Las 
personas en situación de discapacidad tienen acceso a la IA e interactuarán con el 
sistema. Es decir, no es que se le niega acceder a la IA, pero sí tendrán problemas 
con la accesibilidad o, en ciertos casos, podrán verse perjudicados si estos sistemas 
no fueron entrenados adecuadamente. 
En ese sentido, resulta importante trasladar la discriminación algorítmica desde la 
discriminación indirecta por como funciona las predicciones de la IA. No obstante, esta 
discriminación indirecta funciona a todos los grupos en situación de vulnerabilidad, 
pero en el contexto específico de las personas en situación de discapacidad se tiene el 
concepto de discriminación por motivos de discapacidad. Este concepto se 
desarrollará en el segundo capítulo con mayor énfasis. Sin embargo, en sentidos 
generales, la discriminación algorítmica se debe entender desde la discriminación 
indirecta. 
Volviendo al problema de los datos, para armar una mayor protección a futuro, se 
debe hacer sinergias para lograr que los datos de entrenamiento para la IA estén 
acorde al modelo social. Para entender estas visiones, será necesario conocer sus 
nociones y cómo debe entenderse a la discapacidad. 
1.1.3. La discapacidad: Los modelos y concepto. 
Para comprender sobre la noción de la discapacidad, es necesario revisar los modelos 
de la discapacidad que, de acuerdo con la literatura especializada, son tres: 
Prescindencia, médico y social37. 
 
El primer modelo es de la prescindencia y, en términos generales, como noción 
hacia el colectivo de discapacidad consiste en dos características primordiales: estas 
son “[…]la justificación religiosa de la discapacidad, y la consideración de que la 
 
36 Comité sobre los Derechos de las Personas con Discapacidad, Observación General 6: sobre la 
igualdad y la no discriminación, 2018, CRPD/C/GC/6, pár. 18.b). 
37 Para más información sobre los modelos de la discapacidad, Vid., PALACIOS, A., El modelo social de 
discapacidad: orígenes, caracterización y plasmación en la Convención Internacional sobre los derechos 
de las personas con discapacidad, Colección CERMI, Ediciones Cinca, Madrid, 2008. 
18 
 
persona con discapacidad no tiene nada que aportar a la comunidad”38. Esto se debe 
a que, en la época antigua y medieval la discapacidad tiene un origen, esencialmente, 
cultural y religioso. En la mayoría de los casos se relacionaba a la discapacidad con 
advertencias de maleficios próximos o castigos divinos hacia los padres por 
pecadores. Además, el valor como persona del colectivo de discapacidad es nula y, en 
consecuencia, no son actores activos dentro de la sociedad. En ese sentido, siguiendo 
las investigaciones de Agustina Palacios, se concluye que, dentro de este modelo, 
existen dos sub-modelos: el eugenésico y de la marginación39. 
 
Respecto al sub-modelo eugenésico proveniente de la edad antigua clásica 
establece la noción que las personas en situación de discapacidad no son dignas de 
vivir y, en consecuencia, las respuestas sociales estaban enfocadas a la muerte de 
estas personas40. Un ejemplo ilustrativo sobre esto fueron los Espartanos que al bebé 
débil o “deforme” los lanzaban del Monte Taigeto por no cumplir con los cánones de la 
sociedad espartana que se sustentaba en la meta de ser grandes guerreros41. Sin 
embargo, los que lograban sobrevivir o si las sociedades no practicaban el infanticidio, 
estas personas eran “[…]objeto de un tratamiento cruel, y de persecuciones con 
resultados que llegaron hasta la muerte”42. 
 
Por otro lado, sobre el sub-modelo de la marginación, “[…]puede encontrarse en el 
tratamiento brindado a las personas con discapacidad durante la Edad Media, en 
donde se encontraban insertas dentro del grupo de los pobres y los marginados, y 
signadas por un destino marcado esencialmente por la exclusión.”43 Es decir, persiste 
la visión de la prescindencia, pero las respuestas sociales, ahora, se basan en 
políticas de resignación y exclusión. En consecuencia, las personas en situación de 
discapacidad se reducían a ser tratados con compasión y mendicidad44. En otras 
palabras, la caridad era la ruta económica para las personas en situación de 
discapacidad pudieran subsistir y otros establecieron economías siendo objetos de 
burla por su condición física45. Por ende, las respuestas sociales se basaban en 
políticas de exclusión y de caridad. 
 
En cambio, el modelo rehabilitador o médico tiene como origen de la discapacidad 
el sustento científico y médico. Es decir, que es considerado como una enfermedad. 
 
38 Ibidem, p. 37. 
39 Vid., Ídem. 
40 Ibidem, p. 39. 
41 Ibidem, p. 42, citando a: SCHEERENBERGER, R.C., Historia del retraso mental, Traducción de 
Isabel Villena Pérez, Real Patronato de Educación y Atención a Deficientes, Servicio Internacional de 
Información sobre Subnormales, San Sebastián, 1984, p.18. 
42 Ibidem, p. 52, citando a: GARLAND, R., The eye of the beholder. Deformity & Disability in the 
Graeco—Roman world, Duckworth, London, 1995, p. 39. 
43 BARIFFI, F. El régimen jurídico internacional de la capacidad jurídica de las personas con 
discapacidad y sus relaciones con la regulación actual de los Ordenamientos jurídicos internos, Tesis 
doctoral, Universidad Carlos III de Madrid, Madrid, 2014, p. 26, Disponible en https://e-
archivo.uc3m.es/bitstream/handle/10016/18991/Francisco_%20Bariffi_tesis.pdf?sequence=1&isAllowed
=y (Última consulta 04 de enero de 2022) 
44 Ibidem, p. 27. 
45 Vid., PALACIOS, A., El modelo social de discapacidad: orígenes, caracterización y plasmación en la 
Convención Internacional sobre los derechos de las personas con discapacidad, op. cit.,p. 60 – 61. 
https://e-archivo.uc3m.es/bitstream/handle/10016/18991/Francisco_%20Bariffi_tesis.pdf?sequence=1&isAllowed=y
https://e-archivo.uc3m.es/bitstream/handle/10016/18991/Francisco_%20Bariffi_tesis.pdf?sequence=1&isAllowed=y
https://e-archivo.uc3m.es/bitstream/handle/10016/18991/Francisco_%20Bariffi_tesis.pdf?sequence=1&isAllowed=y
19 
 
Adicionalmente, la persona en situación de discapacidad puede contar un valor y 
contribuir a la sociedad siempre que esta haya pasado por proceso de normalización46. 
Esto significa que las personas en situación de discapacidad deben ser curadas por 
estar enfermas y, de esta manera, puedan encajar en el estándar de lo “normal” para 
una sociedad. En ese sentido, las respuestas sociales fueron las políticas de 
segregación e integración, algunas de ellas con mecanismos muy centradas en recluir 
a ciertos grupos a centros manicomiales donde se “[…]produce el hacinamiento y las 
tareas terapéuticas son reemplazadas por las de custodia y de administración y se 
consolidan nuevas formas de control.”47 En este caso específico tiene como objetivo a 
controlar y curar, mediante prácticas que violan los derechos humanos, a las personas 
en situación de discapacidad. 
 
Este modelo de la discapacidad también parte de una visión de “reparo” mediante 
prótesis y programas de rehabilitación para compensar las “insuficiencias” adquiridas 
de miles de heridos por la Primera Guerra Mundial48. En resumen, se puede decir que 
este modelo de la discapacidad reduce a este colectivo como personas enfermas o 
carentes de algo y, de esta idea, se estructuran los órganos e instituciones médicas 
que atenderán a la discapacidad49. Por ende, al estar enfermas, los doctores no toman 
en cuenta la voluntad de las personas en situación de discapacidad porque el fin 
superior es ser curado. 
 
Por último, está el modelo social donde el sustento de la discapacidad tiene un 
origen, esencialmente, social. Es decir, que es externo a la condición individual de la 
persona y su valor es igual que los demás al considerar que son partes activos en la 
sociedad y tienen mucho que aportar50. En otros términos, es la sociedad quien 
discapacita a la persona, por lo que no es un problema biológico e individual sino de 
las barreras que existen en la sociedad al construirse una ciudad o pueblo sin pensar 
en las personas en situación de discapacidad. 
 
Esta filosofía tiene muchos antecedentes, sobre todo en los movimientos iniciales de 
Estados Unidos y Reino Unido. Sin embargo, prescindiendo de la historia de las luchas 
sociales –que no es materia de esta investigación– sí es relevante mencionar que el 
modelo social nació como filosofía de manera formal con los “Principios 
Fundamentales de la Discapacidad” de la Union of the Physically Impaired Against 
Segregation (En adelante, UPIAS)51. Este documento es una transcripción de la 
 
46 Vid., Ibidem, p. 66. 
47 AGUADO, A. Historia de las deficiencias, Escuela Libre Editorial, Colección Tesis y Praxis, Madrid, 
1995, p. 74. 
48 Vid., STIKER, H. J., History of Disability, Translated by William Sayers, Ann Arbor, The University 
of Michigan Press, 1999, p. 124. 
49 Vid., WOLFENSBERGER, W., “The origin and nature of our institutional models”, en KUGEL, R. y 
WOLFENSBERGER, W. (edit.), Changing Patterns in Residential Services for the Mentally Retarded, 
President’s Committee on Mental Retardation, Washington, D.C., 1969, pp. 59-172, p. 68, Disponible en 
https://play.google.com/books/reader?id=_rVEAAAAIAAJ&pg=GBS.PA68&hl=es_US (Última consulta 
02 de enero de 2022). 
50 Vid., PALACIOS, A., El modelo social de discapacidad: orígenes, caracterización y plasmación en la 
Convención Internacional sobre los derechos de las personas con discapacidad, op. cit., p. 103-104. 
51 DEL AGUILA, L., El concepto de discapacidad y su importancia filosófica: Investigación sobre un 
aspecto fundamental de la condición humana, Tesis de Pregrado, Pontificia Universidad Católica del 
https://play.google.com/books/reader?id=_rVEAAAAIAAJ&pg=GBS.PA68&hl=es_US
20 
 
discusión sostenida entre la UPIAS y la Disability Alliance donde concluyen varias 
ideas, entre ellas: a) Que la sociedad es quien discapacidad; b) Diferencian entre 
deficiencia y discapacidad, donde el primero es el contenido individual de la persona y 
el otro son las desventajas que la persona en situación de discapacidad debe 
sobrellevar al interactuar con las barreras de la sociedad; entre otros52. De esta 
manera, la finalidad del modelo social será la eliminación de las barreras. Por 
consiguiente, las respuestas sociales se centran en que la carga de la adaptación sea 
para la sociedad y no para la persona en situación de discapacidad debido a la deuda 
social existente por la discriminación estructural al colectivo. Esto se logra mediante 
políticas de inclusión y promoción de la autonomía. 
 
A manera de resumen, teniendo en cuenta la literatura revisada, podemos sintetizar 
con la siguiente información: 
 
SÍNTESIS DE LOS MODELOS DE LA DISCAPACIDAD 
MODELOS RESPUESTAS SOCIALES 
 
Prescindencia 
Eugenésico Políticas eugenésicas como el infanticidio y los que 
sobreviven son tratados con políticas exclusión extrema 
con el fin de lograr su muerte. 
De la 
marginación 
Exclusión pronunciada de la sociedad y la subsistencia se 
basaba en la compasión, mendicidad y la burla. 
 
Médico o rehabilitador 
Políticas de integración y creación de centros 
manicomiales con el fin de hacinar y segregar a las 
personas en situación de discapacidad psicosocial con el 
afán de curarlos. También establecen políticas de 
normalización o curación para integrar a las personas en 
situación de discapacidad en la sociedad. 
 
Social 
Políticas de inclusión donde los servicios deben 
adaptarse a las diferencias y necesidades de las 
personas en situación de discapacidad. Se centra en la 
eliminación de las barreras de la sociedad que impiden 
ejercer sus derechos. 
 
Fuente: Elaboración propia sobre la base de, esencialmente, PALACIOS, A., El 
modelo social de discapacidad: orígenes, caracterización y plasmación en la 
Convención Internacional sobre los derechos de las personas con discapacidad, 
Colección CERMI, Ediciones Cinca, Madrid, 2008, y otros autores mencionados de la 
sección, y otros autores. 
 
Más adelante, con el modelo social más desarrollado, empieza a cambiar los 
paradigmas en los derechos humanos hasta lograr instaurar –gracias al activismo 
 
Perú, Lima, 2007, p. 42, Disponible en http://hdl.handle.net/20.500.12404/443 (Última consulta 12 de 
diciembre de 2021). 
52 UNION OF THE PHYSICALLY IMPAIRED AGAINST SEGREGATION, Fundamental Principles of 
Disabilities, UPIAS, London, 1976. 
http://hdl.handle.net/20.500.12404/443
21 
 
internacional– la CDPD donde el artículo 1 establece los parámetros para realizar una 
noción de discapacidad que menciona lo siguiente: “Las personas con discapacidad 
incluyen a aquellas que tengan deficiencias físicas, mentales, intelectuales o 
sensoriales a largo plazo que, al interactuar con diversas barreras, puedan impedir su 
participación plena y efectiva en la sociedad, en igualdad de condiciones con las 
demás.”53 Como se puede visualizar, tanto la noción y los derechos establecidos en la 
CDPD se nutre de la filosofía del modelo social mediante una norma de nivel 
convencional que, en la actualidad, es la más importante del mundo. 
1.1.4. Derecho Internacional de los Derechos Humanos: Breve aproximación. 
 
Para entender los diferentes instrumentos de derechos humanos relativos a la IA, será 
vital conocer a grandes rasgos el funcionamiento del Derecho Internacional de los 
Derechos Humanos (En adelante, DIDH). Para efectos de mayor orden, nos 
enfocaremos en el DIDH desde la humanización delderecho internacional y no desde 
sus concepciones clásicas, donde las regulaciones y relaciones eran recíprocas entre 
Estados soberanos al ser estas los únicos sujetos del Derecho Internacional y los 
individuos se supeditaban, solamente, a la competencia exclusiva del Estado. Dejando 
de lado ese derecho internacional clásico, empezaremos con la Creación de la 
Organización de las Naciones Unidas, que se da post II Guerra Mundial y desde esta 
se instaura el Sistema Universal y, desde otros contextos, Regionales de Derechos 
Humanos. 
 
En principio el Sistema Internacional de Internacional de Derechos Humanos se divide 
en dos grandes sistemas o mecanismos: La extra-convencional y la convencional. El 
primer mecanismo tiene su fundamento jurídico en las Cartas Constitutivas y las 
Declaraciones correspondientes de cada sistema. En el caso de Naciones Unidas se 
basan en la Carta ONU54 y la Declaración Universal de Derechos Humanos (En 
adelante, DUDH)55 que establece un sistema mínimo obligatorio que los Estados 
miembros deben seguir para mantener la paz. Además, dentro de este marco están 
los instrumentos no convencionales. Este sistema resulta de vital importancia porque 
los estudios demuestran que entre 1972 y 1988 se han recibido en la secretaría 
350,000 denuncias de particulares a diferencia de las pocas quejas tramitadas por la 
vía convencional, desde 1976 hasta 2016, donde sólo existen 3420, además, de las 
actividades de los comités con competencia de recibir quejas individuales56. Por esta 
razón resulta importante conocer y analizar los órganos que se han creado en este 
sistema, porque concentra gran parte de la actividad de las denuncias. 
 
 
53 Artículo 1 de la Convención sobre los Derechos de las Personas con Discapacidad, Op. Cit. 
54 La Carta de las Naciones Unidas se firmó el 26 de junio de 1945 en San Francisco, Estados Unidos, y 
entró en vigor el 24 de octubre de 1945. 
55 La Declaración Universal de Derechos Humanos fue firmada y promulgada el 10 de diciembre de 1948 
en París, Francia, por la Asamblea General de las Naciones Unidas mediante Resolución Nº 217 A (III). 
56 VILLÁN DURÁN, C. y FALEH C., Manual de Derecho Internacional de los Derechos Humanos. XIII 
Master en Protección Internacional de los Derechos Humanos, Alcalá de Henares, 2016, p. 111, 
Disponible en http://aedidh.org/wp-content/uploads/2016/10/Manual-oct-2016-pdf.pdf (Última consulta 
12 de septiembre de 2022). 
http://aedidh.org/wp-content/uploads/2016/10/Manual-oct-2016-pdf.pdf
22 
 
Centrándonos en los órganos de las Naciones Unidas, en un primer momento existía 
la Comisión de Derechos Humanos (En adelante, Comisión DH) creado por el Consejo 
Económico y Social (En adelante, CES) en el año 1947 dentro de la facultad otorgada 
por el artículo 68 de la Carta ONU. Por consiguiente, la Comisión DH se encontraba 
dentro del CES y, debido a que no fue creado directamente por la Carta ONU, se 
discutió si era competente de revisar temas de Derechos Humanos. Este debate 
persistió por varios años hasta disiparse57. Sin embargo, la Comisión DH fue disuelto 
por el Consejo de Derechos Humanos (En adelante, Consejo de DH)58. 
 
Dentro del marco del Consejo de DH, encontramos diferentes competencias. El 
primero sería la creación o disolución de Mandatos Temáticos Universales (En 
adelante, MTU)59. Estos son dirigidos por Grupos de Trabajos, Relatores Especiales, 
Expertos, entre otros, y están facultados para elaborar informes públicos anuales, 
elaborar estudios públicos sobre la situación de derechos humanos sobre uno o varios 
países, realizar visitas in loco, hacer acciones urgentes, tramitar denuncias y recibir 
información. Sin embargo, sus dictámenes y/o recomendaciones no son sentencias, 
pero sí deben cumplirse en virtud de la Buena Fe y de las obligaciones de los Estados 
en materia de derechos humanos. En consecuencia, sus decisiones no son 
vinculantes a modo de sentencia. La segunda competencia del Consejo de DH son las 
creaciones de los Mandatos Territoriales Especiales (En adelante, M. Territ. E.) cuyo 
alcance no es universal y se limita a un país. El tercero se refiere a la dirección del 
Examen Periódico Universal (En adelante, EPU) de cada Estado en ciclos de 4 años. 
Finalmente, el Consejo de DH examina la situación de derechos humanos en el 
mundo. Estas cuatro competencias son reguladas por la Resolución 5/1 y 5/2 (2007) 
del Consejo de DH. 
 
Otro órgano del sistema extraconvencional es el Comité asesor del Consejo de DH 
que es un órgano técnico que reemplazó a la Sub-comisión de DH. Este Comité está 
conformado por 18 Expertos independientes. Por otro lado, también está el Alto 
Comisionado de las Naciones Unidas para los Derechos Humanos (En adelante, 
ACNUDH)60. Este órgano técnico-administrativo e independiente es conducido por un 
personal profesional permanente en Ginebra. Se reporta ante la Asamblea General de 
la ONU y asesora a la ONU en materia de derechos humanos. 
 
 
57 La postura respecto a la competencia de la Comisión DH sobre temas de derechos humanos fue muy 
variada. En primer lugar, el CES y la Comisión DH no se consideraban facultados para proteger los 
derechos humanos porque consideraban que eran asuntos internos. Sin embargo, luego de la Res. 2144 
(XXI) del 26 de octubre de 1966 en su acápite 12, la Asamblea General solicita que el CES y la Comisión 
DH protejan a los Derechos Humanos. Esta posición de la Asamblea General de la ONU se basaba en la 
interpretación del artículo 2.7 de la Carta ONU. Finalmente, mediante la Res. 1235 del CES adoptada en 
1967 se aprueba la competencia de la Comisión DH sobre materia de Derechos Humanos. 
58 La Comisión DH fue disuelto para ser reemplazado por el Consejo DH mediante la resolución 60/1 del 
16 de setiembre del 2005 y resolución 60/251 del 15 de marzo del 2006. Este Consejo de DH pasa a ser 
un órgano subsidiario de la Asamblea General de la ONU. 
59 Las competencias y métodos de los MTU han sido aprobado por el Consejo de DH y se puede 
visualizar mediante la Resolución 5/1 y 5/2 (2007). 
60 Creado por la Asamblea General de la ONU mediante Resolución 48/141 el día 20 de diciembre de 
1993. 
23 
 
El segundo mecanismo es el sistema convencional que se sustenta en los tratados de 
derechos humanos. Este sistema se basa por el principio del consentimiento. Es decir, 
cada Estado miembro decide voluntariamente en que tratado se obliga y se vuelve un 
Estado Parte de ese instrumento convencional. Dicho de otro modo, forma un vínculo 
de obligatoriedad sólo a los Estados que hayan ratificado o adherido un tratado en 
concreto61. En este sistema existen diferentes tratados de derechos humanos que son: 
a) Pacto Internacional de Derechos Civiles y Políticos62; b) Pacto Internacional de 
Derechos Económicos, Sociales y Culturales63; c) Convención Internacional sobre la 
eliminación de todas las formas de discriminación racial64; d) Convención para la 
eliminación de todas las formas de discriminación de la mujer65; e) Convención contra 
la Tortura y otros tratos o penas crueles, inhumanos o degradantes66; f) Convención 
sobre los Derechos del Niño67; g) Convención Internacional sobre la Protección de los 
Protección de los Derechos de Todos los Trabajadores Migratorios y de sus 
Familiares68; h) Convención Internacional para la Protección de Todas las Personas 
contra las Desapariciones Forzadas69; i) Convención Internacional sobre los Derechos 
de las Personas con Discapacidad70 y; j) Convención sobre la Imprescriptibilidad de los 
Crímenes de Guerra y de los Crímenes de Lesa Humanidad71. Cada una de ellas 
tendrán, generalmente, sus respectivos protocolos facultativos y comités. 
 
 
61 Esto proviene en virtud del artículo 26 de la Convención de Viena: “Todo tratado en vigor obliga a 
las partes y debe ser cumplido porellas de buena fe”; y el artículo 27 de la Convención de Viena: “Una 
parte no podrá invocar las disposiciones de su derecho interno como justificación del incumplimiento de 
un tratado (…).” 
62 Adoptado y abierto a la firma, ratificación y adhesión por la Asamblea General de las Naciones Unidas 
mediante su Resolución Nº 2200 A (XXI), del 16 de diciembre de 1966. El pacto entró en vigor el 23 de 
marzo de 1976, de acuerdo con su Artículo 9. 
63 Adoptado y abierto a la firma, ratificación y adhesión por la Asamblea General de las Naciones Unidas 
mediante su Resolución Nº 2200 A (XXI), del 16 de diciembre de 1966. El mismo pacto entró en vigor el 
3 de enero de 1976, de conformidad con su Artículo 27. 
64 Adoptada y abierta a la firma y ratificación por la Asamblea General de las Naciones Unidas mediante 
su Resolución Nº 2106 A (XX), del 21 de diciembre de 1965. El convenio entró en vigor el 4 de enero de 
1969, de conformidad con su Artículo 19. 
65 Adoptada y abierta a la firma, ratificación o adhesión por la Asamblea General de las Naciones Unidas 
mediante su Resolución Nº 34/180, del 18 de diciembre de 1979. El convenio entró en vigor el 3 de 
setiembre de 1981, de conformidad con su Artículo 27.1 
66 Adoptada y abierta a la firma, ratificación y adhesión por la Asamblea General de las Naciones Unidas 
mediante su Resolución Nº 39/46, del 10 de diciembre de 1984. El convenio entró en vigor el 26 de junio 
de 1987, de conformidad con su Artículo 27.1. 
67 Adoptada y abierta a la firma y ratificación por la Asamblea General de las Naciones Unidas mediante 
su Resolución Nº 44/25, de 20 de noviembre de 1989. El convenio entró en vigor el 2 de septiembre de 
1990, de conformidad con su Artículo 49. 
68 Aprobada y abierta a la firma, ratificación y adhesión por la Asamblea General de las Naciones Unidas 
mediante su Resolución Nº 45/158, del 18 de diciembre de 1990, en la ciudad de Nueva York, Estados 
Unidos. 
69 Aprobada y abierta a la firma, ratificación y adhesión por la Asamblea General de las Naciones Unidas 
mediante su Resolución Nº 61/177, del 20 de diciembre de 2006. 
70 Aprobada y abierta a la firma por la Asamblea General de las Naciones Unidas mediante su Resolución 
Nº 61/106, del 13 de diciembre de 2006, a partir del 30 de marzo de 2007. En vigor desde el 3 de mayo de 
2008. 
71 Adoptada y abierta a la firma, ratificación y adhesión por la Asamblea General de las Naciones Unidas 
mediante su Resolución Nº 2391 (XXIII), del 26 de noviembre de 1968. El convenio entró en vigor el 11 
de noviembre 
de 1970, de conformidad con su Artículo VIII. 
24 
 
Estos comités, creados –en su mayoría– por los mismos tratados, monitorean el 
cumplimiento de su convención mediante sus funciones. Estas suelen ser las 
siguientes: a) Recibir y examinar los informes de los Estados Partes sobre los avances 
en el cumplimiento del tratado y, teniendo en cuenta esta información, emitir una 
observación final; b) Elaborar las observaciones/comentarios generales que son guías 
para la interpretación de un determinado artículo del tratado y; c) Examinar las 
denuncias individuales por personas contra un Estado Parte y denuncias de un Estado 
Parte a otro. 
 
Por otro lado, también existen los organismos especializados que velan sobre temas 
determinados y específicos de derechos humanos. Estos fueron creados en virtud del 
artículo 57 de la Carta de las Naciones Unidas y también cuentan con un sistema 
extraconvencional y convencional. Esta división de dos grandes mecanismos también 
se repite en los Sistemas Regionales de Derechos Humanos. A manera de resumen, 
se detallará información esencial de estos sistemas regionales. 
 
 Nombre de la organización 
internacional 
Tratado 
constitutivo 
Fecha de adopción 
Sistema Europeo de 
Derechos Humanos 
Consejo de Europa Tratado de 
Londres 
5 de mayo de 1949 
Sistema Interamericano 
de Derechos Humanos 
Organización de los Estados 
Americanos 
Carta OEA 30 de abril de 1948 
Sistema Africano de 
Derechos Humanos 
Unión Africana (ex Unión de 
Estados Africanos) 
Carta 
Organización 
de la Unión 
Africana 
25 de mayo de 1963 
Organización que promueve derechos humanos que no forman parte de los Sistemas 
Regionales de Derechos Humanos. 
 Nombre Tratado 
constitutivo 
Fecha de adopción 
Organización 
supranacional 
Unión Europea72 Tratado de 
Maastricht73 
7 de febrero de 
1992 
Fuente: Elaboración propia. 
 
De esta manera, los Sistemas Regionales empezaron a establecer sus mecanismos, 
de igual forma que las Naciones Unidas, en extraconvencionales y un sistema de 
tratados de derechos humanos (convencional). 
 
72 Como bien se plasma en el cuadro, la Unión Europea no pertenece a los Sistemas Regionales de 
Derechos Humanos en sentido estricto. En otras palabras, es un organismo geopolítico internacional. Sin 
embargo, contribuye bastante en la proliferación de los derechos humanos que es importante tenerlo en 
cuenta, pero como una organización aparte. 
73 Existen otros tratados constitutivos anteriores, pero son de la Comunidad Económica Europea. 
25 
 
 
1.2. La Inteligencia Artificial y los Derechos Humanos. 
 
Luego de haber desarrollado las cuestiones previas para entender mejor los conceptos 
que versarán en la investigación, se realizará una recopilación y desarrollo cronológico 
por cada órgano que haya emitido instrumentos relativos a la IA dentro de un marco 
general en el Sistema Internacional de los Derechos Humanos. Después de ese 
desarrollo, se analizará los instrumentos internacionales de derechos humanos 
relacionados a la IA y discapacidad. 
 
1.2.1. El marco jurídico de la Inteligencia Artificial en el Derecho Internacional 
de los Derechos Humanos. 
Como se ha mencionado anteriormente, esta sección detallará cronológicamente y 
dividido por órganos sobre la regulación brindada, hasta en la actualidad, respecto a 
los usos de los sistemas de IA. Para ello se sistematizará los instrumentos del Sistema 
Universal de Derechos Humanos (en adelante, SUDH) y, después, los Sistemas 
Regionales de Derechos Humanos (Europeo, Interamericano y Africano). 
 
1.2.1.1. Sistema Universal de Derechos Humanos. 
 
Dentro del marco del SUDH que pertenece al Sistema de Naciones Unidas, 
encontramos instrumentos relativos a la IA que fueron emitidos por el ACNUDH. Uno 
de los más relevantes es el informe anual sobre el derecho a la privacidad en la era 
digital74. En este documento, del 13 de septiembre de 2021, nos menciona la 
importancia de regular la injerencia de los sistemas de IA en la vida privada y, en 
consecuencia, proteger el derecho a la privacidad. Esto resulta importante debido a la 
proliferación de la problemática que se suscita por la expansión de la recopilación de 
datos personales por los sistemas de IA. En consecuencia, el ACNUDH recomienda a 
los Estados que prohíban expresamente a todos los sistemas de IA que no estén 
acorde a los derechos humanos. Por otro lado, sobre las tecnologías de 
reconocimiento biométrico a distancia en los espacios públicos que no cumplan con 
las normas de privacidad y protección de datos, así como que también pueden 
provocar efectos discriminatorios, insta que se le apliquen una moratoria para el uso 
hasta que lo cumplan. En pocas palabras, la privacidad es el requisito central que 
recomienda que se instaure en la legislación referente a la IA. Por último, se menciona 
unos apartados referentes a la discriminación algorítmica respecto a la prevención de 
los efectos adversos de la IA y la creación de recursos efectivos para las víctimas de 
derechos humanos frente a los errores de la IA. Asimismo, promueve que se luche 
contra la discriminación provocado por la IA usado por el sector público y privado con 
el fin de evitar sesgos y garantizar el respeto de la diversidad75. 
 
74 Alto Comisionado de las Naciones Unidas para los Derechos Humanos, Informe

Continuar navegando