Logo Studenta

20200821Retosticosdelainteligenciaartificialenelprocesojudicial

¡Este material tiene más páginas!

Vista previa del material en texto

1 
Retos éticos de la inteligencia artificial en el proceso judicial 
 
Por: Juan David Gutiérrez Rodríguez1 
 
21 de agosto de 2020 
 
Resumen: Este texto analiza las implicaciones éticas del uso de tecnologías con inteligencia 
artificial en los procesos judiciales con énfasis en el caso de Colombia. El documento 
comienza por precisar qué es la inteligencia artificial y el aprendizaje automatizado. En la 
segunda sección el texto identifica qué tiene de especial la inteligencia artificial - como 
herramienta tecnológica - desde el punto de vista del derecho.. Específicamente esta 
sección discute qué implicaciones o riesgos genera la inteligencia artificial como 
herramienta para los procesos judiciales. En la tercera sección el texto aborda los retos 
éticos del uso de la inteligencia artificial en los procesos judiciales en Colombia. En dicha 
sección se estudian tres tipos de dilemas éticos que deberían ser tenidos en cuenta por 
todos los actores interesados en el buen funcionamiento de los sistemas judiciales: i) sesgos 
que derivan en prácticas discriminatorias, ii) falta de transparencia y iii) limitaciones en la 
rendición de cuentas. La última sección resume las principales conclusiones del texto y 
señala algunos temas y retos futuros que ameritan futuros estudios. 
 
Palabras clave: Inteligencia Artificial, Ética, Justicia, Colombia 
 
Introducción 
 
“¡Que se joda el algoritmo!” Esta fue una de las arengas de los cientos de estudiantes de 
último grado de colegio del Reino Unido congregados frente al Departamento de Educación 
para protestar contra los resultados arrojados por un nuevo programa computacional 
 
1 PhD en política pública de la U. de Oxford. Profesor de cátedra en la U. de los Andes. Socio en Avante 
Abogados. Ponencia preparada para el XLI Congreso Colombiano de Derecho Procesal, septiembre de 2020. 
 2 
implementado por el gobierno para controlar sus notas finales de bachillerato.2 Lo que 
estaba en juego no era menor, los resultados afectados por el algoritmo podrían dejar a 
miles de estudiantes sin un lugar en la universidad. 
 
El origen de esta historia comienza como muchas otras del 2020: con la pandemia como 
protagonista. Como el COVID-19 impidió la realización de los exámenes finales de 
secundaria, el gobierno decidió implementar un algoritmo de estandarización con el fin de 
controlar los resultados académicos que habían sido asignados por los profesores de los 
propios alumnos. El algoritmo bajó la calificación a casi el 40% de los estudiantes y hay 
evidencia inicial de que los resultados estaban sesgados por factores socio-económicos; es 
decir, el algoritmo tendió a reducir la nota a estudiantes que provenían de entornos menos 
favorecidos y que no estudiaron en escuelas privadas.3 
 
Aprovecho esta historia para atraer al lector porque la anécdota desnuda muchos de los 
retos éticos4 que puede implicar el uso de tecnologías con inteligencia artificial en los 
asuntos públicos, como lo son los procesos judiciales. El “fiasco de las calificaciones” en el 
 
2 La arenga original en Inglés, de difícil traducción al Castellano fue: “fuck the algorithm”. Un video que registra 
la protesta del 17 de agosto de 2020 está disponible acá: 
https://twitter.com/HUCKmagazine/status/1294985562106015750?s=20. 
3 Pare entender el contexto, véase: Black, B. .(2020). “Exploring the potential use of AI in marking”. Ofqual 
Blog. Disponible en: https://ofqual.blog.gov.uk/2020/01/09/exploring-the-potential-use-of-ai-in-marking/. 
Jadhav, C. (2020). “Fairness in awarding”. Ofqual Blog. Disponible en: 
https://ofqual.blog.gov.uk/2020/08/06/fairness-in-awarding/. Ferguson, D. y Savage, M. (2020). 
“Controversial exams algorithm to set 97% of GCSE results”. The Guardian, 15 de agosto de 2020. Disponible 
en: https://www.theguardian.com/education/2020/aug/15/controversial-exams-algorithm-to-set-97-of-
gcse-results. Adams, R. y McIntyre, N. (2020). “England A-level downgrades hit pupils from disadvantaged 
areas hardest”. The Guardian, 13 de agosto de 2020. Disponible en: 
https://www.theguardian.com/education/2020/aug/13/england-a-level-downgrades-hit-pupils-from-
disadvantaged-areas-hardest. Hern, A. (2020). “Do the maths: why England's A-level grading system is 
unfair”. The Guardian, 14 de agosto de 2020. Disponible en: 
https://www.theguardian.com/education/2020/aug/14/do-the-maths-why-englands-a-level-grading-
system-is-unfair. 
4 ¿A qué ética me refiero? En este caso a una “ética aplicada” que evalúa lo que los seres humanos estamos 
obligados moralmente a hacer en determinada situación. En ese sentido, acojo la siguiente definición del 
“Grupo de expertos de alto nivel sobre inteligencia artificial” de la Comisión Europea: “La ética aplicada se 
ocupa de situaciones de la vida real, en las que es necesario tomar decisiones bajo limitaciones de tiempo y, a 
menudo, de racionalidad. La ética de la inteligencia artificial se considera generalmente un ejemplo de la ética 
aplicada que se centra en los problemas normativos que plantea el desarrollo, despliegue y utilización de la 
IA” (AI HLEG 2019, 49). 
 3 
Reino Unido pone de presente preguntas cruciales para evaluar la implementación de este 
tipo de tecnologías en los procesos estatales: ¿Quién escribe los códigos? ¿Se trata de un 
equipo no solo idóneo técnicamente sino también diverso y plural? ¿Hay suficiente 
transparencia en los procesos del algoritmo?¿Qué sesgos contiene el algoritmo y las bases 
de datos a partir de las cuales este toma decisiones? ¿La implementación del algoritmo 
genera resultados discriminatorios? ¿Quién es el responsable? 
 
Obviamente, no podríamos apreciar la luna a cabalidad si solo nos enfocáramos en su “lado 
oscuro”. En los últimos años, las tecnologías de IA han contribuido a incrementar la 
eficiencia y efectividad de las organizaciones – públicas y privadas – que las utilizan para 
tomar decisiones o que las incorporan a sus procesos y servicios. Estas tecnologías han 
incrementado la competitividad de empresas y podrían tener promisorias aplicaciones en 
el campo de la medicina y la lucha contra el cambio climático (Kelleher & Tierney, 2018). 
Estas tecnologías tienen la potencialidad de mejorar muchos aspectos de nuestras vidas y 
de transformar positivamente nuestras sociedades y economías (European Commission, 
2018, 2019a, 2019b). 
 
Sí, las IA ofrecen beneficios concretos para gobiernos y empresas, pero sus efectos no 
deseados o sus implicaciones de largo para la sociedad ameritan estudiarlas integralmente. 
En el ejemplo que abre este texto, el algoritmo usado por el gobierno británico simplemente 
implementaba un modelo estadístico que buscaba estandarizar los resultados académicos 
de los estudiantes. Es decir, ni siquiera se trataba de un algoritmo dotado de inteligencia 
artificial. Los riesgos en el caso de algoritmos que sí tienen capacidad para tomar decisiones 
automatizadas son aún mayores. 
 
Este texto comienza por precisar qué es la inteligencia artificial y el aprendizaje 
automatizado. En la segunda sección el texto identifica qué tiene de especial la inteligencia 
artificial - como herramienta tecnológica - desde el punto de vista del derecho. 
Específicamente esta sección discute qué implicaciones o riesgos genera la inteligencia 
artificial como herramienta para los procesos judiciales. En la tercera sección el texto 
 4 
aborda los retos éticos del uso de la inteligencia artificial en los procesos judiciales en 
Colombia. La última sección resume las principales conclusiones del texto y señala algunos 
temas y retos futuros que ameritan futuros estudios. 
 
1. ¿Qué es la inteligencia artificial? 
 
El término “inteligencia artificial” (en adelante IA) fue introducido por John McCarthy en 
1956, a propósito de un taller que organizó junto con un grupo de investigadores en 
Dartmouth College y que buscaba explorar el trabajo de Alan Turing sobre aprendizajeautomatizado (machine learning) (Ertel, 2017; Kelleher & Tierney, 2018; Mitchell, 2019; 
Webb, 2019). Una de las primeras definiciones de IA fue propuesta por McCarthy: “El 
objetivo de la IA es desarrollar máquinas que se comportan como si fueran inteligentes” 
(Ertel, 2017). 
 
Desde entonces, diferentes definiciones han sido planteadas, que complejizan el concepto, 
y estas han ido evolucionando a la par con la disciplina sobre IA. Una manera sencilla de 
entender la IA es como un sistema que toma decisiones automatizadas y que imita la 
inteligencia humana (Webb, 2019).5 En términos similares, la Comisión Europea 
recientemente definió la IA como “sistemas que muestran un comportamiento inteligente 
al analizar su entorno y tomar acciones, con cierto grado de autonomía, para lograr 
objetivos específicos” (European Commission, 2018, p. 2). 
 
Así como el concepto de inteligencia artificial aparece a mediados del siglo pasado, también 
es justo decir que la humanidad lleva mucho tiempo pensando en la automatización y en 
tratar de lograr que un objeto diferente a los seres humanos tenga capacidad de razonar o 
de pensar. Eso incluso llevó a muchos filósofos a escribir largos tratados sobre qué es 
 
5 La IA como área del investigación, según Ertel (2017), busca entender la inteligencia y construir sistemas 
inteligentes. 
 5 
pensar, razonar, pensamiento, para poder saber si hay inteligencia en otro ser (Webb, 
2019). 
 
El primer aparato automatizado apareció a mediados del siglo XVI: un monje de madera que 
se mueve impulsado con un mecanismo interno propio de los relojes de la época.6 Otro 
ejemplo de ese anhelo de automatización es el primer semáforo que se instaló enfrente del 
parlamento británico en 1868. Ese semáforo lo operaba un policía, entonces no era 
automatizado. Sin embargo, en 1920 instalaron el primer semáforo que operaba 
automáticamente, con las luces como lo vemos hoy, y a ese semáforo lo llamaron policía 
robot. Actualmente, ciudades del mundo cuentan con sistemas de IA que les permite regular 
el tráfico de manera dinámica; por ejemplo, los algoritmos que regulan los semáforos le dan 
prioridad a determinados flujos a lo largo del día (Kelleher & Tierney, 2018). 
 
Pero no toda máquina automatizada ni todo computador está dotado IA. Que un 
computador tenga mayor capacidad de procesamiento y memorización de información que 
un humano no lo convierte en un sistema de IA. Precisamente, uno de los aportes de Alan 
Turing en el campo de la AI, a mediados de siglo XX, fue el desarrollo de una prueba que 
buscaba identificar si una máquina exhibía un comportamiento que permitiera calificarla 
como una “máquina inteligente”, indistinguible de un ser humano (Ertel, 2017). De la misma 
forma, no todo programa computacional convierte la máquina en un sistema de IA. Hay 
algoritmos tradicionales que no tienen inteligencia artificial basados en modelos 
previamente definidos por el programador y que establecen las órdenes que debe seguir el 
computador para resolver un problema. Por ejemplo, el código puede estar formulado en 
términos de órdenes condicionales tipo “si pasa A entonces B” (if then), y el algoritmo opera 
bajo la arquitectura de un árbol de decisiones predefinido; ahí no hay aprendizaje, no hay 
 
6 Un video del monje automatizado que hace parte de la colección del Museo Nacional de Historia Americana 
en Estados Unidos está disponible acá: 
https://www.youtube.com/watch?time_continue=1&v=kie96iRTq5M&feature=emb_title. Más información 
sobre este precursor de los robots contemporáneos está disponible en la página web del museo: 
https://americanhistory.si.edu/collections/search/object/nmah_855351. 
 6 
razonamiento, la máquina simplemente ejecuta instrucciones y reglas diseñadas por el 
programador. 
 
En este texto entenderemos las herramientas con tecnología de IA como aquellas que 
cuenta con sistemas de toma decisiones automatizadas, que imitan la inteligencia humana 
y que – en algunos casos – están dotadas de la capacidad de aprender por sí mismas vía 
procesos iterativos de ensayo y error. En el contexto de la IA, el término “aprendizaje 
automatizado” (machine learning) fue usado inicialmente para describir aquellos 
“programas que le dan a un computador la habilidad de aprender de los datos”(Kelleher & 
Tierney, 2018, p. 13). Lo que distingue a los aparatos dotados de esta capacidad es que sus 
“algoritmos son capaces de analizar automáticamente una gran cantidad de conjuntos de 
datos para extraer patrones que potencialmente son interesantes y útiles” (Kelleher & 
Tierney, 2018, p. 14).7 
 
Actualmente, compañías basadas principalmente en Estados Unidos y en China, invierten 
billones de dólares en crear “agentes inteligentes” que sean capaces de resolver todo tipo 
de problemas y realizar tantas tareas diferentes como sea posible (Ertel, 2017; Webb, 
2019). El anhelo de la automatización y de las máquinas inteligentes también llegó al ámbito 
de lo jurídico. De hecho la IA ya se utiliza en diferentes asuntos de la justicia del quehacer 
de los abogados. 
 
Quizá una de las primeras aplicaciones que se le ha dado a la IA en contextos de procesos 
judiciales, es la relacionada con la predicción de “reincidencia” de cometer crímenes en 
Estados Unidos (Kelleher & Tierney, 2018; Webb, 2019). En ese sentido, en los tribunales 
en Estados Unidos está creciendo el uso de algoritmos para decidir sobre la imposición de 
medidas cautelares privativas de la libertad (Ramachandran, 2017). En China también se 
han desarrollado más de 100 chatterbots que asesoran a los tribunales y que responden 
preguntas puntuales sobre asuntos litigiosos (Flórez Rojas & Vargas Leal, 2020). También 
 
7 Como área del conocimiento, el machine learning es “el campo de estudio que desarrolla los algoritmos que 
los computadores usan para identificar y extraer patrones de los datos” (Kelleher & Tierney, 2018, p. 97). 
 7 
en el ejercicio profesional del derecho se está experimentando con IA, puntualmente para 
la realización de debidas diligencias y la revisión de contratos. ¿Pero qué problemas puede 
crear o exacerbar el uso de herramientas de IA en el contexto de las labores jurídicas? La 
próxima sección explica los riesgos asociados con las IA a partir de las características 
básicas de estas tecnologías. 
 
2. Lo que hace especial a la IA en relación con las labores jurídicas 
 
Antes de caracterizar qué hace a las tecnologías con IA especiales para el ámbito del 
derecho, es conveniente abordar primero un mito asociado a este tipo de herramientas y -
en general- con la ciencia de los datos: su supuesta objetividad e infalibilidad por basarse en 
modelos matemáticos y conjuntos de datos.8 Los datos son producto de la abstracción 
humana, son una representación imperfecta del mundo, no una descripción objetiva del 
mismo. En palabras de Kelleher & Tierney (2018, p. 46), los datos “siempre son parciales y 
sesgados” y los algoritmos que operan a partir de dicha información no funcionan de forma 
“objetiva”. 
 
La popularización de las IA las ha llevado afectar diferentes ámbitos del trabajo y de la vida 
de las personas. Pero este texto se centra en sus implicaciones en un espacio específico: el 
procedimiento judicial. Para tal efecto, es pertinente identificar que es lo que tiene de 
especial las herramientas de inteligencia artificial frente a otras tecnologías que hace años 
se utilizan en los sistemas judiciales (como el uso de computadores para almacenar, 
clasificar y publicar información). 
 
Lo que hace especial la IA no son sus ingredientes individualmente considerados, sino el 
“cóctel” de ingredientes que componen los aparatos con inteligencia artificial. Un informe 
reciente del grupo de expertos organizado por la Comisión Europea, para analizar las 
 
8 La “ciencia de los datos” consiste en los “principios, definiciones de problemas, algoritmos, y procesos quebuscan extraer patrones no obvios y útiles de grandes conjuntos de datos” (Kelleher & Tierney, 2018, p. 1). 
 8 
implicaciones de la Inteligencia artificial para los regímenes responsabilidad civil de la 
Unión Europea, identificó las siguientes siete características: i) Complejidad, ii) Opacidad, 
iii) Autonomía, iv) Predictibilidad, v) Dependencia de los datos, vi) Apertura y vii) 
Vulnerabilidad. 
 
A continuación explicaré, a partir de los ingredientes identificados por el reporte de equipo 
de expertos de la Comisión Europea, por qué estas características son particularmente 
importantes para entender las implicaciones éticas de las IA en el derecho y puntualmente 
en los procesos judiciales. 
 
2.1 Complejidad, Autonomía y Opacidad 
 
Los sistemas de IA están compuestos por diferentes partes que están interconectadas y que 
tienen una alta sofisticación técnica; hoy en día un chip del tamaño de una uña puede 
almacenar información que hace treinta años no hubiera cabido en un edificio de 
computadores. Además, los componentes pueden estar interconectados con componentes 
de terceros que interactúan entre sí, por ejemplo, intercambiando información.9 La 
complejidad de los sistemas de IA van de la mano con el gran volumen de datos que 
producimos. Según Kelleher & Tierney (2018, p. 8), desde la invención de la escritura (hace 
cinco milenios) hasta el 2003, la humanidad produjo alrededor de 5 exabytes; “desde 2003, 
la humanidad genera esa misma cantidad de información cada día”. 
 
Por otra parte, los algoritmos dotados de capacidad para el aprendizaje automatizado 
generan resultados a partir de procesos internos que no son trazables y que son 
desconocidos por sus propios programadores. Debido a que los sistemas de IA tienen 
capacidad de aprendizaje automatizado pueden modificar los algoritmos inicialmente 
 
9 Un ejemplo son los vehículos autónomos que están conectados con: i) otros vehículos a su alrededor; ii) con 
un sistema central de información; iii) con un sistema que proviene de la infraestructura de la carretera. 
Entonces por lo menos con esas tres diferentes fuentes estará interconectado todo el tiempo un vehículo 
autónomo para poder funcionar óptimamente en ese ecosistema digital. 
 9 
preinstalados porque precisamente van aprendiendo a partir de información externa que 
van recolectando (European Commission, 2019b). 
 
Amy Webb (2019) explica que los investigadores que desarrollan este tipo de tecnologías 
con frecuencia no saben cómo sus máquinas están tomando decisiones, optimizando sus 
operaciones, obteniendo resultados o generando predicciones. Esta inhabilidad para trazar 
en tiempo real los procesos de decisión de estos sistemas de IA es conocido como el 
problema de la “caja negra”.10 A pesar de que equipos de investigadores han tratado de 
hacer ejercicios de “ingeniería inversa” a los resultados arrojados por estos sistemas – con 
el fin de trazar los procesos y hacer más transparente la IA – los resultados han sido muy 
limitados (Webb, 2019). 
 
2.2 Predictibilidad y Autonomía 
 
Los sistemas de IA pueden tomar decisiones sin control o monitoreo humano; de hecho, 
para eso mismo se están desarrollando, para que puedan operar de esa manera. Esta 
autonomía está apalancada por su propio aprendizaje y – como se explicó arriba - con 
frecuencia toman decisiones o arrojan predicciones cuyos fundamentos no conoce ni puede 
entender ni si quiera su propio creador (European Commission, 2019b). 
 
La autonomía para operar de estas tecnologías gracias a su capacidad para el aprendizaje 
automatizado junto con su capacidad para conectarse a otras fuentes externas de 
información hace más difícil de predecir los resultados que producirán. Según el grupo de 
expertos de la Comisión Europea: “Cuantos más sistemas de datos externos sean capaces 
de procesar y cuanto más sofisticada sea la IA, más difícil será prever el impacto preciso que 
tendrán estos sistemas una vez entran en funcionamiento” (European Commission, 2019b, 
p. 33). 
 
10 En el mismo sentido el reporte del grupo de expertos de la Comisión Europea afirmó: “Con frecuencia, los 
algoritmos no son creados como códigos fácilmente legibles, sino como una caja negra que ha evolucionado a 
través del autoaprendizaje y que somos ser capaces de probar en cuanto a sus efectos, pero no comprenderlo” 
(European Commission, 2019b, 33). 
 10 
 
La menor predictibilidad de las herramientas de IA a medida que se tornan más complejas 
y dependientes de datos externos (de terceros), puede socavar un objetivo de todo Estado 
de Derecho y una aspiración legítima de quienes están sometidos a la ley: la seguridad 
jurídica respecto de la aplicación de la ley. 
 
2.3 Dependencia de los datos, Apertura, y Vulnerabilidad tecnológica 
 
Arriba advertimos que con frecuencia los sistemas de IA dependen de datos externos (de 
terceros) para operar. A diferencia de otras herramientas, cuando se pone en marcha un 
sistema de IA por diseño este no está “finalizado” sino que su funcionamiento puede 
cambiar a medida que se le introduzcan nuevos componentes, que tenga acceso a nuevas 
fuentes de datos o como consecuencia de su interacción con otros sistemas de IA (European 
Commission, 2019b). 
 
Esa “apertura por diseño” puede generar riesgos o vulnerabilidades adicionales en la 
operación de las herramientas de IA. Por ejemplo, los datos, que pueden provenir de 
fuentes externas, pueden estar corruptos o contener fallas, o pueden ser incompletos y 
sesgados (European Commission, 2019b). 
 
Las consecuencias de una herramienta defectuosa en el marco de un proceso judicial y que 
pueden influir en las resultas del mismo son evidentes. En este punto, quizá vale la pena 
preguntar: ¿Qué estándar de seguridad debería esperarse de este tipo de sistemas? Una 
fuente de inspiración para responder a este desafío lo ofrece la implementación de las 
normas sobre protección de datos personales en Colombia. Uno de los principios en la 
interpretación y aplicación de la ley de protección de datos personales es el “principio de 
seguridad”, según el cual el tratamiento de la información deberá manejarse “con las 
medidas técnicas, humanas y administrativas que sean necesarias para otorgar seguridad a 
 11 
los registros evitando su adulteración, pérdida, consulta, uso o acceso no autorizado o 
fraudulento.”11 
 
Exigir respecto de los sistemas de IA que se utilicen en el marco de un proceso judicial que 
sean “seguros” no equivale a esperar que las herramientas sean infalibles. Quizá ninguna 
herramienta lo sea. Lo que se espera es que quien utilice un sistema de IA para su propio 
beneficio es que las medidas de seguridad implementadas sean "robustas", lo cual implica 
adoptar correctivos oportunos y eficaces. Tomando prestada la doctrina de la 
Superintendencia de Industria y Comercio sobre la seguridad en el contexto del 
tratamiento de datos personales, se advierte que un sistema es robusto cuando inlcuye 
“mecanismos para: identificar con precisión y rapidez las vulnerabilidades que necesitan 
corrección; implementar las correcciones adecuadas para que las vulnerabilidades que se 
presenten se corrijan de forma expedita; y verificar que las vulnerabilidades hayan sido 
corregidas."12 
 
3. Tres retos éticos que plantea el uso de IA en los procesos judiciales en Colombia 
 
En Colombia, la Delegatura para los Procedimientos Mercantiles de la Superintendencia de 
Sociedades y la Fiscalía General de la Nación fueron pioneras en el uso de algoritmos para 
el ejercicio de sus funciones. En el caso de la Superintendencia de Sociedades, a finales de 
2018, se implementó un algoritmo tipo chatterbot13 que denominó Siarelis (“Sistema con 
bases de Inteligencia Artificial para la Resolución de Litigios Societarios”). Según explicó la 
Superintendencia el algoritmo, que fue desarrollado internamente, está programado para 
recibir preguntasde los funcionarios judiciales sobre los hechos del caso y responder con 
 
11 Artículo 4, literal g) de la Ley 1581 de 2012. 
12 Superintendencia de Industria y Comercio, Resolución 21478 de 2019, Hoja 3. Disponible en: 
https://www.sic.gov.co/sites/default/files/files/Proteccion_Datos/actos_administrativos/Res%2021478.pdf 
13 Sobre los diferentes tipos de chatterbots, véase Ertel (2017, pp. 66–69). 
 12 
una opinión sobre las pretensiones y casos relevantes.14 Además Siarelis actualmente 
también está disponible para usuarios que quieran hacer consultas sobre litigios 
societarios. Sin embargo, la propia Superintendencia advierte que “este sistema no profiere 
decisiones judiciales ni pretende sustituir las decisiones del juez o indicarle el sentido en 
que habrá de emitirlas”.15 
 
Por su parte, en mayo de 2019 la Fiscalía General de la Nación empezó pilotear una 
herramienta denominada PRISMA (“Perfil de Riesgo para la Solicitud de Medidas de 
Aseguramiento”). Como su nombre lo sugiere, el objetivo de PRISMA es analizar datos de 
millones de personas con el fin de predecir el riesgo de reincidencia de un sujeto procesal 
respecto de la cual un fiscal debe decidir si solicitar ante los jueces una medida de 
aseguramiento privativa de la libertad. El economista Daniel Mejía lideró ese piloto del 
proyecto PRISMA, cuya preparación había comenzado a mediados de 2018, y advirtió que 
el proyecto requería “una evaluación rigurosa de su impacto” y que debía estar sometida al 
escrutinio público.16 
 
Hay más proyectos17 que aspiran a utilizar herramientas de IA, como el sistema PRETORIA 
(anteriormente denominado Prometea), que busca contribuir con la función de apoyar y 
optimizar el “el proceso de selección, análisis y estructuración de las sentencias de tutela 
para revisión de la Corte Constitucional”.18 En su lanzamiento, la Corte advirtió 
 
14 El comunicado de prensa de la de la Superintendencia de Sociedades está disponible acá: 
https://www.supersociedades.gov.co/Noticias/Paginas/2018/Supersociedades-el-primer-juzgado-de-
Am%C3%A9rica-Latina-en-contar-con-un-robot-asistente.aspx. 
15 Los usuarios pueden acceder Siarelis a través del siguiente enlace: 
http://www.supersociedades.gov.co/delegatura_mercantiles/Paginas/siarelis.aspx. 
16 Escobar, José David (2019). “Prisma: el programa de la Fiscalía para predecir la reincidencia criminal”. El 
Espectador, 21 de junio de 2019. Disponible en: https://www.elespectador.com/noticias/judicial/prisma-el-
programa-de-la-fiscalia-para-predecir-la-reincidencia-criminal/. 
17 Recomiendo el análisis de Flórez Rojas & Vargas Leal (2020) sobre cuatro herramientas de IA desarrolladas 
en el sector público colombiano: “Watson” en la Fiscalía General de la Nación, “Prometea” en la Corte 
Constitucional, “Océano” en la Contraloría General de la República y “Sofía” en la Dirección de Impuestos y 
Aduanas Nacionales. 
18 El comunicado de prensa de la Corte Constitucional de julio 27 de 2020, titulado “PRETORIA, un ejemplo 
de incorporación de tecnologías de punta en el sector justicia”, está disponible en: 
https://www.corteconstitucional.gov.co/noticia.php?PRETORIA,-un-ejemplo-de-incorporaci%C3%B3n-de-
tecnolog%C3%ADas-de-punta-en-el-sector-justicia-8970. 
 13 
expresamente que PRETORIA no reemplazará a los funcionarios judiciales sino que busca 
“disminuir los tiempos de análisis y clasificación de la información”.19 
 
De tal manera que en Colombia el uso de IA en la justicia está a la vuelta de la esquina, 
analizar y discutir en la arena pública los riesgos y retos éticos de su implementación es una 
tarea urgente. Permítanme en insistir en el contexto del reto, para no nos quedemos 
observando el árbol cuando tenemos en frente al bosque. En 2014, Stephen Hawking 
afirmó que “El desarrollo de la inteligencia artificial completa podría significar el fin de la 
raza humana” (Mitchell, 2019, p. 12). Esta visión contrasta con la visión utópica de las 
grandes empresas de tecnología de Silicon Valley (ej. proyecto Singularity de Google) que 
apuestan por lograr que los computadores sean “más inteligentes” que los humanos en el 
futuro cercano. El futuro seguramente se encuentra en un punto intermedio entre esta dos 
visiones extremas sobre las implicaciones de la IA para la humanidad. 
 
Este texto ha explicado que así como el uso de IA promete beneficios significativos para la 
sociedad, también puede potenciar o generar nuevos riesgos de grandes proporciones. Lo 
anterior ha sido reconocido por los propios jugadores globales del sector que actualmente 
están desarrollando este tipo de herramientas. Por ejemplo, en el 2018, Microsoft presentó 
su informe anual ante Comisión de Bolsa y Valores de los Estados Unidos (Securities 
Exchange Commission) en el cual reportó – entre otros - sobre los riesgos de la compañía. En 
este informe, Microsoft declaró el siguiente riesgo respecto de las IA: 
 
“Asuntos relativos al uso de inteligencia artificial en nuestras ofertas pueden 
resultar en daños a la reputación o responsabilidad. Estamos incorporando IA en 
muchas de nuestras ofertas y esperamos que este elemento de nuestro negocio 
crezca. Visualizamos un futuro en el que la inteligencia artificial que opera en 
nuestros dispositivos, aplicaciones y la nube ayude a nuestros clientes a ser más 
productivos en su trabajo y en su vida personal. Como ocurre con muchas 
 
19 Ibídem. 
 14 
innovaciones disruptivas, la IA presenta riesgos y desafíos que podrían afectar su 
adopción y, por lo tanto, nuestro negocio. Los algoritmos de IA pueden tener fallas. 
Los conjuntos de datos pueden ser insuficientes o contener información sesgada. 
Las prácticas de datos inapropiadas o controvertidas de Microsoft u otros podrían 
afectar la aceptación de las soluciones de IA. Estas deficiencias podrían socavar las 
decisiones, predicciones o análisis que producen las aplicaciones de IA, 
sometiéndonos a daños competitivos, responsabilidad legal y daños a la marca o la 
reputación. Algunos escenarios de IA presentan problemas éticos. Si habilitamos u 
ofrecemos soluciones de inteligencia artificial que son controvertidas debido a su 
impacto en los derechos humanos, la privacidad, el empleo u otros problemas 
sociales, es posible que experimentemos daños a la marca o la reputación.”20 
 
Cuando uno adquiere un equipo electrónico nuevo, es prudente echarle un vistazo al 
manual de instrucciones, no solo para usarlo adecuadamente sino para entender sus 
riesgos. Algo similar se requiere en relación con las herramientas de IA que se planean 
adoptar para los procesos judiciales y – en general – para los asuntos públicos. 
 
La importancia de la IA como activo estratégico al tiempo que la envergadura de los riesgos 
y las implicaciones éticas de su utilización han incentivado a los gobiernos a estudiar qué 
requerimientos legales y éticos deben fijarse para las IA. Este es el caso de la Comisión 
Europea que está preparando una propuesta de legislación comunitaria para establecer 
este tipo de requerimientos a partir de un enfoque de tecnologías de IA centradas en el los 
seres humanos (human-centric AI).21 Es decir, un enfoque que pone a las personas en su 
centro y que reconoce que “la IA no es un fin en sí misma, sino una herramienta que debe 
servir a las personas con el objetivo final de aumentar el bienestar humano” (European 
Commission, 2019a, p. 1). 
 
 
20 El informe presentado por Microsoft a la Comisión (formulario 10K) de 2018 está disponible acá: 
https://www.sec.gov/Archives/edgar/data/789019/000156459018019062/msft-10k_20180630.htm. 
21 Mayor información sobre la consulta de la Comisión Europea está disponible en: 
https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12527. 
 15 
Recientemente, el gobierno Colombiano – a través del Departamento Nacional de 
Planeación – abrió una consulta pública sobre un documento para discusión titulado 
“Marco éticopara la inteligencia artificial en Colombia” (Guío, 2020). En este documento de 
consulta, Guío (2020, p. 7) reconoce que el uso de sistemas de IA en la justicia puede generar 
“prácticas discriminatorias, injustas y con implicaciones sociales no deseables.” 
 
En la anterior sección de este texto se advirtió sobre riesgos puntuales que pueden afectar 
los procesos judiciales, incluyendo las potenciales discriminaciones mencionadas por Guío 
(2020). En esta sección desarrollo con más detalle tres ejemplos de dilemas éticos que 
deberían ser tenidos en cuenta por todos los actores interesados en el buen 
funcionamiento de los sistemas judiciales: i) sesgos que derivan en prácticas 
discriminatorias, ii) falta de transparencia y iii) limitaciones en la rendición de cuentas. 
 
3.1 Discriminación 
 
El primer gran reto ético es prevenir que las IA contribuyan a que los jueces tomen 
decisiones sesgadas de manera sistemática. Tanto las bases de datos como el algoritmo 
pueden presentar sesgos que perjudiquen a determinadas poblaciones o comunidades. A 
continuación explicaré diferentes razones por las cuales se pueden generar los sesgos. 
 
Qué información utiliza la herramienta de IA influye en los resultados. Si las bases de datos 
están sesgadas, no sorprende que los resultados o predicciones de la IA también lo estén. 
Como explican Kelleher & Tierney (2018, p. 191), “si los datos codifican una relación 
prejuiciosa en la sociedad, es probable que el algoritmo identifique este patrón y base sus 
resultados en el patrón.” En otras palabras, las IA pueden reproducir formas de 
discriminación que subyancen en la sociedad. Luego el reto ético no es simplemente evitar 
que los programadores introduzcan conscientemente sesgos en los algoritmos sino 
 16 
también evitar que las herramientas de IA reflejen los sesgos implícitos de sus diseñadores 
y de la sociedad.22 
 
Que el sistema de IA pueda acceder a mayores fuentes de información no necesariamente 
significa mejores resultados. “Incluir muchos atributos en un conjunto de datos aumenta la 
probabilidad de que un algoritmo encuentre patrones irrelevantes o espurios en los 
datos…” (Kelleher & Tierney, 2018, p. 41). Por lo tanto, es necesario que haya absoluta 
transparencia sobre el origen y calidad de los datos de las bases de datos y el 
funcionamiento del algoritmo. 
 
En los últimos años ha emergido una literatura que ha advertido sobre los riesgos arriba 
mencionados a partir de la experiencia internacional en el uso algoritmos e inteligencia 
artificial en sistemas judiciales. Por ejemplo, Kehl, Guo & Kessler (2017) estudiaron el uso 
algoritmos usados como herramientas de análisis de riesgos por los jueces en Estados 
Unidos como insumo para proferir sentencias sobre asuntos criminales. Los autores 
discuten estudios que identificaron que algunas de estas herramientas no eran fiables y que 
tendían a discriminar racialmente (a pesar de que el modelo no incluía oficialmente la 
variable raza). 
 
Además, la interconexión de los sistemas de IA para evaluar el riesgo de reincidencia 
criminal con otras herramientas de IA que buscan predecir dónde y cuándo pueden ocurrir 
determinados crímenes puede reforzar los sesgos del primer tipo de sistema. 
Puntualmente, en Estados Unidos, los estudios de ProPublica han encontrado que las 
herramientas de IA implementadas tienden a sobrestimar la probabilidad de que un Afro-
Americano cometiera un crimen en el futuro mientras que subestiman que ello ocurra 
respecto de una persona blanca (Kehl et al., 2017; Kelleher & Tierney, 2018; Webb, 2019). 
Como explican Kelleher & Tierney (2018, p. 195): 
 
 
22 Según la ley de Conway, propuesta por el programador de sistemas informáticos Melvin Conway en 1968, 
los sistemas tienden a reflejar valores implícitos e implícitos de las personas que los diseñan (Webb, 2019). 
 17 
“La naturaleza anticipatoria de la vigilancia policial predictiva puede implicar que los 
invidividuos sean tratados de manera diferente, no por lo que han hecho sino por 
sobre qué podrían llegar a hacer según las inferencias basadas en datos. Como 
resultado, este tipo de sistemas pueden reforzar prácticas discriminatorias 
mediante la replicación de patrones en datos históricos y pueden crear profecías que 
se auto-cumplen.” 
 
3.2 Falta de transparencia y limitada rendición de cuentas 
 
El segundo riesgos ético para la implementación de herramientas de IA en procesos 
judiciales es la falta de transparencia. Como se explicó anteriormente, los algoritmos con 
inteligencia artificial operan como una caja negra: sabemos qué salió de ellos pero los 
procesos internos de toma de decisiones y optimización son opacos. Entre más complejos y 
autónomos son estos instrumentos más pueden crecer las asimetrías de información. 
 
Estas brechas no solo se refieren a la brecha de entendimiento del desarrollador respecto 
de su creación (conoce la configuración inicial y los resultados pero no los procesos que los 
producen), sino también las brechas de conocimiento de los usuarios y de los terceros que 
pueden verse negativamente afectadas por los sistemas de IA. En palabras del grupo de 
expertos de la Comisión Europea: “Cuanto más complejas se vuelven las tecnologías 
digitales emergentes, menos serán comprendidos los procesos que pueden causar daños a 
quienes se benefician de su operación o de quienes se ven expuestas a éstas” (European 
Commission, 2019b, p. 33). 
 
La complejidad, opacidad y autonomía en el funcionamiento de los algoritmos dotados de 
aprendizaje automatizado puede chocar con el derecho al debido proceso que exige como 
mínimo que las decisiones del juzgador estén debidamente motivadas. Las brechas de 
transparencia de las herramientas de IA pueden reducir significativamente la capacidad de 
las partes del proceso judicial para ejercer efectivamente su derecho a la defensa y a la 
contradicción de las pruebas. 
 18 
 
En Estados Unidos, las Cortes han cuestionado expresamente sobre cómo funcionan las 
herramientas y lamentando que los abogados de las partes de los procesos penales 
tampoco entendían cómo funcionaban (Kehl et al., 2017). Tres preocupaciones ligadas a la 
opacidad han sido identificados por los propios tribunales: i) respecto de sus insumos que 
son usados por el algoritmo (es decir los conjuntos de datos que utilizan para generar 
resultados), ii) sobre cómo el algoritmo procesa y pondera los datos, y iii) si algunas 
variables introducidas operan como proxies que de factores basados a la raza o a la 
condición socioeconómica (Kehl et al., 2017, p. 28). 
 
Finalmente, a partir del uso de herramientas de IA en procesos judiciales puede emerger 
otro dilema ético ligado a las características propias de estos sistemas: el riesgo de que el 
uso de las herramientas limite la rendición de cuentas.23 Si la herramienta de IA funciona 
como una caja negra y esta falla la hora de ofrecer información que el juez valore para 
decidir un caso, no solo será difícil trazar el error sino también el responsable del fallo. Al 
respecto, Kehl et al. (2017, p. 28) concluyeron: 
 
“La falta de información sobre cómo se ponderan los datos también hace que sea más 
difícil plantear desafíos legales al uso de estas herramientas, ya que los acusados de 
crímenes no pueden saber con certeza si factores sospechosos como el género o 
proxies raciales pueden haber influido en la puntuación de la evaluación de riesgo o 
la decisión final del juez”. 
 
Todos los anteriores retos éticos planteados por las herramientas de IA inciden en la 
capacidad del sistema judicial de respetar las garantías procesales, valores esenciales de la 
democracia, el Estado de Derecho y la justicia misma (AI HLEG, 2019). 
 
 
23 Flórez Rojas & Vargas Leal (2020) se refieren de manera análoga a este reto como el “riesgo de 
automatización sin auditoría”. 
 19 
4. Conclusiones 
 
La capacidadde almacenamiento y procesamiento de nuestros computadores crece 
exponencialmente con el paso del tiempo a medida que empresas y gobiernos siguen 
apostando por su desarrollo. En ese contexto, las tecnologías con IA han progresado 
significativamente en los últimos años, tanto en el tipo de tareas y resultados que ofrecen 
como en la expansión de su presencia en la vida de billones de personas que directa o 
indirectamente se benefician o son afectadas negativamente afectadas por la IA. 
 
Kellher & Tierney (2018) argumentan que el impulso comercial de las tecnologías de IA y la 
ciencia de los datos -en general-, tiende a generar la idea de que todo problema puede ser 
resuelto si se tiene la tecnología y la información correcta.24 A pesar de que cada día tanto 
la ciencia de los datos como el desarrollo de la IA - en particular - ofrecen nuevas 
alternativas para abordar problemas de toda naturaleza, sería muy contraproducente 
asumir que dichas tecnologías tienen la resolver cualquier problema. En ese mismo sentido, 
Flórez Rojas & Vargas Leal (2020, 23) argumentan que debe evitarse el riesgo de la 
“tecnofascinación” respecto de este tipo de herramientas: “el uso de la tecnología de IA para 
el sector público en Colombia debe ser cauteloso en cuanto a la definición de una verdadera 
necesidad o problema en el que se podrá intervenir a través de una solución tecnológica”. 
 
Los esfuerzos para incorporar las tecnologías de IA en los procesos judiciales son 
bienvenidos, pero no bajo la premisa de que estas herramientas son infalibles, objetivas, o 
que son capaces de solucionar todo. Quienes estamos interesados en la mejora del sistema 
de justicia en nuestros países no podemos caer en la tentación del niño que le dan un 
martillo y encuentra que todo debe ser martillado. Este fenómeno, que el filósofo Abraham 
Kaplan denominó la “ley del instrumento” (Kaplan, 1998, p. 28), puede conducirnos a la 
 
24 Un proceso similar ocurre cuando un abogado no se preocupa por aprender y entender disciplinas que van 
más allá del derecho y por ello tiende a proponer exclusivamente soluciones legales a problemas políticos 
sociales, económicos o culturales etc. 
 20 
dilapidación de recursos de la administración de justicia y a producir grandes perjuicios en 
contra de las partes de los procesos. 
 
En este texto se identificaron diferentes riesgos derivados del uso de las tecnologías de IA 
que generan retos éticos puntuales para su implementación en el marco de procesos 
judiciales y – en general – asuntos públicos. La adopción de herramientas con IA en 
Colombia podrá generar efectos adversos si los tomadores decisiones no dimensionan las 
limitaciones de las herramientas de IA ni las implicaciones éticas de su implementación. 
 
Por tal motivo, es recomendable que la adopción de estas herramientas esté presidida de al 
menos cuatro acciones: i) estudios de impacto previos que determinen las potenciales 
afectaciones relacionadas con aspectos centrales del proceso judicial – como el derecho 
fundamental al debido proceso – y otros aspectos que no son centrales al proceso pero que 
también incumben a los derechos fundamentales – como la protección de la privacidad; ii) 
que el proceso de selección de quiénes diseñarán la herramienta, el proceso de diseño y el 
proceso de implementación cuenten con la participación efectiva de la sociedad civil, para 
que haya control social sobre potenciales sesgos que introduzca en los procesos judiciales; 
iii) el desarrollo de directrices éticas25 para la implementación de estas tecnologías en la 
administración de justicia que esté precedido por un proceso de consulta y discusión 
pública que sea amplia e inclusiva; y, iv) que haya monitoreo y evaluación periódica del 
funcionamiento de la herramienta y de sus resultados. 
 
Actualmente, en Colombia diferentes organizaciones gubernamentales y la rama judicial 
trabajan en implementar tecnologías de IA para incorporar en sus procesos. En el futuro, 
será pertinente que la academia y la sociedad civil realicen investigaciones independientes 
 
25 Por ejemplo, la Comisión Europea conformó en junio de 2018 un “Grupo de expertos de alto nivel sobre 
inteligencia artificial” que publicó unas “Directrices éticas para una IA fiable” precedido de un proceso de 
consulta pública. Las Directrices proponen siete principios básicos para el desarrollo, despliegue y utilización 
de los sistemas de IA: “1) acción y supervisión humanas, 2) solidez técnica y seguridad, 3) gestión de la 
privacidad y de los datos, 4) transparencia, 5) diversidad, no discriminación y equidad, 6) bienestar ambiental 
y social, y 7) rendición de cuentas” (AI HLEG, 2019). Las guías están disponibles en: 
https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=60423. 
 21 
que evalúen la planeación de estos proyectos, los procesos de diseño y ejecución de los 
instrumentos y el balance de los resultados obtenidos. 
 
Referencias 
 
AI HLEG. (2019). Directrices éticas para una IA fiable (p. 55). Grupo de expertos de alto nivel 
sobre inteligencia artificial (AI HLEG). https://ec.europa.eu/digital-single-
market/en/high-level-expert-group-artificial-intelligence 
Ertel, W. (2017). Introduction to Artificial Intelligence (2nd ed. 2017.). Springer International 
Publishing : Imprint: Springer. 
European Commission. (2018). Communication—Artificial Intelligence for Europe (p. 20). 
European Commission. https://ec.europa.eu/digital-single-
market/en/news/communication-artificial-intelligence-europe 
European Commission. (2019a). Communication—Building Trust in Human-Centric Artificial 
Intelligence (p. 20). European Commission. https://ec.europa.eu/digital-single-
market/en/news/communication-building-trust-human-centric-artificial-
intelligence 
European Commission. (2019b). Liability for artificial intelligence and other emerging 
technologies (p. 70). Directorate-General for Justice and Consumers (European 
Commission). 
https://ec.europa.eu/transparency/regexpert/index.cfm?do=groupDetail.groupMe
etingDoc&docid=36608 
 22 
Flórez Rojas, M. L., & Vargas Leal, J. (2020). El impacto de herramientas de inteligencia 
artificial: Un análisis en el sector público en Colombia. En C. Aguerre (Ed.), 
Inteligencia Artificial en América Latina y el Caribe. Ética, Gobernanza y Políticas. CETyS 
Universidad de San Andrés. https://guia.ai/wp-content/uploads/2020/05/GECTI-
El-impacto-de-herramientas-de-inteligencia-artificial.pdf 
Guío, A. (2020). Marco Ético para la Inteligencia Artificial en Colombia. 
https://dapre.presidencia.gov.co/AtencionCiudadana/convocatorias-
consultas/consulta-200813-marco-ia-colombia 
Kaplan, A. (1998). The conduct of inquiry: Methodology for behavioral science (New). 
Transaction. 
Kehl, D., Guo, P., & Kessler, S. (2017). Algorithms in the Criminal Justice System: Assessing the 
Use of Risk Assessments in Sentencing. Berkman Klein Center for Internet & Society, 
Harvard Law School. 
https://dash.harvard.edu/bitstream/handle/1/33746041/2017-
07_responsivecommunities_2.pdf 
Kelleher, J. D., & Tierney, B. (2018). Data science. The MIT Press. 
Mitchell, M. (2019). Artificial intelligence: A guide for thinking humans. Pelican. 
Ramachandran, V. (2017, mayo 3). Exploring the use of algorithms in the criminal justice 
system. Research & Ideas. 
https://engineering.stanford.edu/magazine/article/exploring-use-algorithms-
criminal-justice-system 
Webb, A. (2019). The big nine: How the tech titans and their thinking machines could warp 
humanity. Public Affairs. 
 23 
 
Reportes de prensa y blogs 
 
Adams, R. y McIntyre, N. (2020). “England A-level downgrades hit pupils from 
disadvantaged areas hardest”. The Guardian, 13 de agosto de 2020. Disponible en: 
https://www.theguardian.com/education/2020/aug/13/england-a-level-downgrades-hit-
pupils-from-disadvantaged-areas-hardest. 
 
Black, B. .(2020). “Exploring the potential use of AI inmarking”. Ofqual Blog. Disponible en: 
https://ofqual.blog.gov.uk/2020/01/09/exploring-the-potential-use-of-ai-in-marking/. 
 
Escobar, José David (2019). “Prisma: el programa de la Fiscalía para predecir la reincidencia 
criminal”. El Espectador, 21 de junio de 2019. Disponible en: 
https://www.elespectador.com/noticias/judicial/prisma-el-programa-de-la-fiscalia-para-
predecir-la-reincidencia-criminal/. 
 
Hern, A. (2020). “Do the maths: why England's A-level grading system is unfair”. The 
Guardian, 14 de agosto de 2020. Disponible en: 
https://www.theguardian.com/education/2020/aug/14/do-the-maths-why-englands-a-
level-grading-system-is-unfair. 
 
Jadhav, C. (2020). “Fairness in awarding”. Ofqual Blog. Disponible en: 
https://ofqual.blog.gov.uk/2020/08/06/fairness-in-awarding/. Ferguson, D. y Savage, M. 
(2020). “Controversial exams algorithm to set 97% of GCSE results”. The Guardian, 15 de 
agosto de 2020. Disponible en: 
https://www.theguardian.com/education/2020/aug/15/controversial-exams-algorithm-
to-set-97-of-gcse-results.

Continuar navegando

Materiales relacionados

40 pag.
PardinasRemeseiro_Sofia_TFG_2020

Cesar Vallejo

User badge image

Karina Aquije

63 pag.
158 pag.