Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
1 Los alcances de la inteligencia artificial (IA) y su responsabilidad frente al derecho y ética1 por Guerrero Arévalo Wilmer Darío2 Sumario: Introducción 1.¿Que es la inteligencia Artificial? 2.La IA y sus alcances éticos. 2.1. Ética y diversas implicaciones en la IA. 2.2. Principios éticos para el diseño y desarrollo de la IA. 2.3. Búsqueda de un marco regulatorio de la ética y la IA. 3. IA y su aplicación en proceso judicial. 3.1. Evolución de la administración de justicia mediante el empleo de IA. 3.2. Ventajas y desventajas de la IA en la administración de justicia. Conclusiones. Bibliografía. Resumen Existe un acuerdo generalizado de que la tecnología marcará el futuro, el uso de la inteligencia artificial promete revolucionar múltiples áreas, transformando la vida cotidiana del ser humano, y por ello para el desarrollo de esta nueva tecnología, los países desarrollados y subdesarrollados están trabajando en una regulación mediante la implementación de un enfoque ético, para fortalecer el entorno de la inteligencia artificial y así proteger los derechos humanos y las libertades fundamentales, estandarizando una base de principios articulados sobre la dignidad humana, lo que tiene una implicación en la administración de justicia a los debates generales para lograr una regulación global en el que se determinan las conveniencias y dificultades de la tecnología artificial en el que determinemos las implicaciones y posibles efectos de la tecnología artificial. Palabras Clave Inteligencia artificial (IA). Ética en el diseño. Proceso Judicial. Derechos Fundamentales. Garantías Procesales, Principios Éticos. 1 Trabajo de investigación con el fin de obtener el titulo de Especialista en Derecho Procesal de la Universidad Libre 2 Especialista en derecho procesal de la Universidad Libre, Abogado egresado de la Universidad de Caldas de Manizales, correo electrónico: dario5640@gmail.com mailto:dario5640@gmail.com 2 Abstract There is widespread agreement that technology will mark the future, the use of artificial intelligence promises to revolutionize multiple areas, transforming the daily life of human beings, and therefore for the development of this new technology, developed and underdeveloped countries are working on a regulation through the implementation of an ethical approach, to strengthen the environment of artificial intelligence and thus protect human rights and fundamental freedoms, standardizing a base of principles articulated on human dignity, which has an implication in the administration of justice to the general debates to achieve a global regulation in which we determine the convenience and difficulties of artificial technology in which we determine the implications and possible effects of artificial technology. Keywords: Artificial Intelligence (AI). Ethics in design. Judicial Process. Fundamental Rights. Procedural Guarantees, Ethical Principles. Introducción: La inteligencia artificial (IA, AI en inglés). Como se va a definir en adelante, es una ética que se ha decidido especialmente a través de declaraciones internacionales, su significado se ha transformado con el tiempo pues son seres autómatas capaces de realizar procesos en segundos, superando el conocimiento humano al otorgar mas autonomía para la realización de tareas aun mas complejas y remplazando diferentes situaciones de la vida humana. Dentro de este marco, se deben analizar y categorizar los diferentes riesgos del desarrollo de estos algoritmos mediante las aplicaciones los principios éticos puesto que hay mayor conjuntos de datos en los avances tecnológicos, especialmente en el utilidad computacional, en resumen, estos avances han ayudado al aumento significativo de la investigación sobre Al en todo el mundo, por eso su utilización en el campo del derecho ha ayudado al desarrollo de la administración de justicia dado la gran cantidad de expedientes que se encuentran en base de datos a la cual se puede acceder de una manera fácil y se puede dar su búsqueda a nivel mundial. 3 En el mismo sentido, los algoritmos también se han desarrollado para apoyar a los sistemas judiciales de forma más amplia, ya que son herramientas capaces de tomar decisiones en función de la situación jurídica para la que han sido programados, para ello, es necesario plantear el problema del ¿Cuál es el impacto de la IA y su responsabilidad ante el derecho y la ética?. Una vez identificada la pregunta de investigación, la hipótesis propuesta se desarrolla bajo la premisa de que los sistemas de aprendizaje automático debe desarrollarse bajo las reglas de los principios éticos inherentes a los derechos fundamentales y a la dignidad humana, proclamados en las declaraciones internacionales que conducen a la búsqueda de un marco normativo, para que su aplicación en el ámbito del derecho no se vea desde una perspectiva un tanto escéptica. Por lo tanto, el objetivo general del proyecto es identificar cómo la aplicación de la IA en el sistema judicial, podría conducir a la violación de los derechos fundamentales y la responsabilidad que esto implica frente a la administración de justicia o si, por otro lado, éstas se utilizarían como mecanismo de protección de las mismas. Así pues, para este estudio, se utilizó el método cualitativo - cuantitativo pues, sintetiza los conocimientos ya alcanzados por varios autores e investigadores con un nivel de información existente y actualizado sobre el de estudio, para desarrollar íntegramente el problema de investigación, valorando, todos los puntos que les hacen coincidir o estar de acuerdo en este tema en particular. 1. ¿Qué es la inteligencia artificial? En principio, se debe resaltar que la Inteligencia Artificial (en adelante IA) es denominada tecnología exponencial, puesto que desde su origen en los años sesenta hasta el día de hoy, dio un cambio a una velocidad acelerada y el potencial que tienen es aún mayor de cara al futuro, ya que la IA es una tecnología innovadora que está ampliamente implantada en muchos ámbitos. En un inicio el primer contribuyentes al desarrollo de la IA es Alan Turing, quien siendo matemático-filósofo aportó dos trabajos seminales3, la máquina de Turing (1936) y el Test de Turing (1950), se consideran hitos fundacionales de la Ingeniería Informática, el más relevante es 3 Estudio que inaugura una nueva línea de investigación. 4 el Test, porque especifica de forma ordenada un procedimiento para recoger evidencias de vida mental inteligente en ordenadores programados. (González, 2007) Aunado lo anterior, las dos primeros indicios de aplicación de la informática con el uso de la inteligencia artificial se dieron a finales de la década de los cincuenta, el primero por cuenta de un jugador de damas inglesas Arthur Samuel, quien desarrollo un algoritmo mediante el cual el juego de damas podía aprender por sí mismo, para la época era un indicio de que los computadores podían desarrollar inteligencia y superar a sus creadores, y el segundo por cuenta de Russell lógico de primera fila a nivel mundial, quien construyo la máquina de Teoría Lógica con la que demostró los dieciocho teoremas lógicos principales de Russell, y esta desarrollo una manera mas sencilla de realizar la prueba de cada uno de ellos. (Boden, 2017) Como resultado de todos estos indicios, dio lugar a que en 1956 John McCarthy, en la conferencia en el Dartmouth College expresara uno de los primeros concepto de IA, “que una máquina se comporte de formas que serían llamadas inteligentes si un ser humano hiciera eso”. (Ertel, 2017, pág. 3). Desde entonces, diferentes conceptos han sido planeados, y estos van desarrollándose a la par con la evolución de la IA, se la define como un sistema que toma decisiones automatizadas y que imita la inteligencia humana. (Webb, 2019). Deigual modo en la Declaración de Montreal para un desarrollo responsable de la inteligencia artificial se define la IA como “sistemas autónomos capaces de realizar tareas complejas de las que se creía capaz por sí sola la inteligencia natural: procesar grandes cantidades de información, calcular y predecir, aprender y adaptar respuestas a situaciones cambiantes, y reconocer y clasificar objetos” (Declaración de Montreal, 2018) En el campo jurídico no hay una definición concreta en razón de que la IA tiene múltiples aplicaciones por especialidad, las principales aplicaciones son: 1. Argumentación y la toma de decisiones, 2.clasificación y extracción de textos jurídicos (jurisprudencia, doctrina y normativa), 3. constitución y proyecccion de un sistema legislativo (Rissland, Ashley, & Loui, 2003) Por ultimo debemos traer a colación que el concepto actual de inteligencia artificial, este va unido con la ética, en razón de que depende del uso responsable de los datos, y así verificar que los sistemas inteligentes protejan los derechos humanos desde su proyección, donde deben estar inherentes los principios de justicia y no discriminación, privacidad, rendición de cuentas, transparencia, explicabilidad y seguridad. (Cabrol, Pombo, González, & Sánchez, 2020) 5 2. La IA y sus alcances éticos: La IA es de gran importancia dado los desafíos actuales y futuros, puesto que se debe crear políticas coordinadas sobre la regulación, y para esto esta la ética la cual orienta la acción de creación y desarrollo de la IA. (Terrones, 2018) Así mismo la ética aplicada a la IA, se la puede plantear como una moral más de las que forma la vida cotidiana, pues busca orientar la acción a la hora de que los sistemas artificiales tomen decisiones. (Cortina, 1996). Con ese mismo orden de ideas, se puede observar que el dominio de la ética se despliega al ver el desarrollo de sistemas dotados de autonomía e inteligencia, con el poder de tomar decisiones y actuar de forma lógica, En este sentido, recordamos que el término autonomía es la capacidad de un individuo para tomar decisiones frente a las normas establecidas y es una característica típica del ser humano. (International Conference of Data Protection and Privacy Commissioners, 2018) y por lo que es imprescindible que la ética y la IA vayan de la mano, gracias a que su principal objetivo es la protección de la dignidad y los derechos fundamentales desde el estudio de los distintos riesgos, fallos, repercusiones y discriminaciones por causa de los errores en sistemas de aprendizaje automático. (Txetxu, 2017) También se han celebrado debates sobre la explotación segura de todo el potencial de la IA, a partir de los cuales se estableció la necesidad de mejorar la política de IA a nivel global, nacional y regional. (Consejo de Europa, 2021), debido a que los sistemas dotados de IA son autónomos dentro de los limites establecidos en cada diseño, el razonamiento y toma de decisiones responden a la programación asignada, entonces la responsabilidad ética de la IA está directamente sujeta a las personas. (Buchholz & Rosenthal, 2002). Como se ha dicho en los párrafos anteriores, es deseable incorporar criterios éticos desde la fase de diseño de cualquier sistema artificial, pero esto no garantiza que las aplicaciones dotadas con IA se utilicen de forma responsable y sean seguras, porque estos algoritmos están siendo desarrollada por personas bajo el mando de organismos, sociedades y estados que actúan mediante objetivos a implementar. (Bijker, Hughes, & Pinch, 2012) En síntesis, estos escenarios llevan a los teóricos a buscar un nuevo desarrollo de la ética pensando en la realidad actual del progreso tecnológico, debido a que la responsabilidad se ha expandido y todo esto hace que las implicaciones éticas en la IA sean más indeterminadas, dado que la tecnología actual se ha convertido en un elemento esencial del progreso, por lo tanto debe 6 existir una ética relacionada con el conocimiento predictivo y así orientar y vigilar el seguimiento del poder de la IA, ya que ha tenido un beneficio importante para el desarrollo de la humanidad y por lo tanto debe existir una ética consciente. (Jonas, 1995) 2.1. Ética y diversas implicaciones en la IA. La ética toma un papel más activo en el desarrollo de la IA, tiene muchos retos dado el humanismo tecnológico, por lo que se debe diseñar una política de IA más rigurosa, basada en el perfeccionamiento científico, debe ser rigurosa y siempre respetando los derechos fundamentales, y que los algoritmos no estén impregnados de subjetividad, ya que su inteligencia inductiva analiza la información y hace proyecciones sobre ella, corriendo el riesgo de que haya sido manipulada. (Kritikos, 2018) Por lo tanto, es deseable que, en cada nuevo foro donde se celebren debates internacionales sobre la gobernanza de la IA en el planeta, se desarrollen políticas que tengan en cuenta los riesgos éticos de la IA. Es evidente que científicos, industriales y especialistas mundiales advierten de los diversos riesgos de confiar las decisiones a los algoritmos sin la debida supervisión, y se han elaborado numerosos programas con principios éticos para garantizar que los sistemas autónomos no vulneren los principios y derechos humanos ni ocasionen perjuicios. (Le Déaut, 2017) Como se ha expresado, uno de los manifiestos más destacados es el de “una ética de la IA confiable y en el diseño made in Europe para competir en el mundo”, destacan los riesgos de las aplicaciones de la IA y propugnan una regulación a nivel mundial que establezca un esquema ético, convoca a difundir una perspectiva de avance que supere el término de innovación, reiterando que la humanidad debe estar focalizada en toda gestión de carácter tecnológico.. (Petit, 2017) En esta línea de ideas, también destaca la cooperación de los gigantes tecnológicos para el desarrollo ético de la IA, crearon el Consorcio IA para el Beneficio de las Personas y la Sociedad, fundado por Google, Facebook, Amazon, IBM y Microsoft, cuyo objetivo es establecer las mejores prácticas sociales y éticas para la investigación de la inteligencia artificial, formar al mayor número de personas posible en el uso de las aplicaciones de IA, participando en el estudio de sus efectos legales, éticos, sociales y financieros. (Shaikh, 2019) Como se dijo en los incisos anteriores, los algoritmos podrán tomar ciertas decisiones, y estas acarrean riesgos que nos colocan a prueba y nos desafían a perfeccionar los principios éticos 7 de la IA, tratando de evitar que la tecnología sea influenciada por el razonamiento humano y cambiar los principios éticos presentes en un dispositivo, conocer esto ayudaría en el análisis ético de la IA, y de acuerdo al grado de autonomía que se le pueda atribuir a estos dispositivos se podría determinar la responsabilidad. (Calvo, 2018) Es decir que, como resultado podemos ver un acercamiento a la realidad física del desarrollo de las máquinas mentales artificiales, principalmente por las repercusiones morales de sus usos en la sociedad, posicionamientos que van desde una óptica realista que quiere impulsar cualquier progreso científico a los que pide que actúen con previsión por los perjuicios que puede conllevar la puesta en marcha de estos algoritmos sin ningún tipo de control sobre ellos. (Bostrom & Yudkowsky, 2014) Cabe decir que, de hecho, la incorporación de la IA ha generado una serie de cuestiones éticas, así como inquietudes sobre el alcance que puede tener en determinados casos: 1. las posibles violaciones de la libertad de voluntad y la responsabilidad; 2. los sesgos, la discriminación y la exclusión; 3. la caracterización algorítmica de perfiles: 3. perfiles algorítmicos: beneficios de la personalización frente a determinados grupo; 4. la búsqueda de un nuevo equilibrio para evitar lasbases de información masivas mientras se aumenta la IA; 5. calidad, cantidad y relevancia: el reto de los datos adaptados a la IA; y 6. la identidad humana frente al reto de la IA. (CNIL, 2018) 2.2. Principios éticos para el diseño y desarrollo de la IA La ética aplicada a la IA desde las actividades de concepción, ejecución, difusión y explotación, van de la mano como la dignidad humana y debe respetar los derechos fundamentales, esto ayudaría a la vigilancia generalizada de esta nueva tecnología y su poder a la que se enfrentan las personas. (Parlamento Europeo, 2017) Numerosos organismos, empresas, gobiernos, instituciones y otros agentes se han comprometido a elaborar una lista de principios y directrices para garantizar el uso adecuado de la IA, ya que el perfeccionamiento de la misma evalúa los riesgos que plantean los sistemas y mecanismos inteligentes y trata de eliminar cualquier peligro para los seres humanos, (Marín, 2019) A finales de 2019 se había registrado la existencia de más 8 de 90 documentos sobre principios de IA publicados, Los temas más mencionados en ellos han sido justicia, interpretabilidad y explicabilidad (Universidad Stanfor, 2019) En relación con el párrafo anterior, existen restricciones en las determinaciones y clasificaciones realizadas con la AI, La dignidad humana implica también la obligación de divulgar si existe una interacción artificial con los humanos. La dignidad surge igualmente de la necesidad de reservar distintas funciones a los humanos y no a las máquinas, además asegura los valores humanos, ya que el empleo de la IA tampoco debe ser visto como un medio en sí mismo, sino con el propósito de aumentar el estado de bienestar de un elevado porcentaje de ciudadanos. (Cotino H, 2019) De este modo, las propuestas de principios éticos que han tenido más eco entre los gobiernos figuran las presentadas en el 2019 por la Organización para la Cooperación y el Desarrollo Económico (en adelante OCDE) y por el Grupo de Expertos de Alto Nivel en IA de la UE. Los principios de la OCDE promueven sistemas autónomos seguros, justos, confiables y robustos. A ellos se acogieron formalmente 42 países incluido Colombia. (Organización para la Cooperación y el Desarrollo Económico, 2019) en la Cumbre de Osaka, los líderes del G20 aprobaron los principios de IA del G20, extraídos de la recomendación de la OCDE. En tal sentido, la UE creó un grupo independiente de expertos del mundo académico, la sociedad civil y la industria, de alto nivel sobre inteligencia artificial donde se establecen las pautas éticas para una IA confiable, estas recomendaciones han sido referencia para otros Estados e industrias involucradas. (Grupo de Expertos de Alto Nivel en Inteligencia Artificial, 2019) Sucede pues, que el proyecto AI4People ha calculado 47 principios éticos reconocidos a nivel internacional y estima que existen cinco principios que integran el alcance de los 47. (Floridi, y otros, 2018) La beneficencia (hacer el bien), la no maleficencia (no hacer daño), la autonomía o acción humana, el respeto a la autodeterminación y elección de las personas y, en última instancia, la justicia, 9 el trato justo y equitativo para todos. Además de estas se adiciona las mencionadas por parte del Parlamento, principio de explicabilidad o transparencia, funcionando de forma transparente o de forma inteligible y responsable. El Grupo de Expertos de Alto Nivel de la UE los incorpora inmediatamente por su naturaleza integradora y, sobre todo, por el hecho de que estos principios de carácter general orientan hacia la materialización de los valores universales (Consejo de Europa, 2021) Los cinco principios se convierten hoy en día en las columnas de una IA fiable made in Europe. Sin embargo, hay que decir que los cuatro principios básicos han sido parte de la bioética desde 2011. (Beauchamp & Childress, 2011) Los cuatro principios bioéticos se ajustan de manera notable a los planteamientos éticos de la inteligencia artificial, ya que la bioética es la que más se asemeja a la ética en el mundo de la IA. (Floridi, y otros, 2018) Hacer el bien y no hacer daño (principios de beneficencia y no maleficencia). Esto implica por tanto la necesidad de que la IA se realice para el bienestar común y a favor de toda la población, contribuyendo a la sostenibilidad del planeta, por lo que su actuación en la comunidad debe aportar a la búsqueda de la justicia, paz y armonía entre los habitantes, así como a la obtención de la igualdad en la área social, económica y política.. (Grupo de Expertos de Alto Nivel en Inteligencia Artificial, 2019) Por consiguiente, los algoritmos no deben generar ningún tipo de riesgo para los hombres, ya que se les debe asegurar la tutela de la integridad física y psíquica de la persona. Los aparatos artificiales que operan con IA deben ser inocuos y una normativa global debe velar por evitar que se les dé un uso perverso. (EGE, 2018) Por último es conveniente acotar, que el principio de no maleficencia desempeña una tarea eminentemente de prevención, de no causar perjuicios físicos, psicológicos, financieros o también sociales. Establece una precaución en cuanto a los límites máximos sobre las posibilidades de la IA en el futuro, así como para garantizar que no se produzca un mal uso, tanto para aquellos que desarrollan y confeccionan la IA, así como para sus efectos. (Cotino H, 2019) 10 Principio de justicia y no discriminación Basados en la dignidad y la libertad del ser humano, que están directamente vinculadas a la autonomía, los derechos fundamentales a la no discriminación, a no correr riesgos y a guardar la privacidad se perfilan como ejes éticos de la IA, al mismo tiempo, se reafirman principios como la responsabilidad del estado social de derecho, la responsabilidad y la no discriminación, además de potenciar el concepto de reglamentación de la IA, que debe ser un proceso elaborado a partir de un debate público y democrático, lo que implica cambios y puestas al día en la educación de cada nación para afianzar el conocimiento y derechos de las futuras generaciones, así como la sostenibilidad del medio ambiente. (Parlamento Europeo, 2017) Por otra parte, el planteamiento de tales artificios debe contar con la participación de todas las partes interesadas con las que se relaciona cada aplicación de la IA. Además, estos sistemas deben velar el uso equitativo de los datos disponibles para impedir la posible discriminación de ciertos sectores o la alteración de los valores y el orden del comercio. (EGE, 2018) En esta perspectiva, el principio de justicia también exige un elevado nivel de responsabilidad y una compensación o remedio eficaz en caso de que se genere un perjuicio. También se hace referencia a la posibilidad de evaluar la labor de la AI. (Montreal Declaration, 2017) El principio de explicabilidad y transparencia La transparencia se usa en los sistemas fundados en la IA y se refiere sobre todo a la capacidad de explicación y rastreo de dichos sistemas. Como el diseño de estos dispositivos contempla que tomen de forma automática decisiones basadas en distintos métodos de cálculo y proyección, es necesario que en todo momento sea factible rastrear el proceso de razonamiento del sistema y explicar las conclusiones a las que se ha llegado. Sobre todo, debe ser posible hacer un seguimiento de la serie de datos utilizados en el proceso de razonamiento, así como del comportamiento del algoritmo y de los procesos seguidos para llegar a los objetivos. Además, todo este procedimiento debe ser explicable desde el aspecto de la programación tecnológica y de la concepción humana. La concepción y el uso de tecnología imprevisible son incapaces de garantizar 11 la autonomía del ser humano. La actividad de todos estos mecanismos debe ser fácilmente comprensible y asequible.(EGE, 2018) Es por eso que, lo anterior implica la obligación de comprender y dar cuentas, lo que conlleva directamente la necesidad de identificar el desarrollador la IA que está operando y la responsabilidad que se desprende de tal operación. (Cotino H, 2019), lo que supone plantear procedimientos transparentes para que el ser humano comprenda cómo funcionan los productos creados por la IA, especialmente en los casos en los que la autonomía pasa a un primer plano con el fin de garantizar la transparencia, la justicia, la explicabilidad, la auditabilidad y la responsabilidad, elementos que pueden diferir de la perspectiva en la que se encuentren analizados, de modo que el grupo de expertos que podrá disponer de los datos del algoritmo en cuestión también está limitado por diversos motivos, como la seguridad o la propiedad intelectual. (Grupo de Expertos de Alto Nivel en Inteligencia Artificial, 2019) Resulta claro que, para que los consumidores depositen su confianza en los sistemas de IA y la mantengan, resulta fundamental la explicabilidad. Es decir, que los procesos sean claros, que se informe públicamente de las posibilidades y la utilidad de los sistemas de AI y que las decisiones se expliquen, en la medida de lo posible, a las personas afectadas directa o indirectamente por ellas. En ausencia de esta información, no es factible el cuestionamiento apropiado de una decisión.. Tampoco es posible explicar el motivo por el que un modelo ha generado un particular desenlace o decisión. Este tipo de casos, que se conocen como algoritmos de "caja negra", exige una atención especial. Esta necesidad de explicación depende mucho del contenido y de la severidad de las consecuencias de un fallo o de un inadecuado resultado. (EGE, 2018) De la misma manera, el principio de fiabilidad en la IA exigue que los algoritmos sean necesariamente seguros., confiables y resistentes para funcionar con exactitud y garantía, así como para solucionar errores o incongruencias en todas las fases del ciclo de uso de los dispositivos. Además, este principio obliga a diseñar y elaborar los sistemas teniendo en cuenta la posible existencia de un ciberataque o de un fallo técnico. (EGE, 2018) La libertad y autonomía humana frente a la “autonomía” artificial. Da a entender que, a raíz de la IA, los hombres ceden de forma voluntaria parte de su capacidad de decisión a las máquinas, al tiempo que fomenta el carácter independiente de los 12 individuos y establece restricciones a la autonomía de los aparatos de IA, al tiempo establecen de forma categórica que “Los humanos siempre deben conservar el poder de decidir” (Floridi, y otros, 2018) El objetivo principal de los derechos fundamentales sobre los que se sustenta la UE es asegurar el cumplimiento de la capacidad de libertad y de autonomía de los ciudadanos. Las personas que se relacionan con los servicios de inteligencia artificial deben poder conservar una autonomía efectiva sobre sí mismas y ser capaces de intervenir en el procedimiento administrativo. Los servicios de IA no deben supeditar, obligar, manipular, imponer o controlar de manera injustificadamente a los humanos. Por el contrario, los productos de IA deberían estar diseñados para aumentar, complementar y mejorar las capacidades culturales, cognitivas y sociales de las poblaciones. El reparto de responsabilidades entre los sujetos y los sistemas de IA debe seguir los principios éticos inherentes al ser humano y debe dejar un amplio margen de decisión a las personas. Para ello hay que garantizar la vigilancia y el control de los sistemas de IA por parte de los seres humanos. Asimismo, los sistemas de IA son capaces de trasformar el ámbito laboral y deben ayudar a estas en su entorno y procurar establecer puestos de trabajo eficientes. (EGE, 2018) 2.2. Búsqueda de un marco regulatorio de la ética y la IA. De este modo, se puede abordar la discusión ética y normativa de la IA a partir de una postura de discusión y experiencia en el desarrollo de actuaciones concretas para materializar los principios éticos, Por ello, esta discusión ética es una discusión con implicaciones normativas, pues pretende analizar las bases filosóficas y los principios esenciales de los derechos humanos que deben guiar el uso de la inteligencia artificial y la normativa que se elaborará al respecto. (Comisión Europea, 2020) Cabe mencionar que, muchos estamentos e instituciones de la Comunidad Europea delinearon apresuradamente las recomendaciones del Foro Económico Mundial para abordar la problemática de la regulación de los sistemas robóticos y autónomos, donde se proponen diferentes metodologías a fin de garantizar el correcto uso de la IA por las compañías y los Estados. (Schuwab, 2016) 13 Además, se destaca la denominada Declaración de Barcelona para la Inteligencia Artificial como orientación para el avance de la misma. El documento destaca la gran importancia de la IA en el devenir de la economía y de las sociedades, si bien también muestra su inquietud por el posible uso inapropiado, precipitado o doloso de las nuevas tecnologías. En este sentido, plantea un código de conducta centrado en la cautela, la confianza, la transparencia, la rendición de cuentas, la limitación de la autonomía y el rol humano. (International Center for Scientific Debate Barcelona, 2017) Así mismo, se plantea la constitución de un Comité de Ética que contemple los siguientes principios: prevención de conflictos de interés, certificación de la competencia y trayectoria de los desarrolladores, autonomía, publicidad y rendición de cuentas de los programas de Inteligencia Artificial y sus resultados, y tener un enfoque interdisciplinario que contemple el seguimiento de al menos un experto ético o jurídico en el diseño de estos programas. (Parlamento Europeo, 2017) 3. IA y su aplicación en proceso judicial. La realidad es que el empleo de la IA y los algoritmos es cada vez más frecuente en muchos ámbitos de la vida profesional, entre los que el jurídico no se queda atrás, uno de los principales impulsores del desarrollo de la IA en el campo de la abogacía es Daniele Bourcier, abogada y ensayista francés que ha investigado las capacidades de la informática en el ámbito jurídico. (Bourcier, 1995) No obstante, en sus inicios, los avances de la IA aplicada a los procesos judiciales se centraban en la aplicación de procedimientos básicos, como la ejecución de normas elementales a situaciones no conflictivas. No obstante, desde hace poco, este ámbito de investigación científica se ha enfocado hacia áreas más sólidas y complejas de los procesos legales, destacando la adopción de sentencias en el ámbito judicial. Actualmente, Actualmente, no existe un acoplamiento de reglas o modelos algorítmicos que pueda reproducir perfectamente el esquema de decisión judicial humana, ya que el juez tiene la difícil labor de solucionar conflictos de los que a diario dependen: bienes, los derechos o la libertad de las personas. La adopción de resoluciones judiciales requiere una relación de sabiduría jurídica y habilidades intelectuales. (Peña, 2019) por otra parte, algunos elementos contenidos en las decisiones judiciales son imprecisos y sólo pueden ser resueltos por personas humanas, como por poner un ejemplo, la conducta de un 14 buen padre de familia o la moralidad humana. Se trata de una vaguedad que sólo puede ser superada por la discreción de los jueces. Y es que el razonamiento judicial reúne diferentes competencias intelectuales, como la apreciación de los hechos, la interpretación de las leyes o la creación de analogías, y por eso es preciso analizar las evidencias aportadas y considerar todos los aspectos del proceso. (Lillo, 2010) Hay que hacer notar que, la Comisión Europea, en un informe reciente de su grupo de expertos para estudiar las repercusiones dela Inteligencia Artificial en los sistemas de responsabilidad, determinó las siguientes características: “i) Complejidad, ii) Opacidad, iii) Autonomía, iv) Previsibilidad, v) Dependencia de los datos, vi) Apertura y vii) Vulnerabilidad.” (Comisión Europea, 2020) 3.1. Evolución de la administración de justicia mediante el empleo de IA. En un principio, la IA nace con el objetivo de enmendar un acumulado de dificultades puntuales que se presentan en el ámbito jurídico. En la actualidad, algunos de estos problemas se mantienen como la: estructuración de grandes bases de datos, organización y almacenamiento de textos jurídicos que varían a lo largo del tiempo, interconexión con diversos grupos de personas, creación de modelos de operaciones realizadas por juristas y razonamiento legal, argumentación basada en asuntos legales, solución de conflictos, formación de bases de datos de determinadas ramas del derecho, como el sector financiero o el fiscal, creación de modelos de argumentación basados en normas o precedentes. (Kelleher & Tierney, 2018) En efecto, con el desarrollo de grandes bases de datos jurídicas privadas y públicas a fines del siglo XX, se incrementó el atractivo de los sistemas de clasificación de bases de datos. En los años de la década de 1960, este tema pasó a tener el nombre de jurimétrica. En las décadas de 1970 y 1980 se denominó informática jurídica. En su desarrollo, las aplicaciones informáticas han jugado un papel esencial. Sin embargo, al margen de la informática de la documentación y de los archivos, que sin duda se plantean retos que actualmente son asumidos por la búsqueda semántica, la IA se centró casi desde el inicio en los aspectos problemáticos del desarrollo de la IA y su aplicación en el procedimiento judicial, es relevante identificar qué tienen de especial las instrumentos de inteligencia artificial en comparación con otras métodos que se han utilizado 15 durante años en los sistemas judiciales (tales como el uso de sistemas informáticos para el almacenamiento, clasificación y la publicación de información). (Reviriego & Maciá, 1998) La principal característica de los sistemas de recuperación de documentos jurídicos es que, mientras los primeros constituyen grandes almacenes digitales de un determinado tipo de texto, normalmente el contenido de los discursos legislativos y jurisprudenciales, los segundos facilitan su consulta automatizada y tratan de emular algunos de los procesos cognitivos realizados por los abogados, jueces y funcionarios judiciales, quienes, guiados por las reglas del tratamiento de la información jurídica, manipulan los citados discursos para resolver los problemas que plantea su interpretación o aplicación cuando se enfrentan a casos prácticos en el ejercicio de su profesión. (Hernández & Boulat, 2015) De igual manera, cabe señalar que el origen de la “International Association for Artificial Intelligence and Law” (IAAIL) en 1992, el mismo año que el primer volumen de “Artificial Intelligence and Law”, La aplicación de un juez artificial no pretende sustituir el juicio del juez humano, sino expandir y consolidar su aptitud parafallar un caso.. (Berman & Hafner) Asimismo, en 1997 se ideó un sistema llamado “CATO” Program en la Universidad de Pittsburgh. Se trata de una herramienta que permitió a los estudiantes de esta universidad solucionar casos a través de una interfaz artificial que exponía los hechos del caso, los antecedentes y las eventuales pautas de alegación. (Ashley & Bridewell, 2010) Ahora bien, el vínculo entre la inteligencia artificial y la administración de justicia, no se trata exclusivamente de la utilización de tecnología en la praxis jurídica, más bien todo lo opuesto. La cuestión es además cómo se aplica la jurisprudencia a la IA, un campo en el que la reglamentación está en proceso de perfeccionamiento, en el año 2017 se plantearon varias normas para un desarrollo seguro y permanente de esta tecnología. Estas son: “- Crear una Agencia Europea de Robótica e Inteligencia Artificial. - Crear un registro europeo de robots inteligentes. - Elaborar un código de conducta para que los responsables de las herramientas de inteligencia artificial o robótica actúen de acuerdo a unas normas de seguridad y ética dirigidas a reducir el impacto social. - Desarrollar leyes que responsabilicen de las acciones realizadas por una inteligencia artificial.” 16 La jurisprudencia, en consecuencia, se plantea un desafío doble: legislar en materia de IA jurídica y, a la vez, aprovecharla en la decisión de los procesos. (Parlamento Europeo, 2017) En la justicia Colombiana la IA también ha empezado a implementarse el uso de algoritmos para el ejercicio de sus funciones: La Superintendencia de Sociedades, en octubre de 2018, implementó el primer tribunal de América Latina en contar con un asistente robot, llamado Sistema con bases de Inteligencia Artificial para la Resolución de Litigios Societarios, inspirado en el Laboratorio de Ciberjusticia de la Universidad de Montreal (Canadá), el algoritmo, que fue creado de forma interna, está diseñado para responder a las preguntas de los operadores de justicia sobre los temas del caso y emitir una opinión sobre las pretensiones y los asuntos pertinentes, La Superintendencia informa a los usuarios de que se trata de un instrumento que no expide sentencias judiciales ni intenta suplir las decisiones del juez ni indicar el sentido en que las emitirá. (Superintendencia de sociedades, 2018) Asimismo, en el año 2019, la Fiscalía General de la Nación, inició el pilotaje de una herramienta que es denominada PRISMA (Perfil de Riesgo para la Solicitud de Medidas de Aseguramiento) el cual prevé el peligro de volver a delinquir, estudia los Datos de cinco millones siete mil individuos registrados en el aparato de justicia penal acusatorio oral, a partir del perfil del investigado el fiscal decide si solicita ante los jueces de control de garantías una medida de aseguramiento privativa de la libertad dado su reincidencia. Daniel Mejía lideró ese proyecto PRISMA, y advirtió que este requería “una evaluación rigurosa de su impacto” y que debe ser evaluada del control público. (Castilla, 2019) Por ultimo, en julio de 2020 se empezó a implementar el sistema PretorIA (anteriormente denominado Prometea), que tiene el fin de agilizar el trámite de los casos de protección judicial, el sistema clasifica las sentencias de tutela, que han de ser remitidas por los jueces a la Corte Constitucional, para su posible revisión, sobre la base de categorías definidas y codificadas previamente por el equipo jurídico de la Corte, se dispone como cifra que en el año 2019 se han remitido un promedio de unos 12.000 expedientes de tutela semanales a la Corte Constitucional, la Corte advirtió expresamente que PretorIA no reemplazará a los funcionarios judiciales sino que busca “disminuir los tiempos de análisis y clasificación de la información” (Corte Constitucional, 2020) 17 En definitiva, los usos y beneficios de la IA en la administración de justicia son de muy diversa índole. Sin embargo, se trata de una herramienta a la que aún le falta un largo trecho por avanzar y que a partir de ahora necesitará de una legislación que permita reglamentar su uso. 3.2. Ventajas y desventajas de la IA en el derecho procesal. La inteligencia artificial en la justicia tiene como una de sus principales ventajas la rapidez del proceso que permitiría facilitar la actividad de los abogados y funcionarios judiciales y demás profesionales del sector, al poner a su alcance una plataforma que cuenta con la totalidad de la información documental y jurisprudencial, por lo tanto el propósito de la IA en el mundo jurídico no es reemplazar, por el contrario, fungir como un respaldo en el sector legal, pues existe un volumen descomunal de información electrónicaque es prácticamente imposible de ser procesada por un humano. (Marín & Palma, 2008) Así pues, el reto de la IA en el campo de la abogacía no es sustituir a los trabajadores, sino servir de apoyo en el campo de la justicia. Esto es fundamental cuando hay una enorme carga documental, El fin último es alcanzar una aplicación más ágil y efectiva de la legislación, así como proporcionar a los operadores jurídicos de los instrumentos indispensable para que pueda desprenderse de las labores propiamente mecánicas y ocuparse de un oficio de carácter más especializado. (Mitchell, 2019) Ahora bien, los usos de la IA en el ámbito del derecho son muy variados, ya sea en el área del derecho penal, civil, laboral, administrativo, procesal o mercantil, tributario entre otras, se puede destacar que: “i)Organizar grandes bases de datos de clientes o casos. Análisis del Big Data. ii)Procesar el lenguaje natural para que la ordenación de las bases de datos sea más eficaz. iii)Clasificar, analizar y actualizar textos legales y normas jurídicas que pueden cambiar con el tiempo. iv) Apoyar un realizar un seguimiento de las acciones llevadas a cabo por abogados u otros agentes jurídicos. v) Estudiar nuevas aplicaciones de la jurisprudencia y la aparición de nuevos campos o ámbitos jurídicos. vi) Utilizar el aprendizaje o machine learning para llegar a conclusiones razonadas en función de los precedentes existentes. Vii) Desarrollar sistemas expertos legales que permitan en análisis más riguroso y exhaustivo de cada caso.” (Grupo de Expertos de Alto Nivel en Inteligencia Artificial, 2019) 18 Además, el vínculo entre la justicia y la IA, permite obtener ventajas para los bufetes de abogados. Entre las más destacadas se hallan: hacer entender al abogado los provechos que el uso de la tecnología puede proporcionar a los distintos procesos; actualizar el panorama jurídico y facilitar su aprendizaje a la comunidad internacional; Facilitar el conocimiento de leyes, normas, conceptos y términos jurídicos; disminuir el tiempo empleado en el procesamiento de papeles, la investigación de documentación o la recolección de pruebas; organizar la información legal disponible de manera automatizada y eficaz; liberar al profesional de la abogacía de las tareas más mecánicas o administrativas, y poder centrarse en determinadas actividades que suponen un valor añadido; ayudar al perfeccionamiento de conceptos más exactos y fiables para que sean correctamente interpretados por la IA; solucionar los litigios de forma más eficaz aplicando la lógica jurídica; mejorar los beneficios en materia de productividad, transparencia y competitividad. (Nieva, 2018) No obstante, los desafíos y retos a resolver en la utilización de la IA en el ámbito jurídico son: la insuficiencia de los algoritmos para captar y procesar el lenguaje de los seres humanos; la interpretación de las normas y pautas del ordenamiento jurídico; y el hecho de procesar toda la información a fin de conseguir resultados equitativos y motivados. (Nieva, 2018) De la misma forma otra dificultad a la que se enfrentar la inteligencia artificial en campo jurídico es su uso con mala fe pueden ser manipuladas sin que el operador jurídico caiga en cuenta, dado que estos sistemas funcionan mediante el procesamiento de datos que se programado previamente. Así que, si existe cierta configuración con datos erróneos o limitados, el razonamiento que ejecutarán no será correcto, lo que implica que se ejecutara conclusiones inexactas. Por último, cabe destacar que el avance de la inteligencia artificial en el ámbito legal hace que la administración de justicia se vea en la necesidad de adaptarse a las nuevas exigencias de esta tecnología, un ejemplo muy relevante fue su implantación en el difícil período que estamos viviendo con la pandemia de coronavirus, y planteó grandes retos a quienes laboramos y desarrollamos actividades en el sistema de administración de justicia. Conclusión 19 Como se ha desarrollado a lo largo de esta investigación jurídica, se entiende que nos enfrentamos a muchos retos dado el amplio desarrollo de la IA en el ámbito jurídico y ético, ya que se observa como la humanidad ha implementado algoritmos con tecnología para su propio beneficio, y cada día hay un mayor nivel de complejidad, para ello tenemos la tarea de desarrollar los beneficios que la IA puede aportar a la humanidad esto al participar en las discusiones sobre los problemas relacionados con el uso de algoritmos autónomos, y así mitigar la complejidad de su uso. De igual forma, se observa como el uso de la tecnología en el desempeño de la labor jurídica no solo se restringe a la informática jurídica de carácter documental y a la informática de administración jurídica, si no que además ya está contribuyendo a que los funcionarios judiciales puedan estructurar razonamientos para solucionar diversos asuntos con la información proporcionada y se ha evidenciado que se puede modelar el conocimiento jurídico a fin de poder simular procesos de carácter subjetivo como se observa en la Corte Constitucional al implementar el instrumento artificial PretorIA, el cual vuelve mas eficiente el procesamiento de caso de tutela y descongestiona la función judicial de esta entidad y ante el rápido desarrollo en el presente se puede aplicar en más áreas del derecho. A través de este artículo se ha presentado una visión general de cómo la inteligencia artificial va a influir en muchos aspectos de la vida cotidiana y su puesta en práctica debe ser reglamentada a través de un parámetro normativo fundamentado en los principios éticos que tienen por objeto la tutela de los derechos humanos fundamentales, y con ello prevenir la posibilidad de que su acelerado avance pueda generar un riesgo a la población por la excesiva dependencia que existe hacia estos sistemas de carácter autónomo, por lo que mediante un adecuado ejercicio de precaución y responsabilidad, podrá generarse la conciencia necesaria respecto del poder de la inteligencia artificial y de sus inesperadas consecuencias. Bibliografía Ashley K, (2010). Emerging AI & Law approaches to automating analysis and retrieval of electronically stored information in discovery proceedings. Artificial intelligence and law special issue on E-Discovery. 20 Beauchamp, T., & Childress, J. (Septiembre de 2011). Principios de Ética Biomédica. Tribuna Abierta del Institut Borja de Bioètica, 17 (64). Berman, D., & Hafner, C. (s.f.). The Potential of Artificial Intelligence to Help Solve the Crisis in Our Legal System. Communications of the ACM, 32(8), 928-938. Bijker, W., Hughes, T., & Pinch, T. (2012). The Social Construction of Technological Systems. 2nd edition. Cambridge: The Finnish Society for Science and Technology Studies. Boden, M. (2017). Inteligencia Artificial. Madrid: Turner Publicaciones S.L. Bostrom, N., & Yudkowsky, E. (2014). The Ethics of Artificial Intelligence. Cambridge University Press, 316- 334. Bourcier, D. (1995). La décision artificielle, Les voies du droit. Paris: PUF. Buchholz, R., & Rosenthal, S. (2002). SB Tecnología y negocios: repensar el dilema moral. Revista de ética empresarial, 41. Cabrol, M., Pombo, C., González, N., & Sánchez, R. (2020). Adopción Ética y Responsable de la Inteligencia Artificial en América Latina y el Caribe. Banco Interamericano de Desarrollo. Calvo, P. (2018). Ética de las cosas (EoT). Hacia una digitalización socialmente responsable y moralmente válida del ámbito universitario. Un diseño universitario para la responsabilidad social, Castellón, Universitat Jaume I, publicacions. Castilla, J. (30 de mayo de 2019). Fiscalía presentó el sistema Prisma para evitar la reincidencia delincuencial. Recuperado el noviembre de 2021, de Asuntos Legales: https://www.asuntoslegales.com.co/actualidad/fiscalia-presento-el-sistema-prisma-para-evitar-la-reincidencia-delincuencial-2867798 CNIL. (25 de mayo de 2018). Algorithms and artifcial intelligence: CNIL’s report on the ethical issues. Obtenido de CNIL: https://www.cnil.fr/en/algorithms-and-artifcial-intelligence- cnils-reportethical-issues Comisión Europea. (2020). Libro Blanco. Sobre inteligencia artificial un enfoque europeo de la excelencia y la confianza. Bruselas: Obtenido de la Comisión Europea. Obtenido de Accountability of AI Under the Law: http:// nrs.harvard.edu/urn- 3:HUL.InstRepos:34372584 Consejo de Europa. (2021). Conferencia de IA: desafíos actuales y futuros. Virtual. Corte Constitucional. (2020 de julio de 2020). Corte Contitucional. Recuperado el noviembre de 2021, de PRETORIA, un ejemplo de incorporación de tecnologías de punta en el sector 21 justicia: https://www.corteconstitucional.gov.co/noticia.php?PRETORIA,-un-ejemplo-de- incorporaci%C3%B3n-de-tecnolog%C3%ADas-de-punta-en-el-sector-justicia-8970 Cortina, A. (1996). El estatuto de la ética aplicada. Hermenéutica crítica de las actividades humanas. Obtenido de Isegoria Revistas: https://doi.org/10.3989/isegoria.1996.i13.228 Cotino H, L. (2019). Riesgos e impactos del big data, la inteligencia artificial y la robótica. Revista General de Derecho Administrativo. Declaración de Montreal. (2018). Desarrollo Responsable de la Inteligencia Artificial. EGE, E. G. (2018). Statement on Artificial Intelligence, Robotics and “Autonomous” Systems. Dirección General de Investigación e Innovación. Comisión Europea. Ertel, W. (2017). Introduction to Artificial Intelligence. New York: Springer-Verlag London Limited. Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., Vayena, E. (2018). AI4People: un marco ético para una buena sociedad de IA: oportunidades, riesgos, principios y recomendaciones. Mentes y Máquinas, 28, 689–707. González, R. (2007). El Test de Turing: dos mitos, un dogma. Revista de filosofía, 37-53. Grupo de Expertos de Alto Nivel en Inteligencia Artificial. (2019). Draft ethics guidelines for trustworthy AI: Working document for stakeholders consultation. Comisión Europea. Bruselas. Gutiérrez, J., & Flórez, I. (2020). Inteligencia Artificial (IA) Aplicada en el Sistema Judicial en Colombia. Revista Derecho y Realidad, 18(35), 53-80. Hernández, C., & Boulat, P. (2015). Inteligencia Artificial y Derecho. Problemas y perspectivas. noticias Jurídicas.com. International Center for Scientific Debate Barcelona. (2017). Inteligencia artificial: sueños, riesgos y realidad. B·DEBATE. International Conference of Data Protection and Privacy Commissioners. (2018). Declaration on ethics and data protection in artificial intelligence. Conferencia Internacional de Protección de Datos de Bruselas, 40. Bruselas. Jonas, H. (1995). El principio de responsabilidad. Ensayo de una ética para la civilización tecnológica. Barcelona: Herder. Kelleher, J., & Tierney, B. (2018). Data Science. Cambridge (MSS): El Con Prensa. 22 Kritikos, M. (2018). ¿Y si las tecnologías tuvieran sus propios estándares éticos? Prospectiva científica. Le Déaut, J.-Y. (2017). Convergencia tecnológica, inteligencia artificial y derechos humanos. Consejo de Europa. Estrasburgo. Lillo, R. (2010). El Uso de Nuevas Tecnologías en el Sistema Judicial: experiencias y precauciones. Centro de Estudios de Justicia de las Américas. Lin, O. (2004). Designing distributed learning environments with intelligent software agent. Estados Unidos: Information Science Publishing. Marín, R., & Palma, J. (2008). Inteligencia artificial : métodos, técnicas y aplicaciones. Madrid: McGraw-Hill-Interamericana de España. Marín, S. (2019). Ética e inteligencia artificial. En Cátedra CaixaBank de Responsabilidad Social Corporativa. Business School University of Navarra. Martínez, G. (2013). Inteligencia artificial y su aplicacion en el campo del Derecho. Alegatos (82), 827-846. Mira, J., Delgado, E., Boticario, G., & Diéz, J. (1995). Aspectos básicos de la inteligencia artificial. Sanz y Torres. Mitchell, M. (2019). Artificial intelligence: A guide for thinking humans. Pelican. Montreal Declaration, f. a. (2017). Pronunciada en la clausura del Forum on the Socially Responsible Development of AI. Montreal. Nieva, F. (2018). inteligencia artificial y proceso judicial. madrid: Marcial pons. Organización para la Cooperación y el Desarrollo Económico. (2019). Recomendación del Consejo de Inteligencia Artificial. Parlamento Europeo. (2017). Normas de Derecho civil sobre robótica., (pág. 2015/2103). Estrasburgo. Peña, D. (2019). Inteligencia artificial y derecho. Presentado en Seminario IV: Inteligencia artificia. Universidad Externado de Colombia. Petit, N. (2017). Ley y regulación de la inteligencia artificial y los robots: marco conceptual e implicaciones normativas. Instituto Universitario Europeo - Departamento de Derecho (LAW). Reviriego, J., & Maciá, M. (1998). Introducción general a la documentación jurídica. Madrid: Manual de documentación jurídica. 23 Rissland, E., Ashley, K., & Loui, R. (2003). AI and Law: A Fruitful Synergy (Vol. 150). Artificial Intelligence. Schuwab, K. (2016). La cuarta revolución industrial. Barcelona, España: Penguin Random House Grupo Editorial, S. A. U. Shaikh, R. (2019). Nuevos socios para reforzar la perspectiva de una IA responsable. partnershiponai. Superintendencia de sociedades. (10 de octubre de 2018). Supersociedades. Recuperado el noviembre de 2021, de El primer juzgado de América Latina en contar con un robot asistente: https://www.supersociedades.gov.co/Noticias/Paginas/2018/Supersociedades- el-primer-juzgado-de-Am%C3%A9rica-Latina-en-contar-con-un-robot-asistente.aspx Terrones, A. (2018). Deliberación, responsabilidad y prudencia: fundamentos para construir una ética aplicada a la inteligencia artificial. Revista Estudios(36), 16. Txetxu, A. (2017). Ética de datos, sociedad y ciudadanía. Revista Internacional de Éticas Aplicadas(24). Universidad Stanfor. (2019). Comité de Dirección del Índice AI. Instituto de Stanford para Inteligencia Artificial Centrada en los Humano. Obtenido de Comité de Dirección del Índice AI. Vargas, A. (2018). Los límites y las consecuencias reales del discurso jurídico de la autonomía privada de la voluntad en el individuo. Revista IUSTA, 2(49), 91-114. Webb, A. (2019). Los nueve grandes: cómo los titanes de la tecnología y sus máquinas pensantes podrían deformar a la humanidad. PublicAffairs. 24 Wilmer Darío Guerrero Arévalo Dario5640@gmail.com 301727960 5 Los alcances de la inteligencia artificial (IA) y su responsabilidad frente al derecho y ética x x UNIVERSIDAD LIBRE INSTITUTO DE POSGRADOS BOGOTÁ D.C. FORMATO DESIGNACIÓN DOCENTES PARA TRABAJOS DE INVESTIGACIÓN FECHA SOLICITUD 9 12 2021 N° DIA MES AÑO ESTUDIANTES E - MAIL CELULAR TITULO DEL DOCUMENTO N° FOLIOS ANEXOS 23 Trabajo final de grado PROGRAMA: DOCTORADO MAESTRÍA. ESPECIALIZACIÓN ASESOR METODOLÓGICO (Revisa la propuesta metodológica y técnica) TUTOR DISCIPLINAR (Revisa el contenido sustancial del trabajo) ASIGNADO A: JOSE MANUEL GUAL ACOSTA ASIGNADO A: OBSERVACIONES: OBSERVACIONES: APROBADO IMPROBADO APROBADO IMPROBADO Fecha del Concepto ______02-12-2021 Fecha del Concepto FIRMA: FIRMA: Jose Manuel Gual Acosta Los alcances de la inteligencia artificial (IA) y su responsabilidad frente al derecho y ética Resumen Palabras Clave Abstract Keywords: 1. ¿Qué es la inteligencia artificial? 2. La IA y sus alcances éticos: 2.1. Ética y diversas implicaciones en la IA. 2.2. Principios éticos para el diseño y desarrollo de la IA Hacer el bien y no hacer daño (principios de beneficenciay no maleficencia). Principio de justicia y no discriminación El principio de explicabilidad y transparencia La libertad y autonomía humana frente a la “autonomía” artificial. 2.2. Búsqueda de un marco regulatorio de la ética y la IA. 3. IA y su aplicación en proceso judicial. 3.1. Evolución de la administración de justicia mediante el empleo de IA. 3.2. Ventajas y desventajas de la IA en el derecho procesal. Conclusión Bibliografía
Compartir