Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
INTELIGENCIA ARTIFICIAL: LA PRECUELA DE LAS NUEVAS GUERRAS Alumna: MELLI, Candela Abril Escuela: E.E.S Carlos Pellegrini, Gutiérrez, Buenos Aires Docente Guía: RUIZ, Leandro Introducción Las investigaciones científicas siempre estuvieron presentes en los conflictos bélicos, variaron según la época y según el avance tecnológico de quienes lo utilizaban. Desde comienzos del siglo XXI se empezó a ver un creciente uso de la inteligencia artificial (IA) en esta área. Particularmente, desde finales del 2022 se empezó a escuchar más sobre este término entre las personas y los medios de comunicación, por lo que ahora es conocimiento general que la IA sirve para un montón de cosas, como una oportunidad para emprender, crear trabajos artísticos, literarios o académicos. Sin embargo, estas mismas herramientas que sirven para entretenimiento personal también pueden ser utilizadas para la creación de armas para la guerra. El mismo conocimiento utilizado por los programadores para crear algoritmos que nos escriban un texto a partir de tres palabras, está también involucrado en los números y cables que lleva el código de un robot asesino. Es por eso que en la presente monografía se pregunta por la inteligencia artificial, su utilización en sistemas de defensa, y se reflexiona sobre una reglamentación internacional y un compromiso social de los programadores que hacen sistemas con estos fines, planteando la implementación de un Juramento Hipocrático. Al final se presentará una conclusión de las ideas propuestas, la que involucra la búsqueda de una investigación en materia de IA para el futuro bienestar del mundo. Inteligencia Artificial: definición y conceptos La inteligencia artificial (IA), si bien no tiene una única definición, en un sentido amplio se podría decir que es aquella tecnología creada para imitar los distintos rasgos cognitivos del ser humano, prediciendo y tomando decisiones, que pueden o no ser supervisadas por el ser humano (UNESCO, 2022). Con esto se puede decir que la IA crea máquinas que imiten al humano y lo "ayude". Esto trae sin duda replanteamientos éticos sobre lo que se podría delegar o no a una máquina, o sobre si es ética su creación. La Inteligencia Artificial en general se basa en datos de gran volumen (big data), obtenidos mediante cada acción realizada en Internet, y utilizados en una rama de la IA llamada “aprendizaje automático”. Esta consiste en que a la máquina se le den ejemplos para reconocer patrones en los datos, para luego resolver problemas. Esta rama requería el control de un humano. Después, en el 2010 llegó un subconjunto de esta, denominado “aprendizaje profundo”, cuyo funcionamiento ya no requiere de la supervisión humana, sino que la máquina ya reconoce por sí misma los patrones, como imágenes con algún objeto, sin que se le sea mencionado. La máquina en esta técnica “aprende” de sí misma. (UNESCO, 2021) Si estas máquinas aprenden a hacer tareas sin que haya una persona controlándolas, van a llamarse “autónomas” (Grupo Europeo sobre Ética de la Ciencia y las Nuevas Tecnologías [GEE], 2018). El problema ético está en la utilización de este tipo de sistemas en el desarrollo de armas militares, y, por consiguiente, en la disposición de los científicos y profesionales en el área para realizar investigaciones con estos fines. A esto se suma la inexistencia de un marco jurídico internacional que regule estos sistemas, o el accionar del científico. Sistemas de Armas Autónomos ¿deshumanización de la guerra? Las armas autónomas, según el Comité Internacional de la Cruz Roja [CICR] (2022), son aquellas que seleccionan algún objetivo y le disparan sin control humano. Estos objetivos son seleccionados mediante un sistema de reconocimiento denominado “perfil de objetivo”, donde las máquinas tienen sensores que detectan formas o movimiento y disparan. De esta forma es el objetivo quien provocó el ataque, y no otra persona que accedió a ello. El CICR argumenta también que lo peligroso de estos sistemas es el objetivo que pueden elegir, ya que con el movimiento o la forma puede haber víctimas colaterales que no sean necesariamente un soldado o coche militar del bando enemigo. Cuando a esta idea se le suma la robótica, tendríamos robots equipados con armas letales, capaces de matar a cualquier enemigo que se le acercara. Estas armas pueden tener diferentes grados de autonomía, siendo las que mayor grado tienen las más peligrosas. Si el grado de autonomía es bajo, el sistema necesita de la validación humana para realizar una tarea. También hay sistemas que puedan realizar la tarea por sí mismas, pero con supervisión humana; o sistemas que no precisan intervención humana en absoluto, ya que realizan la tarea con total autonomía (Martinez y Rodriguez, 2019, como se citó en Pugliese y Griffini, 2021). Estas últimas no existen aún en la actualidad, pero se están desarrollando, ya que la tecnología avanza rápidamente, por lo que sería totalmente posible. Y es esa posibilidad la que permite a la sociedad preocuparse por el futuro de la guerra. Como ejemplo de estas tecnologías militares emergentes se nombra el objetivo del ejército de Reino Unido, el cual para 2030 quiere construir una flota de 30.000 robots, ya que no tienen muchos voluntarios para el ejército. Sin embargo, alegan que solo los soldados serían los encargados de disparar (García, 2020). Aunque esto es incierto, ya que los robots están planeados para un futuro próximo, y mientras no haya regulaciones sobre la invención de estos sistemas no se podrá poner ninguna restricción. En consecuencia a esto, Moliner González (2017) plantea una serie de defensas y objeciones que se forman en cuanto a las armas autónomas. Como defensa de estos sistemas, él argumenta que estos ayudarían a tener menos bajas en los combatientes y no pasarían por las mismas emociones que ellos durante la batalla, por lo que el soldado tendría más supervivencia en el combate. Sin embargo, el autor remarca que este principio aleja al soldado de la batalla, ya que daría la falsa sensación de no estar involucrado en el conflicto y, por lo tanto, tomar las decisiones de matar más fácilmente. Se destaca también la opinión de Vasily Sychev (2018) “En el caso de la introducción generalizada de sistemas de combate autónomos, cuyos efectivos podrán ser dirigidos sólo con deslizar el dedo sobre la pantalla de una tableta desde otro continente, la guerra se volverá simplemente un juego, con víctimas civiles y militares que son sólo cifras en una pantalla” (p. 28). Otra objeción que plantea Moliner González es que la decisión de matar no podría ser delegada a una inteligencia artificial, ya que estas no son capaces de sentir empatía, ni tampoco de darse cuenta si alguien se está rindiendo o no está en condiciones para seguir luchando. Y como dice este autor, de ahí radica la petición de que estos sistemas tengan un control humano significativo, ya que siempre pueden cometer errores. Además, es parte fundamental de un conflicto armado que se tenga en cuenta la ética militar, con base en el derecho internacional humanitario, para asegurarse que las acciones del soldado sean legítimas desde comienzo a fin, y que sea siempre el humano quien decida si matar o no a otro humano, a su propia especie. Al crear una máquina dotada de esta ética se estaría dejando que la dignidad humana, definida como el principio de lo que nos hace verdaderamente humanos y dignos de respeto (UNESCO, 2022) esté en manos de un software, un sistema que no piensa ni siente, ni defiende o critica la vida humana. Por lo tanto, siguiendo con la idea del autor, esto contribuiría a una deshumanización de la guerra, porque sus actores serían robots y quienes los manejen, o no, ya no requerirían de entrenamiento militar, sino que bastaría con tener aprendizajes de manejo de controles de videojuegospara entrar en combate, lejos del conflicto real (Moliner González 2018). Sin embargo, por más autónomos que estos sistemas de armas sean, lo cierto es que el ser humano es quien le da este poder, esta autonomía de decisión. Claramente estos sistemas tienen una gran capacidad de matar, pero quienes querrían lograr estos objetivos, los militares o los gobiernos, no son quienes desarrollan estas armas, sino que son los científicos. ¿Por qué querría un científico desarrollar un arma de este tipo, que podría causar una gran destrucción? ¿Por qué aún no hay regulaciones para este tipo de sistemas y para las investigaciones con fines de su desarrollo? Por supuesto, los distintos intereses de los países, la relativa novedad que implica la IA en la sociedad y la falta de educación sobre su ética son las razones. Pero la lucha por esto aún sigue. Hacia un marco jurídico internacional y juramento hipocrático de programadores Son varias las organizaciones que están en contra de los sistemas de armas autónomos, como son la organización Amnistía Internacional, Stop Killers Robots, Human Rights Watch, entre otras. Estas organizaciones, junto con científicos y estados, llevaron a cabo distintos proyectos para que se dicte un marco normativo. Un ejemplo de esto es la carta que el Future Of Life Institute publicó en el 2015, firmada por varios referentes mundiales de la ciencia y la tecnología, como Elon Musk o Stephen Hawking. La carta de esta institución tenía el propósito de reclamar sobre el uso de la Inteligencia Artificial de uso inmoral y su creciente autonomía (González, 2015). Ya desde el 2015 alertaban de esto, y por eso pedían una regulación para desarrollos y desarrolladores, ya que en su mayoría los firmantes trabajaban en este ámbito. Uno de los frutos de esto, si se podría decir, fue que en el 2022 la UNESCO elaboró una recomendación sobre la ética de la Inteligencia Artificial. En dicha recomendación se plantea una serie de valores y principios deseables en el abordaje de políticas para regular la IA en los países miembros, más algunos ámbitos de acción en donde sean necesarias estas políticas. En este documento se subrayan algunos principios, como el de supervisión y decisión humana, donde dice que la responsabilidad debe estar siempre atribuida a una persona física y no a un algoritmo. Esto nos lleva al principio de rendición de cuentas, ya que siempre las empresas o estados deberían tener una reparación de los daños hechos por la IA, y estos ser atribuidos a alguna persona que participe en el desarrollo de este sistema. Además, está el principio de proporcionalidad e inocuidad, que dice que si el sistema atenta contra algún derecho humano, esa decisión final debe ser tomada por uno; o el principio de transparencia y explicabilidad, que menciona que los algoritmos deben poder explicar cómo se llegó a la decisión tomada. Estos principios tienen algo en común: todos están pensados para regular la forma en la que se deben desarrollar los sistemas autónomos, que sin duda involucran al programador. ¿El programador debería tener la culpa de los fines de esta máquina en cuanto al principio de rendición de cuentas? ¿O las personas para las cuales el programador trabaja son las culpables? Los avances científicos en torno a la IA son muy importantes en la actualidad, claramente. Sin embargo, si se quiere prevenir el uso de la IA para fines poco éticos, como es el desarrollo de armas autónomas, no solo se debe hacer una regulación de su creación, sino que también crear un código ético para programadores. Ya no son solo las armas nucleares, biológicas o químicas las que le dan mala reputación a la ciencia, sino que se suman los algoritmos potencialmente malignos. Tomando la idea de Prego (2019), él plantea que se tendría que formular un Juramento Hipocrático en los institutos de ciencias informáticas para que los desarrolladores tengan un compromiso social en desarrollar algoritmos éticos por y para el bien de la humanidad. Como dice este autor, los programadores en la universidad estudian matemáticas y nada sobre el paradigma moral al que se enfrentarán más tarde. Debe haber una educación para los desarrolladores sobre las posibles consecuencias en la IA, como plantea el principio de educación de la Recomendación de la UNESCO, destinado a toda la sociedad en general. Este principio es importante porque al ser tan usada la IA en la sociedad, las personas tendrían que ser conscientes de su uso, además de saber cómo funciona o aprovechar sus usos. Citando las palabras de Paenza (2010) “el Juramento Hipocrático para científicos representa, para quienes nos dedicamos a la ciencia, la aceptación y toma de conciencia de que nuestro trabajo tiene necesariamente una dimensión ética” (p. 123). Darse cuenta de esto guía a la ciencia a la investigación para la paz, que es realizar la tarea de científico, pero poniendo todas sus fuerzas para que sus descubrimientos sean destinados a una buena causa. Y esto se logra con educación y compromiso social. Conclusión Se entiende que la inteligencia artificial y sus usos no son malignos en sí, pero cuando a la cuestión se involucran los objetivos de la ciencia bélica, puede dar resultados que atenten contra los derechos humanos. A lo largo de la historia se prohibieron armas nucleares, químicas y biológicas. Pero si bien para la sociedad es difícil imaginar armas autónomas letales fabricadas por el ser humano, dignas de un escenario de ciencia ficción, las cuales tengan el poder de tomar decisiones de vida o muerte, es realmente necesario hacerlo debido al avance tecnológico que se presencia. Pero no por eso hay que entrar en pánico, sino que hay que intentar regular su desarrollo para evitar una destrucción comparada a las que sucedieron antes con otras armas, o algún tipo de carrera armamentística entre potencias. Un marco jurídico regulatorio mundial, aprobado por la mayoría de países, ayudaría a detener esto, pero no sin antes concentrarnos en la educación ética de la IA, para todos los ámbitos, para que tengamos conciencia social sobre estas tecnologías. Y esto solo se puede hacer si se concentra en la actividad de los desarrolladores, tratando de brindarles educación moral sobre los efectos de sus códigos, y proponer en las universidades un juramento hipocrático para programadores. Así se estarían orientando sus mentes hacia una investigación para la paz del mundo. Porque después de todo, ese debería ser el objetivo de la ciencia. Referencias CICR (2022, 26 de julio). Preguntas y respuestas: lo que hay que saber sobre las armas autónomas. Recuperado de: https://www.icrc.org/es/document/preguntas-y-respuestas-sobre-armas-autonomas García, J. (2020, 9 de noviembre). 30.000 robots, 90.000 humanos: así imagina el jefe del Estado Mayor del Ejército Británico sus fuerzas armadas para 2030. Xataka. Recuperado de: https://www.xataka.com/robotica- e-ia/30-000-robots-90-000-humanos-asi-imagina-jefe-estado-mayor-ejercito-britanico-sus-fuerzas-armadas- para-2030 Grupo Europeo sobre Ética de la Ciencia y las Nuevas Tecnologías (GEE). (2018). Declaración sobre inteligencia artificial, robótica y sistemas “autónomos”. Recuperado de: https://www.researchgate.net/publication/332061758_Traduccion_de_la_Declaracion_sobre_Inteligencia_artif icial_robotica_y_sistemas_autonomos_del_Grupo_Europeo_sobre_Etica_de_la_Ciencia_y_las_Nuevas_Tecno logias González, M. (2015, 12 de enero). Elon Musk, Google y otros socios tecnológicos quieren proteger a los humanos de las máquinas. Xataka. Recuperado de: https://www.xataka.com/robotica-e-ia/elon-musk-google-y- otros-socios-tecnologicos-quieren-proteger-a-los-humanos-de-las-maquinas Moliner González J. A. (2017). Desafíos éticos en el uso militar de la inteligencia artificial. En La inteligencia artificial aplicada a la defensa (pp 127-149). InstitutoEspañol de Estudios Estratégicos. Recuperado de: https://www.ieee.es/Galerias/fichero/docs_trabajo/2019/DIEEET0-2018La_inteligencia_artificial.pdf Moliner González J. A. (2018, 19 de febrero). Algunos problemas éticos de las tecnologías militares emergentes. Recuperado de: https://dialnet.unirioja.es/servlet/libro?codigo=731297 Paenza, A. (2010). El Juramento para Científicos: Una toma de posición frente a la vida. Ciencia para la paz y el desarrollo: El caso del Juramento Hipocrático para Científicos, 123-124. Recuperado de: https://unesdoc.unesco.org/ark:/48223/pf0000188400 Prego, C.(2019, 22 de abril). Ética y desarrollo software: el debate de si hace falta un juramento hipocrático para programadores. Xataka. Recuperado de: https://www.xataka.com/legislacion-y-derechos/etica- desarrollo-software-debate-hace-falta-juramento-hipocratico-para-programadores Pugliese P. y Griffini, B. (2021). Implicaciones del uso de los Sistemas de Armas Autónomas Letales (Laws) en los conflictos armados modernos. Perspectivas Revista de Ciencias Sociales (11), 383-404. Recuperado de: https://perspectivasrcs.unr.edu.ar/index.php/PRCS/article/view/456 Sychev, V. (2018). La amenaza de los robots asesinos. El Correo de la Unesco. Inteligencia Artificial. Promesas y Amenazas, (3), 25-28. Recuperado de: https://unesdoc.unesco.org/ark:/48223/pf0000265211_spa UNESCO (2018). Léxico de la inteligencia artificial. El Correo de la Unesco. Inteligencia Artificial. Promesas y Amenazas, (3), 40-41. Recuperado de: https://unesdoc.unesco.org/ark:/48223/pf0000265211_spa UNESCO (2022). Recomendación sobre la ética de la inteligencia artificial. https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa https://www.icrc.org/es/document/preguntas-y-respuestas-sobre-armas-autonomas https://www.xataka.com/robotica-e-ia/30-000-robots-90-000-humanos-asi-imagina-jefe-estado-mayor-ejercito-britanico-sus-fuerzas-armadas-para-2030 https://www.xataka.com/robotica-e-ia/30-000-robots-90-000-humanos-asi-imagina-jefe-estado-mayor-ejercito-britanico-sus-fuerzas-armadas-para-2030 https://www.xataka.com/robotica-e-ia/30-000-robots-90-000-humanos-asi-imagina-jefe-estado-mayor-ejercito-britanico-sus-fuerzas-armadas-para-2030 https://www.researchgate.net/publication/332061758_Traduccion_de_la_Declaracion_sobre_Inteligencia_artificial_robotica_y_sistemas_autonomos_del_Grupo_Europeo_sobre_Etica_de_la_Ciencia_y_las_Nuevas_Tecnologias https://www.researchgate.net/publication/332061758_Traduccion_de_la_Declaracion_sobre_Inteligencia_artificial_robotica_y_sistemas_autonomos_del_Grupo_Europeo_sobre_Etica_de_la_Ciencia_y_las_Nuevas_Tecnologias https://www.researchgate.net/publication/332061758_Traduccion_de_la_Declaracion_sobre_Inteligencia_artificial_robotica_y_sistemas_autonomos_del_Grupo_Europeo_sobre_Etica_de_la_Ciencia_y_las_Nuevas_Tecnologias https://www.xataka.com/robotica-e-ia/elon-musk-google-y-otros-socios-tecnologicos-quieren-proteger-a-los-humanos-de-las-maquinas https://www.xataka.com/robotica-e-ia/elon-musk-google-y-otros-socios-tecnologicos-quieren-proteger-a-los-humanos-de-las-maquinas https://www.ieee.es/Galerias/fichero/docs_trabajo/2019/DIEEET0-2018La_inteligencia_artificial.pdf https://dialnet.unirioja.es/servlet/libro?codigo=731297 https://unesdoc.unesco.org/ark:/48223/pf0000188400 https://www.xataka.com/legislacion-y-derechos/etica-desarrollo-software-debate-hace-falta-juramento-hipocratico-para-programadores https://www.xataka.com/legislacion-y-derechos/etica-desarrollo-software-debate-hace-falta-juramento-hipocratico-para-programadores https://perspectivasrcs.unr.edu.ar/index.php/PRCS/article/view/456 https://unesdoc.unesco.org/ark:/48223/pf0000265211_spa https://unesdoc.unesco.org/ark:/48223/pf0000265211_spa https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa
Compartir