Logo Studenta

MelliCandela

¡Estudia con miles de materiales!

Vista previa del material en texto

INTELIGENCIA ARTIFICIAL: LA PRECUELA DE LAS NUEVAS 
GUERRAS 
 
Alumna: MELLI, Candela Abril 
Escuela: E.E.S Carlos Pellegrini, Gutiérrez, Buenos Aires 
Docente Guía: RUIZ, Leandro 
 
Introducción 
Las investigaciones científicas siempre estuvieron presentes en los conflictos bélicos, variaron 
según la época y según el avance tecnológico de quienes lo utilizaban. Desde comienzos del siglo 
XXI se empezó a ver un creciente uso de la inteligencia artificial (IA) en esta área. Particularmente, 
desde finales del 2022 se empezó a escuchar más sobre este término entre las personas y los medios 
de comunicación, por lo que ahora es conocimiento general que la IA sirve para un montón de 
cosas, como una oportunidad para emprender, crear trabajos artísticos, literarios o académicos. Sin 
embargo, estas mismas herramientas que sirven para entretenimiento personal también pueden ser 
utilizadas para la creación de armas para la guerra. El mismo conocimiento utilizado por los 
programadores para crear algoritmos que nos escriban un texto a partir de tres palabras, está 
también involucrado en los números y cables que lleva el código de un robot asesino. 
Es por eso que en la presente monografía se pregunta por la inteligencia artificial, su utilización en 
sistemas de defensa, y se reflexiona sobre una reglamentación internacional y un compromiso social 
de los programadores que hacen sistemas con estos fines, planteando la implementación de un 
Juramento Hipocrático. Al final se presentará una conclusión de las ideas propuestas, la que 
involucra la búsqueda de una investigación en materia de IA para el futuro bienestar del mundo. 
 
Inteligencia Artificial: definición y conceptos 
La inteligencia artificial (IA), si bien no tiene una única definición, en un sentido amplio se podría 
decir que es aquella tecnología creada para imitar los distintos rasgos cognitivos del ser humano, 
prediciendo y tomando decisiones, que pueden o no ser supervisadas por el ser humano (UNESCO, 
2022). Con esto se puede decir que la IA crea máquinas que imiten al humano y lo "ayude". Esto 
trae sin duda replanteamientos éticos sobre lo que se podría delegar o no a una máquina, o sobre si 
es ética su creación. 
 
La Inteligencia Artificial en general se basa en datos de gran volumen (big data), obtenidos 
mediante cada acción realizada en Internet, y utilizados en una rama de la IA llamada “aprendizaje 
automático”. Esta consiste en que a la máquina se le den ejemplos para reconocer patrones en los 
datos, para luego resolver problemas. Esta rama requería el control de un humano. Después, en el 
2010 llegó un subconjunto de esta, denominado “aprendizaje profundo”, cuyo funcionamiento ya no 
requiere de la supervisión humana, sino que la máquina ya reconoce por sí misma los patrones, 
como imágenes con algún objeto, sin que se le sea mencionado. La máquina en esta técnica 
“aprende” de sí misma. (UNESCO, 2021) 
 
Si estas máquinas aprenden a hacer tareas sin que haya una persona controlándolas, van a llamarse 
“autónomas” (Grupo Europeo sobre Ética de la Ciencia y las Nuevas Tecnologías [GEE], 2018). El 
problema ético está en la utilización de este tipo de sistemas en el desarrollo de armas militares, y, 
por consiguiente, en la disposición de los científicos y profesionales en el área para realizar 
investigaciones con estos fines. A esto se suma la inexistencia de un marco jurídico internacional 
que regule estos sistemas, o el accionar del científico. 
 
Sistemas de Armas Autónomos ¿deshumanización de la guerra? 
Las armas autónomas, según el Comité Internacional de la Cruz Roja [CICR] (2022), son aquellas 
que seleccionan algún objetivo y le disparan sin control humano. Estos objetivos son seleccionados 
mediante un sistema de reconocimiento denominado “perfil de objetivo”, donde las máquinas tienen 
sensores que detectan formas o movimiento y disparan. De esta forma es el objetivo quien provocó 
el ataque, y no otra persona que accedió a ello. El CICR argumenta también que lo peligroso de 
estos sistemas es el objetivo que pueden elegir, ya que con el movimiento o la forma puede haber 
víctimas colaterales que no sean necesariamente un soldado o coche militar del bando enemigo. 
Cuando a esta idea se le suma la robótica, tendríamos robots equipados con armas letales, capaces 
de matar a cualquier enemigo que se le acercara. 
 
Estas armas pueden tener diferentes grados de autonomía, siendo las que mayor grado tienen las 
más peligrosas. Si el grado de autonomía es bajo, el sistema necesita de la validación humana para 
realizar una tarea. También hay sistemas que puedan realizar la tarea por sí mismas, pero con 
supervisión humana; o sistemas que no precisan intervención humana en absoluto, ya que realizan 
la tarea con total autonomía (Martinez y Rodriguez, 2019, como se citó en Pugliese y Griffini, 
2021). Estas últimas no existen aún en la actualidad, pero se están desarrollando, ya que la 
tecnología avanza rápidamente, por lo que sería totalmente posible. Y es esa posibilidad la que 
permite a la sociedad preocuparse por el futuro de la guerra. 
 
Como ejemplo de estas tecnologías militares emergentes se nombra el objetivo del ejército de Reino 
Unido, el cual para 2030 quiere construir una flota de 30.000 robots, ya que no tienen muchos 
voluntarios para el ejército. Sin embargo, alegan que solo los soldados serían los encargados de 
disparar (García, 2020). Aunque esto es incierto, ya que los robots están planeados para un futuro 
próximo, y mientras no haya regulaciones sobre la invención de estos sistemas no se podrá poner 
ninguna restricción. 
 
En consecuencia a esto, Moliner González (2017) plantea una serie de defensas y objeciones que se 
forman en cuanto a las armas autónomas. Como defensa de estos sistemas, él argumenta que estos 
ayudarían a tener menos bajas en los combatientes y no pasarían por las mismas emociones que 
ellos durante la batalla, por lo que el soldado tendría más supervivencia en el combate. Sin 
embargo, el autor remarca que este principio aleja al soldado de la batalla, ya que daría la falsa 
sensación de no estar involucrado en el conflicto y, por lo tanto, tomar las decisiones de matar más 
fácilmente. Se destaca también la opinión de Vasily Sychev (2018) “En el caso de la introducción 
generalizada de sistemas de combate autónomos, cuyos efectivos podrán ser dirigidos sólo con 
deslizar el dedo sobre la pantalla de una tableta desde otro continente, la guerra se volverá 
simplemente un juego, con víctimas civiles y militares que son sólo cifras en una pantalla” (p. 28). 
 
Otra objeción que plantea Moliner González es que la decisión de matar no podría ser delegada a 
una inteligencia artificial, ya que estas no son capaces de sentir empatía, ni tampoco de darse cuenta 
si alguien se está rindiendo o no está en condiciones para seguir luchando. Y como dice este autor, 
de ahí radica la petición de que estos sistemas tengan un control humano significativo, ya que 
siempre pueden cometer errores. Además, es parte fundamental de un conflicto armado que se tenga 
en cuenta la ética militar, con base en el derecho internacional humanitario, para asegurarse que las 
acciones del soldado sean legítimas desde comienzo a fin, y que sea siempre el humano quien 
decida si matar o no a otro humano, a su propia especie. Al crear una máquina dotada de esta ética 
se estaría dejando que la dignidad humana, definida como el principio de lo que nos hace 
verdaderamente humanos y dignos de respeto (UNESCO, 2022) esté en manos de un software, un 
sistema que no piensa ni siente, ni defiende o critica la vida humana. Por lo tanto, siguiendo con la 
idea del autor, esto contribuiría a una deshumanización de la guerra, porque sus actores serían 
robots y quienes los manejen, o no, ya no requerirían de entrenamiento militar, sino que bastaría 
con tener aprendizajes de manejo de controles de videojuegospara entrar en combate, lejos del 
conflicto real (Moliner González 2018). 
 
Sin embargo, por más autónomos que estos sistemas de armas sean, lo cierto es que el ser humano 
es quien le da este poder, esta autonomía de decisión. Claramente estos sistemas tienen una gran 
capacidad de matar, pero quienes querrían lograr estos objetivos, los militares o los gobiernos, no 
son quienes desarrollan estas armas, sino que son los científicos. ¿Por qué querría un científico 
desarrollar un arma de este tipo, que podría causar una gran destrucción? ¿Por qué aún no hay 
regulaciones para este tipo de sistemas y para las investigaciones con fines de su desarrollo? Por 
supuesto, los distintos intereses de los países, la relativa novedad que implica la IA en la sociedad y 
la falta de educación sobre su ética son las razones. Pero la lucha por esto aún sigue. 
 
Hacia un marco jurídico internacional y juramento hipocrático de programadores 
Son varias las organizaciones que están en contra de los sistemas de armas autónomos, como son la 
organización Amnistía Internacional, Stop Killers Robots, Human Rights Watch, entre otras. Estas 
organizaciones, junto con científicos y estados, llevaron a cabo distintos proyectos para que se dicte 
un marco normativo. Un ejemplo de esto es la carta que el Future Of Life Institute publicó en el 
2015, firmada por varios referentes mundiales de la ciencia y la tecnología, como Elon Musk o 
Stephen Hawking. La carta de esta institución tenía el propósito de reclamar sobre el uso de la 
Inteligencia Artificial de uso inmoral y su creciente autonomía (González, 2015). Ya desde el 2015 
alertaban de esto, y por eso pedían una regulación para desarrollos y desarrolladores, ya que en su 
mayoría los firmantes trabajaban en este ámbito. 
 
Uno de los frutos de esto, si se podría decir, fue que en el 2022 la UNESCO elaboró una 
recomendación sobre la ética de la Inteligencia Artificial. En dicha recomendación se plantea una 
serie de valores y principios deseables en el abordaje de políticas para regular la IA en los países 
miembros, más algunos ámbitos de acción en donde sean necesarias estas políticas. En este 
documento se subrayan algunos principios, como el de supervisión y decisión humana, donde dice 
que la responsabilidad debe estar siempre atribuida a una persona física y no a un algoritmo. Esto 
nos lleva al principio de rendición de cuentas, ya que siempre las empresas o estados deberían tener 
una reparación de los daños hechos por la IA, y estos ser atribuidos a alguna persona que participe 
en el desarrollo de este sistema. Además, está el principio de proporcionalidad e inocuidad, que dice 
que si el sistema atenta contra algún derecho humano, esa decisión final debe ser tomada por uno; o 
el principio de transparencia y explicabilidad, que menciona que los algoritmos deben poder 
explicar cómo se llegó a la decisión tomada. 
 
Estos principios tienen algo en común: todos están pensados para regular la forma en la que se 
deben desarrollar los sistemas autónomos, que sin duda involucran al programador. ¿El 
programador debería tener la culpa de los fines de esta máquina en cuanto al principio de rendición 
de cuentas? ¿O las personas para las cuales el programador trabaja son las culpables? Los avances 
científicos en torno a la IA son muy importantes en la actualidad, claramente. Sin embargo, si se 
quiere prevenir el uso de la IA para fines poco éticos, como es el desarrollo de armas autónomas, no 
solo se debe hacer una regulación de su creación, sino que también crear un código ético para 
programadores. Ya no son solo las armas nucleares, biológicas o químicas las que le dan mala 
reputación a la ciencia, sino que se suman los algoritmos potencialmente malignos. Tomando la 
idea de Prego (2019), él plantea que se tendría que formular un Juramento Hipocrático en los 
institutos de ciencias informáticas para que los desarrolladores tengan un compromiso social en 
desarrollar algoritmos éticos por y para el bien de la humanidad. Como dice este autor, los 
programadores en la universidad estudian matemáticas y nada sobre el paradigma moral al que se 
enfrentarán más tarde. Debe haber una educación para los desarrolladores sobre las posibles 
consecuencias en la IA, como plantea el principio de educación de la Recomendación de la 
UNESCO, destinado a toda la sociedad en general. Este principio es importante porque al ser tan 
usada la IA en la sociedad, las personas tendrían que ser conscientes de su uso, además de saber 
cómo funciona o aprovechar sus usos. Citando las palabras de Paenza (2010) “el Juramento 
Hipocrático para científicos representa, para quienes nos dedicamos a la ciencia, la aceptación y 
toma de conciencia de que nuestro trabajo tiene necesariamente una dimensión ética” (p. 123). 
Darse cuenta de esto guía a la ciencia a la investigación para la paz, que es realizar la tarea de 
científico, pero poniendo todas sus fuerzas para que sus descubrimientos sean destinados a una 
buena causa. Y esto se logra con educación y compromiso social. 
 
Conclusión 
Se entiende que la inteligencia artificial y sus usos no son malignos en sí, pero cuando a la cuestión 
se involucran los objetivos de la ciencia bélica, puede dar resultados que atenten contra los derechos 
humanos. A lo largo de la historia se prohibieron armas nucleares, químicas y biológicas. Pero si 
bien para la sociedad es difícil imaginar armas autónomas letales fabricadas por el ser humano, 
dignas de un escenario de ciencia ficción, las cuales tengan el poder de tomar decisiones de vida o 
muerte, es realmente necesario hacerlo debido al avance tecnológico que se presencia. 
Pero no por eso hay que entrar en pánico, sino que hay que intentar regular su desarrollo para evitar 
una destrucción comparada a las que sucedieron antes con otras armas, o algún tipo de carrera 
armamentística entre potencias. Un marco jurídico regulatorio mundial, aprobado por la mayoría de 
países, ayudaría a detener esto, pero no sin antes concentrarnos en la educación ética de la IA, para 
todos los ámbitos, para que tengamos conciencia social sobre estas tecnologías. Y esto solo se 
puede hacer si se concentra en la actividad de los desarrolladores, tratando de brindarles educación 
moral sobre los efectos de sus códigos, y proponer en las universidades un juramento hipocrático 
para programadores. Así se estarían orientando sus mentes hacia una investigación para la paz del 
mundo. Porque después de todo, ese debería ser el objetivo de la ciencia. 
 
 
Referencias 
 CICR (2022, 26 de julio). Preguntas y respuestas: lo que hay que saber sobre las armas autónomas. 
Recuperado de: https://www.icrc.org/es/document/preguntas-y-respuestas-sobre-armas-autonomas 
 García, J. (2020, 9 de noviembre). 30.000 robots, 90.000 humanos: así imagina el jefe del Estado Mayor del 
Ejército Británico sus fuerzas armadas para 2030. Xataka. Recuperado de: https://www.xataka.com/robotica-
e-ia/30-000-robots-90-000-humanos-asi-imagina-jefe-estado-mayor-ejercito-britanico-sus-fuerzas-armadas-
para-2030 
 Grupo Europeo sobre Ética de la Ciencia y las Nuevas Tecnologías (GEE). (2018). Declaración sobre 
inteligencia artificial, robótica y sistemas “autónomos”. Recuperado de: 
https://www.researchgate.net/publication/332061758_Traduccion_de_la_Declaracion_sobre_Inteligencia_artif
icial_robotica_y_sistemas_autonomos_del_Grupo_Europeo_sobre_Etica_de_la_Ciencia_y_las_Nuevas_Tecno
logias 
 González, M. (2015, 12 de enero). Elon Musk, Google y otros socios tecnológicos quieren proteger a los 
humanos de las máquinas. Xataka. Recuperado de: https://www.xataka.com/robotica-e-ia/elon-musk-google-y-
otros-socios-tecnologicos-quieren-proteger-a-los-humanos-de-las-maquinas 
 Moliner González J. A. (2017). Desafíos éticos en el uso militar de la inteligencia artificial. En La inteligencia 
artificial aplicada a la defensa (pp 127-149). InstitutoEspañol de Estudios Estratégicos. Recuperado de: 
https://www.ieee.es/Galerias/fichero/docs_trabajo/2019/DIEEET0-2018La_inteligencia_artificial.pdf 
 Moliner González J. A. (2018, 19 de febrero). Algunos problemas éticos de las tecnologías militares 
emergentes. Recuperado de: https://dialnet.unirioja.es/servlet/libro?codigo=731297 
 Paenza, A. (2010). El Juramento para Científicos: Una toma de posición frente a la vida. Ciencia para la paz y 
el desarrollo: El caso del Juramento Hipocrático para Científicos, 123-124. 
Recuperado de: https://unesdoc.unesco.org/ark:/48223/pf0000188400 
 Prego, C.(2019, 22 de abril). Ética y desarrollo software: el debate de si hace falta un juramento hipocrático 
para programadores. Xataka. Recuperado de: https://www.xataka.com/legislacion-y-derechos/etica-
desarrollo-software-debate-hace-falta-juramento-hipocratico-para-programadores 
 Pugliese P. y Griffini, B. (2021). Implicaciones del uso de los Sistemas de Armas Autónomas Letales (Laws) 
en los conflictos armados modernos. Perspectivas Revista de Ciencias Sociales (11), 383-404. Recuperado de: 
https://perspectivasrcs.unr.edu.ar/index.php/PRCS/article/view/456 
 Sychev, V. (2018). La amenaza de los robots asesinos. El Correo de la Unesco. Inteligencia Artificial. 
Promesas y Amenazas, (3), 25-28. Recuperado de: https://unesdoc.unesco.org/ark:/48223/pf0000265211_spa 
 UNESCO (2018). Léxico de la inteligencia artificial. El Correo de la Unesco. Inteligencia Artificial. Promesas 
y Amenazas, (3), 40-41. Recuperado de: https://unesdoc.unesco.org/ark:/48223/pf0000265211_spa 
 UNESCO (2022). Recomendación sobre la ética de la inteligencia artificial. 
https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa 
 
https://www.icrc.org/es/document/preguntas-y-respuestas-sobre-armas-autonomas
https://www.xataka.com/robotica-e-ia/30-000-robots-90-000-humanos-asi-imagina-jefe-estado-mayor-ejercito-britanico-sus-fuerzas-armadas-para-2030
https://www.xataka.com/robotica-e-ia/30-000-robots-90-000-humanos-asi-imagina-jefe-estado-mayor-ejercito-britanico-sus-fuerzas-armadas-para-2030
https://www.xataka.com/robotica-e-ia/30-000-robots-90-000-humanos-asi-imagina-jefe-estado-mayor-ejercito-britanico-sus-fuerzas-armadas-para-2030
https://www.researchgate.net/publication/332061758_Traduccion_de_la_Declaracion_sobre_Inteligencia_artificial_robotica_y_sistemas_autonomos_del_Grupo_Europeo_sobre_Etica_de_la_Ciencia_y_las_Nuevas_Tecnologias
https://www.researchgate.net/publication/332061758_Traduccion_de_la_Declaracion_sobre_Inteligencia_artificial_robotica_y_sistemas_autonomos_del_Grupo_Europeo_sobre_Etica_de_la_Ciencia_y_las_Nuevas_Tecnologias
https://www.researchgate.net/publication/332061758_Traduccion_de_la_Declaracion_sobre_Inteligencia_artificial_robotica_y_sistemas_autonomos_del_Grupo_Europeo_sobre_Etica_de_la_Ciencia_y_las_Nuevas_Tecnologias
https://www.xataka.com/robotica-e-ia/elon-musk-google-y-otros-socios-tecnologicos-quieren-proteger-a-los-humanos-de-las-maquinas
https://www.xataka.com/robotica-e-ia/elon-musk-google-y-otros-socios-tecnologicos-quieren-proteger-a-los-humanos-de-las-maquinas
https://www.ieee.es/Galerias/fichero/docs_trabajo/2019/DIEEET0-2018La_inteligencia_artificial.pdf
https://dialnet.unirioja.es/servlet/libro?codigo=731297
https://unesdoc.unesco.org/ark:/48223/pf0000188400
https://www.xataka.com/legislacion-y-derechos/etica-desarrollo-software-debate-hace-falta-juramento-hipocratico-para-programadores
https://www.xataka.com/legislacion-y-derechos/etica-desarrollo-software-debate-hace-falta-juramento-hipocratico-para-programadores
https://perspectivasrcs.unr.edu.ar/index.php/PRCS/article/view/456
https://unesdoc.unesco.org/ark:/48223/pf0000265211_spa
https://unesdoc.unesco.org/ark:/48223/pf0000265211_spa
https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa

Continuar navegando

Materiales relacionados

8 pag.
Salas-SP-2022 -Inteligencia-Artificial

SIN SIGLA

User badge image

Magdielis Gonzalez

12 pag.
54 pag.
retrieve

Vicente Riva Palacio

User badge image

Ysabela Acosta Pérez