Logo Studenta

02-REVISTA-MENSAJE-Los-riesgos-de-la-Inteligencia-Artificial

¡Estudia con miles de materiales!

Vista previa del material en texto

Los riesgos de la 
Inteligencia Artificial
40 Tecnología
L a Inteligencia Artif icial (ia) ha experimentado un rápido avance en los últi-mos años, revolucionando 
la forma en que interactuamos 
con la tecnología y transfor-
mando diversas industrias. 
Sin embargo, a medida que la 
ia se vuelve más sofisticada y 
se integra en nuestras vidas de 
maneras cada vez más intensas, 
también se plantean preocupa-
ciones y riesgos significativos 
para nuestra civilización.
El potencial de la ia es innega-
ble. Con algoritmos de aprendizaje 
profundo y modelos generativos de 
diverso tipo, han aparecido sistemas 
que muestran comportamientos 
similares a los de un ser humano. 
Incluso, en el último tiempo, la ia 
ha demostrado su capacidad para 
realizar tareas complejas, como el 
reconocimiento de imágenes, el 
procesamiento del lenguaje natural, 
la toma de decisiones y la conducción 
sebastián ríos
Académico de Ingeniería Industrial, 
Universidad de Chile
¿En qué ámbitos concretos 
de nuestra sociedad asoman 
amenazas a raíz de ella? De 
momento, es importante abordar 
los problemas éticos que se derivan 
de su desarrollo y uso: se requieren 
además regulaciones adecuadas y 
una rendición de cuentas clara.
autónoma. Estas capacidades tienen 
el potencial de mejorar muchos 
ciertos aspectos de nuestra vida 
cotidiana, desde la atención médica 
y la movilidad hasta la ef iciencia 
energética y la toma de decisiones 
empresariales. Sin embargo, a medi-
da que la ia se vuelve más avanzada, 
también surgen riesgos que debemos 
tener en cuenta. Mencionamos acá 
algunos de los principales peligros 
asociados con esta.
1. riesgos de seguridad y ma-
nipulación: a medida que la ia se 
vuelve más avanzada y autónoma, 
existe el riesgo de que se utilice de 
manera malintencionada o para 
fines dañinos. Esto podría incluir 
el uso de ia en ataques cibernéticos, 
la creación de armas autónomas o la 
manipulación de información para 
engañar, influenciar y manipular a 
las personas.
2. desplazamiento laboral: a 
medida que la ia se vuelve más capaz 
de ejecutar tareas que antes eran 
realizadas por humanos, existe el 
riesgo de que haya una disrupción 
en el mercado laboral, lo que podría 
resultar en la pérdida de empleos en 
ciertos sectores. Esto podría tener 
implicaciones económicas y sociales, 
como la desigualdad de ingresos y la 
necesidad de reentrenar y reubicar a 
los trabajadores afectados.
3. sesgos y discriminación: la ia 
puede perpetuar y amplificar sesgos 
y discriminación si no se desarrolla 
y se implementa de manera ética 
y responsable. Esto podría incluir 
sesgos en los datos utilizados para 
entrenar los modelos de IA, lo que 
podría llevar a decisiones discrimi-
natorias en áreas como la contrata-
ción, la atención médica o la justicia 
penal, con consecuencias injustas 
para ciertos grupos de población.
4. falta de tr ansparencia y 
responsabilidad: la opacidad en 
el funcionamiento interno de los 
modelos de ia y la falta de rendición 
de cuentas de las decisiones tomadas 
por sistemas autónomos de ia pue-
den plantear riesgos en términos de 
ética, responsabilidad y confianza en 
la tecnología. Es importante asegurar 
que la ia sea transparente, explicable 
y responsable en su diseño, desarro-
llo y despliegue.
5. impactos en la privacidad y 
la seguridad de los datos: la ia 
a menudo requiere grandes cantida-
des de datos para su entrenamiento 
y funcionamiento, lo que plantea 
preocupaciones sobre la privacidad 
y la seguridad de los datos. La mala 
gestión de los datos utilizados en la 
ia podría resultar en violaciones de 
privacidad, filtraciones de datos y 
pérdida de confidencialidad.
6. ética y gobernanza: la toma de 
decisiones éticas en el desarrollo y 
uso de la ia plantea desafíos com-
plejos. Entre ellos, la asignación de 
responsabilidades en caso de errores 
o daños causados por sistemas de ia, 
la equidad en el acceso y uso de la 
tecnología, y la necesidad de regu-
laciones y marcos éticos adecuados 
para guiar su desarrollo y aplicación.
Ética y regulaciones
Es importante abordar estos riesgos 
y desafíos de manera proactiva, me-
diante la implementación de marcos 
éticos y regulaciones adecuadas, la 
promoción de la transparencia y la 
responsabilidad en la ia. Asimismo, 
es relevante considerar los impactos 
sociales y laborales que provoca, así 
como el compromiso de diversas 
partes interesadas. Es importante 
incluir a la sociedad, en general, en 
el diálogo y la toma de decisiones 
relacionadas con la ia.
Riesgos para la seguridad
Uno de los riesgos más significativos 
es la automatización de los ataques 
cibernéticos. La inteligencia artifi-
cial (ia) puede ser entrenada para 
identificar vulnerabilidades en sis-
Mayo 2023 M 41
temas de seguridad y redes, así como 
para desarrollar y ejecutar ataques 
de manera autónoma. Por ejemplo, 
los atacantes pueden utilizar algo-
ritmos de aprendizaje automático 
para analizar grandes cantidades de 
datos en busca de vulnerabilidades 
en sistemas informáticos, identi-
ficar debilidades en contraseñas o 
desarrollar malware personalizado 
que sea difícil de detectar por par-
te de las soluciones de seguridad 
convencionales.
Además, la ia puede ser uti-
lizada para llevar a cabo ataques de 
ingeniería social, que implican ma-
nipular a las personas para obtener 
información confidencial o acceso 
a sistemas protegidos. Por ejemplo, 
los atacantes pueden usar algorit-
mos de aprendizaje automático para 
analizar perfiles de redes sociales y 
crear perfiles falsos que se utilizan 
para engañar a las personas y así 
obtener información confidencial, 
como contraseñas o datos de acceso.
Otro r iesgo de seguridad 
relacionado con la ia es la mani-
pulación de contenido. La ia puede 
ser utilizada para generar contenido 
falso o manipulado, como imágenes, 
videos o texto, con el fin de difundir 
información errónea o engañosa. Por 
ejemplo, los llamados «deepfakes» son 
videos o imágenes generados por 
ia que parecen ser auténticos, pero 
en realidad son falsos y pueden ser 
utilizados para difamar a personas, 
influenciar elecciones o causar daño 
reputacional.
Riesgos para el empleo 
(desplazamiento laboral)
Uno de los principales riesgos de 
la ia es su impacto en el empleo. A 
medida que la ia se vuelve más capaz 
de realizar tareas que anteriormente 
requerían la intervención humana, 
existe la preocupación de que los 
empleos tradicionales sean reempla-
zados por la automatización, lo que 
podría resultar en una disrupción 
masiva en el mercado laboral. Según 
un informe del Foro Económico 
Mundial «Future of work. Insights 
for 2021 and Beyond», se estima 
que para el año 2025 la automatiza-
ción podría eliminar 85 millones 
de empleos en todo el mundo en 
sectores como la manufactura, el 
comercio minorista y la adminis-
tración pública. De igual forma, el 
mismo estudio estima que surjan 97 
millones de nuevos empleos que se 
adaptarán mejor al nuevo entorno 
entre humanos, robots y algoritmos.
Pese a esto, surge la inquietud 
natural asociada a que la tasa de re-
emplazo de trabajos humanos por ia 
puede ser mucho mayor a la tasa de 
reconversión de estos trabajadores. 
Esto generaría un problema social 
grave, si no se aborda antes de que 
esto ocurra. Este cambio podría tener 
un impacto significativo en la socie-
dad, con la posibilidad de una mayor 
desigualdad económica, la pérdida 
de empleos en comunidades enteras y 
la necesidad de una reestructuración 
masiva de la fuerza laboral.
De aquí que es esencial abordar 
estos desafíos mediante la imple-
mentación de políticas y programas 
que ayuden a la transición de los 
trabajadores a nuevas oportunidades 
laborales, como la reeducación y la 
capacitación en habilidades tecnoló-
gicas y de gestión del cambio.
La reciente imagen 
ganadora del Sony 
World Photography 
Awards , hecha 
con IA por Boris 
Eldagsen, que 
despertó polémica 
mundial.
Lamentablemente, en general, 
los gobiernos son mucho más lentos 
en reaccionar ante disrupcionestecnológicas y es por ello que urge 
apresurar el paso en esta dirección. 
Especialmente en gobiernos de Amé-
rica Latina, donde apenas estamos 
discutiendo el tema de la digitali-
zación, y en Chile, en particular, 
donde acaba de publicarse una ley 
de transformación digital que ya 
podría venir obsoleta.
Sesgos y discriminación
En primer lugar, la ia puede estar 
sesgada debido a la calidad y a la 
representatividad de los datos con 
los que se entrena. Si los datos 
utilizados para entrenar a la ia son 
sesgados o incompletos, la ia puede 
aprender y perpetuar esos sesgos 
en sus decisiones. Por ejemplo, si 
se entrena una ia para contratar 
empleados uti l izando datos de 
contratación anteriores que tienen 
sesgos de género o raza, la ia puede 
perpetuar esos sesgos en su proceso 
de selección de candidatos, lo que 
lleva a la discriminación de género 
u origen racial en la contratación.
En segundo lugar, la ia puede 
producir sesgos y discriminación 
si los algoritmos utilizados para 
desarrollarla no son transparentes 
o explicables. Muchos algoritmos de 
ia son cajas negras, lo que significa 
que sus procesos y decisiones no 
son claros para los usuarios o desa-
rrolladores. Esto puede dificultar la 
identificación y mitigación de sesgos 
y la consiguiente discriminación 
producida por esta tecnología. Ade-
más, si los desarrolladores de la ia 
no son conscientes de la presencia 
de sesgos y discriminación en sus 
algoritmos, es posible que no tomen 
medidas adecuadas para corregirlos.
En tercer lugar, la ia puede 
producir sesgos y discriminación, 
si no se implementan mecanismos 
de supervisión y regulación ade-
cuados. La falta de regulaciones y 
estándares claros en el desarrollo 
y uso de la ia puede permitir la 
Mensaje42
proliferación de sistemas sesgados 
y discriminatorios. Por ejemplo, si 
no se establecen políticas claras para 
la utilización de la ia en procesos de 
contratación, préstamos, seguros u 
otras áreas sensibles, es posible que la 
ia perpetúe sesgos y discriminación 
sistemáticamente.
Falta de transparencia y 
responsabilidad
La inteligencia artificial (ia) puede 
generar falta de transparencia y 
responsabilidad en el proceso de 
toma de decisiones, debido a su 
complejidad y opacidad. Muchos 
algoritmos de ia son considerados 
como «cajas negras», producto de que 
sus procesos de toma de decisiones 
no son fácilmente explicables por los 
desarrolladores o usuarios. Esto sig-
nifica que puede ser difícil entender 
cómo se toman las decisiones y por 
qué se toman de esa manera.
Esta falta de transparencia 
puede llevar a una falta de respon-
sabilidad en el uso de la ia. Si los 
usuarios no pueden entender cómo 
se toman las decisiones, es posible 
que no puedan identificar errores 
o sesgos en el proceso de toma de 
decisiones de la ia. Esto puede llevar 
a decisiones equivocadas o discri-
minatorias y puede ser difícil para 
los desarrolladores o los usuarios 
asumir la responsabilidad de estos 
resultados negativos.
Impactos en la privacidad y la 
seguridad de los datos
La inteligencia artificial (ia) puede 
producir problemas de impacto en 
la privacidad y seguridad de los 
datos, debido a varios factores. La 
ia a menudo requiere grandes can-
tidades de datos para entrenarse y 
funcionar de manera efectiva. Estos 
datos pueden incluir información 
sensible y privada de los usuarios, 
como datos personales, historiales 
médicos e información financiera, 
entre otros. El uso de datos sensibles 
en la ia plantea preocupaciones 
sobre la privacidad, ya que existe el 
riesgo de que estos datos sean mal 
utilizados, accedidos de forma no 
autorizada o compartidos sin con-
sentimiento, lo que puede resultar 
en violaciones de la privacidad de 
los usuarios.
Además, la ia también puede 
tener implicaciones en la propiedad 
y control de los datos. Los modelos 
de ia desarrollados por empresas o 
instituciones pueden generar datos 
y conocimientos derivados que 
pueden tener valor económico. Esto 
plantea preguntas sobre quién tiene 
el control y la propiedad de estos 
datos generados por la ia, así como 
cómo se utilizan y son compartidos 
con terceros. La falta de regulaciones 
y estándares claros en este sentido 
puede generar preocupaciones so-
bre la privacidad y seguridad de los 
datos, así como el uso ético de la ia 
en la gestión de datos.
Ética y gobernanza
La ética en las decisiones tomadas 
por la inteligencia artificial (ia) es 
un tema de preocupación creciente, 
debido a que la ia tiene la capacidad 
de tomar decisiones autónomas que 
pueden tener un impacto significa-
tivo en la vida de las personas y en 
la sociedad en general.
Si la ia toma decisiones autónomas, ¿quién es 
responsable cuando esas decisiones son erróneas o 
perjudiciales? ¿Cómo se asigna la responsabilidad 
legal y ética en caso de consecuencias negativas?
Como se mencionó en el punto 
3 de este artículo, los algoritmos 
pueden generar discriminación en 
áreas como contratación, préstamos, 
atención médica y justicia, lo que 
plantea preocupaciones éticas sobre 
la equidad y la imparcialidad en las 
decisiones tomadas por la ia.
Asimismo, el uso de estas 
herramientas plantea interrogantes 
sobre la responsabilidad y la ren-
dición de cuentas (punto 4 de este 
artículo). Si la ia toma decisiones 
autónomas, ¿quién es responsable 
cuando esas decisiones son erróneas 
o perjudiciales? ¿Cómo se asigna la 
responsabilidad legal y ética en caso 
de consecuencias negativas? Este tema 
es especialmente relevante cuando la 
ia se utiliza en aplicaciones críticas, 
como vehículos autónomos o sistemas 
de atención médica, donde las decisio-
nes equivocadas pueden tener graves 
consecuencias para la seguridad y el 
bienestar de las personas.
Las «cajas negras»
Finalmente, la falta de transparencia 
en el proceso de toma de decisiones 
de la ia plantea preocupaciones 
éticas. Muchos algoritmos de ia son 
considerados como «cajas negras», lo 
que significa que su funcionamiento 
interno no es fácilmente comprensi-
ble para los desarrolladores, usuarios 
y personas afectadas por las decisio-
nes de la ia. Esto puede dificultar la 
identificación y corrección de sesgos, 
errores o discriminación en las 
decisiones de la ia, lo que, a su vez, 
puede afectar la confianza pública en 
la tecnología y plantear interrogantes 
éticas sobre la transparencia y la 
responsabilidad en el uso de la ia.
Es importante abordar estos 
problemas éticos en el desarrollo y 
uso de la ia, mediante la implemen-
tación de principios éticos, regula-
ciones adecuadas y una rendición 
de cuentas clara. Solo así podremos 
garantizar que la ia tome decisiones 
justas, equitativas y responsables 
en beneficio de la sociedad en su 
conjunto. /M
Mayo 2023 M 43
	_Hlk131698594
	_Hlk131701172
	_Hlk131702002
	_Hlk131704515
	_Hlk131711739
	_Hlk131712668
	_Hlk132880188