Logo Studenta

obtienearchivo

¡Estudia con miles de materiales!

Vista previa del material en texto

| Asesoría Técnica Parlamentaria 
 
Noviembre 2023 
 
 
Posibles impactos de la inteligencia artificial en 
el mercado de empleo según el European Trade 
Union Institute y la OCDE 
 
 
Autores 
Christine Weidenslaufer 
 
Samuel Argüello 
 
Email: 
cweidenslaufer@bcn.cl 
 
 
 
 
 
 
 
 
 
SUP: 140054 
 
 
 
 
 
 Resumen 
El desarrollo de la automatización y de la inteligencia artificial (IA) modifica las 
competencias laborales necesarias de al menos dos maneras. Por un lado, la 
automatización y la IA permiten reproducir habilidades cognitivas y manuales 
cada vez más sofisticadas, lo que puede volver automatizables algunas de las 
tareas de las que se componen los puestos de trabajo. Por otro lado, el 
desarrollo y el mantenimiento de la IA requieren de competencias técnicas 
avanzadas en programación, análisis de datos, y también competencias 
cognitivas avanzadas como el razonamiento crítico, la supervisión, el trabajo 
en equipo o la negociación. Por tanto, dado su impacto en el mundo del trabajo, 
se han planteado distintos mecanismos de gobernanza de la IA para afrontar 
sus desafíos y posibilidades. 
 
A la luz del futuro trabajo estratégico de la Comisión Europea sobre la IA, un 
informe de prospectiva del European Trade Union Institute, ETUI (2020) 
describe brevemente las posibles vías regulatorias y no regulatorias para 
gobernar la IA y otras tecnologías emergentes. El ETUI propone tres enfoques 
posibles para la gobernanza de la IA: dos de autorregulación (elaborar 
directrices éticas y códigos de conducta, y establecer estándares) y uno 
legislativo. Respecto de este último, se indican como áreas relevantes para la 
protección de los trabajadores y en las que las leyes existentes requieren una 
actualización son las siguientes: a) el principio de precaución y los derechos 
humanos; b) la seguridad; c) responsabilidad por daños (liability); d) privacidad 
y protección de datos; y e) ciberseguridad. 
 
El documento revisado destaca siete dimensiones esenciales que la futura 
regulación debería abordar para proteger a los trabajadores: 
1) Salvaguardar la privacidad de los trabajadores y la protección de datos, 
2) Abordar la vigilancia, el seguimiento y el monitoreo, 
3) Hacer transparente el propósito de los algoritmos de IA, 
4) Garantizar el ejercicio del “derecho a la explicación” respecto de las 
decisiones tomadas por algoritmos o modelos de aprendizaje automático, 
5) Preservar la seguridad y protección de los trabajadores en las interacciones 
humano-máquina, 
6) Impulsar la autonomía de los trabajadores en las interacciones humano-
máquina, y 
7) Permitir que los trabajadores adquieran "alfabetización en IA". 
 
Finalmente, si bien la mayoría de países de la OCDE han establecido 
estrategias nacionales que reconocen la necesidad de formación de adultos en 
competencias útiles en un ambiente en el que se despliega el uso de la IA, no 
todos proponen acciones concretas. 
 
mailto:cweidenslaufer@bcn.cl
 
 
 
Biblioteca del Congreso Nacional de Chile | Asesoría Técnica Parlamentaria 
 
2 
 
Introducción 
 
De acuerdo a lo solicitado por el requirente, este documento resume los principales elementos del 
reporte de prospectiva llamado “Labour in the age of AI: why regulation is needed to protect workers”, 
del European Trade Union Institute (ETUI) y menciona algunos aspectos de los impactos de la 
inteligencia artificial (IA) y la automatización sobre el trabajo, según lo planteado por la Organización 
para la Cooperación y Desarrollo Económicos (OCDE). 
 
El ETUI, traducido como “Instituto Sindical Europeo”, es un centro independiente de investigación y 
formación de la Confederación Europea de Sindicatos (CES), que afilia a los sindicatos europeos en una 
única organización coordinadora europea. 
 
El tema que aborda este informe y sus contenidos están delimitados por los parámetros de análisis 
acordados, por el plazo de entrega convenido y por la información disponible. No es un documento 
académico y se enmarca en los criterios de neutralidad, pertinencia, síntesis y oportunidad en su 
entrega. Las traducciones son propias. 
 
1. El impacto de la inteligencia artificial en el empleo 
 
Los efectos de la automatización y la inteligencia artificial sobre el trabajo y la respuesta a la pregunta 
de si las ventajas serán mayores que los riesgos dependen de las políticas públicas que implementen 
los poderes públicos a su respecto. Según la OCDE, si bien el despliegue de la IA no debe ser 
interrumpido porque conlleva numerosas ventajas, hay que evitar caer en la trampa del “determinismo 
tecnológico”, que implica que la tecnología por sí sola conforma los cambios sociales y culturales y no 
al revés (OCDE 2023: 6). 
 
De acuerdo al citado documento de la ETUI, ante el surgimiento de la IA -junto con otras tecnologías 
emergentes como la robótica, el aprendizaje automático y blockchain- se debe prestar especial atención 
a la protección de los trabajadores (ETUI, 2020:1). 
 
Se sostiene que los trabajadores se encuentran en una posición subordinada en relación con sus 
empleadores, y en el afán de la Unión Europea por ganar la carrera de la IA, es posible que se pasen 
por alto sus derechos. Por eso, señala el documento, es necesario desarrollar un marco jurídico 
(europeo) protector y aplicable, con la participación de los interlocutores sociales (ETUI, 2020:1). 
 
Se destaca que el carácter disruptivo de la IA, enfatizando su impacto en diversos aspectos de la 
sociedad. Si bien los efectos de la IA en los ciudadanos, las empresas, las autoridades públicas y la 
sociedad han recibido considerable atención, su impacto en los trabajadores ha sido relativamente poco 
estudiado. En las empresas, la IA se utiliza para impulsar la productividad, optimizar procesos y reducir 
costos. En colaboración con trabajadores humanos, la IA a veces se emplea de forma discreta para 
analizar el comportamiento de los trabajadores, contratar personal, monitorear los flujos de trabajo y 
evaluar desempeño. En ciertos casos, estos sistemas pueden incluso pueden incluso usarse para decidir 
despidos basándose en el seguimiento automatizado de la productividad (ETUI, 2020:2). 
 
 
 
Biblioteca del Congreso Nacional de Chile | Asesoría Técnica Parlamentaria 
 
3 
 
 
En consecuencia, sería necesario un marco de gobernanza regulatoria para abordar este problema, ya 
que la IA puede influir en los trabajadores de numerosas maneras, desde rastrear el desempeño de 
conductores y enfermeras hasta ayudar a los técnicos en las líneas de producción y tomar decisiones 
sobre promociones y programación. Así, la atención debería centrarse en garantizar que la IA no 
comprometa los derechos fundamentales y las condiciones laborales de los trabajadores (ETUI, 2020:2). 
 
Por otro lado, específicamente desde el punto de vista de las políticas públicas de formación y 
competencias necesarias de los trabajadores en el mundo laboral, el desarrollo y la implementación de 
la automatización y de la IA tendrán impactos importantes. Por tanto, los sistemas de formación para los 
adultos deberían adaptarse a estas mutaciones rápidas (OCDE 2023:178). Hay al menos dos aspectos 
a través de los cuales la IA modifica las competencias necesarias en el mundo laboral. 
 
En primer lugar, con la IA cada vez más se logran reproducir mecánica y computacionalmente más 
competencias humanas físicas y cognitivas. Son capacidades manuales y psicomotrices finas y también 
competencias cognitivas como la expresión, la comprensión de textos, la planificación y la asesoría o 
recomendación. Así, competencias que antes se consideraban muy difíciles de reproducir van a poder 
ser susceptibles de automatizarse. Esto implica que un número creciente de competencias necesarias 
en las tareas de las que se componen ciertas categorías de puestos de trabajo pronto se vuelvan 
superfluas (OCDE 2023:180-182). Ante esta situación es importanteque las políticas de formación de 
adultos permitan la adaptación a los nuevos escenarios laborales de los trabajadores cuyas tareas se 
vean más afectadas por la automatización y el uso de la IA. 
 
En segundo lugar, aumenta la demanda de las competencias necesarias para el desarrollo y 
mantenimiento de sistemas de IA y para la utilización de aplicaciones basadas en IA. Así, son necesarias 
competencias en el ámbito de la programación informática la gestión de bases de datos y la estadística. 
Más específicamente, estas competencias se relacionan con las redes neuronales, el deep learning1, 
los lenguajes de programación y el análisis de datos, entre otros ámbitos. Los resultados de las 
investigaciones de la OCDE sobre las empresas que han adoptado IA en Alemania, Austria, Canadá, 
Estados Unidos de América, Francia, Reino Unido e Irlanda muestran que la gran mayoría de los 
trabajadores encargados de desarrollar y mantener la IA poseen estas competencias, el 79% en el sector 
financiero y el 75% en el sector manufacturero (OCDE 2023:182). 
 
Además, los empleos que exigen tener competencias especializadas en IA suelen también requerir 
competencias cognitivas de alto nivel como son la resolución creativa de problemas y el razonamiento 
crítico, también competencias sociales como la comunicación, el trabajo en equipo o la negociación, y 
competencias de gestión como la supervisión y gestión de personal o la gestión de proyectos (OCDE 
2023:183,186). 
 
En esta materia de formación para el desarrollo de competencias útiles para el uso de la IA en el trabajo 
hay algunas experiencias de políticas nacionales en los países de la OCDE. Según este organismo, la 
gran mayoría de sus países miembros han adoptado estrategias nacionales sobre la IA pero no están 
 
1 El deep learning es un tipo de algoritmos de aprendizaje automático (machine learning) que se basa en el 
procesamiento de la información en capas o niveles para lograr la resolución de tareas de alta complejidad. 
 
 
 
Biblioteca del Congreso Nacional de Chile | Asesoría Técnica Parlamentaria 
 
4 
 
todas en la misma etapa de puesta en práctica. Así, “la mayoría de las estrategias nacionales en materia 
de IA reconocen la importancia de las competencias, pero no todas proponen acciones concretas para 
reforzarlas” (OCDE 2023:195), aunque existen algunos ejemplos interesantes. 
 
Varias estrategias nacionales reconocen que el desarrollo de la IA hará que diversas competencias 
laborales se vuelvan superfluas y ponen el acento en la reconversión de las personas susceptibles de 
ser reemplazadas por esta tecnología. En Lituania, la Lithuanian Artificial Intelligence Strategy: A Vision 
of the Future menciona la creación de programas de formación profesional en el ámbito de la IA y de 
otras tecnologías emergentes y se enfoca principalmente en que los trabajadores más expuestos a los 
riesgos de la automatización puedan utilizar la IA en su empleo actual más que formarlos para un nuevo 
empleo (OCDE 2023:195). 
 
En España, el Servicio Público de Empleo Estatal (SEPE) financia a través de subvenciones y 
licitaciones públicas formaciones destinadas a adquirir competencias profesionales avanzadas en línea 
con los avances tecnológicos y la transformación digital. Se han desarrollado programas de formación 
de nivel medio y avanzado, con módulos enfocados en IA, titulados, por ejemplo, “Iniciación a la 
inteligencia artificial y a los algoritmos”, “La inteligencia artificial aplicada a la empresa” y “El aprendizaje 
automático y la Inteligencia Artificial” (OCDE 2023:195). 
 
Existen otros elementos a tener en cuenta sobre la formación para un entorno de automatización 
creciente que se mencionan en el punto 7 de la última sección de este informe. 
 
2. La gobernanza de la IA: posibles enfoques 
 
La ETUI propone tres enfoques posibles para la gobernanza de la IA: elaborar directrices éticas y 
códigos de conducta, establecer estándares por organizaciones internacionales (por ej., IEEE Standards 
Association) y actualizar la legislación. Por tratarse las primeras de medidas de autorregulación, solo se 
hará referencia al enfoque legislativo. 
 
Desarrollar una estrategia regulatoria sobre IA y nuevas tecnologías implica abordar numerosos 
aspectos legales entrelazados y conectados, que afectan áreas tan diversas como la concepción de la 
tecnología, el diseño transparente y responsable, la construcción y el despliegue de la tecnología y las 
normas de responsabilidad del derecho civil para determinar quién es responsable. Este informe de 
prospectiva sostiene que, para garantizar una protección adecuada de los trabajadores contra el impacto 
de la IA, es necesario actualizar la legislación vigente de la UE para cubrir posibles lagunas. 
 
Las áreas legislativas que son relevantes para la protección de los trabajadores y en las que las leyes 
existentes requieren una actualización son las que se explican a continuación. 
 
1. El principio de precaución y los derechos humanos. 
 
El principio de precaución emana del derecho ambiental internacional. Es un sistema de alerta temprana 
que permite a quienes toman decisiones adoptar medidas de precaución cuando la evidencia científica 
sobre un peligro para el medio ambiente o la salud humana es incierta y hay mucho en juego. 
 
 
 
Biblioteca del Congreso Nacional de Chile | Asesoría Técnica Parlamentaria 
 
5 
 
 
El documento sugiere que el principio de precaución es un principio esencial que debe estar en el centro 
del desarrollo tecnológico. Puede sostener dicho desarrollo, dar dirección a la innovación y, en el caso 
de la IA, ayudar a (1) construir una gobernanza basada en el diálogo social y que involucre a actores 
sociales relevantes; (2) proporcionar un marco propicio para la explicabilidad2 y responsabilidad de la 
toma de decisiones algorítmica; (3) contribuir a garantizar que las innovaciones tecnológicas sean 
seguras para la sociedad. 
 
Por su parte, las decisiones tomadas por los sistemas de IA pueden tener consecuencias reales y graves 
para los derechos humanos de las personas, en particular discriminación y desigualdad en el lugar de 
trabajo. Los marcos de derechos humanos no sólo deben aplicarse sino también incorporarse a los 
sistemas de gobernanza de la IA. 
 
2. Seguridad 
 
Varias directivas y regulaciones de la UE que rigen la seguridad de los productos enfrentan desafíos 
debido a tecnologías emergentes como la IA. Necesitan revisiones para abordar los productos en 
evolución con IA, especialmente en sectores como dispositivos médicos, maquinaria y equipos de radio. 
El uso de equipos mejorados con IA en los lugares de trabajo está cambiando las condiciones laborales 
y creando nuevos desafíos de seguridad. Estas regulaciones necesitan actualizaciones para garantizar 
que puedan adaptarse al cambiante panorama tecnológico y salvaguardar a los usuarios y trabajadores. 
 
3. Responsabilidad por daños (liability) 
 
La normativa sobre responsabilidad por productos defectuosos enfrenta desafíos, particularmente a la 
hora de establecer un vínculo causal claro entre defectos y daños en tecnologías complejas como la IA. 
Las características de las nuevas tecnologías, como la complejidad y la imprevisibilidad, dificultan que 
las víctimas reclamen responsabilidad [por medio de indemnizaciones] de manera justa. 
 
Los desafíos en el mundo del trabajo incluyen distinguir aplicaciones de alto y bajo riesgo, integrar 
software en el diseño de productos, responsabilidad específica del sector y partes potencialmente 
responsables, como los proveedores de datos. Las propuestas relacionadas con los fondos de 
compensación y los seguros de IA carecerían de claridad a la hora de abordar estas cuestiones. 
 
4. Privacidad y protección de datos 
 
El Reglamento General de Protección de Datos (RGPD) de la Unión Europea describe los requisitos 
para la recopilación,el procesamiento y el almacenamiento de datos personales y, para ello, consagra 
siete principios clave: a) legalidad, equidad y transparencia, b) limitación del propósito, c) minimización 
 
2 Se pueden clasificar los algoritmos en “caja negra” o “caja blanca”, teniendo en cuenta su explicabilidad. Los 
primeros, no requieren generalmente de una explicación dado que suelen tener una explicabilidad intrínseca, por 
ejemplo, árboles de decisiones o algoritmos de regresión lineal. En el caso de los algoritmos de “caja negra” (como 
el deep learning), requieren de una explicación para poder entender como se ha hecho la toma de decisiones 
(Villas, 2023). 
 
 
 
Biblioteca del Congreso Nacional de Chile | Asesoría Técnica Parlamentaria 
 
6 
 
de datos, d) precisión, e) limitación de almacenamiento, f) integridad y confidencialidad, y g) 
responsabilidad. 
 
El RGPD tiene como objetivo corregir los desequilibrios entre quienes tienen la capacidad de recopilar 
datos y los interesados. Por lo tanto, dado que los datos son el elemento clave de la IA y otras 
tecnologías, el RGPD exige que los principios de “privacidad por diseño” y “privacidad por defecto” estén 
integrados en el software y los sistemas que tratan con datos personales. 
 
5. Ciberseguridad 
 
A medida que los lugares de trabajo se vuelven más conectados en línea, la ciberseguridad es una 
preocupación creciente debido al riesgo de ataques cibernéticos. El objetivo de la legislación es proteger 
tanto los activos de la empresa como a los trabajadores. 
 
Sin embargo, es necesario abordar el posible uso indebido de las medidas de ciberseguridad, como 
restringir el acceso de los trabajadores a las herramientas de IA y aumentar la vigilancia en el lugar de 
trabajo. Los instrumentos legales vigentes también deberían actualizarse para tener en cuenta estas 
nuevas tecnologías. 
 
3. Siete dimensiones clave que la futura regulación de la IA debería abordar 
 
El documento describe brevemente posibles vías regulatorias y no regulatorias para gobernar la IA y 
otras tecnologías nuevas y emergentes. Para ello destaca siete dimensiones esenciales que la futura 
regulación debería abordar para proteger a los trabajadores: 
 
a) Salvaguardar la privacidad de los trabajadores y la protección de datos personales 
 
Es necesario garantizar que los trabajadores sepan cómo ejercer sus derechos de privacidad, 
particularmente respecto de algunas situaciones prácticas en el lugar de trabajo. Se requiere responder 
a las demandas de los trabajadores sobre el acceso a sus datos personales y cómo estos se utilizan, 
almacenan o comparten fuera de la relación laboral. 
 
Además, los sindicatos a nivel nacional deberían poder cooperar con las autoridades nacionales de 
protección de datos, brindarles asesoramiento sobre situaciones específicas de los trabajadores y 
alentarlos a desarrollar directrices sobre protección de datos y privacidad en el lugar de trabajo. 
 
b) Abordar la vigilancia, el seguimiento y el monitoreo 
 
En determinados contextos, los trabajadores interactúan con tecnologías, aplicaciones, software, 
dispositivos de seguimiento, redes sociales o dispositivos en vehículos, que monitorean su salud, datos 
biomédicos, comunicaciones e interacciones con otros, así como sus niveles de compromiso y 
concentración y su comportamiento. 
 
 
 
 
Biblioteca del Congreso Nacional de Chile | Asesoría Técnica Parlamentaria 
 
7 
 
Como las tecnologías de vigilancia pueden afectar la dignidad humana y violar los derechos de los 
trabajadores, las políticas de seguimiento deben estar claramente justificadas y discutirse caso a caso. 
Esto debe cubrir aspectos tales como qué es posible, cuáles son los límites y de dónde y cómo se 
obtienen los datos recopilados de la fuerza laboral (por ejemplo, correo electrónico privado, 
publicaciones en redes sociales o actividad fuera de línea). Además, el derecho a desconectarse o el 
derecho a no estar disponible debe respetarse en todos los ámbitos. 
 
c) Hacer transparente el propósito de los algoritmos de IA 
 
Hacer transparentes los algoritmos suele implicar revelar el código, que en algunos casos puede 
contener información empresarial confidencial. A menudo, tener el código matemático no es suficiente 
para entender el propósito detrás del algoritmo. Hacer que los algoritmos sean “justos” no debería ser el 
objetivo final, ya que esto sería poco más que marcar una casilla para afirmar que se ha cumplido un 
requisito ético. 
 
La equidad algorítmica en el lugar de trabajo implica diseñar algoritmos teniendo en cuenta implicaciones 
sociales como quiénes son las personas objetivo; cuáles son las compensaciones que se hacen al 
introducir valores y variables, como raza, género o estatus socioeconómico, o cómo los algoritmos hacen 
cálculos o predicciones. Saber esto puede ayudar a identificar posibles riesgos y evitar daños. 
 
d) Garantizar el ejercicio del “derecho a la explicación” sobre las decisiones tomadas por 
algoritmos o modelos de aprendizaje automático 
 
Las decisiones automatizadas pueden afectar negativamente a los trabajadores. Por ejemplo, una 
evaluación incorrecta de desempeño, la asignación de tareas basada en el análisis de datos 
reputacionales o la elaboración de perfiles. Además, las decisiones algorítmicas pueden tener un sesgo 
que se manifiesta de muchas formas (en el diseño, los datos, la infraestructura o el mal uso del modelo), 
y todas ellas influyen en los resultados. En tales situaciones, el “derecho a una explicación” es esencial. 
 
Deben crearse mecanismos y marcos para que los trabajadores puedan ejercer este derecho. En la 
práctica, esto significa obtener información que sea simultáneamente comprensible, significativa y 
procesable y que permita: (a) comprender el significado y las consecuencias de una decisión 
automatizada; (b) obtener una explicación de una decisión automatizada; y (c) impugnar la decisión. En 
resumen, la complejidad de un sistema de aprendizaje automático no debería ser una excusa para 
socavar los derechos de los trabajadores. 
 
e) Preservar la seguridad y protección de los trabajadores en las interacciones humano-
máquina 
 
Este punto se refiere a los robots industriales y colaborativos, que deben respetar los aspectos de 
seguridad y protección y las necesidades físicas o ergonómicas de los trabajadores. También implica 
 
 
 
Biblioteca del Congreso Nacional de Chile | Asesoría Técnica Parlamentaria 
 
8 
 
integrar los requisitos relativos a la “privacidad por diseño” (privacy by design)3 y la “privacidad por 
defecto” (privacy by default)4 en las máquinas y los procesos de trabajo. 
 
Las disposiciones para sistemas cognitivos seguros deberían incluir aspectos relacionados con detectar 
una presencia humana y delimitar el espacio de trabajo para el trabajador y el espacio de trabajo para 
la máquina; evitar colisiones; flexibilidad y adaptabilidad de la colaboración entre humanos y robots; 
integrar la retroalimentación de los trabajadores en el proceso de trabajo; y disposiciones que describan 
los riesgos de ciberseguridad. 
 
f) Impulsar la autonomía de los trabajadores en las interacciones humano-máquina 
 
Esto significa que los trabajadores toman la decisión final, utilizando los datos proporcionados por una 
máquina. Esto es particularmente importante cuando se lleva a cabo la resolución conjunta de 
problemas (humano/máquina). Impulsar la autonomía de los trabajadores significa también preservar 
el conocimiento tácito de la fuerza laboral y apoyar la transferencia de ese conocimiento a la máquina, 
ya sea un robot cooperativo o un software (algo que es particularmente pertinente en procesos que 
requieren pruebas, control de calidad o diagnóstico). 
 
g) Permitir que los trabajadores adquieran “alfabetización en IA” 
 
Con el desarrollo de la IA, las empresas velan por sus propios intereses mejorandoo recapacitando a sus 
empleados. Para los trabajadores, adquirir habilidades técnicas, aunque necesario, no es suficiente. Necesitan 
adquirir “alfabetización en IA”, lo que se entiende como ser capaces de comprender críticamente el papel de la IA 
y su impacto en su trabajo. Esto significa aprender a trabajar junto con la IA y anticipar cómo la IA transformará su 
carrera y su rol en el trabajo. 
 
El uso pasivo de sistemas o herramientas de IA no beneficia a los propios trabajadores; es necesario establecer 
una cierta distancia para que puedan ver el impacto y la influencia generales de la IA. 
 
Las escuelas y los interlocutores sociales tienen un papel que desempeñar, junto con otros actores, a la hora de 
repensar la educación de adultos en entornos donde algunos puestos de trabajo pueden desaparecer. La 
alfabetización en IA implica comprender si la implementación de la tecnología afectará a la fuerza laboral y cómo. 
Aquí hay margen para que los representantes de los trabajadores desempeñen un nuevo papel a la hora de señalar 
 
3 Se alienta a las empresas/organizaciones a implementar medidas técnicas y organizativas, en las primeras etapas 
de diseño de las operaciones de procesamiento, de tal manera que se resguarden los principios de privacidad y 
protección de datos desde el principio (“protección de datos/privacidad por diseño”). Una medida de protección de 
datos por diseño es el uso de seudonimización (reemplazar material de identificación personal con identificadores 
artificiales) y cifrado (codificar mensajes para que solo aquellos autorizados puedan leerlos) (European 
Commission, s/f). 
4 De forma predeterminada, las empresas/organizaciones deben garantizar que los datos personales se procesen 
con la máxima protección de la privacidad posible, como procesar solo los datos necesarios, establecer un período 
de almacenamiento corto y accesibilidad limitada, de modo que los datos personales no sean accesibles por un 
número indefinido de personas (“protección de datos/privacidad por defecto”). Por ejemplo, por medio de la 
protección de datos por defecto se debe alentar a una plataforma de redes sociales a establecer la configuración 
del perfil de los usuarios en la configuración que sea más respetuosa con la privacidad, limitando desde el principio 
la accesibilidad del perfil de los usuarios, para que no sea accesible de forma predeterminada a un número 
indefinido de personas (European Commission, s/f). 
 
 
 
Biblioteca del Congreso Nacional de Chile | Asesoría Técnica Parlamentaria 
 
9 
 
(nuevos) riesgos e interacciones relacionados digitalmente, evaluar la incertidumbre de las tecnologías invisibles 
y encontrar nuevas formas de integrar eficazmente el conocimiento tácito en el flujo de trabajo y el proceso de 
trabajo. 
 
 
 
Referencias 
European Trade Union Institute (ETUI) (2020, febrero). Labour in the age of AI: why regulation is needed 
to protect workers. Foresight Unit. [Elaborado por Aída Ponce Del Castillo]. Disponible en: 
https://www.etui.org/sites/default/files/ForesightBriefs2020.pdf (noviembre, 2023). 
European Commission. (s/f). What does data protection ‘by design’ and ‘by default’ mean? Disponible 
en: https://commission.europa.eu/law/law-topic/data-protection/reform/rules-business-and-
organisations/obligations/what-does-data-protection-design-and-default-mean_en (noviembre, 
2023). 
OCDE (2023). Perspectives de l’emploi de l’OCDE 2023 : Intelligence artificielle et marché du travail. 
Organización para la Cooperación y el Desarrollo Económico. Disponible en: 
https://doi.org/10.1787/aae5dba0-fr (noviembre, 2023). 
Villas, M. (2023, mayo 5). La explicabilidad de la Inteligencia Artificial. Big Data Magazine. 
https://bigdatamagazine.es/la-explicabilidad-de-la-inteligencia-artificial (noviembre, 2023). 
 
Nota aclaratoria 
Asesoría Técnica Parlamentaria está enfocada en apoyar preferentemente el trabajo de las Comisiones 
Legislativas de ambas Cámaras, con especial atención al seguimiento de los proyectos de ley. Con lo cual se 
pretende contribuir a la certeza legislativa y a disminuir la brecha de disponibilidad de información y análisis entre 
Legislativo y Ejecutivo. 
 
 
 
 
Creative Commons Atribución 3.0 
(CC BY 3.0 CL) 
 
https://www.etui.org/sites/default/files/ForesightBriefs2020.pdf
https://commission.europa.eu/law/law-topic/data-protection/reform/rules-business-and-organisations/obligations/what-does-data-protection-design-and-default-mean_en
https://commission.europa.eu/law/law-topic/data-protection/reform/rules-business-and-organisations/obligations/what-does-data-protection-design-and-default-mean_en
https://doi.org/10.1787/aae5dba0-fr
https://bigdatamagazine.es/la-explicabilidad-de-la-inteligencia-artificial