Logo Studenta

Inteligencia_Artificial___definiciones_y_normativa_internacional_BCN

¡Este material tiene más páginas!

Vista previa del material en texto

| Asesoría Técnica Parlamentaria 
 
 
Inteligencia Artificial: investigación científica y consideraciones éticas 
 
 
 
Autor 
Raimundo Roberts M. 
Email: rroberts@bcn.cl 
Tel.: (56) 32 226 3199 
 
 
Nº SUP: 120282 
 
 Resumen 
 
Aunque hoy no existe una definición consensuada de Inteligencia 
Artificial por parte del mundo científico, un elemento característico es la
creación de máquinas que piensen o actúen como lo haría un ser 
humano. La construcción de este tipo de máquinas se ha acelerado 
durante los últimos años gracias a los avances en informática, robótica 
y otras áreas del conocimiento, y hoy, los países más avanzados del 
mundo están desarrollando agresivas propuestas para liderar la creación 
de tecnologías que inciden en múltiples áreas: trabajo, salud, transporte, 
finanzas, etc. 
Las preocupaciones éticas asociadas (pérdida de libertades, generación 
de sesgos en la toma de decisiones de máquinas, el daño a las personas 
por parte de decisiones de inteligencia artificial) han sido recogidas 
recientemente por la OCDE, la Unión Europea, el G20 y las Naciones 
Unidas, entre otras organizaciones internacionales. 
Estas han generado acuerdos para la protección del bienestar humano 
en entornos de Inteligencia Artificial, que buscan el desarrollo de 
Inteligencia Artificial confiable y una administración de estos sistemas 
con responsabilidad por parte de quienes fabriquen y utilicen este tipo 
de sistemas, así como el desarrollo de una transición gradual en el 
mundo laboral, de manera que su avance no vaya en desmedro sino en 
favor de las personas y el medioambiente. 
 
 
I. Introducción 
Esta minuta da respuesta a la consulta sobre el concepto de inteligencia artificial y sus alcances. 
Actualmente, la Inteligencia Artificial es una materia de interés prioritario en China, Estados Unidos, la 
Unión Europea (e individualmente en naciones europeas como Reino unido, Francia, Alemania, así 
como en naciones como la India o Rusia, entre otros). 
Sus aplicaciones alcanzan casi todas las áreas de la economía y de la sociedad, entre ellas la toma de 
decisiones, los medios de comunicación, la banca, la salud, etc. Su desarrollo podría considerarse 
explosivo considerando los esfuerzos de inversión pública de las naciones mencionadas, así como las 
 
 
 
Biblioteca del Congreso Nacional de Chile | Asesoría Técnica Parlamentaria 
2 
 
preocupaciones éticas y normativas de entidades como las Naciones Unidas, la OECD y el G20, entre 
otros. 
Sin una definición clara para las y los especialistas, pero con miles de artículos científicos publicados 
(que pasaron de 10.000 al año en 1998 a más de 60.000 al año en 20171), las preocupaciones 
principales están en el impacto que este tipo de tecnologías tiene y tendrá en el futuro cercano en una 
amplia gama de procesos. 
El siguiente informe da cuenta de información sobre Inteligencia Artificial, su producción científica (por 
áreas del conocimiento y principales países) y las preocupaciones éticas y normativas de organismos 
internacionales. Se basa en documentos de organismos internacionales como la Organización de 
Cooperación y Desarrollo Económico OCDE, el G20 y las Naciones Unidas, y en especial en el informe 
presentado en 2018 por Elsevier para definir y caracterizar lo que hoy se entiende por Inteligencia 
artificial. 
No se profundiza en políticas nacionales de países líderes, ni en el avance chileno en la materia, aun 
cuando nuestro país, en términos de publicaciones, ocupa el lugar 52 del mundo en número, con 1262 
artículos2, algo menos que Colombia, Marruecos y Serbia. 
II. Definir la Inteligencia artificial 
No existe una definición consensuada entre las personas expertas sobre qué es la Inteligencia Artificial 
(IA). A falta de una definición concreta moderna, la historia nos muestra que el término habría sido 
utilizado por primera vez en 1955 por cuatro investigadores de Estados Unidos, en una propuesta de 
trabajo científico para el verano de 19563. 
“Proponemos que se lleve a cabo un estudio de inteligencia artificial de 2 meses y 10 hombres 
durante el verano de 1956 en Dartmouth College en Hanover, New Hampshire. 
El estudio debe basarse en la conjetura de que cada aspecto del aprendizaje o cualquier otra 
característica de la inteligencia puede, en principio, describirse con precisión tal, que se puede 
crear una máquina para simularla. 
Se intentará descubrir cómo hacer que las máquinas utilicen el lenguaje, formen abstracciones y 
conceptos, resuelvan tipos de problemas que ahora están reservados para los humanos y se 
mejoren a sí mismos. 
Creemos que se puede lograr un avance significativo en uno o más de estos problemas si un 
grupo de científicos cuidadosamente seleccionados trabajan en conjunto durante un verano”. 
 
1 Figura 4, “Annual number of AI publications (all document types), 1998-2017; source: Scopus. En “Executive summary: Artificial 
Intelligence: How knowledge is created, transferred, and used: Trends in China, Europe, and the United States”, By the Elsevier 
Artificial Intelligence Program 12/11/2018. Disponible en: http://bcn.cl/2af75 (Junio, 2019). 
2 Elsevier AI Report, Chile Publications (Publication time range: 1998-2017), Elsevier’s Scopus. Disponible en: http://bcn.cl/2af76 
(Junio, 2019). 
3 "A PROPOSAL FOR THE DARTMOUTH SUMMER RESEARCH PROJECT ON ARTIFICIAL INTELLIGENCE” 
J. McCarthy, Dartmouth College; L. Minsky, Harvard University; N. Rochester, I.B.M. Corporation; C.E. Shannon, Bell Telephone 
Laboratories. 31 de agosto de 1955. Disponible en: http://bcn.cl/2af77 (Junio, 2019). 
 
 
 
Biblioteca del Congreso Nacional de Chile | Asesoría Técnica Parlamentaria 
3 
 
Desde 1956 hasta hoy ha habido avances en distintas disciplinas que, en conjunto, buscan lograr que 
máquinas desarrollen actividades similares al pensamiento humano4. La informática, el conocimiento del 
cerebro humano, las ciencias de la conducta, la lógica, la robótica, las matemáticas- y otras áreas del 
conocimiento altamente desarrolladas actualmente- dieron pie para que hoy sea una de las tecnologías5 
más prometedoras, dadas sus obvias aplicaciones -hoy en pleno desarrollo- en movilidad, salud, 
defensa, finanzas, informática, trabajo, juegos y una multiplicidad de otras materias. 
Tal es así, que la investigación en áreas consideradas como Inteligencia Artificial creció a casi un 13% 
anual durante los últimos cinco años6, y que Estados Unidos de Norteamérica (a través del impulso 
público de la “American AI Initiative”7, de febrero de 2019, que potencia los aportes de 2016), China (que 
pasó de publicar el 4% los papers en IA en 1997 al 27% en 20178) y la Unión Europea (con un aumento 
del 70% en financiamiento público para investigar en IA en 20189) compitan10 actualmente con proyectos 
de financiamiento público para el desarrollo de Inteligencia Artificial. 
La razón para que los científicos no tengan una definición consensuada es que, lo que hoy se conoce 
como Inteligencia Artificial, se desarrolla en múltiples áreas, y no contar con una definición sería una 
ventaja en estos momentos de acelerado desarrollo en la materia. 
Considerando lo anterior, una explicación aproximada desde el mundo científico de qué es la Inteligencia 
Artificial la entrega el director de la Unidad de Economía Digital del Joint Research Centre de la Comisión 
Europea11, Alessandro Annoni, quien dice que “si bien IA es una alta prioridad en las agendas de los 
responsables de la formulación de políticas y los líderes de investigación e industria y atrae la atención 
diaria de las noticias, también carece de una definición universal” 12. Según Annoni, “en términos 
generales, IA se refiere a la creación de máquinas (agentes) que piensan y actúan como seres 
humanos”. 
El mismo autor, citado en un completo informe de Elsevier sobre Inteligencia Artificial publicado en 2018, 
señala que “según el informe AI100 de Stanford13, la falta de una definiciónprecisa y universalmente 
aceptada de IA probablemente ha ayudado a que el campo crezca, florezca y avance a un ritmo cada 
vez más acelerado". 
 
4 Para una mirada de la historia de la Inteligencia Artificial ver Buchanan B, “A (Very) Brief History of Artificial Intelligence”, AI 
Magazine Volume 26 Number 4 (2006), Disponible en: http://bcn.cl/2afld (Junio, 2019). 
5 “Inteligencia artificial (3): El futuro”, OpenMind BBVA, enero 2018. Disponible en: http://bcn.cl/2afle (Junio, 2019). 
6 “Executive summary: Artificial Intelligence: How knowledge is created, transferred, and used: Trends in China, Europe, and 
the United States”, By the Elsevier Artificial Intelligence Program 12/11/2018. Disponible en: http://bcn.cl/2af75 (Junio, 2019). 
7 “Artificial Intelligence for the American People”, Gobierno de Estados Unidos, 2019. Disponible en: 
https://www.whitehouse.gov/ai/ (Junio, 2019). 
8“China AI Development Report 2018”. Disponible en: http://bcn.cl/2af78 (Junio, 2019). 
9Artificial Intelligence, European Commission. Disponible en: http://bcn.cl/2af7a (Junio, 2019). 
10“China is catching up to the US in AI research—fast, Wired, marzo de 2019. Disponible en: http://bcn.cl/2af7b (Junio, 2019). 
11 Joint Research Centre, CE. Disponible en: http://bcn.cl/2aflh (Junio, 2019). 
12 Pp.13, “Artificial Intelligence: How knowledge is created, transferred, and used: Trends in China, Europe, and the United 
States”, By the Elsevier Artificial Intelligence Program 12/11/2018. Disponible en: http://bcn.cl/2af7c (Junio, 2019). 
13Peter Stone, Rodney Brooks, Erik Brynjolfsson, Ryan Calo, Oren Etzioni, Greg Hager, Julia Hirschberg, Shivaram 
Kalyanakrishnan, Ece Kamar, Sarit Kraus, Kevin Leyton-Brown, David Parkes, William Press, AnnaLee Saxenian, Julie Shah, 
Milind Tambe, and Astro Teller. "Artificial Intelligence and Life in 2030." One Hundred Year Study on Artificial Intelligence: 
Report of the 2015-2016 Study Panel, Stanford University, Stanford, CA, September 2016. Disponible en: http://bcn.cl/2af7d 
(Junio, 2019). 
 
 
 
Biblioteca del Congreso Nacional de Chile | Asesoría Técnica Parlamentaria 
4 
 
Y aunque las y los científicos no tengan hoy una definición consensuada, si existen definiciones que se 
utilizan para el desarrollo de políticas, planes y programas. A modo de ejemplo, la Comisión Europea 
define la Inteligencia Artificial de la siguiente manera: 
“¿Qué es la inteligencia artificial? 
La inteligencia artificial (IA) se refiere a los sistemas que muestran un comportamiento 
inteligente14 al analizar su entorno y realizar acciones, con cierto grado de autonomía, para lograr 
objetivos específicos. 
Los sistemas basados en la inteligencia artificial pueden basarse exclusivamente en software, 
actuando en el mundo virtual (por ejemplo, asistentes de voz, software de análisis de imágenes, 
motores de búsqueda, sistemas de reconocimiento de voz y reconocimiento facial) o la 
inteligencia artificial puede integrarse en dispositivos de hardware (por ejemplo, robots 
avanzados, automóviles autónomos, etc.), aplicaciones de drones o internet de las cosas). 
Estamos utilizando la IA a diario, por ejemplo, para traducir idiomas, generar subtítulos en videos 
o para bloquear el correo no deseado. 
Muchas tecnologías de inteligencia artificial requieren datos para mejorar su rendimiento. Una 
vez que tienen un buen desempeño, pueden ayudar a mejorar y automatizar la toma de 
decisiones en el mismo dominio. Por ejemplo, un sistema de IA se entrenará y luego se usará 
para detectar ataques cibernéticos en base a los datos de la red o sistema en cuestión”15. 
A lo anterior se puede agregar que, según una entrevista al Dr. Roberto M. Cesar Jr. Adjunct Coordinator, 
São Paulo Research Foundation (FAPESP) de Brasil, en el estudio de Elsevier16, “la Inteligencia Artificial 
y el “machine learning” generalmente incluyen cuatro elementos fundamentales: 
1. Algoritmos de aprendizaje y clasificación, 
2. Datos para entrenar y evaluar los algoritmos, 
3. Científicos de datos para codificar, configurar el software y preparar los datos, 
4. Hardware informático para almacenar y ejecutar el código. 
 
III. Principales áreas de desarrollo de la IA 
 
14 Sobre “comportamiento inteligente”, revisar el siguiente artículo: 
Carpio, C et.al. “Comportamiento inteligente y creativo: efectos de distintos tipos de instrucciones”, Suma Psicológica, Vol. 21. 
Núm. 1, 1-69 (Junio, 2014). Disponible en: http://bcn.cl/2aflb (Junio, 2019). 
15 COMMUNICATION FROM THE COMMISSION TO THE EUROPEAN PARLIAMENT, THE EUROPEAN COUNCIL, THE 
COUNCIL, THE EUROPEAN ECONOMIC AND SOCIAL COMMITTEE AND THE COMMITTEE OF THE REGIONS- Artificial 
Intelligence for Europe. Brussels, 25.4.2018 - COM(2018) 237 final. Disponible en: http://bcn.cl/2af7e (Junio, 2019). 
16Dr. Roberto M. Cesar Jr. Adjunct Coordinator, São Paulo Research Foundation (FAPESP), Brazil “AI research output: beyond 
traditionally published papers”, Artificial Intelligence: How knowledge is created, transferred, and used: Trends in China, Europe, 
and the United States”, By the Elsevier Artificial Intelligence Program 12/11/2018. 
 
 
 
Biblioteca del Congreso Nacional de Chile | Asesoría Técnica Parlamentaria 
5 
 
Según el citado informe de Elsevier sobre Inteligencia artificial (el cual utiliza herramientas de IA para 
la búsqueda y tratamiento de la información, considerando en su metodología el uso de 800.000 
conceptos y palabras clave sobre IA en más de 6.000 textos del mundo académico, de la 
investigación, la industria y los medios de comunicación, para luego analizar más de medio millón 
de documentos sobre IA) las siete áreas de mayor desarrollo en la materia actualmente son: 
Búsqueda y optimización; “Machine learning” y razonamiento probabilístico; Redes neurales; Visión 
por computadora; Procesamiento de lenguaje natural y representación del conocimiento; 
Planificación y toma de decisiones, y Sistemas difusos. La siguiente figura grafica la complejidad de 
las materias analizadas y como se conforman los clústeres mencionados. 
Figura 1. Reporte Elsevier: Clústeres de palabras clave y coocurrencias en el campo de la IA, 2017 
 
Fuente: Scopus en Elsevier Report 201817. 
 
17 Figure 1, “Executive summary: Artificial Intelligence: How knowledge is created, transferred, and used: Trends in China, 
Europe, and the United States”, By the Elsevier Artificial Intelligence Program 12/11/2018. Disponible en: http://bcn.cl/2af75 
(Junio, 2019). 
 
 
 
Biblioteca del Congreso Nacional de Chile | Asesoría Técnica Parlamentaria 
6 
 
El mismo informe muestra estas investigaciones se enfocan de distinta manera si se analizan las 
actividades a las que van dirigidas. Por ejemplo, China ha puesto un marcado acento en el desarrollo 
de IA para la agricultura, mientras que Estados Unidos y Europa desarrollan más investigación y 
aplicaciones para la salud. En todo caso, el 60% de las áreas de investigación totales apuntan al área 
de las ciencias naturales18. 
Uno de los aspectos interesantes del estudio de Elsevier muestra que, aunque la preocupación sobre 
problemas éticos de la IA ha generado un importante cuerpo de investigación, los estudios propiamente 
en áreas de Inteligencia Artificial no integran estas preocupaciones. El informe establece que: 
“• La ética de la IA debe ser consciente de y construir sobre el pensamiento ético existente. 
Sin embargo, también debe trabajar en asociación con las comunidades técnicas y 
empresariales para dar forma a los resultados éticos. Esto debería involucrar procesos 
existentes, tales como aquellos desarrollados en investigación responsable e innovación en 
TIC. 
• La ética no es un conjunto fijo de reglas que determinan lo bueno y lo malo, sino que está 
completamente integrado en el contexto social. Para garantizar los beneficios de la 
inteligencia artificialmientras se resuelven las dificultades, es necesario desarrollar 
mecanismos de gobierno apropiados. 
• La IA no es solo una herramienta técnica. Debido a su impacto potencialmente enorme, 
abordar la ética de la IA requiere la colaboración entre tecnólogos, responsables políticos, la 
sociedad civil y otras partes interesadas”.19 
Y en términos concretos, el informe concluye que está en aumento el estudio y las preocupaciones éticas 
en temas concretos como “la privacidad, la confianza, la imparcialidad, la transparencia y la 
responsabilidad”, así como qué aspectos del desarrollo de la IA han de ser normados. Sin embargo, esta 
respuesta se está gestando desde los tomadores de decisiones. 
IV. Acciones desde la política internacional 
Las preocupaciones éticas nacen desde el mundo de las ciencias sociales y las humanidades, para 
luego trasladarse al ámbito normativo y luego regulatorio. 
En este caso, tal es la integración de la Inteligencia Artificial a diferentes niveles en aspectos clave de la 
vida humana que instituciones como la OECD, las Naciones Unidas y otras están desarrollando 
repositorios y centros de información para ayudar en su comprensión y posterior regulación. 
La OECD, por ejemplo, presentó el 22 de mayo de 2019 (menos de un mes antes que la elaboración de 
este documento) sus “Principios sobre Inteligencia Artificial”, normas internacionales “acordadas por los 
gobiernos para la administración responsable de una IA confiable”20. 
 
18 Pp.39, “Executive summary: Artificial Intelligence: How knowledge is created, transferred, and used: Trends in China, Europe, 
and the United States”, By the Elsevier Artificial Intelligence Program 12/11/2018. 
19 Pp. 77, “Executive summary: Artificial Intelligence: How knowledge is created, transferred, and used: Trends in China, Europe, 
and the United States”, By the Elsevier Artificial Intelligence Program 12/11/2018. 
20 Principios de la OCDE sobre Inteligencia Artificial. Disponible en: https://www.oecd.org/going-digital/ai/ (Junio, 2019). 
 
 
 
Biblioteca del Congreso Nacional de Chile | Asesoría Técnica Parlamentaria 
7 
 
Se trata de cinco principios complementarios entre sí, para la administración responsable de AI confiable. 
Traducidos al castellano son los siguientes: 
-La IA debería beneficiar a las personas y al planeta impulsando el crecimiento inclusivo, el 
desarrollo sostenible y el bienestar. 
-Los sistemas de IA deben diseñarse de una manera que respete el estado de derecho, los 
derechos humanos, los valores democráticos y la diversidad, y deben incluir salvaguardas 
apropiadas, por ejemplo, permitir la intervención humana cuando sea necesario, para garantizar 
una sociedad justa y equitativa. 
-Debe haber transparencia y divulgación responsable en torno a los sistemas de IA para 
garantizar que las personas entiendan los resultados basados en la IA y puedan desafiarlos. 
-Los sistemas de IA deben funcionar de manera robusta, segura y segura a lo largo de sus ciclos 
de vida y los riesgos potenciales deben evaluarse y gestionarse continuamente. 
-Las organizaciones e individuos que desarrollan, despliegan u operan sistemas de IA deben ser 
responsables de su correcto funcionamiento en línea con los principios anteriores. 
El 9 de junio de 2019, el G-20 adoptó los “Principios para la administración responsable de la IA 
confiable” (basados en los establecidos por la OECD), así como una serie de recomendaciones bajo el 
nombre de “Políticas nacionales y cooperación internacional para una IA confiable” (se acompaña en el 
anexo una versión traducida al castellano). 
Estos principios, más las recomendaciones de política pública que los acompañan, tienen por misión 
regular el creciente campo de investigación y aplicaciones asociadas a la Inteligencia Artificial, teniendo 
en cuenta el bienestar humano y una transición no traumática en áreas como lo laboral, ambiental o 
social. 
La siguiente tarea en el desarrollo de una regulación es informar y regular aquellas materias donde la 
tecnología, en este caso, la IA, incide directa o indirectamente sobre las personas, considerando como 
señalan las instituciones recién mencionadas el interés y el bienestar de las personas por sobre el 
avance tecnológico o el beneficio económico. 
 
 
 
 
 
 
 
 
Biblioteca del Congreso Nacional de Chile | Asesoría Técnica Parlamentaria 
8 
 
Anexo: 
El siguiente texto es la traducción al castellano del anexo al “G20 Ministerial Statement on Trade and 
Digital Economy”, acordado por los gobiernos del G20 en la ciudad de Tsukuba, Japón, entre el 8 y 9 de 
junio de 201921. 
 
G20: Principios para la administración responsable de la IA confiable en la Sección 1 y toma nota 
de las Recomendaciones en la Sección 2. 
(entre paréntesis encontrará frases o palabras de la versión en inglés original, para su desambiguación). 
Sección 1: Principios para una administración responsable de la IA confiable 
1.1. Crecimiento inclusivo, desarrollo sostenible y bienestar. 
Las partes interesadas deben participar de manera proactiva en la administración responsable de una 
Inteligencia Artificial confiable para lograr resultados beneficiosos para las personas y el planeta, así 
como aumentar las capacidades humanas y aumentar la creatividad, promover la inclusión de 
poblaciones con poca representación, reducir las desigualdades económicas, sociales, de género y 
otras, y proteger los entornos naturales, estimulando así el crecimiento inclusivo, el desarrollo sostenible 
y el bienestar. 
1.2. Valores centrados en lo humano y la equidad. 
a) Los actores de IA deben respetar el estado de derecho, los derechos humanos y los valores 
democráticos a lo largo del ciclo de vida del sistema de IA. Estos incluyen libertad, dignidad y autonomía, 
privacidad y protección de datos, no discriminación e igualdad, diversidad, equidad, justicia social y 
derechos laborales internacionalmente reconocidos. 
b) Con este fin, los actores de la IA deben implementar mecanismos y salvaguardas, como la capacidad 
de determinación humana, que sean apropiados con el contexto y que sean congruentes con el estado 
del arte. 
1.3. Transparencia y explicabilidad. 
Los actores de IA deben comprometerse con la transparencia y la divulgación responsable con respecto 
a los sistemas de IA. Para este fin, deben proporcionar información significativa, adecuada al contexto 
y coherente con el estado del arte: 
i. para fomentar una comprensión general de los sistemas de IA; 
ii. para sensibilizar a las partes interesadas sobre sus interacciones con los sistemas de IA, 
incluso en el lugar de trabajo; 
 
21 G20 Ministerial Statement on Trade and Digital Economy. Disponible en: http://bcn.cl/2af7f (Junio, 2019). 
 
 
 
Biblioteca del Congreso Nacional de Chile | Asesoría Técnica Parlamentaria 
9 
 
iii. para permitir que los afectados por un sistema de inteligencia artificial entiendan el resultado; 
y, 
iv. para permitir que los afectados adversamente por un sistema de IA desafíen su resultado 
basándose en información clara y fácil de entender sobre los factores y la lógica que sirvió de 
base para la predicción, recomendación o decisión. 
1.4. Robustez, seguridad y protección. 
a) Los sistemas de IA deben ser robustos, “protegidos y seguros” (“secure and safe22”) durante todo su 
ciclo de vida, de modo que, en condiciones de uso normal, uso previsible o uso indebido u otras 
condiciones adversas, funcionen adecuadamente y no supongan un riesgo de seguridad no razonable. 
b) Con este fin, los actores de IA deben garantizar la trazabilidad, incluso en relación con los conjuntos 
de datos, procesos y decisiones tomadas durante el ciclo de vida del sistema de IA, para permitir el 
análisis de los resultados del sistema de IA y de las respuestas a la consulta, apropiadas al contexto y 
consistentes con el estado de arte. 
c) Los actores de la IAdeben, sobre la base de sus funciones, el contexto y su capacidad de actuar, 
aplicar un enfoque sistemático de gestión de riesgos en cada fase del ciclo de vida del sistema de IA, 
de forma continua para abordar los riesgos relacionados con los sistemas de IA, incluida la privacidad, 
la “protección de datos, la seguridad y la existencia de sesgos” (digital security, safety and bias). 
1.5. Responsabilidad 
Los actores de IA deben ser responsables del buen funcionamiento de los sistemas de IA y del respeto 
de los principios anteriores, en función de sus roles, el contexto y de acuerdo con el estado del arte. 
 
Sección 2: Políticas nacionales y cooperación internacional para una IA confiable. 
2.1. Invertir en investigación y desarrollo de IA 
a) Los gobiernos “deberían considerar” la inversión pública a largo plazo y alentar la inversión privada 
en investigación y desarrollo, incluidos los esfuerzos interdisciplinarios, para estimular la innovación en 
una IA confiable que se centre en problemas técnicos desafiantes y en implicaciones sociales, legales y 
éticas relacionadas con la IA y asuntos de política. 
b) Los gobiernos también deberían considerar la inversión pública y alentar la inversión privada en 
conjuntos de datos (datasets) abiertos que sean representativos y que respeten la privacidad y la 
protección de datos para respaldar un entorno de investigación y desarrollo de IA que esté libre de 
sesgos inapropiados y para mejorar la interoperabilidad y el uso de estándares. 
 
22 Dada la similitud de la traducción al castellano de las palabras “Safety” y “Security”, como “seguridad”, se utiliza en este caso 
la desambiguación utilizada por la aviación civil europea donde “Safety”: seguridad, y “Security”: protección. Security y safety 
en la aviación civil, sección Cabos Sueltos, Traducción de la Comisión Europea. Disponible en: http://bcn.cl/2af7g (Junio, 2019). 
 
 
 
Biblioteca del Congreso Nacional de Chile | Asesoría Técnica Parlamentaria 
10 
 
2.2. Fomento de un ecosistema digital para la IA. 
Los gobiernos deberían fomentar el desarrollo y el acceso a un ecosistema digital para una IA confiable. 
Dicho ecosistema incluye, en particular, tecnologías e infraestructuras digitales y mecanismos para 
compartir el conocimiento de la IA, según corresponda. En este sentido, los gobiernos debieran 
considerar la promoción de mecanismos como los fideicomisos de datos, para apoyar el intercambio 
seguro, justo, legal y ético de los datos. 
2.3 Configuración de un entorno normativo propicio para la IA 
a) Los gobiernos deberían promover un entorno normativo que apoye una transición ágil desde la etapa 
de investigación y desarrollo a la etapa de implementación y operación de sistemas de IA confiables. 
Para este efecto, deben considerar el uso de la experimentación para proporcionar un entorno controlado 
en el que los sistemas de IA puedan probarse y ampliarse, según corresponda. 
b) Los gobiernos deberían revisar y adaptar, según corresponda, sus políticas y marcos regulatorios y 
mecanismos de evaluación según se apliquen a los sistemas de IA para alentar la innovación y la 
competencia por IA de confianza. 
2.4. Desarrollo de capacidades humanas y preparación para la transformación del mercado 
laboral. 
a) Los gobiernos deberían trabajar en estrecha colaboración con las partes interesadas para prepararse 
para la transformación del mundo del trabajo y de la sociedad. Deben capacitar a las personas para que 
utilicen e interactúen eficazmente con los sistemas de Inteligencia Artificial en toda la gama de 
aplicaciones, incluso equipándolos con las habilidades necesarias. 
b) Los gobiernos deberían tomar medidas, incluso a través del diálogo social, para garantizar una 
transición justa para los trabajadores a medida que se despliega IA, por ejemplo, a través de programas 
de capacitación a lo largo de la vida laboral, apoyo a los afectados por el desplazamiento y acceso a 
nuevas oportunidades en el mercado laboral. 
c) Los gobiernos también deberían trabajar en estrecha colaboración con las partes interesadas para 
promover el uso responsable de la IA en el trabajo, mejorar la seguridad de los trabajadores y la calidad 
de los empleos, fomentar el espíritu empresarial y la productividad, y tratar de garantizar que los 
beneficios de la IA sean amplios y justamente compartidos. 
2.5. Cooperación internacional para una IA confiable. 
a) Los gobiernos, incluidos los países en desarrollo y las partes interesadas, deberían cooperar 
activamente para promover estos principios y avanzar en la administración responsable de una IA 
confiable. 
b) Los gobiernos deberían trabajar juntos en la OCDE y en otros foros mundiales y regionales para 
fomentar el intercambio de conocimientos de inteligencia artificial, según corresponda, deberían alentar 
las iniciativas internacionales, intersectoriales y abiertas de múltiples interesados para obtener 
experiencia a largo plazo sobre la IA. 
 
 
 
Biblioteca del Congreso Nacional de Chile | Asesoría Técnica Parlamentaria 
11 
 
c) Los gobiernos deberían promover el desarrollo de estándares técnicos globales impulsados por el 
consenso y por múltiples partes interesadas para una IA interoperable y confiable. 
d) Los gobiernos también deberían alentar el desarrollo, y el propio uso, de métricas comparables 
internacionalmente para medir la investigación, desarrollo y despliegue de IA, y recopilar evidencia para 
evaluar el progreso en la implementación de estos principios. 
 
 
 
 
Nota aclaratoria 
Asesoría Técnica Parlamentaria, está enfocada en apoyar preferentemente el trabajo de las Comisiones 
Legislativas de ambas Cámaras, con especial atención al seguimiento de los proyectos de ley. Con lo cual se 
pretende contribuir a la certeza legislativa y a disminuir la brecha de disponibilidad de información y análisis entre 
Legislativo y Ejecutivo. 
 
 
 
 
Creative Commons Atribución 3.0 
(CC BY 3.0 CL)

Continuar navegando

Materiales relacionados