Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
| Asesoría Técnica Parlamentaria Inteligencia Artificial: investigación científica y consideraciones éticas Autor Raimundo Roberts M. Email: rroberts@bcn.cl Tel.: (56) 32 226 3199 Nº SUP: 120282 Resumen Aunque hoy no existe una definición consensuada de Inteligencia Artificial por parte del mundo científico, un elemento característico es la creación de máquinas que piensen o actúen como lo haría un ser humano. La construcción de este tipo de máquinas se ha acelerado durante los últimos años gracias a los avances en informática, robótica y otras áreas del conocimiento, y hoy, los países más avanzados del mundo están desarrollando agresivas propuestas para liderar la creación de tecnologías que inciden en múltiples áreas: trabajo, salud, transporte, finanzas, etc. Las preocupaciones éticas asociadas (pérdida de libertades, generación de sesgos en la toma de decisiones de máquinas, el daño a las personas por parte de decisiones de inteligencia artificial) han sido recogidas recientemente por la OCDE, la Unión Europea, el G20 y las Naciones Unidas, entre otras organizaciones internacionales. Estas han generado acuerdos para la protección del bienestar humano en entornos de Inteligencia Artificial, que buscan el desarrollo de Inteligencia Artificial confiable y una administración de estos sistemas con responsabilidad por parte de quienes fabriquen y utilicen este tipo de sistemas, así como el desarrollo de una transición gradual en el mundo laboral, de manera que su avance no vaya en desmedro sino en favor de las personas y el medioambiente. I. Introducción Esta minuta da respuesta a la consulta sobre el concepto de inteligencia artificial y sus alcances. Actualmente, la Inteligencia Artificial es una materia de interés prioritario en China, Estados Unidos, la Unión Europea (e individualmente en naciones europeas como Reino unido, Francia, Alemania, así como en naciones como la India o Rusia, entre otros). Sus aplicaciones alcanzan casi todas las áreas de la economía y de la sociedad, entre ellas la toma de decisiones, los medios de comunicación, la banca, la salud, etc. Su desarrollo podría considerarse explosivo considerando los esfuerzos de inversión pública de las naciones mencionadas, así como las Biblioteca del Congreso Nacional de Chile | Asesoría Técnica Parlamentaria 2 preocupaciones éticas y normativas de entidades como las Naciones Unidas, la OECD y el G20, entre otros. Sin una definición clara para las y los especialistas, pero con miles de artículos científicos publicados (que pasaron de 10.000 al año en 1998 a más de 60.000 al año en 20171), las preocupaciones principales están en el impacto que este tipo de tecnologías tiene y tendrá en el futuro cercano en una amplia gama de procesos. El siguiente informe da cuenta de información sobre Inteligencia Artificial, su producción científica (por áreas del conocimiento y principales países) y las preocupaciones éticas y normativas de organismos internacionales. Se basa en documentos de organismos internacionales como la Organización de Cooperación y Desarrollo Económico OCDE, el G20 y las Naciones Unidas, y en especial en el informe presentado en 2018 por Elsevier para definir y caracterizar lo que hoy se entiende por Inteligencia artificial. No se profundiza en políticas nacionales de países líderes, ni en el avance chileno en la materia, aun cuando nuestro país, en términos de publicaciones, ocupa el lugar 52 del mundo en número, con 1262 artículos2, algo menos que Colombia, Marruecos y Serbia. II. Definir la Inteligencia artificial No existe una definición consensuada entre las personas expertas sobre qué es la Inteligencia Artificial (IA). A falta de una definición concreta moderna, la historia nos muestra que el término habría sido utilizado por primera vez en 1955 por cuatro investigadores de Estados Unidos, en una propuesta de trabajo científico para el verano de 19563. “Proponemos que se lleve a cabo un estudio de inteligencia artificial de 2 meses y 10 hombres durante el verano de 1956 en Dartmouth College en Hanover, New Hampshire. El estudio debe basarse en la conjetura de que cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede, en principio, describirse con precisión tal, que se puede crear una máquina para simularla. Se intentará descubrir cómo hacer que las máquinas utilicen el lenguaje, formen abstracciones y conceptos, resuelvan tipos de problemas que ahora están reservados para los humanos y se mejoren a sí mismos. Creemos que se puede lograr un avance significativo en uno o más de estos problemas si un grupo de científicos cuidadosamente seleccionados trabajan en conjunto durante un verano”. 1 Figura 4, “Annual number of AI publications (all document types), 1998-2017; source: Scopus. En “Executive summary: Artificial Intelligence: How knowledge is created, transferred, and used: Trends in China, Europe, and the United States”, By the Elsevier Artificial Intelligence Program 12/11/2018. Disponible en: http://bcn.cl/2af75 (Junio, 2019). 2 Elsevier AI Report, Chile Publications (Publication time range: 1998-2017), Elsevier’s Scopus. Disponible en: http://bcn.cl/2af76 (Junio, 2019). 3 "A PROPOSAL FOR THE DARTMOUTH SUMMER RESEARCH PROJECT ON ARTIFICIAL INTELLIGENCE” J. McCarthy, Dartmouth College; L. Minsky, Harvard University; N. Rochester, I.B.M. Corporation; C.E. Shannon, Bell Telephone Laboratories. 31 de agosto de 1955. Disponible en: http://bcn.cl/2af77 (Junio, 2019). Biblioteca del Congreso Nacional de Chile | Asesoría Técnica Parlamentaria 3 Desde 1956 hasta hoy ha habido avances en distintas disciplinas que, en conjunto, buscan lograr que máquinas desarrollen actividades similares al pensamiento humano4. La informática, el conocimiento del cerebro humano, las ciencias de la conducta, la lógica, la robótica, las matemáticas- y otras áreas del conocimiento altamente desarrolladas actualmente- dieron pie para que hoy sea una de las tecnologías5 más prometedoras, dadas sus obvias aplicaciones -hoy en pleno desarrollo- en movilidad, salud, defensa, finanzas, informática, trabajo, juegos y una multiplicidad de otras materias. Tal es así, que la investigación en áreas consideradas como Inteligencia Artificial creció a casi un 13% anual durante los últimos cinco años6, y que Estados Unidos de Norteamérica (a través del impulso público de la “American AI Initiative”7, de febrero de 2019, que potencia los aportes de 2016), China (que pasó de publicar el 4% los papers en IA en 1997 al 27% en 20178) y la Unión Europea (con un aumento del 70% en financiamiento público para investigar en IA en 20189) compitan10 actualmente con proyectos de financiamiento público para el desarrollo de Inteligencia Artificial. La razón para que los científicos no tengan una definición consensuada es que, lo que hoy se conoce como Inteligencia Artificial, se desarrolla en múltiples áreas, y no contar con una definición sería una ventaja en estos momentos de acelerado desarrollo en la materia. Considerando lo anterior, una explicación aproximada desde el mundo científico de qué es la Inteligencia Artificial la entrega el director de la Unidad de Economía Digital del Joint Research Centre de la Comisión Europea11, Alessandro Annoni, quien dice que “si bien IA es una alta prioridad en las agendas de los responsables de la formulación de políticas y los líderes de investigación e industria y atrae la atención diaria de las noticias, también carece de una definición universal” 12. Según Annoni, “en términos generales, IA se refiere a la creación de máquinas (agentes) que piensan y actúan como seres humanos”. El mismo autor, citado en un completo informe de Elsevier sobre Inteligencia Artificial publicado en 2018, señala que “según el informe AI100 de Stanford13, la falta de una definiciónprecisa y universalmente aceptada de IA probablemente ha ayudado a que el campo crezca, florezca y avance a un ritmo cada vez más acelerado". 4 Para una mirada de la historia de la Inteligencia Artificial ver Buchanan B, “A (Very) Brief History of Artificial Intelligence”, AI Magazine Volume 26 Number 4 (2006), Disponible en: http://bcn.cl/2afld (Junio, 2019). 5 “Inteligencia artificial (3): El futuro”, OpenMind BBVA, enero 2018. Disponible en: http://bcn.cl/2afle (Junio, 2019). 6 “Executive summary: Artificial Intelligence: How knowledge is created, transferred, and used: Trends in China, Europe, and the United States”, By the Elsevier Artificial Intelligence Program 12/11/2018. Disponible en: http://bcn.cl/2af75 (Junio, 2019). 7 “Artificial Intelligence for the American People”, Gobierno de Estados Unidos, 2019. Disponible en: https://www.whitehouse.gov/ai/ (Junio, 2019). 8“China AI Development Report 2018”. Disponible en: http://bcn.cl/2af78 (Junio, 2019). 9Artificial Intelligence, European Commission. Disponible en: http://bcn.cl/2af7a (Junio, 2019). 10“China is catching up to the US in AI research—fast, Wired, marzo de 2019. Disponible en: http://bcn.cl/2af7b (Junio, 2019). 11 Joint Research Centre, CE. Disponible en: http://bcn.cl/2aflh (Junio, 2019). 12 Pp.13, “Artificial Intelligence: How knowledge is created, transferred, and used: Trends in China, Europe, and the United States”, By the Elsevier Artificial Intelligence Program 12/11/2018. Disponible en: http://bcn.cl/2af7c (Junio, 2019). 13Peter Stone, Rodney Brooks, Erik Brynjolfsson, Ryan Calo, Oren Etzioni, Greg Hager, Julia Hirschberg, Shivaram Kalyanakrishnan, Ece Kamar, Sarit Kraus, Kevin Leyton-Brown, David Parkes, William Press, AnnaLee Saxenian, Julie Shah, Milind Tambe, and Astro Teller. "Artificial Intelligence and Life in 2030." One Hundred Year Study on Artificial Intelligence: Report of the 2015-2016 Study Panel, Stanford University, Stanford, CA, September 2016. Disponible en: http://bcn.cl/2af7d (Junio, 2019). Biblioteca del Congreso Nacional de Chile | Asesoría Técnica Parlamentaria 4 Y aunque las y los científicos no tengan hoy una definición consensuada, si existen definiciones que se utilizan para el desarrollo de políticas, planes y programas. A modo de ejemplo, la Comisión Europea define la Inteligencia Artificial de la siguiente manera: “¿Qué es la inteligencia artificial? La inteligencia artificial (IA) se refiere a los sistemas que muestran un comportamiento inteligente14 al analizar su entorno y realizar acciones, con cierto grado de autonomía, para lograr objetivos específicos. Los sistemas basados en la inteligencia artificial pueden basarse exclusivamente en software, actuando en el mundo virtual (por ejemplo, asistentes de voz, software de análisis de imágenes, motores de búsqueda, sistemas de reconocimiento de voz y reconocimiento facial) o la inteligencia artificial puede integrarse en dispositivos de hardware (por ejemplo, robots avanzados, automóviles autónomos, etc.), aplicaciones de drones o internet de las cosas). Estamos utilizando la IA a diario, por ejemplo, para traducir idiomas, generar subtítulos en videos o para bloquear el correo no deseado. Muchas tecnologías de inteligencia artificial requieren datos para mejorar su rendimiento. Una vez que tienen un buen desempeño, pueden ayudar a mejorar y automatizar la toma de decisiones en el mismo dominio. Por ejemplo, un sistema de IA se entrenará y luego se usará para detectar ataques cibernéticos en base a los datos de la red o sistema en cuestión”15. A lo anterior se puede agregar que, según una entrevista al Dr. Roberto M. Cesar Jr. Adjunct Coordinator, São Paulo Research Foundation (FAPESP) de Brasil, en el estudio de Elsevier16, “la Inteligencia Artificial y el “machine learning” generalmente incluyen cuatro elementos fundamentales: 1. Algoritmos de aprendizaje y clasificación, 2. Datos para entrenar y evaluar los algoritmos, 3. Científicos de datos para codificar, configurar el software y preparar los datos, 4. Hardware informático para almacenar y ejecutar el código. III. Principales áreas de desarrollo de la IA 14 Sobre “comportamiento inteligente”, revisar el siguiente artículo: Carpio, C et.al. “Comportamiento inteligente y creativo: efectos de distintos tipos de instrucciones”, Suma Psicológica, Vol. 21. Núm. 1, 1-69 (Junio, 2014). Disponible en: http://bcn.cl/2aflb (Junio, 2019). 15 COMMUNICATION FROM THE COMMISSION TO THE EUROPEAN PARLIAMENT, THE EUROPEAN COUNCIL, THE COUNCIL, THE EUROPEAN ECONOMIC AND SOCIAL COMMITTEE AND THE COMMITTEE OF THE REGIONS- Artificial Intelligence for Europe. Brussels, 25.4.2018 - COM(2018) 237 final. Disponible en: http://bcn.cl/2af7e (Junio, 2019). 16Dr. Roberto M. Cesar Jr. Adjunct Coordinator, São Paulo Research Foundation (FAPESP), Brazil “AI research output: beyond traditionally published papers”, Artificial Intelligence: How knowledge is created, transferred, and used: Trends in China, Europe, and the United States”, By the Elsevier Artificial Intelligence Program 12/11/2018. Biblioteca del Congreso Nacional de Chile | Asesoría Técnica Parlamentaria 5 Según el citado informe de Elsevier sobre Inteligencia artificial (el cual utiliza herramientas de IA para la búsqueda y tratamiento de la información, considerando en su metodología el uso de 800.000 conceptos y palabras clave sobre IA en más de 6.000 textos del mundo académico, de la investigación, la industria y los medios de comunicación, para luego analizar más de medio millón de documentos sobre IA) las siete áreas de mayor desarrollo en la materia actualmente son: Búsqueda y optimización; “Machine learning” y razonamiento probabilístico; Redes neurales; Visión por computadora; Procesamiento de lenguaje natural y representación del conocimiento; Planificación y toma de decisiones, y Sistemas difusos. La siguiente figura grafica la complejidad de las materias analizadas y como se conforman los clústeres mencionados. Figura 1. Reporte Elsevier: Clústeres de palabras clave y coocurrencias en el campo de la IA, 2017 Fuente: Scopus en Elsevier Report 201817. 17 Figure 1, “Executive summary: Artificial Intelligence: How knowledge is created, transferred, and used: Trends in China, Europe, and the United States”, By the Elsevier Artificial Intelligence Program 12/11/2018. Disponible en: http://bcn.cl/2af75 (Junio, 2019). Biblioteca del Congreso Nacional de Chile | Asesoría Técnica Parlamentaria 6 El mismo informe muestra estas investigaciones se enfocan de distinta manera si se analizan las actividades a las que van dirigidas. Por ejemplo, China ha puesto un marcado acento en el desarrollo de IA para la agricultura, mientras que Estados Unidos y Europa desarrollan más investigación y aplicaciones para la salud. En todo caso, el 60% de las áreas de investigación totales apuntan al área de las ciencias naturales18. Uno de los aspectos interesantes del estudio de Elsevier muestra que, aunque la preocupación sobre problemas éticos de la IA ha generado un importante cuerpo de investigación, los estudios propiamente en áreas de Inteligencia Artificial no integran estas preocupaciones. El informe establece que: “• La ética de la IA debe ser consciente de y construir sobre el pensamiento ético existente. Sin embargo, también debe trabajar en asociación con las comunidades técnicas y empresariales para dar forma a los resultados éticos. Esto debería involucrar procesos existentes, tales como aquellos desarrollados en investigación responsable e innovación en TIC. • La ética no es un conjunto fijo de reglas que determinan lo bueno y lo malo, sino que está completamente integrado en el contexto social. Para garantizar los beneficios de la inteligencia artificialmientras se resuelven las dificultades, es necesario desarrollar mecanismos de gobierno apropiados. • La IA no es solo una herramienta técnica. Debido a su impacto potencialmente enorme, abordar la ética de la IA requiere la colaboración entre tecnólogos, responsables políticos, la sociedad civil y otras partes interesadas”.19 Y en términos concretos, el informe concluye que está en aumento el estudio y las preocupaciones éticas en temas concretos como “la privacidad, la confianza, la imparcialidad, la transparencia y la responsabilidad”, así como qué aspectos del desarrollo de la IA han de ser normados. Sin embargo, esta respuesta se está gestando desde los tomadores de decisiones. IV. Acciones desde la política internacional Las preocupaciones éticas nacen desde el mundo de las ciencias sociales y las humanidades, para luego trasladarse al ámbito normativo y luego regulatorio. En este caso, tal es la integración de la Inteligencia Artificial a diferentes niveles en aspectos clave de la vida humana que instituciones como la OECD, las Naciones Unidas y otras están desarrollando repositorios y centros de información para ayudar en su comprensión y posterior regulación. La OECD, por ejemplo, presentó el 22 de mayo de 2019 (menos de un mes antes que la elaboración de este documento) sus “Principios sobre Inteligencia Artificial”, normas internacionales “acordadas por los gobiernos para la administración responsable de una IA confiable”20. 18 Pp.39, “Executive summary: Artificial Intelligence: How knowledge is created, transferred, and used: Trends in China, Europe, and the United States”, By the Elsevier Artificial Intelligence Program 12/11/2018. 19 Pp. 77, “Executive summary: Artificial Intelligence: How knowledge is created, transferred, and used: Trends in China, Europe, and the United States”, By the Elsevier Artificial Intelligence Program 12/11/2018. 20 Principios de la OCDE sobre Inteligencia Artificial. Disponible en: https://www.oecd.org/going-digital/ai/ (Junio, 2019). Biblioteca del Congreso Nacional de Chile | Asesoría Técnica Parlamentaria 7 Se trata de cinco principios complementarios entre sí, para la administración responsable de AI confiable. Traducidos al castellano son los siguientes: -La IA debería beneficiar a las personas y al planeta impulsando el crecimiento inclusivo, el desarrollo sostenible y el bienestar. -Los sistemas de IA deben diseñarse de una manera que respete el estado de derecho, los derechos humanos, los valores democráticos y la diversidad, y deben incluir salvaguardas apropiadas, por ejemplo, permitir la intervención humana cuando sea necesario, para garantizar una sociedad justa y equitativa. -Debe haber transparencia y divulgación responsable en torno a los sistemas de IA para garantizar que las personas entiendan los resultados basados en la IA y puedan desafiarlos. -Los sistemas de IA deben funcionar de manera robusta, segura y segura a lo largo de sus ciclos de vida y los riesgos potenciales deben evaluarse y gestionarse continuamente. -Las organizaciones e individuos que desarrollan, despliegan u operan sistemas de IA deben ser responsables de su correcto funcionamiento en línea con los principios anteriores. El 9 de junio de 2019, el G-20 adoptó los “Principios para la administración responsable de la IA confiable” (basados en los establecidos por la OECD), así como una serie de recomendaciones bajo el nombre de “Políticas nacionales y cooperación internacional para una IA confiable” (se acompaña en el anexo una versión traducida al castellano). Estos principios, más las recomendaciones de política pública que los acompañan, tienen por misión regular el creciente campo de investigación y aplicaciones asociadas a la Inteligencia Artificial, teniendo en cuenta el bienestar humano y una transición no traumática en áreas como lo laboral, ambiental o social. La siguiente tarea en el desarrollo de una regulación es informar y regular aquellas materias donde la tecnología, en este caso, la IA, incide directa o indirectamente sobre las personas, considerando como señalan las instituciones recién mencionadas el interés y el bienestar de las personas por sobre el avance tecnológico o el beneficio económico. Biblioteca del Congreso Nacional de Chile | Asesoría Técnica Parlamentaria 8 Anexo: El siguiente texto es la traducción al castellano del anexo al “G20 Ministerial Statement on Trade and Digital Economy”, acordado por los gobiernos del G20 en la ciudad de Tsukuba, Japón, entre el 8 y 9 de junio de 201921. G20: Principios para la administración responsable de la IA confiable en la Sección 1 y toma nota de las Recomendaciones en la Sección 2. (entre paréntesis encontrará frases o palabras de la versión en inglés original, para su desambiguación). Sección 1: Principios para una administración responsable de la IA confiable 1.1. Crecimiento inclusivo, desarrollo sostenible y bienestar. Las partes interesadas deben participar de manera proactiva en la administración responsable de una Inteligencia Artificial confiable para lograr resultados beneficiosos para las personas y el planeta, así como aumentar las capacidades humanas y aumentar la creatividad, promover la inclusión de poblaciones con poca representación, reducir las desigualdades económicas, sociales, de género y otras, y proteger los entornos naturales, estimulando así el crecimiento inclusivo, el desarrollo sostenible y el bienestar. 1.2. Valores centrados en lo humano y la equidad. a) Los actores de IA deben respetar el estado de derecho, los derechos humanos y los valores democráticos a lo largo del ciclo de vida del sistema de IA. Estos incluyen libertad, dignidad y autonomía, privacidad y protección de datos, no discriminación e igualdad, diversidad, equidad, justicia social y derechos laborales internacionalmente reconocidos. b) Con este fin, los actores de la IA deben implementar mecanismos y salvaguardas, como la capacidad de determinación humana, que sean apropiados con el contexto y que sean congruentes con el estado del arte. 1.3. Transparencia y explicabilidad. Los actores de IA deben comprometerse con la transparencia y la divulgación responsable con respecto a los sistemas de IA. Para este fin, deben proporcionar información significativa, adecuada al contexto y coherente con el estado del arte: i. para fomentar una comprensión general de los sistemas de IA; ii. para sensibilizar a las partes interesadas sobre sus interacciones con los sistemas de IA, incluso en el lugar de trabajo; 21 G20 Ministerial Statement on Trade and Digital Economy. Disponible en: http://bcn.cl/2af7f (Junio, 2019). Biblioteca del Congreso Nacional de Chile | Asesoría Técnica Parlamentaria 9 iii. para permitir que los afectados por un sistema de inteligencia artificial entiendan el resultado; y, iv. para permitir que los afectados adversamente por un sistema de IA desafíen su resultado basándose en información clara y fácil de entender sobre los factores y la lógica que sirvió de base para la predicción, recomendación o decisión. 1.4. Robustez, seguridad y protección. a) Los sistemas de IA deben ser robustos, “protegidos y seguros” (“secure and safe22”) durante todo su ciclo de vida, de modo que, en condiciones de uso normal, uso previsible o uso indebido u otras condiciones adversas, funcionen adecuadamente y no supongan un riesgo de seguridad no razonable. b) Con este fin, los actores de IA deben garantizar la trazabilidad, incluso en relación con los conjuntos de datos, procesos y decisiones tomadas durante el ciclo de vida del sistema de IA, para permitir el análisis de los resultados del sistema de IA y de las respuestas a la consulta, apropiadas al contexto y consistentes con el estado de arte. c) Los actores de la IAdeben, sobre la base de sus funciones, el contexto y su capacidad de actuar, aplicar un enfoque sistemático de gestión de riesgos en cada fase del ciclo de vida del sistema de IA, de forma continua para abordar los riesgos relacionados con los sistemas de IA, incluida la privacidad, la “protección de datos, la seguridad y la existencia de sesgos” (digital security, safety and bias). 1.5. Responsabilidad Los actores de IA deben ser responsables del buen funcionamiento de los sistemas de IA y del respeto de los principios anteriores, en función de sus roles, el contexto y de acuerdo con el estado del arte. Sección 2: Políticas nacionales y cooperación internacional para una IA confiable. 2.1. Invertir en investigación y desarrollo de IA a) Los gobiernos “deberían considerar” la inversión pública a largo plazo y alentar la inversión privada en investigación y desarrollo, incluidos los esfuerzos interdisciplinarios, para estimular la innovación en una IA confiable que se centre en problemas técnicos desafiantes y en implicaciones sociales, legales y éticas relacionadas con la IA y asuntos de política. b) Los gobiernos también deberían considerar la inversión pública y alentar la inversión privada en conjuntos de datos (datasets) abiertos que sean representativos y que respeten la privacidad y la protección de datos para respaldar un entorno de investigación y desarrollo de IA que esté libre de sesgos inapropiados y para mejorar la interoperabilidad y el uso de estándares. 22 Dada la similitud de la traducción al castellano de las palabras “Safety” y “Security”, como “seguridad”, se utiliza en este caso la desambiguación utilizada por la aviación civil europea donde “Safety”: seguridad, y “Security”: protección. Security y safety en la aviación civil, sección Cabos Sueltos, Traducción de la Comisión Europea. Disponible en: http://bcn.cl/2af7g (Junio, 2019). Biblioteca del Congreso Nacional de Chile | Asesoría Técnica Parlamentaria 10 2.2. Fomento de un ecosistema digital para la IA. Los gobiernos deberían fomentar el desarrollo y el acceso a un ecosistema digital para una IA confiable. Dicho ecosistema incluye, en particular, tecnologías e infraestructuras digitales y mecanismos para compartir el conocimiento de la IA, según corresponda. En este sentido, los gobiernos debieran considerar la promoción de mecanismos como los fideicomisos de datos, para apoyar el intercambio seguro, justo, legal y ético de los datos. 2.3 Configuración de un entorno normativo propicio para la IA a) Los gobiernos deberían promover un entorno normativo que apoye una transición ágil desde la etapa de investigación y desarrollo a la etapa de implementación y operación de sistemas de IA confiables. Para este efecto, deben considerar el uso de la experimentación para proporcionar un entorno controlado en el que los sistemas de IA puedan probarse y ampliarse, según corresponda. b) Los gobiernos deberían revisar y adaptar, según corresponda, sus políticas y marcos regulatorios y mecanismos de evaluación según se apliquen a los sistemas de IA para alentar la innovación y la competencia por IA de confianza. 2.4. Desarrollo de capacidades humanas y preparación para la transformación del mercado laboral. a) Los gobiernos deberían trabajar en estrecha colaboración con las partes interesadas para prepararse para la transformación del mundo del trabajo y de la sociedad. Deben capacitar a las personas para que utilicen e interactúen eficazmente con los sistemas de Inteligencia Artificial en toda la gama de aplicaciones, incluso equipándolos con las habilidades necesarias. b) Los gobiernos deberían tomar medidas, incluso a través del diálogo social, para garantizar una transición justa para los trabajadores a medida que se despliega IA, por ejemplo, a través de programas de capacitación a lo largo de la vida laboral, apoyo a los afectados por el desplazamiento y acceso a nuevas oportunidades en el mercado laboral. c) Los gobiernos también deberían trabajar en estrecha colaboración con las partes interesadas para promover el uso responsable de la IA en el trabajo, mejorar la seguridad de los trabajadores y la calidad de los empleos, fomentar el espíritu empresarial y la productividad, y tratar de garantizar que los beneficios de la IA sean amplios y justamente compartidos. 2.5. Cooperación internacional para una IA confiable. a) Los gobiernos, incluidos los países en desarrollo y las partes interesadas, deberían cooperar activamente para promover estos principios y avanzar en la administración responsable de una IA confiable. b) Los gobiernos deberían trabajar juntos en la OCDE y en otros foros mundiales y regionales para fomentar el intercambio de conocimientos de inteligencia artificial, según corresponda, deberían alentar las iniciativas internacionales, intersectoriales y abiertas de múltiples interesados para obtener experiencia a largo plazo sobre la IA. Biblioteca del Congreso Nacional de Chile | Asesoría Técnica Parlamentaria 11 c) Los gobiernos deberían promover el desarrollo de estándares técnicos globales impulsados por el consenso y por múltiples partes interesadas para una IA interoperable y confiable. d) Los gobiernos también deberían alentar el desarrollo, y el propio uso, de métricas comparables internacionalmente para medir la investigación, desarrollo y despliegue de IA, y recopilar evidencia para evaluar el progreso en la implementación de estos principios. Nota aclaratoria Asesoría Técnica Parlamentaria, está enfocada en apoyar preferentemente el trabajo de las Comisiones Legislativas de ambas Cámaras, con especial atención al seguimiento de los proyectos de ley. Con lo cual se pretende contribuir a la certeza legislativa y a disminuir la brecha de disponibilidad de información y análisis entre Legislativo y Ejecutivo. Creative Commons Atribución 3.0 (CC BY 3.0 CL)
Compartir