Logo Studenta

Avances y desafios de la inteligencia artificial - Serrahima de Bedoya, Alvaro

¡Este material tiene más páginas!

Vista previa del material en texto

Escuela técnica superior de ingeniería (ICAI) 
 
AVANCES Y DESAFÍOS DE LA 
INTELIGENCIA ARTIFICIAL 
Autor: Álvaro Serrahima de Bedoya 
Director: Josefina Bengoechea Fernández 
 
 
MADRID | Marzo 2022 
 
 2 
 
 
 3 
ÍNDICE 
1. Introducción ............................................................................................................................ 7 
Objetivos ................................................................................................................................................... 8 
Estructura y Metodología .......................................................................................................................... 8 
Marco Teórico ........................................................................................................................................... 9 
2. Historia de la IA .................................................................................................................... 11 
Inicio ........................................................................................................................................................ 11 
Deep learning .......................................................................................................................................... 12 
Primer Invierno de la IA .......................................................................................................................... 13 
Boom de 1980 ......................................................................................................................................... 13 
Segundo Invierno de la IA....................................................................................................................... 14 
Resurgir de la IA ..................................................................................................................................... 14 
3. Introducción a la inteligencia artificial: qué es y cómo funciona. ........................................ 17 
4. Estado actual de la ciencia .................................................................................................... 20 
4.1. Principales implicaciones ........................................................................................................... 20 
Factores determinantes ........................................................................................................................ 20 
Ventajas del machine learning ............................................................................................................ 22 
Cambios producidos por el ML .......................................................................................................... 23 
4.2. Aplicaciones ............................................................................................................................... 24 
Percepción ........................................................................................................................................... 24 
Cognición ............................................................................................................................................ 29 
4.3. Principales desafíos y limitaciones ............................................................................................ 33 
4.4. Normativa vigente y dilemas éticos ........................................................................................... 42 
4.4.1. Desafíos regulatorios ......................................................................................................... 42 
4.4.2. Estado actual de la legislación ........................................................................................... 45 
5. Futuro de la IA: ..................................................................................................................... 49 
5.1. ¿Qué podemos esperar de la IA en el futuro? ............................................................................ 49 
5.1.1. Posibles avances tecnológicos ........................................................................................... 49 
5.1.2. Futuras aplicaciones .......................................................................................................... 52 
5.2. Riesgos ....................................................................................................................................... 60 
5.2.1. Riesgos a corto plazo ......................................................................................................... 60 
 4 
5.2.2. Riesgos a largo plazo ......................................................................................................... 64 
6. Conclusiones ......................................................................................................................... 67 
Bibliografía ................................................................................................................................... 69 
 
 
 5 
Resumen: 
El campo de la IA crece a pasos agigantados y cada día surgen nuevos y mejores avances en 
materia. Las mejoras en tecnología, los avances en computación y la mayor disponibilidad de datos 
han impulsado la IA a nuevos niveles. En este estudio, se pretende dar una visión exhaustiva al 
estado actual de la ciencia y a los futuros desafíos que presenta. Para ello, el alcance de este trabajo 
incluye el pasado de la tecnología, los motores de su desarrollo, las aplicaciones, así como las 
principales limitaciones tanto tecnológicas como socioeconómicas a las que se enfrenta. 
Adicionalmente, se explora su futuro, incluyendo posibles nuevas aplicaciones y potenciales 
riesgos. La principal contribución de este trabajo es reunir el estado actual del arte como ayuda 
para futuros estudios. 
Palabras clave: 
Inteligencia artificial, deep learning, machine learning 
 
Abstract: 
The field of AI is growing at a fast rate and new and better advances in the field emerge every day. 
Improvements in technology, advances in computer science, and the increased availability of data 
have pushed AI to new levels. This study aims to give an exhaustive vision of the current state of 
science and the future challenges it presents. To this end, the scope of this work includes the past 
of the technology, the drivers of its development, the applications, as well as the main 
technological and socioeconomic limitations it faces. Additionally, its explores the future of IA, 
including possible new applications and potential risks. The main contribution of this work is to 
gather the current state of the art as an aid for future studies. 
 
Key words: 
Artificial Intelligence, Deep Learning, Machine Learning 
 
 6 
 
 
1. INTRODUCCIÓN 
Ha existido, a lo largo de la historia de la humanidad, una cierta fascinación del ser humano por la 
inteligencia. Es para nosotros un concepto primordial, y para muchos la esencia de la propia vida. 
Cuando miramos al espacio, nos preguntamos si existirá más allá de nuestro planeta algún signo 
de vida inteligente. Apreciamos nuestra inteligencia, la estudiamos, la medimos, y desde hace 
menos de un siglo, intentamos replicarla. 
Cuando comenzaron las primeras máquinas, se creyó haber encontrado la misma esencia de la 
inteligencia. Se vio, en la lógica de la programación, la oportunidad de construir máquinas capaces 
de mostrar inteligencia, y a su vez, surgió la creciente visión del cerebro como un ordenador muy 
avanzado. Surgió así lo que se conoce como inteligencia artificial. Décadas más tarde, tras 
numerosos avances tanto en computación como en el campo de la IA, la visión idealizada y 
simplificada de lo que significa replicar la inteligencia humana ha dejado paso a otra más realista, 
consciente de la verdadera complejidad que supone alcanzar tal reto. 
Es complicado asignar una definición exacta al concepto de inteligencia artificial,ya que para ello 
en primer lugar sería necesario tener una definición clara de qué es la inteligencia. Cuando una 
persona adulta realiza una tarea simple, como hacer una suma fácil, no se considera que sea muy 
inteligente. Si lo hace, en cambio, un niño de un año, o un chimpancé, se considera como una 
muestra de inteligencia avanzada. Por tanto, el concepto de inteligencia es relativo, y de igual 
forma ocurre con la definición de IA. Según la RAE, se define IA como “Disciplina científica que 
se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza 
la mente humana, como el aprendizaje o el razonamiento lógico”. Sin embargo, esta definición 
deja lugar a mucha ambigüedad. Podría decirse que cualquier programa informático construido 
desde la creación de la computación sigue tal razonamiento lógico. Por ejemplo, existen desde 
hace años programas capaces de multiplicar números o guardar grandes cantidades de datos, de 
forma similar o mejor que lo haría un ser humano. Sin embargo, no podría decirse que una 
calculadora o un disco duro pertenecen al grupo de inteligencia artificial. 
Un humano es capaz de entrar en una habitación y reconocer en un instante cada uno de los objetos 
a su alrededor, las personas que lo conforman, la canción que suena y decidir qué quiere hacer a 
continuación, todo ello de manera casi instintiva y sin esfuerzo. Ningún programa a día de hoy es 
 8 
capaz de imitar un comportamiento similar y, sin embargo, se puede afirmar que existen algoritmos 
que entran dentro de la categoría de inteligencia artificial. Por lo tanto, quizás una definición más 
precisa del término es aquella descrita por Elaine Rich que dice: “La inteligencia artificial es el 
estudio de cómo hacer que los ordenadores hagan cosas en las que, en este momento, las personas 
hacen mejor” (1983). Esta definición, a pesar de haber sido formulada hace casi cuatro décadas, 
sigue ajustándose mucho al concepto que se tiene hoy de la IA. Y es que, desde sus inicios, la IA 
es una ciencia que ha ido evolucionando a medida que avanzaba, rompiendo sus propios 
paradigmas y reinventándose. Se trata de una tecnología que crece muy rápidamente y que tiene 
cada vez más aplicaciones en sectores muy distintos de la sociedad, especialmente desde la última 
década. Es, por tanto, complicado tener una visión clara y actualizada del punto en que se 
encuentra, al día con los últimos avances, las últimas regulaciones, y las proyecciones de futuro 
próximo y venidero. 
OBJETIVOS 
Para desarrollar la investigación, es necesario establecer qué objetivos perseguimos, lo que nos 
ayudará a alcanzar la cuestión principal. Como ya hemos mencionado anteriormente, el propósito 
final de este proyecto es, a través de una minuciosa investigación y un profundo análisis, ofrecer 
una visión extensa sobre sobre la situación actual de la ciencia de la inteligencia artificial, así como 
de las previsiones de futuro. Por lo tanto, para alcanzarlo será necesario atender a: 
• Entender la inteligencia artificial y sus orígenes, 
• Describir el ámbito de actuación de la misma y sus principales aplicaciones a día de hoy, 
• Examinar el impacto de la IA en la sociedad y desarrollar las principales limitaciones a las 
que se enfrenta en la actualidad, 
• Estudiar el recorrido regulatorio de la ciencia en los últimos años y revisar el marco 
regulatorio existente en la Unión Europea y sus objetivos a futuro, 
• Analizar las áreas de mayor potencial de crecimiento y 
• Explorar los posibles riesgos que el desarrollo de la IA conllevar en el futuro. 
ESTRUCTURA Y METODOLOGÍA 
La metodología utilizada en el trabajo se ha dividido en cinco apartados que siguen un orden 
cronológico: en una primera instancia se expone la historia de la IA, seguido de una introducción 
 9 
al concepto de inteligencia artificial, tras esto se realiza un estudio exhaustivo del estado actual de 
la ciencia, y se sigue con una exploración del futuro de la tecnología. Por último, se exponen las 
conclusiones del trabajo. 
Es relevante conocer el pasado de la IA para comprender en profundidad cuales son los motores 
del desarrollo de la ciencia en el presente. Por ello, en el primer apartado sobre la historia de la IA 
se pretende poner en contexto el estado actual de la ciencia, resaltando los periodos de mayor y 
menor desarrollo y las causas de esos picos. 
Durante el trabajo se nombran distintos términos como machine learning, deep learning o redes 
neuronales, que a menudo suelen confundirse y mezclarse. En el segundo apartado se pretende 
introducir el concepto de IA y aclarar la diferencia entre estos conceptos. 
Una vez comprendido el pasado de la IA y los conceptos más relevantes, se realiza un análisis 
empírico exhaustivo de su estado actual, explorando los principales motores de su desarrollo, las 
aplicaciones más relevantes y los desafíos y limitaciones a los que se enfrenta. 
Por último, se exploran las expectativas de crecimiento de la IA, estudiando las expectativas de 
inversión en cada sector y las previsiones de crecimiento pronosticadas por los expertos. Para 
complementar, se abordan los riesgos que acompañan a un mayor desarrollo de estos sistemas 
reuniendo las preocupaciones de distintos expertos y organismos. 
El trabajo finaliza realizando una conclusión final, en la que se recapitula el estado actual de la IA, 
resumiendo las principales aplicaciones, limitaciones y líneas generales de legislación y meditando 
sobre los futuros riesgos y la trascendencia que estos últimos pueden tener sobre el futuro 
desarrollo de la IA. 
MARCO TEÓRICO 
Debido a que se trata de un área novedosa y que se encuentra en la actualidad en constante cambio 
y desarrollo, existen numerosos artículos informativos que exponen la actualidad de la inteligencia 
artificial. Sin embargo, debido precisamente a lo rápido que se desarrolla, es primordial utilizar 
fuentes recientes puesto que los artículos pasan a estar rápidamente desactualizados. 
 10 
En lo que respecta a aspectos generales de la IA, existen numerosos libros y artículos escritos sobre 
el tema puesto. El artículo “A Brief History of artificial Intelligence: On the Past, Present, and 
Future of artificial Intelligence” ha servido como base para desarrollar un esqueleto de la historia 
de la IA, que posteriormente se ha ido completado más en detalle con otras fuentes como “The 
History of artificial Intelligence” de Harvard. 
Para la segunda parte del trabajo de la IA se ha decidido por ofrecer una explicación breve y 
concisa para poder entender los distintos conceptos que aparecen a lo largo del trabajo. Para ello 
se han utilizado diversas fuentes entre las que destacan “What is machine learning” de IBM, que 
ofrece un resumen conciso de los principales aspectos. 
La revista de Harvard cuenta con un número extenso de artículos de gran valor académico sobre 
la IA que han servido de gran ayuda. Entre ellos destacan “artificial intelligence, for real.” Y 
“artificial intelligence for the real world”, que ofrecen información de gran interes sobre el estado 
actual de la IA y “artificial intelligence - The Revolution Hasn’t Happened Yet”, enfocada en el 
futuro de la ciencia. Posteriormente, se ha completado la información con otros artículos 
académicos y fuentes más especializados en cada uno de los distintos sectores de desarrollo de la 
IA. 
La Universidad de Standford lanzó en 2014 su investigacion “One Hundred Year Study on 
artificial Intelligence(AI)” donde, a través de un panel de expertos, estudia la inluencia de la IA en 
la sociedad. Desde su lanzamiento, han salido dos reportes: “artificial Intelligence and life in 2030” 
en 2016 y “Gathering Strength, Gathering Storms” de 2021, que pretenden dar una vision en 
profundidad del impacto de la IA en la gente y la sociedad mundial. 
Por último, en lo referente a las regulaciones sobre la IA, la autoraInga Ulnicane, junto con otros 
autores, ha escrito varios libros analizando la regulación de la inteligencia artificial como “The 
Global Politics of artificial Intelligence” y “The Routledge Handbook of European Integrations”, 
ambos muy recientes y que ofrecen un análisis muy completo sobre el estado de la legislación 
sobre la IA. Además de estos libros, la otra fuente principal han sido los comunicados y 
documentos publicados por la Comisión Europea donde exponen sus propuestas de regulación y 
su visión de futuro sobre el manejo de la IA en los próximos años. 
Para concluir, se han obtenido datos y estadísticas relevantes de la IA a partir de diversas fuentes 
como EZmarketing, Fortune Insights, Statista o Emergen Research, entre otras. 
 11 
2. HISTORIA DE LA IA 
INICIO 
Es difícil establecer un punto exacto de aparición de la inteligencia artificial, ya que su definición 
es ambigua y ha cambiado desde su aparición. Sin duda un punto clave en su comienzo fue el 
desarrollo de la máquina denominada The Bombe por Alan Turing en los años 40, y que es 
considerada como el primer ordenador electromecánico. Gracias a esta máquina fue posible 
descifrar el código Enigma usado por la armada alemana en la Segunda Guerra Mundial, una tarea 
casi imposible para incluso las mentes más brillantes. Este hito marcó un punto de partida en lo 
que se refiere a las posibilidades y la inteligencia de estas máquinas. 
Similarmente, podríamos establecer el punto de partida de la inteligencia artificial, al menos 
conceptualmente, en la literatura de ciencia ficción escrita por Isaac Asimov en los años 40. Este 
autor, en un relato llamado Circulo Vicioso (Runaround), contaba la historia de un robot inteligente 
dominado por las Tres Leyes de la Robótica: (1) un robot no hará daño a un ser humano ni, por 
inacción, permitirá que un ser humano sufra daño; (2) un robot debe cumplir las órdenes dadas por 
los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley; y (3) un 
robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto 
con la primera o la segunda ley (Haenlein & Kaplan, 2019). Este relato supone un antes y un 
después en la concepción humana de los robots y, aunque es mera ficción, fue una de las grandes 
inspiraciones para la búsqueda de robots inteligentes. A día de hoy, incluso, y aunque no existen 
aún robots como los que se plantean en el libro, puede aún verse la influencia de las Tres Leyes de 
la Robótica. 
No fue, en cambio, hasta 1956 cuando se acuñó por primera vez el término “inteligencia artificial” 
de la mano de Marvin Minsky y John McCarthy, los cuales organizaron un encuentro de estudio 
denominado Conferencia de Dartmouth (en inglés: Dartmouth Summer Research Project on 
artificial Intelligence), con el objetivo de crear máquinas que simularan la inteligencia humana. 
Entre los participantes se encontraban personas como Nathaniel Rochester, inventor del primer 
ordenador comercial, el IMB 701, o Claude Shannon, matemático fundador de la teoría de la 
información. 
 12 
El desarrollo de esta conferencia marcó el inicio de un periodo de más de dos décadas de gran 
proliferación de la inteligencia artificial. Durante este tiempo se produjeron avances como el 
programa ELIZA, creado por Joseph Wizenbaum en 1966, capaz de simular conversaciones con 
humanos, o el Solucionador General de problemas, desarrollado por el premio nobel Herbert 
Simond, capaz de resolver problemas simples. Este periodo se caracteriza además por una 
creciente inversión por parte de los distintos países en inteligencia artificial. Entre ellas destaca la 
Agencia de Proyectos de Investigación Avanzados de Defensa del Gobierno de EEUU, conocida 
por sus siglas en ingles DARPA. Los avances con ELIZA convencieron al DARPA de invertir en 
esta tecnología, con un interés especial en el desarrollo de programas de transcripción y traducción 
de lenguaje hablado. 
DEEP LEARNING 
Durante estos mismos años se habría venido dando, al mismo tiempo, el inicio silencioso de una 
tecnología que no tomaría protagonismo hasta 2015, el aprendizaje profundo o deep learning (DL). 
Sus inicios se remontan a 1943, con la publicación de “A Logical Calculus of the Ideas Immanent 
in Nervous Activity”, de Walter Ptts y Warren McCulloch. En este documento se presenta un 
modelo matemático que imita el comportamiento de una neurona a través de una serie de cálculos 
matemáticos denominados lógica de umbral. Este hito es considerado como el inicio del estudio 
de las redes neuronales artificiales. Tras esto se siguieron otros eventos importantes. En 1957 
Frank Roenblatt idea el Perceptron, un algoritmo de clasificación que contaba con ciertas 
capacidades de aprendizaje. En 1960 se crea el primer modelo de retropropagación de errores de 
la mano de Henry J. Kelley, y una versión más simple de esto dos años más tarde por Stuart 
Dreyfus. El primer intento de creación de algoritmos de deep learning sucede en 1965 de la mano 
de Alexey Grigoryevich Ivakhnenko y Valentin Grigorʹevich Lapa, quienes crean el primer 
perceptron multicapa usando modelos con funciones de activación polinómicas. Ivakhnenko es 
considerado por algunos como el padre del deep learning. 
A pesar de estos avances, la investigación en el campo se estancó a partir de 1969. El detonante 
de este estancamiento fue principalmente el libro publicado por Marvin Minsky y Seymour Papert 
llamado Perceptrons. En él, los autores mostraban que el perceptrón de Rosenblat no sería capaz 
de resolver funciones complicadas como la XOR, al menos no con el poder de procesamiento con 
el que se contaba en la época. 
 13 
PRIMER INVIERNO DE LA IA 
La publicación del libro Perceptrons marcó un cambio en la tendencia optimista que se vivía sobre 
la IA hasta el momento al mostrar predicciones bastante pesimistas sobre la tecnología. Sin 
embargo, no fue hasta 1973 cuando comenzaron a ser evidentes las grandes limitaciones con que 
contaban aún los programas de inteligencia artificial. El proyecto de DARPA para la creación de 
un algoritmo de transcripción de lenguaje no dio los resultados esperados. Era evidente que los 
ordenadores de la época no contaban con el poder de procesamiento necesario para tareas de aquel 
calibre. Esto, unido a la falta de avances en el campo de la IA, hizo que las esperanzas sobre las 
posibilidades de esta tecnología decayeran y los gobiernos estadounidense y británico redujeron 
enormemente la inversión, lo que dio lugar a una etapa comúnmente conocida como el invierno 
de la IA, caracterizada por la falta de inversión y de interés en el campo. La razón del fracaso fue 
el enfoque que se le dio, ya que se trató de imitar la inteligencia artificial mediante la mecanización 
de reglas de razonamiento para tomar decisiones. Si bien estos sistemas pueden dar lugar a buenos 
resultados en determinadas áreas con alta formalización, cuentan con muchas limitaciones en áreas 
que no permiten ese nivel de formalización, tal como el lenguaje natural o el reconocimiento facial. 
Para estos casos, son necesarios sistemas capaces de interpretar datos y aprender de ellos. Por otro 
lado, esta decaída de interés en la ciencia también estuvo muy fomentada por la creación de 
expectativas poco realistas durante los años anteriores, que de la mano del boom que se estaba 
produciendo en el interés en el campo llevaron a marcarse objetivos imposibles. Por ejemplo, el 
propio Marvin Minsky, nombrado anteriormente, que dijo en 1970 en una entrevista en la revista 
LIFE que “Dentro de tres a ocho años, tendremos una máquina con la inteligencia general de un 
ser humano promedio” (LIFE Magazine, 1970). Sin embargo, cuando comenzó a dilucidarse la 
verdadera dificultad de la tarea que supone imitar la inteligencia humana, el interés cayó. 
BOOM DE 1980 
A partir de los años 80 hubo un resurgimiento de interés en elcampo de la mano de la creación de 
los sistemas expertos, programas que imitaban el proceso de decisión de humanos expertos. Estos 
sistemas funcionaban preguntando a un experto cómo actuar ante cualquier situación, y luego este 
conocimiento era trasladado a no expertos. Durante varios años hubo una gran inversión en esta 
tecnología, sobretodo en Japón, donde lanzaron su proyecto de Sistemas de Computadoras de 
Quinta Generación (FGCS por sus siglas en inglés). Se esperaba que esta generación de 
 14 
ordenadores pudiera ser capaz de contar con razonamiento elemental, traducir lenguajes, recibir 
órdenes por voz, y ser, en general, más fáciles de usar que los ordenadores de la época. Sin 
embargo, a pesar de los más de 400 millones de dólares invertidos en esa década, la tecnología 
acabo por no proporcionar los resultados esperados, y mostró ser cara de mantener y con tendencia 
a fallos (Anyoha, 2017). Como resultado de esto, hubo de nuevo una recaída del interés en la IA, 
dando lugar al segundo invierno de la inteligencia artificial. 
SEGUNDO INVIERNO DE LA IA 
Durante los años 90 hubo, de nuevo, un descenso importante de la inversión pública en IA. 
Muchos, incluso, evitaban incluir las palabras “inteligencia artificial” en sus proyectos ya que este 
término pasó a ser visto con pesimismo, y solía recibir poca inversión. A pesar de todo esto, la 
última década del siglo XX reunió una serie de avances importantes. 
Uno de estos avances fue Deep Blue, el programa de ordenador que fue capaz de ganar al campeón 
del mundo de ajedrez Garry Kasparov en 1997. No fue ni mucho menos una victoria aplastante, 
sino que el resultado final fue de un 3.5-2.5 a favor de Deep Blue. Además, no puede decirse que 
la victoria se debiese a un gran avance en la inteligencia de los ordenadores, sino que su fuerza se 
basaba principalmente en su gran poder de cálculo (poder calcular con antelación muchas jugadas 
en adelante), y también en su extensa base de datos donde se recopilaba información sobre la teoría 
existente sobre el juego (aperturas, partidas jugadas por otros campeones, conceptos, etc.). Aun 
así, a pesar de que a nivel tecnológico no supuso un avance predominante en la tecnología, fue un 
caso muy mediático y que para muchos supuso la primera victoria de una máquina sobre un 
humano y el inicio de una era marcada por la superioridad de los ordenadores. Desde entonces los 
motores de ajedrez han avanzado mucho y, a día de hoy, no existe ninguna duda acerca de su 
superioridad sobre cualquier jugador humano. Durante este periodo también se dieron avances 
como el software de reconocimiento de voz de Dragon Systems, que fue implementado en 
Windows, o el robot de reconocimiento e imitación de emociones Kismet desarrollado por Cynthia 
Breazeal. 
RESURGIR DE LA IA 
No fue hasta la segunda década del siglo XXI cuando comenzaron a darse nuevos progresos 
relevantes en el campo. En 2011 Apple introdujo su asistente virtual Siri, al que siguieron los 
 15 
asistentes de Google en 2012 con GoogleNow y de Microsoft en 2014 con Cortana. Tras esto, en 
2016 se produjo un nuevo hito histórico similar a la victoria de Deep Blue sobre Kasparov, esta 
vez en un juego mucho más complejo denominado Go, en el que previamente los algoritmos 
creados solo habían alcanzado nivel amateur. Este juego, debido a su estructura, da lugar a un 
número posible de movimientos mucho más grande que el ajedrez, lo que hacía creer que un 
ordenador nunca podría ser capaz de vencer a un humano En esta ocasión, un programa creado por 
Google denominado AlphaGo consiguió vencer al campeón del mundo Lee Sedol, marcando un 
nuevo hito. Las habilidades del equipo de Google se demostraron nuevamente al año siguiente 
cuando un equipo de ingenieros desarrolló AlphaZero, un motor de ajedrez con un enfoque 
completamente distinto al DeepBlue de 1997. AlphaZero, en vez de utilizar extenso cálculo y 
teoría, utilizaba redes neuronales y machine learning. Con ello, y a pesar de que no se le introdujo 
ninguna documentación sobre partidas pasadas o teoría desarrollada sobre el juego, simplemente 
a través del entrenamiento autónomo, jugando partidas contra sí mismo, AlphaZero fue capaz de 
vencer al motor de ajedrez más potente de aquel entonces, Stockfish8 en una competición de gran 
cobertura mediática. Uno de los elementos más sorprendentes de estas partidas fue el modo de 
juego empleado por AlphaZero ya que, al no estar influido por partidas previas, mostró un estilo 
de juego muy diferente al existente, con numerosas innovaciones. El nuevo programa venció a 
Stockfish en un campeonato disputado en 100 partidas, ganando con un determinante resultado de 
28 victorias, 72 empates y 0 derrotas. Con este hito se demostró el potencial que tenían los modelos 
de aprendizaje por redes neuronales. AlphaZero no siguió desarrollándose, puesto que fue un 
proyecto puntual, pero desde entonces los módulos de ajedrez han incluido esta tecnología a sus 
modelos, combinándola con la ya existente. Esto ha resultado en motores mucho más poderosos 
y, además, más originales. Su influencia en el juego entre humanos también ha sido determinante, 
mostrando nuevas formas de entender el juego. A día de hoy, los jugadores trabajan a diario con 
estos motores para practicar, y analizar las partidas y posiciones que juegan con el fin de ver sus 
errores y aprender de ello. 
Desde entonces, en los años recientes la IA ha tomado gran predominancia, asentándose en cada 
vez más sectores. El auge de la tecnología en la sociedad ha permitido que el número de datos 
disponibles se multiplique exponencialmente gracias al Big Data, que unido a una capacidad de 
procesamiento mucho mayor a la de las décadas pasadas ha incrementado significativamente las 
posibilidades que ofrece la IA. 
 16 
Se llega así al momento actual de la IA, un momento marcado, como se expondrá a continuación, 
por una gran proliferación de la IA en la casi totalidad de los sectores de la economía. Un momento 
en el cual la IA ha pasado de ser concebida como una ciencia puramente académica a dar el salto 
a la aplicación práctica, mostrando una pequeña parte del potencial que tiene de revolucionar la 
industria, los negocios, la vida de la gente e incluso la cultura. 
 
 17 
3. INTRODUCCIÓN A LA INTELIGENCIA ARTIFICIAL: QUÉ ES Y CÓMO 
FUNCIONA. 
Antes de comenzar a estudiar el estado actual de la inteligencia artificial es necesario comprender 
qué es, cómo funciona, y cuáles son las diferencias entre inteligencia artificial, machine learning, 
deep learning y redes neuronales, ya que son conceptos que aparecen en numerosas ocasiones a lo 
largo del trabajo. 
La inteligencia artificial es un desarrollo científico por el cual una máquina es diseñada para llevar 
a cabo acciones similares a las de la inteligencia humana. El principal objetivo de esta ciencia es 
hacer que los ordenadores hagan aquello que los humanos son capaces de hacer. Según su 
aplicación, se puede dividir la tecnología en dos tipos. Por un lado, aquellas máquinas diseñadas 
para especializarse en una tarea específica se les denomina IA aplicada o débil, y es la más común. 
Un ejemplo de ello sería un módulo de ajedrez o un coche autónomo. Por otro lado, si la 
inteligencia tiene la capacidad de realizar cualquier acción que se le asigne se denomina IA 
generalizada o robusta. A día de hoy, no existen algoritmos de IA que cumplan estas condiciones. 
El machine learning(ML) es un subcampo de la IA que reúne a aquellas aplicaciones capaces de 
hacer predicciones y aprender a partir de datos sin estar explícitamente programado. Para ello, 
hacen uno de métodos estadísticos para buscar patrones y relaciones desconocidos entre los datos, 
los cuales sirven de entrenamiento para el algoritmo. A través de este entrenamiento, los 
algoritmos de machine learning son capaces de aprender y proporcionar clasificación y predicción 
de nuevosdatos, creando de este modo nuevo conocimiento. 
El proceso a partir del cual operan los algoritmos de machine learning puede dividirse en tres 
partes. En primer lugar, a través del proceso de decisión, el algoritmo hace predicciones o 
clasificaciones sobre un conjunto de datos. Para ello los algoritmos buscan patrones desconocidos 
en los datos que asistan en la toma de decisiones. En segundo lugar, la función de error juzga el 
desempeño del proceso de decisión, según si sus predicciones o clasificaciones han sido correctas 
o incorrectas. En tercer lugar, el proceso de optimización del modelo se encarga de ajustar los 
pesos del modelo para reducir las discrepancias entre las estimaciones y los datos reales. Este 
proceso de tres partes se lleva a cabo de forma reiterada, mejorando así los resultados del proceso. 
 18 
Los algoritmos de ML suelen clasificarse en tres grupos: supervisado, no supervisado, y reforzado. 
El aprendizaje supervisado incluye la mayoría de aplicaciones actuales, y se utiliza aquello que ya 
se ha aprendido en el pasado sobre datos nuevos para hacer predicciones futuras. En este tipo, se 
utiliza una serie de datos previamente clasificados como muestra de entrenamiento. El programa, 
a partir de estos datos, se entrena buscando relaciones que le permitan clasificar o predecir 
correctamente los datos, y utiliza las clasificaciones existentes para evaluar sus errores y mejorar. 
Un ejemplo de esto sería un algoritmo encargado de dividir una serie de correos en correo deseado 
y no deseado, partiendo como muestra de un conjunto de emails previamente clasificados. El 
aprendizaje no supervisado, por otro lado, no necesita de la existencia previa de datos clasificados. 
Este tipo de aprendizaje no busca clasificar la salida, sino que explora relaciones y organizaciones 
internas ocultas dentro de los datos. Finalmente, en el aprendizaje reforzado el algoritmo aprende 
a base de prueba y error qué acciones proporcionan una mayor recompensa. El objetivo del 
algoritmo será por tanto maximizar la recompensa obtenida durante un periodo de tiempo. A través 
de probar al azar, el programa buscará por tanto la solución óptima que da lugar a mejores 
resultados (Ongsulee, 2017). Una aplicación común que sigue este ejemplo son los algoritmos 
programados para videojuegos. Mediante este método, el programa puede aprender a dominar 
cualquier videojuego sin que sea necesario explicarle siquiera las nociones básicas de cómo 
jugarlo, tan solo a través de la prueba y el error y la búsqueda de recompensas. 
Es común que los términos machine learning y deep learning se confundan y usen de manera 
indiscriminada, ya que ambas tecnologías son muy similares, sin embargo, no son exactamente lo 
mismo. Mientras que ambos son subcampos de la inteligencia artificial, el deep learning es, de 
hecho, un subcampo del machine learning. En concreto, deep learning se refiere a un tipo de ML 
donde una parte del proceso está automatizada, lo que permite el uso de conjuntos de datos más 
grandes y menos estructurados, sin la necesidad de tanta intervención humana. Podría decirse que 
el DL es un tipo escalable de ML, y entraría dentro del grupo de aprendizaje no supervisado. 
El deep learning utiliza redes neuronales artificiales, que consisten en una red de nodos formada 
por varias capas: una capa de entrada, una de salida, y una o más capas intermedias. Se le 
denominan “neuronales” porque estas capas simulan el funcionamiento de las neuronas, ya que, 
de igual modo que el cerebro funciona a través del paso de información entre las conexiones entre 
neuronas, las redes neuronales funcionan mediante conexiones entre los nodos de las distintas 
capas los cuales cuentan cada uno con un peso que influye en el resultado final. Además de los 
 19 
pesos, los nodos cuentan con un peso de barrera. Si el peso del nodo supera la barrera entonces el 
nodo se activa, mandando datos a la siguiente capa. 
Figura 1: Esquema Explicativo IA. 
 
Fuente: Elaboración propia. 
Los algoritmos de DL tienen ventaja sobre las generaciones anteriores de machine learning en que 
son capaces de usar conjuntos de datos mucho más grandes para mejorar sus predicciones. 
Mientras que los enfoques típicos de ML mejoran con conjuntos de datos, su mejora siempre se 
frena en un punto, a partir del cual ya no avanzan. Los algoritmos de deep learning, en cambio, no 
muestran señales de frenar su aprendizaje, sino que siguen progresando cuanto mayor es el 
volumen de datos que se les da como entrenamiento. Trabajar con más datos requiere, como era 
de esperar, mayor capacidad de procesamiento. Por suerte, a día de hoy existe una cantidad 
inmensa de datos digitales, lo que abre un gran abanico de posibilidades para el desarrollo de esta 
tecnología. Algunos sistemas de deep learning han sido entrenados para utilizar 36 millones de 
ejemplos o más (Wu, 2016). Sin embargo, a pesar del gran éxito que está teniendo esta tecnología, 
especialmente en el campo del tratamiento de imágenes, lo cierto es que el deep learning cuenta 
con dos limitaciones principales. La primera es que necesita de conjuntos de datos extremadamente 
grandes para proporcionar buenos resultados. Y la segunda es la baja interpretabilidad de sus 
decisiones, que hace difícil sacar conclusiones y que convierte a los algoritmos de inteligencia 
artificial en una “caja negra”. 
 20 
4. ESTADO ACTUAL DE LA CIENCIA 
4.1. PRINCIPALES IMPLICACIONES 
Las innovaciones tecnológicas han sido durante los últimos siglos los principales motores del 
crecimiento económico. Nuevos inventos, como el motor de combustión, han llevado al desarrollo 
explosivo de la economía y, a su vez, al desarrollo de nuevas innovaciones tecnológicas. 
La inteligencia artificial, en concreto el machine learning, es para muchos la ventana a un nuevo 
universo de innovaciones tecnológicas. Al igual que otras innovaciones anteriores como la 
electricidad o el internet, el machine learning tiene el potencial de pasar a considerarse una 
tecnología de propósito general (GPT por sus siglas en ingles), es decir, una tecnología capaz de 
alterar un sistema económico y producir cambios en los factores sociales. Si bien aún es pronto 
para saberlo, la inteligencia artificial es una tecnología con la capacidad de incrementar la 
productividad en desarrollo e investigación. Podría ser, por tanto, la base para el comienzo de una 
Cuarta Revolución Industrial (Crafts, 2021). 
FACTORES DETERMINANTES 
Si se echa la vista atrás se puede observar que, durante muchos años desde el inicio de la 
investigación en IA, a pesar de la gran inversión por parte de muchos países, los avances han sido 
siempre muy lentos y muy por debajo de las expectativas marcadas en el momento, lo que llevó a 
muchos a adoptar una visión muy pesimista sobre las verdaderas posibilidades de esta tecnología 
y a los gobiernos a dejar de invertir en ella. Sin embargo, a día de hoy el desarrollo se está dando 
a un ritmo acelerado, y son pocos los sectores donde la IA no esté mostrando resultados. Existen 
tres factores principales que han colaborado a que hoy en día la IA esté avanzando tanto: mejores 
algoritmos, mejor hardware y mayor cantidad de datos. 
El primero de los factores es la mejora en los algoritmos de IA. Durante los últimos años han 
surgido nuevas formas de aprendizaje tales como el deep learning supervisado y el aprendizaje 
reforzado, que han permitido que sea posible entrenar algoritmos con mayor cantidad de datos sin 
que alcancen pronto un estado dónde más datos no mejoran el resultado. Además, conceptos como 
los algoritmos de open source (algoritmos que están disponibles públicamente y que cualquiera 
puede investigar, modificar y mejorar) favorecen el intercambio de conocimiento sobre la ciencia 
 21 
a gran escala. A día de hoy, los nuevos avances en el área se trasladan muy rápidamente al resto 
del mundo. 
El segundofactor de influencia es la mejora en el hardware disponible. Tal como se ha explicado, 
los nuevos algoritmos son capaces de aprender utilizando bases de datos mucho mayores, pero 
para eso también es necesario un poder de procesamiento mayor. Durante las últimas décadas la 
capacidad de los microprocesadores ha aumentado a un ritmo alineado con la ley de Moore, 
duplicándose cada dos años. Esta mejora en el poder de poder de procesamiento ha abierto las 
puertas a un nuevo mundo de oportunidades donde la aplicación de IA no era anteriormente viable. 
Además, no solo la capacidad de procesamiento de los ordenadores es mayor, sino que ahora 
existen numerosas alternativas al uso de procesamiento privado que consisten en el 
aprovechamiento del procesamiento en la nube. Aun así, a pesar de que todos los algoritmos cada 
vez requieren de una capacidad de procesamiento mayor, todo apunta a que este crecimiento se 
frenará en los próximos años, lo que frenaría el desarrollo de la IA. Una posible solución a esto es 
un tipo de chip llamado Unidad de Procesamiento Gráfico (GPU por sus siglas en inglés) que 
funciona especialmente bien con el tipo de cálculos necesarios en las redes neuronales. Algunas 
compañías incluso, como Google, han desarrollado su propio chip optimizado específicamente 
para este uso, llamado Unidad de Procesamiento Tensorial (TPU en inglés) (Brynjolfsson & 
Mcafee, 2017) 
Por último, el tercer factor que ha influenciado en gran medida el rápido crecimiento de la IA es 
la mayor disponibilidad de datos surgida a raíz de la revolución que se está dando a nivel global. 
Durante los últimos años ha habido un boom en el uso de móviles, fotos, videos, redes sociales, 
sensores de todo tipo, y otros sistemas similares, que generan cada minuto cantidades enormes de 
datos digitalizados. El ratio de creación de datos a día de hoy es significativamente mayor al que 
era hace unos años, y una gran parte de esos datos se sube a internet. Hoy, más que nunca, los 
datos se han convertido en un factor clave para muchas de las empresas que operan en internet. 
Algunas, como Twitter o Facebook, ofrecen sus servicios gratuitamente y es a través de los datos 
de donde sacan sus principales beneficios, tanto a través de campañas de publicidad dirigidas 
específicamente al público, como haciendo ellos mismos uso de los datos, o directamente con su 
venta a terceros. La gestión de los datos por parte de estas compañías y su efecto en la privacidad 
de las personas es uno que está generando gran debate a día de hoy. 
 22 
Estos tres factores han contribuido a que, desde 2020, la IA se encuentre en auge y sea una de las 
inversiones más atractivas. De 2010 a 2020, la inversión global en startups sobre IA ha pasado de 
1.300 millones de dólares a más de 40.000 millones, con un crecimiento anual cercano al 50%. En 
lo que respecta al sector académico, el número de trabajos publicados sobre el tema se ha 
multiplicado por doce desde inicios de siglo, así como el número de conferencias y de participantes 
interesados sobre el tema. Es tal el interés mostrado en la materia que más de un 22% de los 
estudiantes del doctorado de informática se especializan en este tema (Toosi, Bottino, Saboury, 
Siegel, & Rahmim, 2021). 
VENTAJAS DEL MACHINE LEARNING 
Lo que hace al machine learning una herramienta tan atractiva es la capacidad que tiene de mejorar 
sus resultados sin la necesidad de que un humano le diga cómo. Esto es especialmente útil por dos 
razones principales. En primer lugar, debido a la posibilidad de aplicarlo en aquellos ámbitos 
donde no puede expresarse la mejora a través de una serie concreta de reglas, ya sea por su 
complejidad o por el desconocimiento de ello. La mente humana es capaz de llevar a cabo tareas 
muy complejas para las que no es capaz de dar explicación a cómo lo hace. A este hecho se le 
denomina la paradoja de Polanyi, por el filósofo y matemático Michael Polanyi, el cual describió 
que las capacidades humanas y su conocimiento acerca del modo en que funciona el mundo están 
más allá de su comprensión explícita. Este efecto tiene un impacto determinante, no solo en lo que 
podemos comunicar entre nosotros, sino en nuestra habilidad de transferir ese conocimiento a las 
máquinas. Un ejemplo claro de ello es el reconocimiento facial. Si bien cualquier ser humano es 
capaz de identificar caras y expresiones, difícilmente es capaz de explicar que elementos concretos 
le han llevado a tales conclusiones. En tareas como esta, la inteligencia artificial juega un papel 
clave puesto que es capaz de aprender por su cuenta, lo que permite automatizar tareas que hasta 
ahora no era posible automatizar. 
El segundo factor que hace al machine learning tan útil es su gran capacidad de aprendizaje, la 
cual supera a la de los humanos. Los sistemas entrenados por ML son capaces de producir 
resultados con mayor precisión y rapidez que la de un humano. Así, gracias a esta tecnología, el 
conocimiento que se le puede transferir a un ordenador ya no está limitado por el propio 
conocimiento del que lo programa, sino que puede ser aprendido de forma independiente por la 
máquina. Esto se vio presente, por ejemplo, en la batalla entre módulos de ajedrez donde 
 23 
AlphaZero, que había aprendido a jugar al ajedrez únicamente por machine learning, sin 
conocimientos humanos previos sobre el juego, venció a un módulo de ajedrez que contaba con 
toda la teoría y conocimientos humanos sobre el juego conocidos hasta el momento. 
CAMBIOS PRODUCIDOS POR EL ML 
Con estas ventajas en mente, el machine learning está calando cada vez más en distintos sectores 
de la economía, produciendo cambios en su modo de funcionamiento. Estos cambios pueden 
clasificarse en tres grupos: cambios en las tareas, cambios en los procesos de negocio y cambios 
en el modelo de negocio. (Brynjolfsson & Mcafee, 2017) 
En primer lugar, los cambios en las tareas incluyen aquellos que implican la introducción de 
sistemas de IA para ocupa o asistir en puestos anteriormente ocupados por humanos. Gracias a la 
IA, puede revolucionarse la concepción de muchos de los puestos de trabajo que existen 
actualmente, dejando aquellas tareas que se puedan automatizar a un algoritmo y permitiendo que 
los humanos se centren en otras más complejas. Esto, como se verá más adelante, no implica 
necesariamente la pérdida de puestos de trabajo por humanos, sino que muy a menudo los 
algoritmos necesitan de la presencia complementaria de un humano, y su implicación rara vez 
sustituye completamente su trabajo. Un ejemplo de ello son los algoritmos que asisten en la 
detección de células de cáncer, donde el programa es capaz, por medio del tratamiento de imagen, 
de estudiar un número muy grande de fotografías para seleccionar aquellas donde existen indicios 
de células cancerígenas. Este proceso no sustituye al de un médico, sino que le libera de esa tarea 
repetitiva y le deja más tiempo para emplearlo en otras tareas más importantes. 
El segundo grupo reúne los cambios en los procesos de negocio, que se refiere a una redefinición 
en el modo en el que se llevaba a cabo un procedimiento gracias a la introducción de la IA, lo cual 
puede ocurrir de dos maneras. Por un lado, es posible maximizar el modo de operación de un 
negocio a través de sistemas de machine learning. Si bien esto ya era posible con los algoritmos 
tradicionales, el ML ofrece un grado más amplio de flexibilidad. Este es el caso de Amazon, que 
utiliza algoritmos para optimizar su gestión del inventario. Por otro lado, gracias a las nuevas 
posibilidades que ofrece la inteligencia artificial, es posible realizar cambios sustanciales en la 
operación de un proceso. De nuevo Amazon es un ejemplo de ello, ya que desde hace unos años 
comenzó a implementar robots en sus centros y son los que se encargan de una gran parte de la 
logística. 
 24 
Por último, el tercer tipo de cambio la IA puedellegar a producir en un negocio es en el modelo 
de negocio. La IA ofrece a los negocios un nuevo abanico de posibilidades a explorar que les 
permiten, no solo mejorar la forma en la que operaban, sino también redefinirla. Las plataformas 
multimedia, por ejemplo, han cambiado su modelo de negocio en los últimos años incorporando 
algoritmos que estudian los datos de los usuarios, pasando de un negocio basado en proporcionar 
a la carta aquello que el cliente busca a ser ellos los que recomiendan al cliente contenido 
multimedia basado en sus preferencias. Esto, a su vez, proporciona a estos servicios una cantidad 
muy grande de datos sobre los gustos y preferencias de los consumidores, datos que pueden llegar 
a convertirse por sí mismos en una fuente muy rentable de ingresos. 
4.2. APLICACIONES 
En unos pocos años, la IA ha pasado de ser una tecnología en desarrollo y con un potencial muy 
limitado a un recurso de gran valor, siendo de gran utilidad en una variedad muy grande de 
sectores. Son muchas las aplicaciones que ya se están poniendo en marcha a día de hoy de la IA y 
es imposible nombrarlas todas. Sin embargo, es posible agrupar los principales avances en dos 
grupos de trabajo: la percepción y la cognición. 
PERCEPCIÓN 
El campo de la percepción incluye a todas aquellas aplicaciones relacionadas con la captación 
sensorial de información. Así, se encuentran dentro de este grupo aplicaciones relacionadas con la 
voz, las imágenes, los sonidos, etc. A día de hoy, algunas máquinas son capaces de igualar e incluso 
superar las habilidades humanas en algunos de estos ámbitos. Sin embargo, sus capacidades siguen 
siendo limitadas y en muchas ocasiones es más barato y mejor dejar que un humano realice la 
tarea. Sin embargo, a medida que la tecnología disponible consiga superar las capacidades 
humanas, su crecimiento se volverá mucho más acelerado y serán más las situaciones en las que 
estos sistemas podrán implementarse. 
RECONOCIMIENTO DE VOZ 
Entre las aplicaciones del campo de la percepción, una de las más presentes en el día a día actual 
es el reconocimiento de voz. Herramientas como Alexa, Siri o Google Assistant, usadas a diario 
por millones de personas, tienen detrás complejos algoritmos de IA capaces de transcribir voz a 
texto con márgenes de error cada vez menores. Un estudio llevado a cabo por James Landay, en 
 25 
Standford, mostró que la escritura a través del reconocimiento de voz del móvil es de media tres 
veces más rápida que la escritura normal (2016). Además, otro estudio reciente mostró que el 52% 
de la gente prefiere las búsquedas de información por voz frente a la clásica búsqueda por internet, 
debido principalmente a su comodidad (Laricchia, 2017). El mercado global de estas herramientas 
ha crecido en los últimos años, con un valor estimado de 11.900 millones de dólares tan solo en 
EEUU en 2019, y el cual se espera que crezca hasta los 35.500 millones en 2025 (Laricchia, Smart 
Speaker Market Value Worldwide 2014–2025, 2022). Actualmente, la investigación en el campo 
del reconocimiento de voz se desarrolla en tres frentes: la mejora de la tecnología para aumentar 
su eficacia, el incremento de la seguridad y la privacidad, y el estudio de las motivaciones de uso 
de los usuarios (Zwakman, Pal, & Arpnikanondt, 2021) 
RECONOCIMIENTO DE IMAGEN 
Junto con el reconocimiento de voz, otra de las aplicaciones del campo de la percepción que 
merece una mención especial es el reconocimiento de imagen. Esta tecnología es capaz de extraer 
y clasificar las características de una imagen, permitiendo al ordenador saber qué es lo que está 
viendo. Este proceso funciona habitualmente en tres pasos: preprocesamiento de la imagen, 
extracción de características y clasificación. Como se expuso anteriormente, es gracias a la 
aparición de los algoritmos de deep learning que el reconocimiento de imagen ha alcanzado el 
nivel de avance que tiene a día de hoy, ya que esta tecnología permite entrenar algoritmos con 
grandes cantidades de datos no clasificados. La utilidad del reconocimiento de imagen es muy alta, 
y está siendo usada en muchos campos como la medicina, el transporte, la comunicación y la 
seguridad (Yinglong Li, 2022). 
MEDICINA 
El campo de la medicina es uno que destaca especialmente ya que es uno de los lugares donde 
mayor y más rápido impacto está teniendo la IA a día de hoy, con importantes avances en la 
detección de todo tipo de enfermedades a través del tratamiento de imágenes, así como del análisis 
de muestras que ayuda en la elaboración de nuevos tratamientos. Un ejemplo de ello es Enlitic, 
que usan redes neuronales para asistir en el diagnóstico de enfermedades mediante el análisis de 
imágenes médicas. O AlphaFold, desarrollado por DeepMind, que utilizó deep learning para lograr 
avances en un problema de varias décadas de antigüedad conocido como “problema de 
plegamiento de proteínas” (Toosi, Bottino, Saboury, Siegel, & Rahmim, 2021). Además de esto, 
 26 
el tratamiento de imagen también puede ayudar a los médicos a la hora de tomar decisiones y 
asistirles durante las cirugías. La limitación que encuentran estas aplicaciones es la dificultad de 
encontrar grandes cantidades de datos que sirvan como entrenamiento, ya que para ello serían 
necesarias muchas horas de grabación y monitoreo de cirugías que pueda utilizar el algoritmo, algo 
que escasea y que, en caso de existir, sería complicado conseguirlo debido a la privacidad inherente 
a los datos médicos de los pacientes. La dificultad de obtención de datos es un problema común a 
muchas de las aplicaciones de IA. 
En concreto, destaca el papel que ha tenido la IA en la lucha contra el COVID-19. Los avances en 
el campo de la medicina han permitido poner en marcha múltiples aplicaciones que utilizan IA. 
En lo que respecta a la detección, han tenido un papel clave, con algoritmos que detectan el 
COVID-19 en pruebas de pecho con hasta un 95% de precisión, u otros como Blue-dot, que ayudan 
a la detección temprana identificando pacientes que muestran problemas respiratorios gracias al 
reconocimiento facial, los movimientos, el sonido y la luz. En el tratamiento de pacientes, se han 
implementado algoritmos que han desarrollado caracterizaciones de tejidos y técnicas de manejo 
del dolor y robots manejados por IA que han operado asistiendo pacientes y entregando medicinas, 
evitando riesgos de contagio. Por otro lado, muchas de las clases y prácticas médicas han pasado 
a impartirse online con la ayuda de simuladores (Ahuja & Nair, 2021). 
TRANSPORTE 
En lo que respecta al transporte, el reconocimiento de imagen por IA está permitiendo el desarrollo 
de coches inteligentes autónomos, capaces de analizar la información que reciben a través de sus 
cámaras y procesarla para identificar obstáculos y peatones, leer las señales de tráfico y reaccionar 
a las condiciones de la carretera. En los últimos años esta habilidad ha mejorado, y el error a la 
hora de reconocer peatones se ha reducido de uno de cada 30 fotogramas a menos de uno de cada 
30 millones (Brynjolfsson & Mcafee, 2017). Estos coches no solo son capaces de procesar más 
rápido que un humano la información de sus sensores, sino que a través de la información 
disponible en la red son capaces de optimizar la conducción conociendo con antelación el estado 
del tráfico o del tiempo y, en el futuro, la información recibida por otros coches autónomos y otros 
sensores distribuidos por la ciudad. 
 
 27 
DETECCIÓN FACIAL 
También está cobrando gran importancia la detección facial. Gran parte de los móviles actuales 
son capaces de desbloquearse mediante reconocimiento facial, y empresas como Google y 
Facebook, por ejemplo, son capaces de detectar en las fotos las caras de amigos para sugerir 
etiquetas. Otras empresas como Affectiva, han entrenado sus algoritmos para detectar emociones. 
En esta misma línea, el tratamiento de imágenes tambiénestá resultado de utilidad para compañías 
como Aptonomy and Sanbot, que han implementado algoritmos de IA para mejorar sus sistemas 
seguridad y de cámaras de vigilancia. El tratamiento de imagen aplicado a cámaras de seguridad 
permite identificar en tiempo real lo que se observa, añadiendo una capa extra de seguridad. Este 
tema también ha producido controversias pues algunos temen de los riesgos para la privacidad que 
pueda suponer si el reconocimiento facial se usa a gran escala. En China, por ejemplo, el uso de la 
tecnología de reconocimiento facial se emplea de manera generalizada en servicios como la 
seguridad o las transacciones. 
GANS 
Cabe mencionar también una tecnología muy relacionada con el tratamiento de imagen y que ha 
supuesto uno de los mayores avances en inteligencia artificial de los últimos años, las Redes 
Neuronales Generativas Adversativas, comúnmente llamadas GANs por sus siglas en inglés. Esta 
tecnología consiste en un nuevo enfoque en el modo de entrenar las redes neuronales por el cual 
se contraponen dos algoritmos para que compitan entre ellos, uno de ellos encargado de generar 
nuevo contenido realista y un segundo encargado de clasificarlo como verdadero o falso. Ambos 
algoritmos compiten el uno contra el otro en un juego de suma cero, lo que permite que ambos 
aprendan el uno del otro y mejoren en sus respectivas tareas. El entrenamiento termina cuando el 
algoritmo clasificador acierta tan solo el 50% del tiempo, lo que indica que el algoritmo generador 
está creando ejemplos suficientemente buenos. De esta forma, es posible generar nuevo contenido 
original indistinguible de los datos de entrenamiento originales. Así, gracias a esta tecnología, hoy 
en día es posible crear imágenes muy realistas que un humano no es capaz de distinguir de una 
real, como por ejemplo rostros humanos de gente que nunca ha existido. Además de esto, es posible 
llevar los algoritmos GANs un paso más allá y especificar condiciones en su generación de 
contenido, lo que permite utilizarlos para aplicaciones como la transformación de texto a imagen 
o la transformación de imagen a imagen (Brownlee, 2019). Esto posibilita, por ejemplo, crear 
 28 
imágenes o cuadros a partir de cualquier concepto que el autor imagine, incluso, con un sistema lo 
suficiente sofisticado, crear videos generados completamente por IA. A continuación se presenta 
un ejemplo el proceso de creación de una imagen a partir de un código open source que emplea la 
tecnología GANs: 
 
Figura 2: Tres iteraciones del proceso de creación de una imagen con GANs a partir de las 
palabras “león, corona y llaves”, elementos que conforman el escudo de ICAI. 
 
Fuente: Elaboración propia. 
 
Además de la creación de imágenes y videos, gracias a esta tecnología surgen aplicaciones muy 
variadas y originales como, por ejemplo, la creación de videojuegos de mundo abierto en los que 
el paisaje sea generado de forma aleatoria por IA. Es tal el nivel de realismo que han alcanzado 
algunas de estas aplicaciones que se ha generado un debate público sobre las posibles 
consecuencias negativas de esta tecnología, en concreto de cómo puede afectar a aquello que 
creemos como cierto o no. Por ejemplo, es posible a día de hoy, a partir de una muestra inicial de 
una persona, crear un video realista de esa persona haciendo algo que nunca ha hecho, como por 
ejemplo cometiendo un delito, diciendo algo que nunca a dicho o haciendo cualquier otra cosa que 
sirva para ridiculizarla públicamente. A esta aplicación concreta se le suele denominar 
comúnmente como “deepfake” (ultrafalso). Para evitar que esta herramienta pueda ser usada con 
fines perversos, es necesario que haya herramientas que permitan distinguir estas imitaciones del 
contenido verídico. 
 29 
COGNICIÓN 
En contraposición con las aplicaciones del campo de la percepción, se puede determinar un 
segundo grupo de aplicaciones de IA que están teniendo un desarrollo importante en los últimos 
años, y son aquellas que operan en el campo de la cognición. En este grupo se encuentran las 
aplicaciones que requieren el procesamiento de datos y la creación de conocimiento, con 
herramientas que van desde el tratamiento del lenguaje, la resolución de problemas o las finanzas, 
por ejemplo. 
TRATAMIENTO DEL LENGUAJE 
Tal como se expuso al inicio de este documento, durante finales del siglo XX hubo numerosos 
intentos de crear algoritmos que comprendiesen y reprodujesen el lenguaje humano con la idea de 
utilizarlo en aplicaciones como la traducción y la transcripción de audios. Sin embargo, a pesar de 
la gran inversión, los algoritmos apenas eran capaces de reproducir algunas palabras sin coherencia 
e, incluso así, tardaban mucho más de lo que lo hacía un humano, por lo que se acabó por 
abandonar el proyecto. Sin embargo, durante los últimos años la tecnología del tratamiento del 
lenguaje, de la mano de la mejora en el poder de procesamiento y el aumento de datos disponibles, 
ha vivido una mejora notoria, lo que ha llevado al desarrollo de arquitecturas complejas con la 
capacidad de aprender y reproducir el leguaje humano de formas mucho más realistas. A día de 
hoy, los algoritmos no solo son capaces de comprender a muy alto nivel el lenguaje humano, sino 
que también existen modelos con la habilidad de crear textos casi indistinguibles de los de un 
humano como tales como párrafos o historias. Por ejemplo, existen numerosas aplicaciones 
capaces de continuar párrafos de texto a partir de inteligencia artificial. Para ilustrarlo, se ha 
decidido a modo de ejemplo introducir el primer párrafo de este documento en un generador de 
texto online que funciona por redes neuronales llamado InferKit y pedirle que continúe el texto. 
Para ello se ha traducido primero el texto al inglés, y luego el resultado de vuelta al español, ya 
que el programa trabaja mejor en este idioma: 
 30 
 
Como se puede observar, incluso con una muestra muy pequeña, el algoritmo es capaz de crear un 
texto que no solo tiene sentido gramatical, sino que además continua correctamente la línea de 
pensamiento del párrafo original. Aunque quizá alguna frase tenga un sentido difuso, difícilmente 
podría alguien asegurar que el segundo texto no ha sido escrito por un humano. 
Otros usos de esta tecnología incluyen la traducción en tiempo real de texto, el reconocimiento de 
voz, aplicaciones de asistencia a la escritura o servicios de asistencia al cliente automatizados. Por 
ejemplo, en Singapur una aseguradora utiliza un sistema de IBM para automatizar sus reclamos. 
Otro ejemplo es Lumidatum, una firma que ofrece consejos sobre la mejora del servicio al cliente 
a partir de inteligencia artificial (Brynjolfsson & Mcafee, 2017). La capacidad de estos algoritmos 
ha avanzado hasta el punto de que es posible crear servicios como Codex, capaz de asistir a los 
programadores corrigiendo errores, traduciendo entre lenguajes e incluso programando su propio 
código (Metz, 2021). 
JUEGOS 
El sector de los juegos es uno que siempre ha estado intrínsecamente ligado a la IA ya que siempre 
ha sido el “campo de pruebas” de sus avances. Numerosos hitos han marcado la historia del 
desarrollo de la IA: la victoria de ajedrez sobre Kasparov, la batalla entre los módulos Stockfish y 
AlphaZero, la victoria de AlphaGo sobre el campeón Mundial de Go en 2015, y recientemente los 
algoritmos de IA han sido capaces incluso de vencer a los humanos en partidas multijugador en 
Texto introducido como base: 
Ha existido, a lo largo de la historia de la humanidad, una cierta fascinación del ser humano por 
la inteligencia. Es para nosotros un concepto primordial, y para muchos la esencia de la propia 
vida. Cuando miramos al espacio, nos preguntamos si existirá más allá de nuestro planeta algún 
signo de vida inteligente. Apreciamos nuestra inteligencia, la estudiamos, la medimos, y desde 
hace menos de un siglo, intentamos replicarla.Texto creado por inteligencia artificial: 
Pero, ¿somos realmente el pináculo de la inteligencia? Si el cerebro que controla los 
pensamientos e impulsos de los humanos es solo uno de los muchos cerebros del universo, ¿qué 
nos hace tan especiales? ¿Cómo nos distinguimos de nuestros homólogos cerebrales? 
 
 31 
juegos como el Poker o videojuegos como StarCraft II (Michael L. Littman, 2021). Pero la 
inteligencia artificial no solo ha servido para derrotar a los humanos en videojuegos, sino que 
también ha colaborado mucho a su mejora. En el ajedrez, por ejemplo, los módulos de ordenador 
se utilizan mundialmente para aprender y mejorar, analizando las partidas, presentando errores y 
mostrando posibles alternativas. Además, sirven de gran utilidad a los maestros de ajedrez para 
analizar en profundidad sus jugadas y descubrir nuevas tácticas y conceptos, lo que ha 
revolucionado por completo el modo de jugar ajedrez en los últimos años. Por otro lado, algunos 
videojuegos, como No Man’s Sky, son capaces, por medio de la IA, de crear de forma automática 
el escenario de juego con cada partida, lo que genera paisajes y ecosistemas únicos para cada 
jugador. Adicionalmente, la tecnología ha permitido mejorar la inteligencia de los NPCs 
(personajes controlados por ordenador), añadiendo variedad y complejidad a los videojuegos. 
FINANZAS 
Exceptuando al sector de la tecnología, los servicios financieros son el sector donde más se está 
invirtiendo en servicios externos de IA, y se espera que durante los próximos años este gasto se 
incremente (Citi GPS, 2018). Existen dos razones principales por las que este sector está creciendo 
tanto. Por un lado, los intermediarios financieros generan grandes cantidades de ingresos, lo que 
supone un incentivo grande a la implementación de mejoras. Por otro lado, debido a la 
digitalización del sector, existen una gran cantidad de datos digitalizados que facilitan el 
entrenamiento de modelos mucho más precisos. Esto hace que existan, en todos los aspectos de 
las finanzas, una potencial oportunidad para la implementación de la IA. De este modo, las 
aplicaciones de IA en las finanzas transcurren a lo largo de todo el proceso financiero incluyendo 
el trato al cliente, el manejo de riesgos, la gestión de carteras, la infraestructura de pagos, la 
seguridad y la supervisión monetaria y legal. Además, la alta presión regulatoria traducida en altos 
costes de cumplimiento y sanciones ha impulsado a las instituciones a instaurar servicios de IA 
que aseguren el cumplimiento de la reglamentación. Muchas compañías como Credit Suisse 
utilizan bots para el cumplimiento de consultas, y otras como JP Morgan los utilizan para revisar 
préstamos comerciales, lo que equivale a 360.000 horas de trabajo de abogados al año. Esta 
compañía también utiliza IA para ejecutar operaciones de renta variable a la máxima velocidad 
(Zetzsche, Arner, Buckley, & Tang, 2020). Otras empresas como PayPal utilizan estos algoritmos 
 32 
para prevenir el lavado de dinero, y decenas de compañías a lo largo del mundo utilizan bots 
comerciales para decidir qué operaciones llevar a cabo (Brynjolfsson & Mcafee, 2017) 
OPTIMIZACIÓN 
Históricamente muchas compañías han utilizado ordenadores para tratar de mejorar y optimizar la 
implementación de sus servicios. Los algoritmos de IA amplían esta oportunidad permitiendo su 
aplicación de manera mucho más flexible. Por ejemplo, Google utilizo su algoritmo DeepMind de 
machine learning para optimizar la refrigeración de sus centros de datos un 15% extra de lo que 
su equipo de técnicos fue capaz. De igual modo, Amazon utiliza ML para optimizar su inventario 
y mejorar su recomendación de productos a consumidores. Otro ejemplo es Infinite Analitics, que 
desarrolló un sistema para predecir si un usuario haría clic en un anuncio y otro para mejorar el 
proceso de búsqueda de los clientes, el cual resultó en un incremento del beneficio anual de 125 
millones de dólares. Incluso algunas ciudades están empezando a implementar estos algoritmos 
para optimizar las luces de semáforo atendiendo a las condiciones del tráfico (Brynjolfsson & 
Mcafee, 2017). 
ROBÓTICA 
El campo de la robótica es uno de los escaparates más distinguidos de la inteligencia artificial. En 
los últimos cinco años ha habido un progreso considerable en este sector gracias al ML, la mejora 
en la computación y la disponibilidad de sensores más avanzados. Esto ha permitido que existan 
ya a día de hoy robots autónomos con alta agilidad y movilidad que pueden emplearse tanto en la 
industria como domésticamente. El mayor exponente en la actualidad es la compañía de diseño de 
robótica Boston Dynamics, que ha producido robots como Atlas, un humanoide capaz de saltar, 
correr, bailar, operar en terrenos complicados e incluso hacer volteretas. Su otro gran proyecto es 
Spot, un robot cuadrúpedo de tamaño similar a un perro que está siendo usado en zonas de 
construcción. En China, por otro lado, algunos restaurantes han implementado robots que ayudan 
a cocinar y servir comida (Michael L. Littman, 2021). Sin ir más lejos, en España una cadena de 
restaurantes llamada Amazonia Chic opera unos robots que entregan la comida a las mesas. Sin 
embargo, exceptuando aplicaciones concretas, la industria de la robótica aún se encuentra en 
desarrollo y la mayoría de aplicaciones están aún siendo diseñadas. 
 
 33 
OTRAS APLICACIONES 
Existen muchas otras aplicaciones de IA que ya están siendo puestas en marcha. Una de ellas son 
los sistemas de recomendación, que recomiendan a los usuarios productos basados en los datos 
recopilados sobre ellos a través de sofisticados sistemas de machine learning. Este sistema es muy 
popular a día de hoy y está siendo implementado por un gran número de compañías como Youtube, 
Netflix o Amazon. Estos sistemas van incluso más allá, y pueden servir a las compañías no solo 
para recomendar productos sino para obtener información importante sobre qué características de 
sus productos los hacen más deseados. Así por ejemplo Netflix podría crear una película siguiendo 
los parámetros que sabe que son más buscados por sus usuarios. 
Otra herramienta destacable es la implementación de IA en el Internet de las Cosas (IoT), 
permitiendo recoger grandes cantidades de datos de diferentes dispositivos interconectados para 
mejorar su utilidad. De este modo podrían surgir ciudades y hogares inteligentes comprendidos 
por gran cantidad de dispositivos y sensores enlazados y operados por un sistema avanzado de IA. 
Finalmente, la IA tiene la oportunidad de facilitar mucho el día a día de la gente. En esta línea han 
surgido servicios como el pago inteligente, que permite a los usuarios pagar sin necesidad de 
carteras, dinero físico ni contraseñas, solo a través de la voz y el reconocimiento facial, un servicio 
que ya ha implementado KFC en algunos restaurantes con un sistema llamado Alipay Pay. Muy 
similarmente, Amazon está trabajando en la implementación de supermercados inteligentes 
llamados “Just Walk Out”, donde los clientes pueden entrar, coger productos y llevárselos sin 
necesidad de pagar, escanearlos o indicarlo de ningún modo, y estos son automáticamente cargados 
a sus cuentas. 
4.3. PRINCIPALES DESAFÍOS Y LIMITACIONES 
Tal como ha pasado numerosas veces a lo largo de la historia, la inteligencia artificial tiende a 
generar unas expectativas demasiado optimistas. Este optimismo, en parte, beneficia al desarrollo 
de la ciencia puesto que favorece la inversión. Sin embargo, también suele llevar a grandes 
decepciones. Para sentar bases de lo que es posible y lo que no, muchos intentan dilucidar cuales 
sol los factores de limitan el avance de la inteligencia artificial. En el pasado, se pensó durante 
años que estas limitaciones estarían relacionadas con todo lo que implicase aquellas cosas que 
comúnmente son concebidas como “humanas”: emociones, socialización, pintura,música, etc. Sin 
 34 
embargo, en los últimos años esta idea ha cambiado a medida que aparecen nuevos algoritmos 
capaces de operar sorprendentemente bien en estos frentes. Desde algoritmos capaces de detectar 
emociones humanas, otros capaces de simular conversaciones completas casi indistinguibles de 
las de un humano, a incluso IAs como MuseNet, capaces de componer canciones. Estos hitos han 
demostrado que no son estas las áreas donde la inteligencia artificial tiene más dificultades. Lo 
cierto es que, en cualquier campo en el que uno pueda obtener grandes cantidades de datos de 
entrenamiento las IAs parecen operar especialmente bien. Si uno recopila una cantidad 
suficientemente grande de canciones, conversaciones, cuadros, fotografías de emociones…, lo más 
probable es que un algoritmo entrenado con esos datos sea capaz de crear por sí mismo un resultado 
similar. Por lo tanto, si esas no son las limitaciones de la IA, ¿cuáles son? 
GENERALIZACIÓN 
Un error común que se comete a la hora de valorar las capacidades de la IA es creer que un alto 
conocimiento en un área muy específica de trabajo confiere un grado de inteligencia general sobre 
el ámbito que lo reúne. La realidad es que, al menos en la actualidad, las aplicaciones que utilizan 
inteligencia artificial son muy limitadas. Si bien muchos sistemas son capaces de ofrecer resultados 
muy superiores a las de cualquier humano, lo cierto es que su entrenamiento es, por norma general, 
muy especializado. Un algoritmo de inteligencia artificial puede, por ejemplo, estar entrenado para 
detectar con un alto grado de precisión expresiones humanas a partir de imágenes de caras y, sin 
embargo, no saber qué implica cada una de esas emociones, qué las causa ni mucho menos ser 
capaz de replicarlas por sí mismo. Los algoritmos que existen a día de hoy operan entrenándose 
para tareas muy específicas por lo que, aunque existen algoritmos capaces de realizar numerosas 
tareas distintas, aún estamos lejos de alcanzar una máquina con verdadera inteligencia a lo largo 
de un espectro amplio de campos. 
Por otro lado, los algoritmos de IA son entrenados estadísticamente a partir de conjuntos de datos 
de entrada. Es posible que un algoritmo trabaje bien con todos aquellos datos que se parezcan al 
conjunto original pero que produzca resultados erróneos si el dato de entrada difiere mucho de este 
conjunto. No es posible asegurar que el sistema dará buenos resultados en cualquier situación. Es 
más, mientras que los humanos suelen cometer errores, estos errores suelen contenerse siempre 
dentro de unos límites de lo que es lógico. Con una máquina, en cambio, no es posible asegurar el 
grado de error que puede llegar a cometer ante una situación desconocida. Además, no siempre es 
 35 
posible obtener conjuntos de datos lo suficientemente grandes como para entrenar correctamente 
al algoritmo. Por ejemplo, en el caso de un algoritmo que asista en operaciones de corazón, es muy 
probable que no exista una gran cantidad de datos de este tipo. Debido a las dificultades de los 
algoritmos de ML de trabajar con datos distintos a los de entrenamiento, sería difícil entrenar un 
sistema capaz de operar bien ante las diversas complicaciones que puedan surgir. 
Dar solución a estas limitaciones es uno de los objetivos clave en la investigación actual. Para ello, 
se está trabajando en formas de hacer que los algoritmos puedan trabajar con muestras de datos 
más pequeñas. Una de las formas en que esto podría alcanzarse es si se consigue que los modelos 
de machine learning sean capaces de generalizar o transferir lo que han aprendido de su 
entrenamiento a otras tareas similares. Ser capaz de extrapolar conocimiento es para muchos una 
muestra distintiva de inteligencia, ya que requiere la capacidad de adaptarse a nuevas 
circunstancias unido a un conocimiento amplio del mundo. La capacidad de generalizar, por tanto, 
no solo ampliaría las posibilidades de la IA, sino que añadiría robustez a los algoritmos, 
permitiéndoles adaptarse mejor a nuevas situaciones. 
PROFUNDIDAD COMPRENSIVA 
Algunos expertos, como el investigador Roger Shank, opinan que una de las formas en que se 
puede evaluar la verdadera inteligencia de un sistema es a través de su habilidad para contar 
historias. En un experimento, Sam Bowman, un profesor de la Universidad de Nueva York, trató 
de entrenar a una IA proporcionándole docenas de guiones de obras de teatro para ver si la IA sería 
capaz de crear la suya propia (Frick, 2017). El resultado, una novela llamada Sunspring, era a 
primera vista similar a una de las obras originales, con actores, frases y líneas de texto que tenían 
sentido gramatical, lo cual es sorprendente teniendo en cuenta que la IA no contaba con 
información previa sobre el lenguaje, sino que basó todo su conocimiento las obras de teatro 
proporcionadas. Sin embargo, la obra carecía de cualquier tipo de narrativa, y no era más que un 
compendio de frases sin sentido en su conjunto, mostrando que la IA es muy buena a la hora de 
imitar, pero que falla aun en alcanzar un grado de comprensión más amplio. (Frick, 2017). Esto 
demostró la limitación que aún sufren estos algoritmos para generar ideas y conceptos a alto nivel. 
Al igual que con las historias, ocurre algo similar con las IA centradas en el procesamiento del 
lenguaje, como los chatbots, los cuales intentan llevar a cabo conversaciones realistas con humanos 
Estos algoritmos son capaces de generar cantidades grandes de texto que son difíciles de distinguir 
 36 
de las de un humano, con frases que tienen perfecto sentido gramatical y que generalmente 
contestan correctamente a la frase formulada por el humano. Sin embargo, aun cometen muchos 
errores que desafían las normas convencionales de las conversaciones humanes y el sentido 
común, y tienen muchas dificultades con conversaciones largas que requieren un hilo de 
pensamiento más complejo. En este sentido, aun nadie ha conseguido desarrollar un algoritmo que 
supere el test de Turing, un test que consiste en que una máquina mantenga una conversación 
fluida con un humano manteniendo un nivel de profundidad sintáctico cultural y contextual que la 
haga indistinguible de la de un humano. 
PENSAR “FUERA DE LA CAJA” 
Los avances recientes han demostrado el gran potencial que tiene la IA en dar solución a un gran 
número de retos planteados. La gran flexibilidad de estos algoritmos hace creer que podrían ser 
capaces en el futuro de sustituir a los humanos en todos los ámbitos implementados. Sin embargo, 
una de sus limitaciones más determinantes radica, no en su habilidad de dar solución a los retos 
planteados, sino en su capacidad de plantear nuevos retos y objetivos. Tal y como se trató antes, 
la IA no deja de ser un sistema especializado para una tarea. No se trata realmente de una 
inteligencia con un conocimiento genérico. Aunque sean capaz de llevar a cabo tareas complejas 
que los sistemas tradicionales no podían, siguen estando limitadas a objetivos muy específicos. 
Funcionan bajo unos parámetros y siguiendo unas directrices, por lo que no son capaces de plantear 
nuevas soluciones fuera del marco de posibilidades con el que han sido entrenadas. Si bien 
responden bien a los retos planteados, no son buenas a la hora de plantear nuevos retos, de diseñar 
o inventar nuevas soluciones o de averiguar cuál debe ser el nuevo proyecto u oportunidad a 
explorar a continuación. Es posible que este sea uno de los horizontes qué más tardará en alcanzar 
la IA, si es que lo consigue, ya que para ello se necesita, por un lado, una comprensión profunda e 
interrelacionada de la realidad, y por otro, la capacidad de trabajar “fuera de la caja”, de superar 
los paradigmas con los que ese sistema ha sido creado y entrenado. La IA, de momento, no se 
encuentra cerca de alcanzar ninguno de estos dos objetivos. 
CAJA NEGRA 
Es precisamente esa “caja” la causante

Continuar navegando