Logo Studenta

TFG_GUILLERMO_VAQUERO_DE_MIGUEL

¡Este material tiene más páginas!

Vista previa del material en texto

Universidad Politécnica
de Madrid
Escuela Técnica Superior de
Ingenieros Informáticos
Grado en Ingeniería Informática
Trabajo Fin de Grado
Aproximaciones a la Explicación de
Decisiones Algorítmicas:
Inteligencia Artificial Explicable
Autor: D. Guillermo Vaquero de Miguel
Tutor: D. Luis Magdalena Layos
Madrid, Julio de 2020
Este Trabajo Fin de Grado se ha depositado en la ETSI Informáticos de la
Universidad Politécnica de Madrid para su defensa.
Trabajo Fin de Grado
Grado en Ingeniería Informática
Título: Aproximaciones a la Explicación de Decisiones Algorítmicas:
Inteligencia Artificial Explicable
Julio de 2020
Autor: D. Guillermo Vaquero de Miguel
Tutor: D. Luis Magdalena Layos
Departamento de Matemática Aplicada a las TIC
ETSI Informáticos
Universidad Politécnica de Madrid
Agradecimientos
A mi tutor Luis Magdalena,
quien me ha guiado y ayudado en la realización de este proyecto. Ante todas las
dificultades que se han presentado, siempre ha estado dispuesto a dedicarme su
tiempo y su conocimiento. Gracias por tu apoyo y compañía durante esta bonita eta-
pa la cual hemos compartido.
A mi familia,
quienes han sido culpables de mis éxitos y mi principal apoyo en los momentos
difíciles. En especial, gracias a mi padre y a mi madre por su apoyo incondicional
durante toda mi vida, principalmente a lo largo de esta etapa académica.
3
Resumen
La Inteligencia Artificial Explicable (XAI) supone un conjunto de métodos y técni-
cas desarrollados para transformar la Inteligencia Artificial (AI) en términos de trans-
parencia, auditabilidad y trazabilidad.
Constituye, por tanto, el punto de partida para garantizar la correcta inclusión de la
inteligencia artificial y los algoritmos de aprendizaje automático en nuestra sociedad,
los cuales poseen actualmente un alto grado de incidencia en la misma.
A lo largo del proyecto se han expuesto los motivos que han generado la necesidad
de la aparición de la XAI y, además, se ha profundizado en sus características más
representativas y en los objetivos que persigue. También se han detallado los princi-
pales actores involucrados, así como el papel que realiza en los sectores económicos
más importantes como el sector sanitario, el sector financiero o el sector industrial, o
en los sectores con mayor potencial a futuro como el sector judicial o automovilístico.
Finalmente, se han examinado sus principales condicionantes legislativos y se han
analizado las principales técnicas explicables empleadas actualmente.
Por último, se ha realizado una conclusión en líneas generales de la situación de la
XAI en la actualidad y en líneas futuras.
5
Abstract
Explainable Artificial Intelligence (XAI) is a set of methods and techniques develo-
ped to transform Artificial Intelligence (AI) in terms of transparency, auditability, and
traceability.
It constitutes, therefore, the starting point to guarantee the correct inclusion of AI
and automatic learning algorithms in our society, which currently have a high degree
of incidence.
Throughout the project, the reasons that have generated the need for the appearance
of the XAI have been explained and, also, the most representative characteristics and
the objectives it pursues have been deepened. The main actors involved have also
been detailed, as well as the role it plays in the most important economic sectors,
such as the health, financial and industrial sectors, or in the sectors with the grea-
test potential for the future, such as the judicial and automobile sectors. Lastly, its
main legislative conditions have been examined and the main explainable techniques
currently used have been analysed.
Finally, a general conclusion has been drawn regarding the situation of the XAI at
present and in the future.
7
Tabla de contenidos
Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Abstract . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1. Introducción 13
1.1. Inteligencia Artificial Explicable:
Acercamiento y análisis preliminar. . . . . . . . . . . . . . . . . . . . . . . 13
1.2. Planteamiento del problema y objetivos del proyecto. . . . . . . . . . . . . 14
2. Explicabilidad: ¿qué es exactamente? 15
2.1. Principios básicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.1.1. Fiabilidad del sistema . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.1.2. Causalidad del sistema . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.1.3. Transferibilidad del sistema. . . . . . . . . . . . . . . . . . . . . . . 16
2.1.4. Imparcialidad del sistema. . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.5. Accesibilidad del sistema. . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.6. Interactividad del sistema. . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.7. Responsabilidad del sistema con la privacidad de los datos. . . . . 17
2.1.8. Sistema informativo. . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2. Principales beneficios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.1. Solución de problemas clásicos de sistemas IA. . . . . . . . . . . . 18
2.2.1.1. Sesgo algorítmico de los algoritmos ML. . . . . . . . . . . 18
2.2.1.2. Correlación existente entre la precisión y explicabilidad
del sistema. . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.2. Detección de errores y vulnerabilidades. . . . . . . . . . . . . . . . 19
2.2.3. Incremento del rendimiento. . . . . . . . . . . . . . . . . . . . . . . 19
2.2.4. Transparencia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.5. Aumento de confianza en la Inteligencia Artificial. . . . . . . . . . 20
3. Principales actores relacionados. 21
3.1. Desarrolladores del sistema. . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.2. Expertos con conocimientos previos y usuarios del sistema. . . . . . . . 22
3.3. Personas afectadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.4. Cuerpos regulatorios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.5. Gestor del sistema. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.6. Stakeholders. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4. Principales sectores involucrados. 25
4.1. Sector sanitario. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.1.1. Aplicaciones de la IA en el sector sanitario . . . . . . . . . . . . . . 25
4.1.1.1. Modelos basados en percepción visual. . . . . . . . . . . . 26
9
TABLA DE CONTENIDOS
4.1.1.2. Modelos basados en interpretación matemática. . . . . . 27
4.1.1.3. Modelos basados en el procesamiento y comparación de
datos clínicos. . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.1.2. Actores en el sector sanitario. . . . . . . . . . . . . . . . . . . . . . 28
4.1.3. Factores condicionantes de la IA el sector sanitario. . . . . . . . . 29
4.1.4. Conclusión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.2. Sector financiero. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.2.1. Aplicaciones de la IA en el sector financiero. . . . . . . . . . . . . . 31
4.2.2. Actores en el sector financiero. . . . . . . . . . . . . . . . . . . . . . 34
4.2.3. Factores condicionantes de la IA en el sector financiero. . . . . . . 34
4.2.4. Conclusión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.3. Sector industrial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.3.1. Aplicaciones de la IA en el sector industrial. . . . . . . . . . . . . . 39
4.3.2. Actores en el sector industrial. . . . . . . . . . . . . . . . . . . . . . 40
4.3.3. Factores condicionantes de la IA en el sector industrial. . . . . . . 41
4.3.4. Conclusión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.4. Otros sectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.4.1. Sector Judicial . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . 44
4.4.2. Sector automovilístico. . . . . . . . . . . . . . . . . . . . . . . . . . 45
5. Metodología XAI. 47
5.1. Principales técnicas empleadas. . . . . . . . . . . . . . . . . . . . . . . . . 47
5.1.1. LIME . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.1.2. Árboles de decisión. . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
6. Resultados y conclusiones 55
10
Índice de figuras
1.1. Esquema del funcionamiento de un algoritmo de caja negra (blackbox) . 14
2.1. Ilustración gráfica de la correlación existente entre la precisión y la expli-
cabilidad del algoritmo, y el efecto de la inteligencia artificial explicable
(color verde). [2] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.1. Representación gráfica de los objetivos y las diferentes explicaciones que
puede proporcionar un algoritmo en función de la audiencia a la que
están destinadas. Imagen obtenida en la fuente [4]. . . . . . . . . . . . . 21
4.1. Descripción gráfica de un proceso de decisión mostrando la diferente
influencia de cada variable de entrada. [12] . . . . . . . . . . . . . . . . . 26
4.2. Mapa de calor generado empleando tecnología Grad-CAM. [12] . . . . . . 27
4.3. Representación gráfica de la presencia de los sistemas ML en la cadena
de valor del sector financiero. [31] . . . . . . . . . . . . . . . . . . . . . . . 32
4.4. Explicación proporcionada por el servicio ExpliClas. . . . . . . . . . . . . 33
4.5. Representación gráfica de los organismos reguladores de la ESFS: Eu-
ropean System of Financial Supervision, y las representaciones locales
españolas [34]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.6. Diagrama de barras representando la inversion en billones de euros (bn
EUR) en IA entre 2012 y 2017 en el sector financiero [41] . . . . . . . . . 36
4.7. Representación del creciente número de publicaciones científicas sobre
la inteligencia artificial explicable (XAI) entre 2004 y 2018. [41] . . . . . 37
4.8. Estimación del impacto futuro de la IA en términos de productividad la-
boral, personalización, ahorro de tiempo y calidad en la economía mun-
dial, llegando a alcanzar 15.7 trillones de dólares americanos en 2030.
[28] (PWC) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.9. Representación gráfica de los diferentes factores influyentes en el desa-
rrollo hacia la industria inteligente. [50] . . . . . . . . . . . . . . . . . . . 39
4.10.Representación gráfica del valor añadido bruto (VAB) de la industria al
PIB español (color azul) y al PIB europeo (color amarillo), y el diferencial
entre ambos (diagrama de barras de color rojo). Fuente: Ministerio de
Industria, Comercio y Turismo: MincoTur. . . . . . . . . . . . . . . . . . . 42
5.1. Clasificación de las técnicas XAI más representativas en la actualidad
[41]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.2. Representación gráfica de la explicación generada por LIME para la cla-
sificación de documentos llevada a cabo por la CNN de Google. [5] . . . . 50
11
ÍNDICE DE FIGURAS
5.3. Representación gráfica de la aplicación de LIME a un proceso de predic-
ción fotográfico sobre la presencia de un gato. [72] . . . . . . . . . . . . . 50
5.4. Representación gráfica de la aplicación de LIME a un proceso de pre-
dicción fotográfico sobre la presencia de un perro labrador y diferentes
objetos. Las probabilidad obtenidas fueron: Guitarra eléctrica p=0.32 ,
Guitarra acústica p = 0.24 y Perro Labrador p=0.21. [5] . . . . . . . . . 51
5.5. Árbol de decisión para predecir el consumo de gas de viviendas alema-
nas. El primer número que aparece en cada nodo hace referencia al
consumo estimado de gas en esa rama, mientras que el segundo hace
referencia al porcentaje de viviendas de la muestra que pertenecen a ese
nodo. [73] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.6. Conjunto de reglas lógicas del árbol de decisión de la figura 5.5. [73] . . 53
12
Capítulo 1
Introducción
1.1. Inteligencia Artificial Explicable:
Acercamiento y análisis preliminar.
Hoy en día, la sociedad se encuentra inmersa en un proceso constante de transfor-
mación digital. Las personas, con el fin de optimizar procesos, así como su tiempo y
recursos, delegan decisiones en sistemas dotados de inteligencia artificial, los cuales
obtienen progresivamente un mayor grado de influencia en nuestras vidas.
Entendemos como Inteligencia Artificial el área científica de la informática encar-
gada de la creación de algoritmos y mecanismos automatizados, que mediante su
implantación en un sistema tienen como objetivo optimizar el rendimiento de un pro-
ceso o aumentar las posibilidades de éxito de una tarea.
Este proceso de transformación se ve reflejado tanto en la vida familiar como en la
vida laboral de las personas, y, por ende, es perceptible también a mayor escala: en
múltiples sectores y a diferentes niveles de actuación. Desde el nivel más básico, co-
mo el tratamiento de los datos de cada usuario por parte de los diferentes buscadores
para mostrarle anuncios relacionados con sus intereses, pasando por compañías que
basan, por ejemplo, su proceso de contratación en sistemas que analizan el rendi-
miento a futuro según qué individuos contraten, hasta un nivel más elevado como en
el caso de entidades económicas que delinean su camino a seguir en función de la
taxonomía de los mercados que esbocen los sistemas mencionados anteriormente.
Concisamente, gran parte de las decisiones que influyen en nuestro día a día no son
tomadas por humanos, si no que son tomadas por sistemas inteligentes.
Por lo tanto, ha surgido la necesidad de intentar trazar la estructura de dichos siste-
mas y entender cómo operan los distintos algoritmos empleados, pero su naturaleza
supone un factor limitante para ello puesto que se trata de sistemas opacos, clasifi-
cados como algoritmos de caja negra.
13
1.2. Planteamiento del problema y objetivos del proyecto.
Figura 1.1: Esquema del funcionamiento de un algoritmo de caja negra (blackbox)
Esta terminología proviene del estudio desde el punto de vista de las entradas que
recibe un algoritmo y las salidas que produce sin poder observar su funcionamiento
interno. La Figura 1.1 ilustra esta situación, mostrando cómo la relación entre en-
tradas y salidas del sistema se produce a través de un objeto (Caja Negra) del que
desconocemos su funcionamiento. El término Caja Negra traslada un significado de
opacidad, de no poder ver lo que hay en el interior.
En otras palabras, mediante el uso de estos algoritmos podemos llegar a comprender
qué es lo que hacen, pero no cómo lo hacen, constituyendo así el punto de partida
de la Inteligencia Artificial Explicable (XAI).
1.2. Planteamiento del problema y objetivos del proyecto.
Llegada esta situación, ha surgido la necesidad de explicar los diferentes sistemas
inteligentes que tanto influyen en nuestra sociedad. Es preciso, por ende, conocer
cómo operan los diferentes algoritmos para poder seguir delegando la toma de deci-
siones en ellos.
Conocer cómo las entradas influyen en las salidas; conocer concretamente cómo se
toman las diferentes decisiones, para poder depositar así plena confianza en los
algoritmos, dejando de ser, en consecuencia, algoritmos de caja negra.
De esta forma, es posible saber a ciencia cierta si una decisión tiene sentido o si
una decisión es justa acorde a la regulación pertinente (puesto que las personas
tenemos el derecho a la explicación de las decisiones que nos influyen) así como
otras múltiples ventajas que se analizarán detalladamente a lo largo del proyecto.
El objetivo, por tanto, es crear una serie de técnicas que produzcan modelos expli-
cables a partir de los sistemas de caja negra empleados actualmente tratando de
mantener su nivel de precisión.
Recapitulando, y tal como se ha mencionado anteriormente, a lo largo del documen-
tose revisarán los beneficios de la Inteligencia Artificial Explicable, los diferentes
actores implicados desde un punto de vista generalista, la variación del nivel de expli-
cabilidad según a qué actores esté destinada la explicación, los principales sectores
afectados, las principales técnicas empleadas y la conclusión de cara al futuro de la
Inteligencia Artificial Explicable.
14
Capítulo 2
Explicabilidad: ¿qué es
exactamente?
En el capítulo de Introducción se ha plasmado de dónde surge la necesidad de revelar
cómo operan los diferentes algoritmos para llegar a entender no tan solo qué hacen,
si no cómo lo hacen. Se ha planteado por primera vez el concepto de explicabilidad.
Para ello es necesario establecer un punto común de entendimiento acerca de dicho
término en el contexto de la Inteligencia Artificial.
Este es el objetivo del presente capítulo: esbozar una definición concreta de explica-
bilidad, exponer cuáles son sus principios básicos que la caracterizan y por último,
explicar los diversos beneficios que conlleva.
Uno de los principales problemas que obstaculiza la comprensión del término “ex-
plicabilidad” es la confusión de su acepción con la del término “interpretable”.
Son conceptos que, aunque a priori estén fuertemente relacionados, son plenamente
diferentes. [4]
Entendemos como interpretabilidad la capacidad implícita del sistema que permite
que sea lógico a los ojos del humano que lo observa. Por el contrario, la explicabili-
dad hace referencia a la capacidad ‘activa’ del sistema para llevar a cabo acciones o
procesos concretos que tienen por objetivo detallar su funcionamiento interno.
Es decir, la explicabilidad no se centra en si el diseño de un algoritmo es intuitivo,
lo cual está relacionado con su interpretabilidad, si no que se centra en el comporta-
miento del propio algoritmo para facilitar la comprensión de su actividad intrínseca;
en los detalles o razones que un algoritmo proporciona para clarificar su funciona-
miento. Por ende, un algoritmo puede llegar a ser explicado mediante una serie de
técnicas, pero su interpretabilidad es una característica que parte del diseño del al-
goritmo en sí mismo.
Llegados a este punto, podemos observar que la propia definición de explicabilidad
parte de una ambigüedad puesto que la comprensión de los detalles que pueda pro-
porcionar el algoritmo dependerá de la audiencia a la que esté destinado. Teniendo
en cuenta esta observación, una definición más acertada de explicabilidad en el área
de la Inteligencia Artificial podría ser la siguiente:
15
2.1. Principios básicos
“Partiendo de una audiencia dada, un sistema con IA explicable (XAI) 1.1 es aquel
sistema que produce detalles o razones para clarificar su funcionamiento con el fin de
simplificar su comprensión”. [4]
Esta definición es el producto común de las contribuciones por parte de los principa-
les organismos relacionados, y es la definición a la que se hará referencia a lo largo
del proyecto, asumiendo que el resultado de la aplicación de las diferentes técnicas
que persiguen la explicabilidad de los sistemas radicarán en la audiencia a la que
estén destinados.
2.1. Principios básicos
En los últimos años, los principales organismos han expuesto una serie de metas en
las que se deben centrar los diferentes algoritmos para obtener un mayor grado de
explicabilidad. No obstante, no existe por consenso un criterio común y en ningún
artículo científico se recoge una serie de pautas universales que, tras cumplirlas,
doten al sistema de una explicabilidad mínima.
Por ello, se sintetizan y enumeran a continuación las principales definiciones que
constituyen los principios básicos por los que se debe regir un sistema de Inteligencia
Artificial Explicable [4] [6].
2.1.1. Fiabilidad del sistema
La gran mayoría de los organismos coinciden en que la búsqueda de la fiabilidad del
sistema constituye el primer objetivo de los modelos explicables. La fiabilidad supone
la capacidad del sistema para actuar como está previsto y manteniendo el máximo
nivel de precisión ante cualquier situación problemática, lo cual es indispensable
para la confianza por parte de los usuarios del sistema y afectados por el mismo.
2.1.2. Causalidad del sistema
Otro principio común a múltiples organismos es el encontrar correlaciones entre las
variables involucradas en el proceso de un sistema. La investigación de las relaciones
causales es un campo que se ha estudiado a lo largo del tiempo con el objetivo de
desvelar las relaciones de causa-efecto, lo cual arrojaría luz a la cuestión de cómo
afectan los inputs o causas a los outputs o efectos del algoritmo.
2.1.3. Transferibilidad del sistema.
La transferabilidad de un sistema hace referencia a la posibilidad de trasladar el
entendemiento de sus relaciones causales a otros sistemas similares. Es decir, un
sistema transferible es un sistema que gracias al entendimiento de sus procesos per-
mite reutilizar ese conocimiento en otro sistema parecido, lo cual es posible gracias a
que el sistema original es explicable. No obstante, existen casos en los que el entendi-
miento de un modelo puede acabar en el uso incorrecto de presunciones trasladadas
a otro sistema, por lo que es necesario estar seguros de la relacion directa entre ellos,
pues no todos los sistemas transferibles deben ser considerados explicables.
16
Explicabilidad: ¿qué es exactamente?
2.1.4. Imparcialidad del sistema.
Desde un punto de vista social, la imparcialidad debe ser considerada como la ca-
pacidad del sistema para actuar de forma legítima y no discriminatoria, acorde con
la regulación pertinente de cada país. La incidencia de los algoritmos es cada vez
mayor en el día a día de las personas, condicionando plenamente su vida, por lo que
es absolutamente necesario asumir un comportamiento ético y justo por parte del
algoritmo.
2.1.5. Accesibilidad del sistema.
La explicabilidad de un sistema permite que personas de carácter no técnico puedan,
en un momento dado, aprender a trabajar con un algoritmo que previamente no
podían comprender. Esta característica se conoce como accesibilidad. Un sistema es
accesible cuando usuarios no expertos pueden emplear dicho sistema adaptado a las
necesidades concretas de cada uno.
2.1.6. Interactividad del sistema.
Ciertos organismos incluyen la habilidad de un modelo de ser interactivo con sus
usuarios como uno de los principios a seguir para lograr una correcta explicabilidad.
Mediante la interacción con el sistema, se puede fomentar el correcto entendimien-
to del mismo, lo cual afianza su comprensión y facilita la posterior deposición de
confianza en él.
2.1.7. Responsabilidad del sistema con la privacidad de los datos.
Como se ha explicado anteriormente en el apartado de Imparcialidad del sistema, los
algoritmos cada vez tienen más presencia en el día a día de las personas. Por esta
razón, el uso de los datos obtenidos de las mismas por parte del algoritmo debe ser
siempre responsable y acorde a la regulación pertinente de cada país.
2.1.8. Sistema informativo.
Los sistemas explicables son usados principalmente en el proceso de la toma de deci-
siones de un problema dado. Por lo tanto, es indispensable que el sistema produzca
y facilite toda la información necesaria acerca del problema para poder garantizar el
correcto entendimiento de la situación y poder tomar la decisión más óptima para
cada situación.
2.2. Principales beneficios
A lo largo del documento se ha demostrado que la explicabilidad se ha convertido
en una necesidad imperativa para la sociedad. No obstante, el proceso de explicar
un sistema no sólo satisface tal necesidad, si no que además proporciona múltiples
ventajas.
17
2.2. Principales beneficios
2.2.1. Solución de problemas clásicos de sistemas IA.
2.2.1.1. Sesgo algorítmico de los algoritmos ML.
Uno de los principales problemas que ha afectado a los sistemas machine learning
a lo largo de su historia, y que se soluciona gracias a la ‘apertura’ de su caja negra
es el sesgo algorítmico.
MachineLearning o Aprendizaje Automático es una rama de la inteligencia artificial
cuyo objetivo es desarrollar técnicas que permitan que los algoritmos aprendan. Se
dice que un algoritmo aprende cuando su desempeño mejora con la experiencia; es
decir, cuando adquieren de forma autónoma (sin intervención humana) habilidades que
no estaban presentes en su diseño original. [10]
El sesgo algorítmico, por definición, es un error sistemático que puede incidir en el co-
rrecto funcionamiento del algoritmo produciendo outputs erróneos. Este error parte
de la premisa de que la toma de decisiones en las personas a menudo es defectuosa;
siendo un cúmulo de decisiones mal tomadas o ejecutadas la causa de este error.
La necesidad de eliminar el sesgo es doble: por razones de fiabilidad (que un modelo
esté haciendo lo que debería hacer) y por razones de transparencia y equidad para
los consumidores y demás partes interesadas.
Actualmente, se puede distinguir el sesgo en tres variantes para poder comprender
de dónde procede exactamente: [7] [8]
Sesgo de entrada.
El sesgo de entrada hace referencia al error sistemático en un sistema machine
learning que es producido por la naturaleza de los datos con los que opera. Si los
datos de origen están sesgados porque carecen de ciertos tipos de información
relevante para la toma de decisiones, no son representativos o reflejan sesgos
históricos, el sistema no podrá alcanzar el rendimiento necesario para tomar
decisiones óptimas.
Sesgo de programación.
El sesgo de programación incurre en el proceso de diseño del algoritmo original,
siendo los humanos propensos a escribir en el algoritmo sus propios sesgos de
parcialidad o toma de decisiones defectuosa. Por ende, si el diseño original del
sistema es defectuoso, su funcionamiento también lo será.
Sesgo provocado en el tiempo.
Esta variedad reside en la propia naturaleza de los algoritmos inteligentes: los al-
goritmos machine learning pueden aprender y modificarse a sí mismos a través
de contactos sucesivos con usuarios humanos. Este sesgo se debe a la asimila-
ción de datos existentes o la introducción de datos nuevos, pudiendo dar lugar
a modificaciones incorrectas en el tiempo que sean notorias en los outputs.
2.2.1.2. Correlación existente entre la precisión y explicabilidad del sistema.
Otro de los principales problemas que ha afectado a los sistemas IA durante su desa-
rrollo es la correlación existente entre el nivel de precisión logrado por el sistema
y la complejidad del mismo. En consecuencia, conforme aumenta la complejidad
del algoritmo, disminuye su trasparencia.
18
Explicabilidad: ¿qué es exactamente?
Por esta razón, la inteligencia artificial explicable supone el punto de partida para
tratar de mantener el nivel de precisión de los sistemas machine learning a la vez que
se incrementa la transparencia y disminuye su complejidad, aumentando por tanto
la explicabilidad. Este objetivo se ilustra en la figura 2.1. Sin embargo, es un proceso
complejo que no siempre garantiza mantener el mismo nivel de precisión, pero palia
considerablemente la proporcionalidad inversa entre ambas propiedades.
Figura 2.1: Ilustración gráfica de la correlación existente entre la precisión y la expli-
cabilidad del algoritmo, y el efecto de la inteligencia artificial explicable (color verde).
[2]
2.2.2. Detección de errores y vulnerabilidades.
Gracias a que la explicabilidad de un sistema permite desengranar cada proceso
que se lleva a cabo, la dificultad que conlleva el proceso de detección de errores y
vulnerabilidades en el código del algoritmo se ha reducido considerablemente. De
esta forma, se incrementa la fiabilidad del sistema.
2.2.3. Incremento del rendimiento.
Debido a la opacidad de los sistemas de caja negra, mejorar el rendimiento de los
procesos era una tarea técnicamente imposible. Gracias a la explicabilidad podemos
acceder a un mundo nuevo de posibilidades en el que se puede mejorar drástica-
mente los algoritmos, incrementando de esta forma el rendimiento de los mismos en
todos los sectores involucrados. Por ejemplo, el aumento de rendimiento permitiría
crear una economía más fuerte o sostenible en ciertos países, mejorar la detección de
enfermedades en el sector sanitario, conocer patrones de desarrollo para favorecer el
crecimiento de los lugares más empobrecidos,etc.
19
2.2. Principales beneficios
2.2.4. Transparencia.
La Inteligencia Artificial Explicable no sólo supone un avance para poder ’abrir’ las ca-
jas negras, si no que también se ha convertido en una gran oportunidad de aumentar
la transparencia e imparcialidad de la toma de decisiones basadas en la información
obtenida.
2.2.5. Aumento de confianza en la Inteligencia Artificial.
El hecho de clarificar el funcionamiento de los sistemas fomentará confianza por par-
te de la sociedad en las nuevas tecnologías. De esta forma se delegará más en ellas,
se destinarán cada vez más recursos económicos a su expansión y perfeccionamiento
y de esta forma se permitirá aprovechar el gran margen de beneficios que supone su
uso frente a los posibles riesgos [1].
20
Capítulo 3
Principales actores relacionados.
Observando la definición de explicabilidad propuesta en el apartado 2 ’Explicabili-
dad ¿qué es exactamente?’, podemos comprobar que la explicabilidad es una pro-
piedad que varía en función de la audiencia a la que esté destinada la explicación del
algoritmo.
La interacción con un sistema XAI puede realizarse desde diferentes perspectivas
o roles; de ahora en adelante actores. Cada actor poseerá conocimientos previos
diferentes y tendrán distintos objetivos entre sí. Por ejemplo, con el mismo sistema
interactúan directamente tanto los programadores que lo diseñan o los usuarios que
se apoyan en él para desempeñar su trabajo, así como indirectamente los usuarios
afectados por la toma de decisiones del mismo.
Por tanto, podemos afirmar que cada actor tendrá una interacción concreta con el
sistema, y una ’necesidad de entendimiento’ diferente. La figura 3.1 ilustra esta
idea.
Figura 3.1: Representación gráfica de los objetivos y las diferentes explicaciones que
puede proporcionar un algoritmo en función de la audiencia a la que están destina-
das. Imagen obtenida en la fuente [4].
21
3.1. Desarrolladores del sistema.
A continuación, se realizará una taxonomía general de los principales actores que
interaccionan con un sistema XAI abordando cómo es la ’necesidad de entendimiento’
para cada uno de ellos [4] [3]. Cabe destacar que esta taxonomía variará en función
de cada situación, pudiendo existir diferentes actores a los expuestos.
3.1. Desarrolladores del sistema.
Los desarrolladores son los actores encargados del diseño del algoritmo. Entre sus
objetivos destaca la mejora del rendimiento del sistema, el control de errores, la de-
tección de vulnerabilidades en el código, el incremento de la escalabilidad del sistema
y la posibilidad de realizar modificaciones manuales.
Por ello, estos actores necesitarán un alto grado de explicabilidad para satisfacer
su necesidad de entendimiento, de tal forma que al acceder al código del algoritmo
puedan conocer cómo opera con detalle.
3.2. Expertos con conocimientos previos y usuarios del sis-
tema.
Los expertos con conocimientos previos son los actores que emplean en su campo
de trabajo un sistema ML para mejorar la toma de decisiones en un contexto dado.
Esta toma de decisiones incide directamente en el aumento del rendimiento y pro-
ductividad del ususario, el aumento del valor generado, la automatización de tareas
permitiendo optimizar recursos y tiempo,etc.
Un ejemplo concreto podría ser el de un profesional sanitario que emplee un sistema
ML con el objetivo de diagnosticar una enfermedad con un alto grado de precisión.
Por consiguiente, los expertos con conocimientos previos y a su vez, usuarios de
un sistema ML, necesitarán la explicabilidad necesaria para poder entender cómo
funciona el algoritmo en su dominio de trabajo con el fin de encontrar la mejor forma
de complementarse:conocer qué patrones son usados, conocer la naturaleza de la
toma de decisiones...
3.3. Personas afectadas.
Las personas que ven su vida afectada por las decisiones tomadas por un algorit-
mo son actores de gran importancia puesto que constituyen una de las principales
motivaciones de la explicabilidad: tienen derecho a la explicación acerca de cómo se
ha realizado ese proceso, el cual debe haberse desarrollado de forma justa y con un
tratamiento correcto de sus datos personales.
En consecuencia, las personas afectadas únicamente requieren una explicación su-
perficial de la generación de los outputs (decisiones) del algoritmo que les conciernen
en función de sus input (situación personal de cada una).
22
Principales actores relacionados.
3.4. Cuerpos regulatorios.
A raíz del tratamiento de los datos privados de las personas se convierte en necesaria
la existencia de un cuerpo regulatorio que garantice el correcto funcionamiento del
sistema en todos los ámbitos relacionados: tratamiento pulcro de los datos, regula-
ciones, auditorías... El cuerpo regulatorio aplicará un punto de vista ético al sistema.
En cuanto al grado de explicabilidad, los cuerpos regulatorios exigirán conocer el
funcionamiento del algoritmo con el fin de comprobar si cumple con la legislación
pertinente de cada país en el que opere el sistema.
3.5. Gestor del sistema.
El gestor del sistema es una figura que surge como nexo de unión entre los desarro-
lladores, lo usuarios del sistema y los cuerpos regulatorios. El gestor tiene múltiples
objetivos, entre los que destacan garantizar el correcto funcionamiento del sistema,
asegurar el cumplimiento de la normativa, poner en conocimiento de los desarrollado-
res las necesidades requeridas por los usuarios y transmitir la información pertinente
por parte de los cuerpos regulatorios a los desarrolladores.
Para poder desarrollar sus funciones, los gestores no necesitan un nivel de conoci-
miento tan profundo como en el caso de los desarrolladores (por lo que no necesitan
su mismo nivel de explicabilidad) pero sí lo suficientemente extenso para poder ga-
rantizar una correcta gestión del sistema.
3.6. Stakeholders.
Entendemos como stakeholders a los inversores y demás partes interesadas con áni-
mo de lucro en relación al valor generado por el sistema XAI. Los stakeholders, en
consecuencia, requerirán saber de una forma cuantitativa el valor que genera el sis-
tema XAI en pos de su beneficio.
Respecto al grado de explicabilidad del sistema, los stakeholders no necesitan com-
prender cómo funciona si no que necesitan conocer el funcionamiento desde un pun-
to de vista ecónomico, centrado en el análisis de riesgos, beneficios y ’pros y contras’
de cada modificación al sistema.
23
Capítulo 4
Principales sectores involucrados.
4.1. Sector sanitario.
Recientemente, la IA mediante los sistemas ML ha obtenido protagonismo en el sector
sanitario con un gran volumen de proyectos de investigación basados en el diagnósti-
co automático y en la prognosis de enfermedades. No obstante, se trata de un sector
restrictivo pues a diferencia de otros sectores existen factores limitantes que deben
ser tomados en cuenta.
Las decisiones tomadas en el sector sanitario influyen directamente en la salud de las
personas, por lo que la transparencia debe ser máxima y el riesgo mínimo. Debe ser
posible explicar la toma de decisiones y predicciones del algoritmo para la posterior
comprensión por parte de los expertos, así como garantizar su rendimiento.
Además, a parte de las cuestiones que puedan surgir desde un punto de vista ético
en relación con el tratamiento de los datos y la responsabilidad de las posibles con-
secuencias que puedan surgir, la incidencia de los sistemas ML en el sector sanitario
puede suponer una catástrofe si se desarrolla con intenciones maliciosas.
Por consiguiente, los cuerpos regulatorios pertinentes, en concreto la UE, mediante
el Reglamento General de Protección de Datos (GPDR) 2016/679 [14] basado en el
ISO/IEC 27001 [16], aplicado el 25 de mayo de 2018, dificultó enormemente la pre-
sencia de modelos “blackbox” en este sector y, por tanto, la XAI se ha posicionado
como el punto de partida para satisfacer las necesidades anteriormente mencionadas,
dando lugar a la presencia progresiva de los sistemas ML en el sector sanitario.
4.1.1. Aplicaciones de la IA en el sector sanitario
A continuación, se categorizarán las principales aplicaciones de la inteligencia artifi-
cial, concretamente de de los sistemas machine learning, en el sector sanitario. [12]
[13]
25
4.1. Sector sanitario.
4.1.1.1. Modelos basados en percepción visual.
Esta categoría hace referencia a los sistemas ML que generan imágenes para propor-
cionar a los expertos información interpretable complementaria sobre una cuestión
clínica. Esta información también sirve para justificar su lógica interna. De esta for-
ma, las relaciones causales entre las entradas y salidas del algoritmo son perceptibles
de forma visual, permitiendo comprender con detalle su proceso de decisión tal como
se ilustra en la figura 4.1, la cual muestra cómo un algoritmo predice que un paciente
padece gripe a partir de una serie de síntomas. Además, se muestra como mediante
la aplicación de LIME [2] se destaca la influencia de cada síntoma en la predicción
final.
Figura 4.1: Descripción gráfica de un proceso de decisión mostrando la diferente
influencia de cada variable de entrada. [12]
La información clínica puede mostrarse con imágenes en dos dimensiones (2D) o con
formatos más complejos como NIFTI [20] o DICOM [21], que contiene imágenes en 3D
y hasta en 4D (volúmenes en 3D con evolución espaciotemporal). Esta información no
es fácil de obtener puesto que requiere el consentimiento por parte de los pacientes y
otras barreras burocráticas.
Así mismo, se requiere un gran rendimiento computacional para poder procesar los
datos de manera que no comprometan el análisis. Un ejemplo de esta tecnología es la
tecnología Grad-CAM, que permite generar mapas de calor en 3D obtenidos a partir
de tomografía crioelectrónica celular.
Gradient-weighted Class Activation Mapping (Grad-CAM) [19] es un método que extrae
gradientes a partir de la capa final de una red neuronal convolucional (CNN) [18] y
emplea esa información para destacar las regiones probables y responsables de un
suceso.
26
Principales sectores involucrados.
Las posibilidades de estos mapas de calor son muy extensas, destacando entre ellas
la posibilidad de conocer la localización exacta de células cancerígenas cuando se ha
formado un tumor, o la posibilidad de poder conocer la región exacta de una lesión
celular. En la figura 4.2 se muestra cómo mediante la aplicación de esta tecnología
se localiza la región donde se ha producido una lesión cerebral.
Figura 4.2: Mapa de calor generado empleando tecnología Grad-CAM. [12]
4.1.1.2. Modelos basados en interpretación matemática.
De forma genérica, los modelos matemáticos predefinidos proporcionan de forma
cuantitativa el efecto que tiene una variable de entrada en la salida de un sistema.
Estos modelos se basan en información empírica y en la observación de patrones.
En relación con el sector sanitario, gracias al rendimiento computacional de ciertos
algoritmos ML basados en modelos matemáticos, los expertos pueden tratar de cuan-
tificar (y por consiguiente, llegar a interpretar de forma más precisa) la influencia
de ciertas variables medibles en el paciente en procesos físicos del cuerpo humano.
Por ejemplo, basándose en el modelo cinético del riego sanguíneo expuesto en la
ecuación 4.1 y analizado en profundidad en [22], los expertos pueden conocer de
forma cuantitativa la influencia de variables como la presión arterial1 (la cual se
puede obtener del paciente con facilidad) en el flujo sanguíneo cerebral (CBF) .
CBF = f(ΔM) =
6000βΔMexp(PLDT1b )
2αT1b(SIPD)(1− exp(− τT1b ))
(4.1)
Modelo cinético del flujo sanguíneo cerebral (CBF) en ml/100g/min.
Otro ejemplo es la aplicación de combinacioneslineales [23] para determinar y tratar
de cuantificar el impacto de las variables que influyen en el desarrollo de enferme-
dades mentales como el alzhéimer [24], o para poder determinar el riesgo de padecer
epilepsia a partir de datos extraídos de electroencefalogramas [25].
La información interpretable de estos sistemas reside en los modelos matemáticos
que proporcionan la posibilidad de relacionar y cuantificar variables presentes en
procesos físicos del cuerpo humano como los anteriormente expuestos. Esta infor-
mación se puede proporcionar a los expertos de diferentes maneras en función de la
1La presión arterial es la variable de donde se obtiene ΔM , empleada en la ecuación 4.1,
27
4.1. Sector sanitario.
implementación de cada algoritmo. Actualmente, los formatos más comunes son los
diagramas estadísticos, las tablas y los informes autogenerados.
4.1.1.3. Modelos basados en el procesamiento y comparación de datos clínicos.
Cabe destacar otra perspectiva basada en Case Based Reasoning (CBR), que hace
referencia al proceso de hallar la solución de un problema actual partiendo de las
soluciones empleadas en el pasado problemas similares.
En relación con el sector sanitario, gracias al rendimiento computacional de los siste-
mas ML basados en CBR, existe la posibilidad de procesar, tratar y analizar los datos
clínicos de un paciente para compararlos con todos los casos similares almacenados
en una base de datos de otros pacientes ya curados. [26]
Mediante este proceso, los sistemas ML pueden proporcionar a los expertos los pro-
cedimientos más adecuados (basándose en los datos históricos y en el proceso com-
parativo) para que esta información complemente sus conocimientos con el fin de
realizar el diagnóstico y proporcionar al paciente el tratamiento más conveniente.
Al igual que en el caso anterior, los modelos basados en procesos comparativos pue-
den proporcionar la información interpretable a los expertos mediante diferentes pro-
cedimientos en función de la implementación de cada algoritmo, destacando de igual
manera los diagramas estadísticos y las tablas.
4.1.2. Actores en el sector sanitario.
En la sección 3 "Principales actores relacionados", se ha realizado un análisis sobre
la variación de la importancia de los actores como de la explicación que reciben por
parte de los sistemas ML según el sector que se esté analizando.
En el caso del sector sanitario, el actor principal es el médico, que hace referencia al
experto con conocimientos previos y usuario del sistema. El médico obtiene informa-
ción interpretable por parte del sistema ML, el cual complementa sus conocimientos
y le permite aumentar su rendimiento en su puesto de trabajo.
Otro actor de gran importancia en este sector es el Cuerpo Regulatorio, que se centrará
en cuestiones de privacidad y aspectos éticos, y en caso de una posible negligencia
médica o fallo del algoritmo profundizará en las explicaciones proporcionadas por el
mismo en busca de responsabilidades.
Además, en ciertos sectores sanitarios de índole privada podrían cobrar importancia
los stakeholders en relación al valor generado por las explicaciones en el sector en
pos de su beneficio.
Por otra parte, la postura del paciente que se corresponde con la persona afectada
apenas tiene participación en el sector salvo en cuestiones que necesiten su consen-
timiento directo, como el tratamiento de sus datos. Esto mismo ocurre con el gestor
del sistema al no participar directamente con los sistemas explicables de diagnóstico.
Por último, aunque los desarrolladores no participen activamente con los sistemas,
siempre poseerán cierto protagonismo al ser los encargados de diseñarlos y actuali-
zarlos si es preciso.
28
Principales sectores involucrados.
4.1.3. Factores condicionantes de la IA el sector sanitario.
El principal condicionante de la inteligencia artificial en el sector sanitario se da en
el proceso del tratamiento de las historias clínicas y datos personales del paciente. El
25 de mayo de 2018 entró en vigor el reglamento 2016/679 [14] [15] a nivel europeo,
el cual exige una serie de buenas prácticas con las que se debe ser consistente. Estas
prácticas exigen niveles de transparencia muy altos para poder asegurar el correcto
tratamiento de los datos personales de los pacientes, siendo un impedimento para
los sistemas machine learning debido a su naturaleza ’opaca’.
A continuación, se analizará el reglamento 2016/679 y la norma ISO en la que está
basado.
El 27 de abril de 2016 se presentó en el Parlamento Europeo y Consejo de la Unión
Europea el reglamento 2016/679 perteneciente al Reglamento General de Protección
de Datos. Este reglamento establece mediante el artículo 8, apartado 1, de la Carta de
los Derechos Fundamentales de la Unión Europea («la Carta») y el artículo 16, aparta-
do 1, del Tratado de Funcionamiento de la Unión Europea (TFUE) que toda persona
tiene derecho a la protección de los datos de carácter personal que le conciernan,
siendo un derecho fundamental.
Así mismo, el reglamento 2016/679 está acompañado por el ISO/IEC 27001 [16]
[17], un estándar para la seguridad de la información aprobado y publicado como es-
tándar internacional en octubre de 2005 por la comisión internacional International
Organization for Standardizaion y por la comisión internacional International In-
ternational Electrotechnical Comission. En él, se especifican los requisitos necesarios
para establecer, implantar, mantener y mejorar un sistema de gestión de la seguridad
de la información.
A pesar de ser implantada en 2005, la norma ISO 27001 se ha convertido en una
norma internacional de referencia para gestionar y garantizar la seguridad de la in-
formación en empresas y organizaciones. Esta norma se ha tomado como punto de
partida para el desarrollo de normas que verifiquen el cumplimiento del RGPD, como
la anteriormente expuesta.
En España, en el año 2004 se publicó la UNE 71502 titulada Especificaciones para
los Sistemas de Gestión de la Seguridad de la Información (SGSI) que fue elaborada
por el comité técnico AEN/CTN 71, pero con la publicación del ISO/IEC 270001
dejó de estar vigente, siendo la norma ISO/IEC 27001 la única acreedora de estas
competencias en la actualidad.
Por último, cabe destacar que en el ámbito sanitario existen organismos internacio-
nales que se encargan de asesorar y trazar el camino desde un punto de vista ético
como la Organización Mundial de la Salud (OMS). A nivel nacional, destaca la Orga-
nización Médica Colegial de España.
29
4.1. Sector sanitario.
4.1.4. Conclusión.
Como hemos podido comprobar, la inteligencia artificial, y más concretamente los
algoritmos machine learning (ML), abren un mundo nuevo de posibilidades al sector
sanitario. Se ha demostrado que pueden aportar información interpretable muy útil
para complementar a los expertos del sector con el fin de aumentar su rendimiento y
poder salvar así la vida de más personas.
Sin embargo, tal como se ha explicado en 4.1, la presencia de los sistemas ML en
el sector sanitario no está exenta de riesgos. Además, si el aprendizaje automáti-
co puede llegar a complementar e incluso superar al conocimiento humano, poder
comprender su lógica se convierte en algo básico y prioritario.
Por esta razón, la inteligencia artificial explicable (XAI) se ha convertido en el punto
de partida para minimizar estos riesgos y permitir el avance de esta tecnología en
el sector, la cual se está desarrollando de forma más lenta en comparación a otros
sectores debido a la regulación a la que está sometida.
Cabe destacar que el proceso de explicabilidad es lento y no garantiza una solución
perfecta del problema, quedando aún mucho camino por recorrer y muchos ries-
gos que minimizar. De entre ellos, destaca el sesgo algorítmico analizado en 2.2.1.1
que puede afectar a los sistemas ML del sector sanitario. Si el modelo cuenta con
constantes incompletas, o la información clínica recibida es incorrecta o parcial, la
información generada estará sesgada y no será válida.Por este motivo, a lo largo de
la sección se ha realizado hincapié en que esta información es complementaria al
criterio profesional, siendo este último predominante.
En definitiva, el sector sanitario es un sector que podría verse muy beneficiado por
la inclusión de la inteligencia artificial, pues no debemos olvidar que realizar un
diagnóstico y aplicar el tratamiento necesario a tiempo puede suponer la diferencia
entre la vida o la muerte de una persona. Pese a ello, tampoco debemos obviar que
debe ser un sector restrictivo en el que no se pueden asumir riesgos. Por tanto, el
desarrollo y avance de la XAI y los algoritmos ML será lento pero progresivo, a la vez
que cumple con la regulación pertinente.
30
Principales sectores involucrados.
4.2. Sector financiero.
Uno de los componentes más importantes de la actividad financiera es la competi-
tividad empresarial. Desde su creación, todas las entidades que componen el sector
financiero se ven obligadas a competir en el mercado con sus análogas por lo que
se conoce como ventajas competitivas. Para conseguirlas, las entidades deben evo-
lucionar progresivamente al igual que lo hace la sociedad; adaptarse a las nuevas
necesidades de la población, adaptarse a las nuevas formas de trabajo, adaptarse a
las nuevas tecnologías...
Todo ello ha creado un ecosistema de competitividad feroz entre entidades financieras
que ha fomentado considerablemente la inclusión y adaptación de la IA en el sector,
con el fin de facilitar la obtención de ventajas competitivas y alcanzar posiciones
privilegiadas en el mercado. Por esta razón, el sector financiero se ha convertido
en el sector en el que más se han integrado los sistemas machine learning y, en
consecuencia, es de los sectores más afectados por los condicionantes legislativos y
en los que la XAI tendrá mayor protagonismo.
A continuación, se realizará un análisis acerca de las principales aplicaciones de la
IA, en concreto de los algoritmos ML, en el sector financiero, de los principales actores
involucrados, de los factores condicionantes del sector y, por último, se realizará una
reflexión analizando el papel de la Inteligencia Artificial Explicable de cara al futuro
del sector financiero.
4.2.1. Aplicaciones de la IA en el sector financiero.
Tal como muestra la figura 4.3, los algoritmos machine learning están presentes en
el sector financiero a lo largo de toda la cadena de valor empresarial, desde el back
office hasta el front office , incluyendo el middle office. Esto significa que la presencia
de los sistemas ML se expande a las tres grandes categorías en las que se divide
comúnmente el ciclo de vida de una operación financiera.
En relación con el front office, que es la categoría destinada a la interacción directa
con los clientes mediante la realización de análisis y creación de nuevos productos, la
aplicación de los sistemas machine learning está centrada en mejorar la experiencia
de los usuarios mediante la implementación de sistemas de autenticación biométrica,
asistentes de voz o chat-bots, entre otros.
Respecto al middle-office, que se corresponde con la categoría encargada de dar
soporte al front office para que las operaciones se realicen correctamente acorde
al cumplimiento normativo, destacan las aplicaciones basadas en la prevención del
fraude empresarial, así como el análisis y control de riesgos financieros. También
destacan las aplicaciones que permiten controlar y garantizar la identidad de los
clientes, así como la prevención del blanqueo de capitales.
Finalmente, en referencia al back-office, que es la categoría encargada de todas las
operaciones relacionadas con la gestión empresarial tales como la contabilidad, la
logística o la gestión de recursos humanos, destaca la aplicación de los sistemas ma-
chine learning con el fin de incrementar el rendimiento de los procesos relacionados
con el análisis y procesamiento de datos. Esto permite a su vez incrementar la fiabi-
lidad de todos los procesos relacionados con la gestión del riesgo de las concesiones
de activos, tales como la concesión de créditos o la concesión de seguros, así como
31
4.2. Sector financiero.
procesos de contratación en los que se manejan grandes cantidades de información
sobre los candidatos y las vacantes laborales.
Además, gracias a la capacidad de análisis de estos sistemas, es posible obtener
información relevante acerca del mercado que de otra forma no se podría conseguir,
con el objetivo de incrementar el rendimiento en el mundo de la inversión o en el
asesoramiento financiero, así como en la creación de contratos inteligentes [39].
Figura 4.3: Representación gráfica de la presencia de los sistemas ML en la cadena
de valor del sector financiero. [31]
Respecto a los servicios involucrados, todas las aplicaciones anteriormente expuestas
se podrían clasificar en cuatro servicios destacables: la gestión de capital como
la realización de inversiones, la concesión de activos a terceros como créditos o
seguros, la gestión de recursos humanos como los procesos de contratación y la
gestión de la interacción con el cliente mediante la creación de asistentes de voz o
chat-bots.
Concisamente, la inclusión de los sistemas ML en el sector financiero supone una
revolución en la oferta bancaria con el fin de satisfacer las necesidades individuales
de los clientes, permitiendo una personalización más rápida, escalable y precisa, a la
vez que se incrementan los beneficios económicos de las entidades financieras.
32
Principales sectores involucrados.
Respecto a la progresiva inclusión de la XAI en el sector financiero, la explicabilidad
de los sistemas ML residirá en la capacidad de los mismos para facilitar su trans-
parencia, proporcionando una explicación sobre su lógica interna. Este proceso se
encuentra en pleno desarrollo en consecuencia con la legislación actual (en vigencia
desde 2018), por lo que todavía no existe un criterio sobre cómo un sistema debe pro-
porcionar explicaciones según a qúe actor estén destinadas. Por lo tanto, este proceso
dependerá de la implementación de cada algoritmo y de su actividad concreta.
Entre las soluciones actuales, cabe destacar el uso de modelos de predicción como
los árboles de decisión. Los árboles de decisión [42] son estructuras lógicas que
plasman de forma gráfica y analítica todos los eventos o variables que pueden influir
en el transcurso de un proceso. En el campo de la inteligencia artificial, los árboles
de decisión suponen una herramienta muy útil para explicar la toma de decisiones
de los algoritmos machine learning.
Así mismo, es necesario destacar el uso de sistemas basados en la generación de
explicaciones en lenguaje natural. Estos sistemas son modelos computacionales
que permiten traducir a tiempo real el estado interno, las acciones y las decisiones
tomadas por los sistemas machine learning de forma fácilmente interpretable por las
personas.
Estas dos soluciones las podemos observar implementadas y combinadas en la figura
4.4, que muestra cómo el servicio web ExpliClas [43] provee una explicación concreta
a un usuario del ámbito bancario apoyándose en un árbol de decisión y en una
explicación generada en lenguaje natural del mismo.
Figura 4.4: Explicación proporcionada por el servicio ExpliClas.
33
4.2. Sector financiero.
4.2.2. Actores en el sector financiero.
La presencia de los sistemas ML en el sector financiero es muy extensa, por lo que el
grado de importancia de cada actor variará en función del servicio y del sistema que
se analice.
De forma genérica, en el sector financiero los stakeholders poseen un papel muy
destacable puesto que la principal prioridad en este sector es el beneficio económico.
Por este motivo, los stakeholders requerirán explicaciones adaptadas y relacionadas
con el valor generado por los sistemas ML en sus áreas de actuación.
Por el mismo motivo, tanto los gestores de los sistemas como los usuarios del sistema
con conocimientos previos adquieren cierta importancia debido a que tienen interés
en comprendertales explicaciones. La motivación económica debe estar presente en
todos los niveles jerárquicos de la entidad financiera. De esta forma, todos pueden
comprender cómo opera el sistema con el fin de mejorar su rendimiento laboral.
Otra de las figuras que cobran gran relevancia en este sector es el de las personas
afectadas por las decisiones algorítmicas. Si estas personas cuestionan las decisiones
que les afectan, tienen derecho a una explicación. Por ejemplo, en el caso de las
aseguradoras, si el usuario no entiende por qué se le ha denegado el seguro de su
vivienda, puede requerir una explicación con el fin de entender su situación. De esta
forma, podría tratar de cambiarla y acceder así al seguro. Dicha explicación, como ya
se ha visto en el capítulo 3, deberá estar adaptada a nivel usuario.
Respecto al cuerpo regulatorio y al igual que en otros sectores, recientemente ha co-
brado gran relevancia debido a la progresiva inclusión de los sistemas ML y a la
necesidad de fomentar su transparencia. Concretamente, en el sector financiero, el
cuerpo regulatorio se centra en garantizar los derechos de los consumidores sobre las
decisiones que les influyen (derecho a la explicación), así como garantizar el correcto
tratamiento de sus datos privados. Además, el cuerpo regulatorio también se encarga
de perseguir e impedir el fraude financiero en las diversas entidades.
Por último, aunque no participen activamente en los sistemas ML del sector financie-
ro (análisis de mercados, gestión de riesgos,etc), los desarrolladores siempre estarán
presentes al ser los encargados de diseñar la arquitectura de los sistemas y actuali-
zarlos si fuese necesario una vez llegado el momento.
4.2.3. Factores condicionantes de la IA en el sector financiero.
Los principales condicionantes de la adaptación e inclusión de la IA en el sector
financiero son la falta de transparencia a la hora de explicar cómo los sistemas toman
decisiones, así como la no detección de un posible sesgo algorítmico a tiempo, causas
principalmente ocasionadas por la naturaleza opaca del sistema al operar con un
modelo de caja negra.
Dada esta situación, las entidades financieras podrían realizar prácticas empresaria-
les fraudulentas motivadas por su ánimo de lucro, aprovechando el desconocimiento
de la influencia de las variables de entrada en la salida de los algoritmos.
Otra de las barreras que se ha convertido en objeto de regulación por parte de los
sistemas encargados es la imparcialidad de los sistemas a la hora de operar. Un claro
ejemplo de esta práctica es la acusación (y posterior condena) a la empresa tecno-
34
Principales sectores involucrados.
lógica Apple con relación a sus líneas de crédito. Se demostró que Apple empleaba
algoritmos sesgados para establecer límites de crédito, y como resultado, las muje-
res eran discriminadas por razón de género. Se llegó a estimar que los hombres que
solicitaban la Apple Card recibían entre 10 y 20 veces más crédito que sus esposas.
[9].
En Europa, los cuerpos regulatorios encargados, concretamente el ESFS (European
System of Financial Supervision), han centrado su actividad en garantizar los dere-
chos de los usuarios o consumidores de los distintos servicios del sector financiero
en los que los sistemas machine learning tienen presencia.
Para ello, el ESFS está compuesto por varias autoridades de supervisión (figura 4.5)
entre las que se encuentran la Autoridad Europea de Valores y Mercados (ESMA); la
Autoridad Bancaria Europea (EBA); la Autoridad Europea de Seguros y Pensiones de
Jubilación (EIOPA); la Junta Europea de Riesgo Sistémico (ESRB) y el Banco Central
Europeo.
A nivel local, el sistema está representado por el Banco de España (con poderes de-
legados), la Comisión Nacional del Mercado de Valores (CNMV), el Servicio Ejecutivo
de la Comisión de Prevención del Blanqueo de Capitales e Infracciones Monetarias
(SEPBLAC), el Fondo de Garantía de Depósitos en Entidades de Crédito (FDG) y el
Fondo de Reestructuración Ordenada Bancaria (FROB). [34].
Figura 4.5: Representación gráfica de los organismos reguladores de la ESFS: Euro-
pean System of Financial Supervision, y las representaciones locales españolas [34].
Entre las medidas más importantes aprobadas por estos organismos con influen-
cia en los sistemas machine learning del sector financiero destacan normativas para
el control de los servicios de pago como PSD2 [37] (instaurada en España median-
te el real decreto-ley 19/2018) o normativas para el control del fraude y seguridad
financiera, como por ejemplo AMLD [38] (Anti-money Laundering / Prevención del
blanqueo de capitales) o reglamentos de la GDPR (analizada en 4.1.3).
35
4.2. Sector financiero.
Cabe destacar que la supervisión y la regulación de los sistemas ML en el sector
financiero se encuentran en el corazón de la agenda actual de la Unión Europea, con
el objetivo anteriormente mencionado: salvaguardar la integridad y transparencia
en la operativa europea y mantener la estabilidad financiera en la UE.
4.2.4. Conclusión.
Considerando el valor añadido que proporciona la Inteligencia Artificial (IA) al sector
financiero, resulta intuitivo comprender por qué se ha adaptado tan rápido en la
industria financiera a nivel global.
La inteligencia artificial, mediante los algoritmos ML, tiene la habilidad de operar con
cantidades ingentes de datos en tiempo real y procesarlos sin importar la estructura
de estos. Además, cabe destacar que este proceso lo lleva a cabo de una forma más
rápida que los humanos, siendo además menos propensa a cometer errores.
Esta adaptación la podemos observar representada en la figura 4.6, en donde se
muestra cómo ha aumentado con el paso de los años la inversión en esta tecnología
hasta el punto de triplicarse entre 2016 y 2017.
En consecuencia, los cuerpos regulatorios han comprendido la necesidad de regular
estas prácticas con el fin de garantizar que los algoritmos permanezcan transparentes
y no apliquen sesgos que puedan afectar gravemente a la sociedad.
Figura 4.6: Diagrama de barras representando la inversion en billones de euros (bn
EUR) en IA entre 2012 y 2017 en el sector financiero [41]
Por esta razón, las tecnologías XAI están cobrando progresivamente más importancia
y desempeñarán un papel fundamental en un escenario que ya podemos conside-
rar más presente que futuro. Esta idea se ve reflejada en la figura 4.7, donde se
muestra cómo los trabajos de investigación relacionados con la XAI han aumentado
considerablemente los últimos años.
De igual forma, podemos probar este hecho atendiendo a los últimos documentos
presentados en el Parlamento Europeo en febrero de 2020 [35] y [36]. En ellos, se ex-
plica cómo debe adaptarse Europa al proceso de explicabilidad así como la estrategia
europea de cara a las nuevas posibilidades ofrecidas por el tratamiento y procesado
de datos de manera responsable y transparente.
36
Principales sectores involucrados.
Figura 4.7: Representación del creciente número de publicaciones científicas sobre la
inteligencia artificial explicable (XAI) entre 2004 y 2018. [41]
Concisamente, la XAI se ha posicionado como la principal solución de los problemas
actuales de la IA en el sector financiero. Supone un conjunto de buenas prácticas
a las que atenerse para satisfacer las necesidades y garantizar los derechos de los
usuarios, a la vez que se incrementa el rendimiento de los sistemas ML en el sector
y, además, gracias a la transparencia obtenida se fomentará la confianza por parte
de la población en los sistemas ML, facilitando aún más su crecimiento e influencia
en la economía a nivel mundial, tal y como se puede comprobar en la figura 4.8.
Figura 4.8: Estimación del impacto futuro de la IA en términos de productividad
laboral, personalización, ahorro de tiempo y calidad en la economía mundial, llegando
a alcanzar 15.7 trillones de dólares americanos en 2030. [28] (PWC)
37
4.3. Sector industrial.
4.3. Sector industrial.
Con el paso del tiempo, la humanidad ha realizado avancestecnológicos que han
tenido gran influencia en el transcurso de la historia, iniciando de esta forma impor-
tantes cambios socioeconómicos en la sociedad. Por este motivo, actualmente distin-
guimos tres revoluciones industriales, cada una motivada por el descubrimiento y la
implantación de nuevas tecnologías.
La Primera Gran Revolución Industrial, iniciada en la segunda mitad del siglo XVIII,
constituyó un gran proceso de transformación en términos económicos, sociales y
tecnológicos. Citando a Robert Emerson Lucas, premio Nobel en Ciencias Económi-
cas, “por primera vez en la historia, la calidad de vida de la sociedad experimentó
un gran crecimiento sostenido que ningún economista clásico pudo prever, ni siquiera
como una posibilidad teórica”. Dicha revolución se basó principalmente en la mecani-
zación de tareas y en el desarrollo de nuevas tecnologías como la máquina de vapor,
la energía eléctrica o la energía hidráulica. [44]
La Segunda Revolución Industrial, iniciada a finales del siglo XIX, estuvo motivada
por diversos avances, tales como nuevas fuentes de energía obtenida a partir del gas,
el petróleo o la electricidad, el descubrimiento de nuevos materiales como el acero, el
cobre, el níquel y el zinc, el desarrollo de la industria química y el progresivo avance
de la mecanización de procesos que daría lugar a la producción en masa gracias a
las cadenas de montaje. [45]
Por último, la Tercera Revolución Industrial, también conocida como revolución cien-
tífico tecnológica (RCT), fue reconocida por primera vez en Parlamento Europeo en
2006, siendo el principal promotor Jeremy Rifkin. Está considerada como la única
solución a la actual crisis energética y económica, presente a nivel global, y está
motivada por el avance de las tecnologías de las comunicaciones, el desarrollo de
internet, la automatización de procesos y el avance e implantación de las energías
renovables. [46]
Actualmente, los expertos intuyen el inicio de una Cuarta Revolución Industrial entre
la segunda y la tercera década del siglo XXI, siendo la Inteligencia Artificial el
elemento central de esta transformación, relacionada a su vez con el tratamiento
de cantidades ingentes de datos, la implementación de algoritmos machine learning
para procesarlos, y la interconexión masiva de sistemas y dispositivos digitales (IoT
[48]). Por ende, la Inteligencia Artificial Explicable se ha posicionado como un pilar
básico y un requisito necesario en la Industria 4.0 (término que hace referencia a esta
Cuarta Revolución [47]).
A continuación, se realizará un análisis acerca de las principales aplicaciones de
la IA, concretamente de los sistemas machine learning en el sector industrial, de
los principales actores involucrados, de los factores condicionantes del sector y, por
último, se realizará una conclusión analizando el papel de la Inteligencia Artificial
Explicable de cara al futuro del sector industrial: Industria 4.0.
38
Principales sectores involucrados.
4.3.1. Aplicaciones de la IA en el sector industrial.
Al igual que el sector financiero, el mundo de la industria también se rige por un
mercado competitivo en el que las fábricas más productivas adquieren las mayores
ventajas competitivas. Por tanto, el principal objetivo de las entidades industriales
es, y siempre ha sido, incrementar el rendimiento de sus procesos economizando
recursos, y sin disminuir beneficios.
Este ecosistema competitivo ha facilitado enormemente la inclusión de la IA y los
algoritmos ML en el sector con el fin de crear “fábricas inteligentes” o sistemas ciber-
físicos [49] que persigan dicho objetivo.
A continuación, se destacan algunas de las aplicaciones de los sistemas ML más
importantes, las cuales se pueden comprobar en la siguiente figura 4.9:
Figura 4.9: Representación gráfica de los diferentes factores influyentes en el desa-
rrollo hacia la industria inteligente. [50]
Para realizar el análisis, se analizarán las aplicaciones en el sector industrial en tér-
minos de diseño (soluciones e innovacion inteligente), fabricación (fabrica inteligente),
logística, y venta (cadenas de suministro inteligentes). [51].
En términos de diseño, gracias a los sistemas ML es posible realizar el tratamiento,
análisis, y posterior diagnóstico de grandes cantidades de información para llegar a
predecir las necesidades actuales y futuras del cliente. De esta forma, las industrias
pueden conocer las características de la demanda del cliente que deberá satisfacer
la oferta del producto, orientando y facilitando el diseño. Así mismo, las industrias
pueden adaptar el producto a cada tipo de cliente en función de sus necesidades
específicas. Por ende, se rechaza el diseño de productos genéricos y se opta por un
diseño personalizado más eficiente.
En términos de fabricación, en el caso de las cadenas de montaje, gracias a la im-
plementación de los algoritmos ML y a las redes neuronales convolucionales (CNN)
[18], es posible detectar imperfecciones en las líneas de producción, con el fin de
corregirlas y mejorarlas automáticamente. Estas imperfecciones, por norma general,
39
4.3. Sector industrial.
son muy difíciles (y en algunos casos, imposibles) de detectar por los humanos, sien-
do necesario en cualquiera de los casos un alto nivel de experimentación. De igual
forma, gracias a los sistemas ML es posible flexibilizar la producción de las cadenas
de montaje adaptándose a la demanda de los clientes en tiempo real. Esto permite
realizar producciones escasas, empleando la cantidad necesaria de producto y obte-
niendo tiempos de respuesta más rápidos. Por último, cabe destacar que no sólo no
aumentan los costes, sino que se reducen, gracias a que el proceso de fabricación es
más eficaz y sostenible.
En términos de logística, los sistemas ML permiten la total interconexión de los
modelos logísticos, automatizando procesos y reduciendo al máximo la intervención
humana. De esta forma, las grandes entidades industriales son capaces de manejar
tanto el inventario como su stock de forma automatizada, dando servicio y sirviendo
productos en un margen de tiempo muy reducido y con muy poco margen de error. Un
ejemplo de esta idea es la empresa multinacional Inditex, que gracias a un modelo
logístico inteligente es capaz de garantizar el abastecimiento en todas sus tiendas
de Europa en 24 horas (o como máximo en 36), y todo ello de forma plenamente
automatizada [52].
Finalmente, en términos de venta y distribución de los productos, la industria in-
teligente es capaz de predecir hábitos de consumo de los clientes para fijar precios
de forma dinámica y tratar de obtener así el máximo beneficio posible. Esto se debe
al tratamiento de los datos anteriormente mencionado. De la misma forma, las in-
dustrias garantizan una conexión real entre la entidad industrial y el cliente, dando
lugar a una distribución más eficaz y ágil, y facilitando a su vez un servicio postventa
más eficiente y personalizado.
Por último, y en referencia a la progresiva inclusión de la XAI en el sector industrial,
destaca el uso de árboles de decisión y de explicaciones generadas en lenguaje natural
que permitan justificar de manera interpretable la toma de decisiones automatizada
(al igual que en el sector financiero, analizados en 4.2.1). Así mismo, también cabe
destacar el uso de diagramas interpretables, basados en reglas causales y análisis
estadísticos de Bayes [53].
4.3.2. Actores en el sector industrial.
Antes de analizar los actores del sector industrial es necesario destacar que la rela-
ción proveedor-cliente es la base del sector, siendo algo común a todas las entidades
industriales, sea cual sea su tipo de actividad o producción. Existe, por tanto, una
relación motivada por ánimo de lucro entre los clientes y su demanda producida, y
los proveedores (industrias) que deben satisfacerla.
Por esta razón, y desde un punto de vista común a todas las entidades industriales,
uno de los actores principales en el sector industrial serán los stakeholders. Los
stakeholders requeriránexplicaciones adaptadas y relacionadas con el valor generado
por los sistemas ML en cuanto a la elecciones influyentes en los bienes producidos, y
en consecuencia, en los beneficios obtenidos. Un ejemplo de estas decisiones podría
ser la elección de los materiales, de los proveedores, de las técnicas de producción,etc.
Por la misma razón, tanto los gestores del sistema como los usuarios del sistema con
conocimientos previos cobran gran importancia debido a que ellos necesitan también
comprender dichas explicaciones para poder entender el nuevo proceso de produc-
40
Principales sectores involucrados.
ción y mejorar tanto el rendimiento de los procesos como su propio rendimiento
laboral.
Así mismo, los cuerpos regulatorios han ido cobrando gran importancia debido al
constante desarrollo de los algoritmos ML en el sector industrial. En vista de la próxi-
ma revolución industrial dando lugar a la industria inteligente, los cuerpos regulato-
rios ya han comenzado a establecer las bases y trazar la ruta de la misma garantizan-
do la defensa de los derechos de la sociedad, en términos de sostenibilidad energética,
impacto ambiental y tratamiento de datos personales de los usuarios afectados.
Otra de las figuras relevantes en el sector son los usuarios afectados, puesto que en
función de su demanda y su consumo dictaminarán las producciones de las fábricas.
No obstante, como el usuario no está relacionado directamente con el proceso de
producción y, además, la decisión de consumir un producto únicamente depende de
él, no tendrá mucha presencia en el ámbito de las explicaciones salvo en cuestiones
propias relacionadas con el tratamiento de sus datos personales.
Finalmente y al igual que en todos los sectores, los desarrolladores siempre estarán
presentes al ser los encargados de diseñar la arquitectura de los sistemas y actuali-
zarlos si fuese necesario.
4.3.3. Factores condicionantes de la IA en el sector industrial.
A lo largo del desarrollo del proyecto hemos observado cómo Europa, mediante los
organismos reguladores encargados, pretende liderar la “humanización” de los siste-
mas inteligentes, garantizando la protección de los derechos de la sociedad frente al
desarrollo de la IA y los algoritmos ML.
Por tanto, en el sector industrial y al igual que en otros sectores, la transparencia, la
comprensibilidad, la rendición de cuentas y la responsabilidad serán características
básicas en los sistemas dotados de inteligencia artificial, siendo la XAI el punto de
partida indispensable para obtenerlas.
Actualmente, existen leyes comunes que regulan la actividad de los algoritmos ML
en todos los sectores, como la GDPR (Reglamento General de Protección de Datos,
analizada en 4.1.3) o el ISO 27001, un estándar para la seguridad de la información
(también analizado en 4.1.3).
En el sector industrial en cuestión, existen organismos reguladores tanto a nivel na-
cional como a nivel europeo. A nivel nacional, destaca la especificación 0061:2019
de la UNE (Asociación de Normalización Española), la cual recoge una serie de pautas
y requisitos indispensables para la digitalización de la Industria [54]. A nivel interna-
cional, existen normativas que condicionan el desarrollo de la industria inteligente en
términos de eficiencia energética, desarrollo sostenible y neutralidad climática como
el Reglamento Europeo 2017/1369 [55]. También cabe destacar el ISO-TS 15066
que, complementándose con la UNE 10218-1 y 10218-2, constituye un conjunto de
normas que regulan los robots industriales [56].
No obstante, todavía no se ha alcanzado un consenso acerca de la ruta a seguir por
la Industria 4.0 en Europa, por lo que establecer las bases de su desarrollo es un
objetivo actual de gran prioridad en la agenda europea. [57]
41
4.3. Sector industrial.
4.3.4. Conclusión.
El desarrollo y la inclusión de la tecnología en la última década (en especial de las
tecnologías de la información y la comunicación: TIC’s) y su aplicación a los procesos
industriales, ha conducido al surgimiento de una nueva etapa industrial denominada
Industria 4.0.
El objetivo de esta revolución es el de crear fabricas inteligentes que primen la co-
nectividad y la flexibilidad de sus procesos industriales. De igual forma, las fábricas
inteligentes deben ser predictivas para poder estimar la demanda futura en pos de
un correcto suministro. Por último, y no menos importante, sus decisiones deben ser
transparentes acorde a la regulación pertinente, por lo que la justificación de la toma
de decisiones será un requerimiento indispensable para su desarrollo.
En consecuencia, la XAI se ha posicionado como la herramienta necesaria para lograr
una correcta revolución hacia la industria 4.0.
Cabe destacar que esta transición, a parte de estar motivada por el desarrollo tec-
nológico en sí mismo, está también motivada por intereses económicos a nivel in-
ternacional. Tal y como podemos observar en la siguiente figura 4.10, la aportación
del sector industrial al PIB de la eurozona no ha parado de disminuir en los últimos
años.
Por ello, la Comisión Europea [58] ha transmitido la necesidad de transformar la
industria hacia una nueva revolución que permita recuperar la competitividad in-
dustrial y alcanzar el bienestar económico europeo.
Figura 4.10: Representación gráfica del valor añadido bruto (VAB) de la industria
al PIB español (color azul) y al PIB europeo (color amarillo), y el diferencial entre
ambos (diagrama de barras de color rojo). Fuente: Ministerio de Industria, Comercio
y Turismo: MincoTur.
42
Principales sectores involucrados.
Concisamente, los esfuerzos de la eurozona serán constantes para garantizar la tran-
sición hacia la industria 4.0, incluyendo así las bases de la inteligencia artificial
explicable y contribuyendo a su desarrollo.
43
4.4. Otros sectores
4.4. Otros sectores
A continuación, se analizarán sectores en los que la implementación de la IA no
está tan desarrollada como en el sector sanitario, financiero o industrial, pero que
albergan gran potencial de cara al desarrollo de la inteligencia artificial explicable en
el futuro.
4.4.1. Sector Judicial
El sector judicial ha sido uno de los sectores que ha valorado la posibilidad de apro-
vechar los beneficios de la IA y los algoritmos ML con el fin de facilitar la toma de
decisiones judiciales. Conjuntamente, la implementación de esta nueva tecnología
podría servir para desbloquear los extensos trámites burocráticos asociados a este
sector.
En otras palabras, los algoritmos ML podrían ayudar a los organismos encargados
(jueces, forenses, criminólogos, administrativos. . . ) a llevar a cabo su actividad labo-
ral mediante la comparación y el análisis de grandes cantidades de datos, proporcio-
nando una valoración precisa y fiable de cada caso en cuestión.
La motivación que ha facilitado el avance de esta tecnología en el sector se debe
principalmente a que a menudo los acusados cuestionan y recurren las decisiones
de los organismos judiciales basándose en criterios como la subjetividad, sesgo o
corrupción de los mismos. Adicionalmente, este hecho genera que se alarguen en
gran medida los procesos judiciales desde su inicio hasta su resolución. [63]
Por esta razón, se valoró la posibilidad de apoyarse en la precisión y objetividad de los
algoritmos machine learning puesto que son capaces de proporcionar información de
utilidad a los organismos encargados y llevar a cabo una resolución judicial completa.
Un ejemplo de esta implementación es el algoritmo COMPAS, desarrollado por la com-
pañía Northpointe (actual Equivant). COMPAS es un algoritmo creado para evaluar el
riesgo potencial de reincidencia de una persona basándose en su historial delictivo,
análisis psicológicos y patrones de conducta, y ha sido utilizado por las cortes de
EEUU en los estados de Nueva York, Wisconsin, Florida y California. No obstante, se
desconoce cómo opera exactamente por secreto empresarial, por lo que no es posible
cuestionar sus estimaciones, lo que ha generado polémica y

Continuar navegando